L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 066 résultats.
Mission freelance
Consultant Ivalua
DEVIK CONSULTING
Publiée le
Azure Data Factory
Finance
Ivalua
2 ans
650-800 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un consultant Ivalua pour rejoindre le département Global Support Functions Application. Le consultant aura pour rôle de superviser le support de certaines application Finnance et apporter une expertise sur l’application Ivalua Mission principale : Le/La candidat(e) retenu(e) sera responsable de la bonne fourniture des services, de la maintenance technique et fonctionnelle ainsi que des évolutions futures des applications Finance et produits qui lui seront attribués, notamment :. Ivalua , en particulier les fonctionnalités SRM, S2C et P2P . Le démarrage du RUN pour les premiers pays et fonctionnalités est prévu tout début 2026 . Cette expertise est obligatoire afin d’assurer le RUN en tant qu’administrateur(trice) de la plateforme. Le/La candidat(e) devra posséder : une certification niveau 2 (L2) pour l’administration fonctionnelle générale, une certification niveau 3 (L3) spécifique à la configuration des modules et des intégrations. De plus, la certification Project Release Manager (PRM) serait fortement appréciée. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres produits mentionnés ci-dessous seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12 . La connaissance des applications suivantes pourrait également être un plus : Generix , en particulier le module Generix Invoices Service . Le démarrage du RUN pour le premier pays, est prévu début 2026 . SideTrade (Augmented Cash et plusieurs autres modules optionnels). Le RUN de plus de 10 pays devra être maîtrisé et mis sous contrôle. Azure Data Factory (ADF) , utilisé comme middleware pour connecter certaines applications à l’ERP Groupe. Lieu : Paris
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Offre d'emploi
Chef de Projet IT Senior (Programme Data International)
Gentis Recruitment SAS
Publiée le
BI
KPI
Microsoft Excel
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation des systèmes d’information, un grand groupe international du secteur de l’énergie renforce son équipe IT afin de piloter un programme data transversal à l’échelle internationale. Le projet vise à structurer et industrialiser la gestion des données B2B au sein de plusieurs entités du groupe, en mettant en place des standards communs de gouvernance, de qualité de données et de reporting. L’objectif est de disposer d’une source de données fiable et harmonisée permettant d’améliorer la prise de décision dans plusieurs domaines : ventes, opérations, finance, gestion des risques et conformité carbone. Le programme s’inscrit dans un contexte international impliquant plusieurs pays et nécessite une coordination forte entre équipes métiers, équipes IT et responsables data. Missions principales Le consultant interviendra en tant que Chef de Projet IT Senior et aura pour responsabilités principales : Piloter la mise en place d’indicateurs et de métriques de performance sur plusieurs entités internationales Assurer l’onboarding et la coordination des différentes parties prenantes du programme Garantir le respect des objectifs projet en termes de périmètre, planning, budget et qualité Assurer la coordination entre les équipes IT, les architectes et les équipes métiers Piloter les processus de communication, gestion des risques, gestion des incidents et gestion du changement Superviser la livraison des développements IT conformément à la roadmap définie Produire les reportings et préparer les instances de gouvernance du programme Participer à la structuration de la gouvernance data et à l’alignement entre les différents streams du programme Livrables attendus Plan de suivi du projet Reporting d’activité et indicateurs de performance Tableaux de bord KPI Suivi de l’avancement des développements Documentation de gouvernance et supports pour les comités de pilotage Roadmap et plan de déploiement du projet à l’international Compétences techniques requises Gestion de projet IT (plus de 10 ans d’expérience) Pilotage de programmes internationaux Reporting et mise en place de KPI Plateformes décisionnelles et outils de reporting Modélisation de données Maîtrise avancée des outils bureautiques (Excel notamment) Compétences fonctionnelles Expérience significative dans des projets data ou BI Bonne compréhension des architectures fonctionnelles et des systèmes d’information Expérience de déploiement de projets dans des environnements internationaux Capacité à piloter des transformations impliquant plusieurs entités Compétences comportementales Leadership et capacité à embarquer les équipes Excellente communication écrite et orale Forte capacité d’analyse et de structuration Capacité à travailler dans un environnement complexe et évolutif Aptitude à coordonner des équipes multidisciplinaires Langues Anglais courant indispensable Français apprécié
Mission freelance
CP/PO Expert CARL
Mon Consultant Indépendant
Publiée le
Gestion de projet
12 mois
570-590 €
Paris, France
Le besoin porte sur un profil de Chef de projet/PO senior , capable d’évoluer à l’interface entre les équipes métiers et les équipes SI dans un environnement GMAO complexe et fortement interfacé. Il doit conjuguer des compétences en pilotage de projet, gestion de backlog et coordination multi-acteurs, tout en disposant d’une bonne compréhension des enjeux techniques (architecture, interfaces, data). Sa capacité à structurer les besoins, sécuriser les développements et garantir la cohérence globale du SI constitue un facteur clé de réussite de la mission. Critère : Expertise Solution Maîtrise confirmée de CARL Source et CARL Touch . Expérience : Projets GMAO menés de bout en bout dans de grands groupes industriels. Savoir-faire : Pilotage de projet transverse, gestion de backlog agile, capacité à challenger l'intégrateur. Posture : Maturité en environnement complexe, capacité de dialogue avec des interlocuteurs variés (DSI, métiers, éditeurs).
Mission freelance
Architecte fonctionnel & applicatif – Supply Chain (H/F)
ALLEGIS GROUP
Publiée le
Architecture
12 mois
Hauts-de-Seine, France
Teksystems recherche pour l'un de ses clients grand compte un(e) Architecte fonctionnel & applicatif – Supply Chain (H/F) Les tâches : Accompagner les équipes de ce programme dans la conception et la mise en oeuvre : - Cadrage de l’architecture sur l'ensemble des périmètres et préparation des décisions en Design Authority. - Description de l'architecture applicative des prochains paliers (essentiellement applications et échanges inter-applicatifs) - Mise à jour régulière de la trajectoire d'architecture Vous travaillerez en collaboration avec un architecte technique et le System Architect du domaine Supply Chain ainsi que toutes autres parties prenantes. Vous serez amené à intervenir sur d'autres projets de la Supply Chain ou d'autres domaines en fonction de vos disponibilités et des besoins.
Mission freelance
Signe + recherche : Un(e) Consultant(e) technico fonctionnel SAP APO - Lille
Signe +
Publiée le
SAP SD
3 ans
Villeneuve-d'Ascq, Hauts-de-France
Bonjour, Nous recherchons un(e) consultant(e) expérimenté(e) technico-fonctionnel(le) SAP APO pour un client majeur du secteur Retail en région lilloise : Mission : Assistance technique dans un environnement SAP digital, contexte retail international avec enjeux forts sur la planification et la gestion de la supply chain. Expertise : Profil confirmé, maîtrise du module APO , capacité à intervenir sur les aspects fonctionnels et techniques dans un environnement complexe. Date de démarrage : ASAP Durée : Mission longue (3 ans) Localisation : Région lilloise (59) Télétravail : Hybride — 3 jours sur site / 2 jours en télétravail TJM : Selon profil (environ 450€ tous frais inclus) Vous êtes intéressé(e), merci de bien vouloir nous envoyer votre CV par mail à . Bien cordialement, Célian Mahieu Signe +
Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)
Pickmeup
Publiée le
Dataiku
Numpy
Pandas
2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Offre d'emploi
Consultant Pilotage de la Performance Sénior (F/H) - CDI
Audensiel
Publiée le
Microsoft Project
Prince2
Retour sur investissement (ROI)
50k-58k €
Paris, France
📌 À propos de VONA VONA, entité cyber du groupe Audensiel, est un cabinet de conseil spécialisé en cybergouvernance, qui accompagne les directions générales, RSSI, DSI et métiers à structurer, piloter et déployer une gouvernance de la sécurité de l'information créatrice de valeur, alignée sur les objectifs business et les risques prioritaires. Ta mission Dans un contexte de forte croissance, nous renforçons nos compétences en réponse à notre stratégie de développement et aux besoins de nos clients. Tu rejoins VONA en tant qu'expert·e de référence en Pilotage de la Performance ou des Programmes IT — sans rattachement exclusif à une practice. Ton périmètre principal portera sur le pilotage économique et/ou programmatique des DSI, avec la possibilité d'intervenir sur d'autres volets connexes (gouvernance IT, transformation, FinOps, conduite du changement) selon les missions, les priorités clients et ton appétence. Tu accompagnes nos clients — directions générales, DSI, DAF et métiers — dans la structuration et le pilotage de leur performance IT : Modéliser les coûts IT (TCO, TBM/ABC) et construire des modèles de pricing/billing adaptés ; Piloter des programmes complexes sur l'ensemble du cycle de vie (cadrage, build, transition, run) ; Concevoir et industrialiser des dashboards de pilotage orientés valeur (Power BI, Excel) ; Conduire des analyses de risques, identifier les adhérences inter-projets et proposer des plans de mitigation ; Animer la gouvernance et les comités de pilotage (COPIL, CODIR) auprès d'interlocuteur·rices C-Level (CIO, CFO) ; Construire des business cases et des analyses ROI pour éclairer les décisions d'investissement.
Mission freelance
Mission Freelance – Consultant Test & Validation / Non‑Régression & Patching (AFIS – Fingerprint)
Tenth Revolution Group
Publiée le
Bash
Linux
OS Windows
7 mois
Île-de-France, France
Dans le cadre d’un renfort en assistance technique au sein d’un acteur majeur des solutions d’identité / biométrie, nous recherchons un(e) Consultant(e) Test & Validation pour intervenir sur un environnement AFIS (Automated Fingerprint Identification System) , avec une forte orientation support, validation de correctifs et qualité . Contexte & objectifs Vous intervenez sur des applications AFIS utilisées pour l’ identification par empreintes (tenprint, latentes, paumes…), où la qualité, la traçabilité et la sécurité des mises à jour sont essentielles. Livrable attendu : reporting mensuel ( OTD mensuel ). Missions principales Réaliser des campagnes de tests de non‑régression . Exécuter des tests de patches (fonctionnels & sécurité) et vérifier l’absence de régressions. Mener des tests fonctionnels et participer aux tests liés aux vulnérabilités . Valider des procédures et des installations (modes opératoires, checklists, runbooks). Accompagner les clients/utilisateurs sur l’application des patches et la vérification post‑déploiement. Produire le reporting mensuel (suivi qualité/délais, indicateurs, synthèse des actions). Compétences techniques attendues OS (Linux/Windows) : confirmé (diagnostic, logs, services, installation). Scripting : confirmé (Bash / PowerShell / Python… pour automatisation, checks, outillage). Bases de données / SQL : niveau junior (requêtes simples, vérifications, troubleshooting). Java : niveau junior (souhaitable).
Mission freelance
Consultant PS-PPM Datamigration S/4
SAP-HIRE
Publiée le
SAP
SAP PS
3 mois
Hauts-de-Seine, France
Pour un de nos clients, nous recherchons un Consultant PS PPM pour intervenir sur les sujets data migration dans le cadre d’un déploiement international S/4HANA. Profil recherché : Excellente maîtrise flux et masterdata SAP PS / PPM Très bonne connaissance des processus métier liés à la gestion de projets. Expérience avérée en migration de données SAP S/4 HANA : Scoping, Mapping, Data loading Connaissance SAP DMC et idéalement ADM Français & Anglais Courant La mission se déroulera au rythme de 3 jours par semaine obligatoires sur le site du client : mardi, mercredi, jeudi ; situé au sud de Paris dans la petite Couronne.
Offre d'emploi
AI Engineer / MLOps Engineer
ONSPARK
Publiée le
Microsoft Power BI
MLOps
Qlik Sense
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un AI Engineer / MLOps Engineer pour accompagner nos clients grands comptes. Vous piloterez la conception et le déploiement de solutions d'Intelligence Artificielle à fort impact métier : automatisation, aide à la décision, valorisation des données à grande échelle, au sein d'environnements exigeants (ISO 27001) en cours d'ouverture vers le cloud. Responsabilités Concevoir et mettre en œuvre des solutions d'IA générative (LLM, RAG, fine-tuning, prompt engineering) Déployer et monitorer des modèles de Machine Learning et Deep Learning en production Accompagner les équipes fonctionnelles dans l'identification et la conception de cas d'usage IA Mettre en place des pipelines CI/CD dédiés aux modèles IA Contribuer à la gouvernance des usages IA (qualité, RGPD, AI Act) Assurer une veille technologique active sur les évolutions de l'IA
Offre d'emploi
Quality Engineer F/H
Atecna
Publiée le
Automatisation
Cypress
JIRA
Lille, Hauts-de-France
Des projets qualité à fort enjeu, une communauté en pleine structuration. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Qualité, animée par Ludivine et une équipe d'une vingtaine d'experts passionné·es : testeurs manuels, automaticiens et leads QA. Tu interviens en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Qualité d'Atecna de l'intérieur, en partageant tes bonnes pratiques, ta veille et tes retours d'expérience avec le collectif ⚡ Ton impact au quotidien Tu interviens sur des projets clients dans des environnements web & mobile, auprès de clients de tailles et de secteurs variés. Tu conçois et automatises des scénarios de test as code (Cypress, Playwright, Espresso ou équivalent) pour garantir la qualité des livrables clients Tu gères et priorises les anomalies via les outils adaptés (Jira, Redmine, Mantis) et tu assures un reporting clair et exploitable (Data Studio, X-Ray) Tu collabores étroitement avec les équipes de développement, produit et métier pour intégrer la qualité au cœur du cycle de delivery Tu contribues à la structuration des pratiques QA au sein de la communauté Qualité Atecna : standards, outillage, montée en compétences Tu te tiens en veille active sur les évolutions de l'écosystème test et tu partages tes apprentissages (meetups, articles, retours d'expérience) Tu es sensible aux enjeux d'accessibilité numérique et tu les intègres dans tes approches de test quand le contexte client s'y prête
Offre d'emploi
Chef de projet IT Migration & Infra ((H/F)
Link Consulting
Publiée le
Prince2
55k-65k €
92800, Puteaux, Île-de-France
Notre client, acteur reconnu du secteur Industrie / Énergie, recherche son futur Chef de projet Migration & Infra (H/F) dans le cadre d'un renforcement durable de ses équipes IT. Vos missions : Intégré à une équipe projets transverse, vous serez responsable de : * Le pilotage de projets IT à forte composante infrastructure, notamment dans des contextes de migration * L’application et l’adaptation d’une méthodologie de gestion de projet structurée (inspirée de PRINCE2) * L’animation des réunions de cadrage, de suivi et de restitution * L’élaboration des plannings, l’estimation des charges et le suivi de l’avancement * La gestion budgétaire des projets confiés * La production, la complétion et la mise à jour de la documentation projet existante * L’analyse critique des livrables et la proposition d’axes d’amélioration * La rédaction des comptes rendus et la communication projet auprès des parties prenantes ### COMPÉTENCES TECHNIQUES ATTENDUES * Gestion de projet IT structurée (PRINCE2 ou méthodologies équivalentes) * Expérience confirmée sur des projets de migration d’infrastructures * Capacité à établir des plannings, plans de charge et budgets * Compréhension technique des environnements IT (profil « hands-on » apprécié) * Maîtrise des outils de pilotage et de documentation projet
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Offre d'emploi
Ingénieur Projets - Energie (H/F)
Linkup Partner
Publiée le
Gestion de projet
1 an
62k-78k €
460-600 €
Paris, France
Dans le cadre du développement de nos activités dans le secteur de l’énergie, nous recherchons un(e) Ingénieur Projets pour piloter des projets techniques à forte valeur ajoutée. À ce titre, vous serez en charge de : Piloter des projets de la phase d’étude jusqu’à la mise en service Coordonner les équipes internes et les partenaires externes Suivre les coûts, délais et qualité des projets Rédiger les cahiers des charges et spécifications techniques Assurer le reporting auprès des parties prenantes Participer à l’amélioration continue des process
Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.
WorldWide People
Publiée le
PySpark
Python
12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- PER/EURL - Obligation d'en créer un nouveau ?
- Ajout activité micro-entreprise en attendant de créer la société
- Je galère à trouver une mission CDP sénior
- Modalités de conversion des factures en devises (USD) et traitement TVA/IS
- Etat du marché 2026: rebond ou stagnation ?
- Courrier recommandé non récupéré
7066 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois