Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 214 résultats.
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance

Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.

Publiée le
Méthode Agile

6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Freelance

Mission freelance
Product Lead Data / Directeur projet (Montpellier)

Publiée le
Data governance
Product management

12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Freelance

Mission freelance
Business Analyst Finances/Data - Spécs. fonct. et BAU

Publiée le

12 mois
500 €
75001, Paris, Île-de-France
Business Analyst Data - Spécifications Fonctionnelles & Support Opérationnel Contexte Un acteur majeur du secteur bancaire recherche un Business Analyst spécialisé en Data pour intervenir sur la conception des spécifications fonctionnelles et le support opérationnel (Business As Usual) dans un environnement complexe lié aux paiements, clients, transactions et finance . Missions principales Recueillir et analyser les besoins métiers, proposer des simplifications et optimisations. Identifier les processus à créer ou à modifier pour répondre aux enjeux business. Rédiger des spécifications fonctionnelles détaillées . Émettre des recommandations sur la faisabilité et l'implémentation des demandes. Assurer le support des équipes techniques (PO, squads DevOps) en apportant le contexte métier. Participer à la validation des développements pour garantir la conformité avec les attentes. Intervenir sur les phases de développement, test, déploiement et post-production. Collaborer avec des interlocuteurs transverses (autres domaines et entités). Compétences métiers recherchées Paiements : flux SEPA, virements, prélèvements, gestion des moyens de paiement. Clients : gestion des données clients (KYC, onboarding, segmentation). Transactions : suivi des opérations bancaires, reporting, conformité réglementaire. Finance : notions de comptabilité bancaire, rapprochements, indicateurs financiers. Data Governance : qualité des données, intégrité, respect des standards. Compétences IT recherchées SQL : niveau confirmé (requêtes complexes, optimisation). Modélisation de données : conception et validation de modèles relationnels. Outils de gestion de données : connaissance des environnements Data Warehouse / ETL. Tests fonctionnels : validation des développements et des flux. Connaissance des architectures bancaires : systèmes transactionnels, intégration des données. Séniorité attendue Niveau : Senior / Confirmé (Business Analyst Data - Niveau 4 Proficient) Expérience : 5 à 8 ans minimum en analyse fonctionnelle et data dans des environnements complexes. Capacité à travailler en autonomie, à challenger les besoins métiers et à interagir avec des équipes techniques. Maîtrise des outils et concepts (SQL, modélisation de données, gouvernance data). Anglais professionnel (échanges à l'international) et français courant
Freelance

Mission freelance
Data steward/ Data specialist

Publiée le
Data analysis
Data governance
Data visualisation

6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
La mission principale du Data Steward/Data specialist sera de transformer la vision du responsable du domaine commercial en actions quotidiennes. Votre rôle s’inscrit dans le cadre d'une fusion de deux entités et donc de l’unification des processus de vente soutenu par un CRM commun et un catalogue produit unifié soutenu par le PIM ( SAP/Salesforce ). Vous serez positionné en priorité sur la partie produit. Cette mission s'articule donc autour des piliers suivants : Data Gouvernance : Aider le responsable des processus métier de l'équipe Excellence commerciale à définir les actifs de données. Comprendre et analyser les points faibles commerciaux en termes de gestion des données (en mettant l'accent sur les matériaux, les clients et les prix) Mettre en place un plan de remédiation et le communiquer Avec l'aide des équipes opérationnelle et commerciale, définir les règles et les contrôles de qualité à mettre en place dans les solutions commerciales afin de garantir la fiabilité des données (intégrité, exhaustivité, accessibilité...) Garantir les données commerciales : documentation adéquate dans le catalogue de données, définir, suivre et partager les indicateurs clés de performance (KPI) concernant l'état et l'évolution de la qualité des données, l'utilisation des données dans le domaine commercial, etc. Maîtrise/Culture des données : Participer à la démocratisation des données en formant et en animant tous les utilisateurs commerciaux des données Communiquer largement sur les applications de reporting « officielles » Partager les règles de qualité à respecter par l'équipe opérationnelle 3. Analyse des données : Aider les équipes commerciales à analyser les données, identifier les tendances, les modèles et les opportunités d'amélioration commerciale. Le Data Steward/Data specialist sera en étroite collaboration avec : Business Process Managers : en charge de la gestion du catalogue de produits, services et options ; gestion de l'entonnoir de vente ; gestion des devis, gestion des demandes des clients, gestion des tarifs. Force commerciale : responsable produit PIM, SALESFORCE et base de données tarifaire
Freelance

Mission freelance
H/F - Product Owner CRM & Data Client

Publiée le
Backlog management
Rédaction des spécifications fonctionnelles
Salesforce Sales Cloud

3 mois
Paris, France
Télétravail partiel
Niveau : Confirmé (+8 ans d’expérience) Au sein de la DSI, vous rejoignez l’équipe produit responsable du référentiel client et des processus de prospection associés. Votre mission consiste à définir la vision produit, piloter les évolutions fonctionnelles et assurer la cohérence globale de la solution CRM orientée Data. Acteur central de l’organisation agile, vous êtes garant de la valeur métier, de la priorisation du backlog et de la qualité des livrables. Vous travaillez en coordination avec les équipes techniques, data et commerciales afin d’assurer un delivery performant et une adoption optimale des fonctionnalités. Missions principales • Définir et piloter la vision produit et la roadmap. • Recueillir, analyser et formaliser les besoins métiers. • Rédiger les spécifications fonctionnelles et critères d'acceptation. • Prioriser et maintenir le backlog produit. • Coordonner les équipes techniques et assurer la qualité du delivery. • Garantir la cohérence du SI avec les autres produits et services. • Accompagner le déploiement, la conduite du changement et l’adoption des nouvelles fonctionnalités. • Assurer la valeur délivrée à chaque itération.
Freelance
CDI

Offre d'emploi
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)

Publiée le
Salesforce CPQ

3 ans
40k-55k €
380-530 €
Boulogne-Billancourt, Île-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Freelance

Mission freelance
Chef de Projet Data Client Technico-fonctionnel

Publiée le
Data quality
Modèle Conceptuel des Données (MCD)
Transformation digitale

3 mois
550-600 €
Guyancourt, Île-de-France
Télétravail partiel
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance
CDI

Offre d'emploi
Data Scientist

Publiée le
Google Cloud Platform (GCP)
Machine Learning

1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance
CDI

Offre d'emploi
PO DATA - DECISIONNEL

Publiée le
Data management
Dataiku
ETL (Extract-transform-load)

3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Freelance
CDI

Offre d'emploi
Data Analyst/Product Owner Supply Chain (2-5ans) (H/F)

Publiée le
Python
SQL
Supply Chain

3 ans
10k-55k €
100-480 €
Paris, France
Télétravail partiel
Nous recherchons un Data Analyst/PO (H/F) pour rejoindre la direction Data & Analytics d’un grand acteur du retail engagé dans un vaste programme de transformation analytique. 🎯 L’objectif ? Faire le lien entre les équipes métier (notamment Supply Chain) et les équipes data, afin de transformer les besoins opérationnels en solutions analytiques concrètes, impactantes et alignées avec la stratégie data du groupe. 🚀 Tes missions principales : 🎯 Analyse & accompagnement métier Identifier, comprendre et traduire les besoins des équipes opérationnelles en opportunités data & analytics Mener en totale autonomie des analyses ad-hoc : cadrage, extraction, traitement et restitution Communiquer les résultats aux équipes métier avec pédagogie, transparence et esprit critique Mettre en avant les limites, biais et axes d'amélioration des analyses réalisées 🧩 Pilotage de produits analytiques Tu endosseras également le rôle de Product Owner Data au sein d’une squad produit pluridisciplinaire : Définir la vision produit et la roadmap analytique en cohérence avec la stratégie globale Prioriser les besoins métier, identifier les problématiques analytiques à résoudre Rédiger les User Stories et spécifications nécessaires au delivery Planifier et suivre le développement des fonctionnalités analytiques Participer aux rituels agile (daily, sprint planning, refinements…) Définir et suivre les indicateurs de succès de chaque produit analytique Garantir l’adoption et l’utilisation des produits par les équipes métier 🔧 Environnement technique & outils : Données : SQL, BigQuery DataViz : Tableau, Google Looker Studio Versioning / Delivery : GitLab Langage complémentaire : Python (atout) Méthodologie : Agile (Scrum, Sprint Planning, Backlog…)
CDI

Offre d'emploi
Chef de projet Data - Fonctionnel (H/F)

Publiée le

55k-60k €
Lyon, Auvergne-Rhône-Alpes
Notre client, grand acteur industriel est à la recherche de son futur Chef de projet Data (H/F) pour ses sites proche de Lyon en raison d'une transformation DATA d'envergure. Vous intervenez au sein de la Direction de la Transformation Digitale, sur le pôle Data Build, dans un contexte multi-sites et fortement transverse Vos missions : Il sera attendu que vous ayez : * Capacité à structurer un programme Data Groupe, à en assurer le pilotage, à garantir la qualité et la gouvernance. * Vision transversale : métiers, SI, data ; pragmatisme et sens de l’opérationnel. * Sens du résultat, respect des délais et des objectifs, rigueur dans le suivi. * Esprit de pilotage, leadership projet, capacité à arbitrer et prioriser dans un contexte parfois incertain. Au sein du pôle Data Build vous devrez faire : * Recueil et cadrage des besoins métiers (finance, supply-chain, marketing, commercial, …) et traduction en spécifications fonctionnelles data / SI. * Pilotage de projets Data end-to-end : MDM fournisseur, gouvernance data, data quality, catalogue data / PIM, BI. * Animation des ateliers, comités projet, COPIL / instances décisionnelles, coordination transverse métiers ↔ techniques. * Suivi planification / budget / livrables / jalons / risques / arbitrages, notamment dans un contexte “build → run”. * Coordination avec les équipes BI / IT pour les développements et intégrations. * Gouvernance des données : définition des référentiels, qualité, cohérence, conformité des process. * Reporting projet & data : suivi des KPIs, reporting aux instances de gouvernance, formalisation des livrables. * Capacité à piloter plusieurs projets simultanément, dans un cadre industriel et multi-disciplinaires.
Freelance

Mission freelance
Chef de projet Data - Fonctionnel (H/F)

Publiée le

12 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes
Notre client, grand acteur industriel est à la recherche de son futur Chef de projet Data (H/F) pour ses sites proche de Lyon en raison d'une transformation DATA d'envergure. Vous intervenez au sein de la Direction de la Transformation Digitale, sur le pôle Data Build, dans un contexte multi-sites et fortement transverse Vos missions : Il sera attendu que vous ayez : * Capacité à structurer un programme Data Groupe, à en assurer le pilotage, à garantir la qualité et la gouvernance. * Vision transversale : métiers, SI, data ; pragmatisme et sens de l’opérationnel. * Sens du résultat, respect des délais et des objectifs, rigueur dans le suivi. * Esprit de pilotage, leadership projet, capacité à arbitrer et prioriser dans un contexte parfois incertain. Au sein du pôle Data Build vous devrez faire : * Recueil et cadrage des besoins métiers (finance, supply-chain, marketing, commercial, …) et traduction en spécifications fonctionnelles data / SI. * Pilotage de projets Data end-to-end : MDM fournisseur, gouvernance data, data quality, catalogue data / PIM, BI. * Animation des ateliers, comités projet, COPIL / instances décisionnelles, coordination transverse métiers ↔ techniques. * Suivi planification / budget / livrables / jalons / risques / arbitrages, notamment dans un contexte “build → run”. * Coordination avec les équipes BI / IT pour les développements et intégrations. * Gouvernance des données : définition des référentiels, qualité, cohérence, conformité des process. * Reporting projet & data : suivi des KPIs, reporting aux instances de gouvernance, formalisation des livrables. * Capacité à piloter plusieurs projets simultanément, dans un cadre industriel et multi-disciplinaires.
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
214 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous