Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 218 résultats.
Freelance
CDI

Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau

Publiée le
Data analysis
Dataiku
Product management

2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
CDI

Offre d'emploi
Product Owner Data H/F

Publiée le

45k-50k €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : ohsw8wehfq
Freelance

Mission freelance
Chef de projet technique Data plateforme - Nantes

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Freelance
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Freelance

Mission freelance
Product Owner I.A & DATA - LLM - Collibra

Publiée le
Confluence
IA
JIRA

12 mois
550-600 €
Paris, France
Télétravail partiel
La prestation consistera à : · Du Product Ownership et de la coordination entre autres pour poursuivre un projet concernant la mise en place de modèle des User needs sur les offres d’information intégrant des solutions d'intelligence artificielle (IA), depuis la R&D jusqu’à la mise en production. · Un cadrage du périmètre fonctionnel, la définition et le suivi de la roadmap /release plan, la définition des KPI produit et son suivi, sa réalisation de la conception jusqu'à la mise en production, dans le respect des obligations réglementaires, des procédures, des budgets et des normes de qualité tout en s’assurant d’une parfaite documentation des fonctionnalités développées Livrables attendus durant la prestation : · Identification, priorisation et spécification des besoins utilisateurs · Rédaction des spécifications fonctionnelles et des tests d’acceptation. · Rédaction des User Stories, mise en place & et suivi du backlog produit · Rédaction et maintien de la documentation sur les sujets d’IA liés à sa mission (Confluence) · Coconstruction des objectifs et de la roadmap avec les Product Manager et les équipes · Priorisation & suivi des développements dans le respect de la roadmap · Animation ou coanimation des ateliers de conception, en collaboration avec un UX designer si nécessaire · Recette fonctionnelle des développements sur la plateforme, en lien avec le responsable qualité de l’équipe ou en autonomie le cas échéant · Propositions d’évolutions dans le respect des objectifs et des KPIs · Interface avec tous les interlocuteurs du projet (équipes techniques, graphiques, journalistes, équipes marketing et partenariats, équipes support, équipes juridiques, partenaires, etc) · Participation aux cérémonies agiles avec les différentes équipes intervenant sur le projet (rétrospective, démo, refinement, tres amigos, sprint planning, etc.) · Participation à la sélection de solutions adéquates avec l’équipe technique · Communication au reste de l’équipe et aux sponsors sur l’avancement des développements et la planification des évolutions autour, entre autres, du projet User needs sur le scope des offres d’information · Instruction des alertes (avec proposition de mise en place de plans de correction ou contournement) pour tout événement susceptible de remettre en cause les objectifs, le planning ou le budget · Livraison du projet ou des itérations produit et garantie de sa conformité · Réalisation de documents support (règles métier, roadmaps, présentations, benchmarks, etc) · Veille technologique et concurrentielle
Freelance

Mission freelance
Data Engineer Senior Secteur Media

Publiée le
Apache Airflow
Apache Spark
BigQuery

6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

Publiée le
Big Data
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Freelance

Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble

Publiée le
ETL (Extract-transform-load)

6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Freelance
CDI

Offre d'emploi
DATA Engineer Senior GCP-python

Publiée le
Gitlab

18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Product Owner Data / RPA & IA - Assurance

Publiée le
Agile Scrum
Artificial neural network (ANN)
Azure Data Factory

12 mois
450-530 €
Île-de-France, France
Télétravail partiel
Nous à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Avec des déplacements à Niort. Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026, le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté. Rattaché(e) au Centre de Data Management, vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques. Profil du candidat Compétences demandées Compétence Niveau de maîtrise RPA / Confirmé ★★★★☆ MLOps / Confirmé ★★★★☆ Tableau / Confirmé ★★★★☆ Dataiku / Confirmé ★★★★☆ Data Science / Confirmé ★★★★☆ Technologies et mots-clés : #UIPA #DATAIKU #DATAVIZ #TABLEAU #SQL #CLOUD #BO #IA #RPA
CDI

Offre d'emploi
Manager Data / Lead Data

Publiée le
Azure
Azure Data Factory
Python

60k-80k €
Paris, France
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.
Freelance

Mission freelance
BI Engineer & Analytics Engineer (Tableau / dbt)

Publiée le
Azure Data Factory
BI
Big Data

12 mois
400-470 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
CDI
Freelance

Offre d'emploi
Data Product Owner

Publiée le
Data science
Dataiku
MLOps

2 ans
40k-52k €
400-450 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
📢 [CDI] Product Owner Data – RPA / MLOps / Data Science 🎯 Votre mission sera de faire le lien critique entre les besoins des experts fonctionnels (gestionnaires de contrats, actuaires, équipes commerciales....) et la réalité technique des squads de développement. Vous contribuerez au déploiement des offres de services de cette équipe nouvellement créée, ainsi qu'à la contribution du modèle opérationnel. Vous serez responsable de la définition, de la priorisation et de la livraison d'un portefeuille de produits data qui auront un impact direct et mesurable sur la performance de l'entreprise et la satisfaction de nos assurés. 📍 Niort – 3j sur site / 2j TT 🧠 +7 ans d'expérience 🔧 Stack : RPA, MLOps, Data Science, Dataku 💼 Contexte agile / data / automatisation
218 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous