L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 26 résultats.
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Mission freelance
SAP Finance Data Governance Expert
Signe +
Publiée le
SAP S/4HANA
1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
Offre d'emploi
Product Owner MDM H/F
HAYS France
Publiée le
Master Data Management (MDM)
Product management
TIBCO
6 mois
La Défense, Île-de-France
Nous recherchons pour le compte de notre client un Product Owner MDM H/F pour une mission en freelance ou portage salarial de 6 mois en vue d’embauche à pourvoir dès que possible dans le 92. Notre client propose 2 jours de télétravail maximum par semaine. Les préavis d’un mois sont acceptés. Mission principale : Porter la vision et la stratégie du produit MDM dédié à la gestion (entre autres) des Tiers, des Clients, des taux de change, des sites et des certifications, en alignement avec les objectifs métiers et IT de notre client. Responsabilités : Vision & Stratégie Construire et porter la vision du produit MDM pour les objets Tiers, Clients, taux de change, sites, certifications. Alignement avec les besoins métiers (Finance, Commerce, Opérations, Compliance, Business Excellence etc.) et la stratégie IT/Data du groupe. Recueil & Priorisation des besoins Recueillir, analyser et prioriser les besoins des parties prenantes (métiers, IT, data, finance, Commerce, Business Excellence, conformité, etc.). Organiser des ateliers de cadrage et de recueil des besoins. Roadmap & Backlog Définir, maintenir et communiquer la roadmap du produit. Rédiger et maintenir les user stories, critères d'acceptance, et gérer le backlog. Assurer la cohérence des évolutions fonctionnelles et techniques. Collaboration & Delivery Travailler étroitement avec les équipes de développement, architectes, data stewards et experts métier pour garantir la qualité, la fiabilité et la sécurité des données. Animer les cérémonies Agile (Sprint Planning, Daily, Review, Rétrospective) et assurer le suivi du delivery. Qualité & Recette Contrôler la qualité des livrables et piloter la recette fonctionnelle des nouvelles fonctionnalités. S’assurer de la conformité des données et des évolutions avec les exigences réglementaires et internes. Adoption & Support utilisateur Accompagner les utilisateurs dans l’adoption de la solution. Organiser les phases de formation, supports et change management. Veille & Amélioration continue Assurer une veille sur les évolutions réglementaires et technologiques liées à la gestion des données des différents Master Datas. Proposer des axes d’amélioration continue du produit. Indicateurs de réussite Qualité et fiabilité des données gérées Satisfaction des utilisateurs et des parties prenantes Respect des délais et du budget Adoption et utilisation de la solution Contribution à l’amélioration continue du produit
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Offre d'emploi
Responsable Master Data (H/F) - 93
Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)
Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Mission freelance
Consultant Senior Gouvernance des Données – Data Office
CAT-AMANIA
Publiée le
Data governance
Gouvernance
12 mois
500-560 €
Paris, France
🎯 Contexte de la mission Dans le cadre du renforcement de son activité Gouvernance de la Donnée, notre client – acteur majeur de la protection sociale – souhaite intégrer un consultant senior en gouvernance des données pour accompagner la structuration, la formalisation et le déploiement de ses politiques Data. L’équipe Data Office (3 personnes actuellement) intervient sur la définition des politiques de gestion des données et le suivi de leur mise en œuvre dans un environnement fédéré (métiers, SI, urbanistes, conformité, sécurité). 🚀 Vos missions Vous interviendrez en appui stratégique et opérationnel sur les axes suivants : 🔹 Gouvernance & Structuration Définition et formalisation des rôles et responsabilités (Data Owner, Data Steward, etc.) Mise en place et structuration du glossaire métier et du dictionnaire de données Définition des standards de catalogage et de gestion des métadonnées Contribution au choix des outils de gouvernance (évaluation fournisseurs en cours) 🔹 Cartographie & Connaissance des données Approfondissement de la cartographie des données (flux, lineage, dépendances) Exploitation de la cartographie à des fins de pilotage et gouvernance Articulation avec les capacités de la plateforme Data de l’entreprise 🔹 Qualité & Conformité Définition des modalités de suivi de la qualité des données Intégration des exigences RGPD et conformité réglementaire Formalisation des principes de gestion des habilitations et des accès 🔹 Animation & Acculturation Animation de la communauté Data dans un contexte fédéré Organisation d’ateliers, séminaires et communications Accompagnement à la montée en compétence de l’équipe interne 🧠 Profil recherché Expérience confirmée en Data Office (au moins 2 expériences significatives en gouvernance des données) Maîtrise des outils de gouvernance : Catalogage Gestion des métadonnées Glossaire / Dictionnaire Data Quality Lineage Data Product Bonne compréhension des architectures Data (ETL/ELT, transformation, exposition, monitoring) Expérience opérationnelle d’une plateforme Data Capacité à évoluer dans un environnement structuré et réglementé Excellentes capacités d’animation et de pédagogie
Mission freelance
Consultant(e) Data Governance
Focustribes
Publiée le
SAP
6 mois
550-750 €
Suisse
Dans le cadre d’un programme de transformation Data à l’échelle internationale , un grand groupe du secteur industriel/aéronautique renforce sa gouvernance des données dans un environnement multi-sites et fortement intégré ( SAP S/4HANA , Salesforce , systèmes historiques), reposant sur un écosystème Microsoft Azure . Une plateforme data permet déjà l’ingestion et la consolidation des données, avec l’intégration de sources externes autoritaires pour améliorer la qualité et la déduplication . La priorité actuelle n’est pas la migration (déjà prise en charge par un partenaire dédié), mais l’ industrialisation du Master Data Management (MDM) et la structuration d’une gouvernance des référentiels robuste et scalable , notamment sur les domaines suivants : Business Partners (clients / fournisseurs) Adresses Matériels / Assets Autres data domains critiques L’enjeu principal consiste à passer d’une gestion ad hoc à un dispositif maîtrisé, outillé et pérenne . Le/la consultant(e) interviendra en lien direct avec le sponsor stratégique du programme et les référents internes MDM , à l’interface entre IT, Data et Métiers . Missions Assumer un rôle de référent(e) Data Governance / MDM au sein du programme de transformation. Gouvernance & cadrage Structurer et animer la gouvernance MDM ( Data Council , Data Owners , Data Stewards , RACI ). Définir la cartographie des data domains et clarifier les responsabilités associées. Formaliser le cadre de référence : glossaire , règles de gestion , standards , niveaux de criticité , KPIs data quality . Assessment & recommandations Conduire un diagnostic de maturité par domaine ( qualité, ownership, process, contrôles, outillage, adoption ). Analyser les flux inter-systèmes et les irritants métiers/IT . Produire un plan d’action structuré : priorités , quick wins , roadmap incrémentale (90 jours / 6 mois / 12 mois). Expertise fonctionnelle MDM (focus Business Partner / Adresses) Clarifier le modèle cible pour la gestion des Business Partners et des adresses (légal vs usage, multi-adresses, règles d’unicité). Recommander les bonnes pratiques référentielles dans un environnement SAP S/4HANA interfacé avec CRM et data platform . Sécuriser les workflows de création/modification , les validations , la traçabilité et les règles anti-doublons . Arbitrer la notion de “source of truth” entre ERP , CRM et sources externes . Déploiement & conduite du changement Définir une stratégie de pilotes prioritaires . Structurer une démarche progressive et orientée valeur . Accompagner la montée en compétences interne (transfert, templates, playbook MDM). Structurer la communication , la formation et l’ adoption des nouvelles pratiques.
Offre d'emploi
DATA Engineer GCP 2
KEONI CONSULTING
Publiée le
Architecture
Python
SQL
18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Data Manager Lead – GO Data
ALLEGIS GROUP
Publiée le
Data governance
1 an
Paris, France
GO Data renforce son pôle Data Management afin d’accélérer la structuration, la gouvernance et l’efficacité des pratiques Data, notamment dans le cadre du programme BI & Analytics Strengthening (BigUp) et du déploiement des standards Data by Design. Nous recherchons un(e) Data Manager Lead pour piloter les initiatives clés, accompagner les Data Owners et Data Stewards, et garantir une gouvernance Data robuste, cohérente et alignée avec la stratégie Groupe. MISSIONS : 🔹 Pilotage du programme BigUp (BI & Analytics strengthening) Piloter le projet BigUp incluant : rationalisation des périmètres BI, standardisation des pratiques, amélioration des modèles de delivery, opérationnalisation du nouvel operating model. Coordonner les parties prenantes métiers, IT, data et transformation. 🔹 Gouvernance BI & Analytics en mode BAU Manager la gouvernance opérationnelle et maintenir les frameworks en place. Produire et mettre à jour les artefacts de gouvernance (inventaires, reporting, suivis). 🔹 Déploiement et application des Standards Data Renforcer la stratégie Data en garantissant l’application des standards : Data Governance Policy Data Quality Framework Data By Design Framework Documentation Data (modèles, glossaires, dictionnaires…). Construire et maintenir des modèles de données robustes et cohérents. 🔹 Data by Design & accompagnement projets Participer concrètement au processus Data by Design avec Data Architects, DPO et équipes projets. S’assurer que les exigences Data (qualité, sécurité, documentation, gouvernance) sont intégrées dès la conception. 🔹 Support aux Business Data Owners & Data Stewards Agir en Data Ambassador pour les accompagner dans la mise en œuvre des frameworks de gouvernance. Aider les domaines métiers (dont HR Data Domain) à monter en maturité.
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake
12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation electronique 2026
- Externalisation fiche de paie president sasu
- [Sondage] Projet étudiant -- besoin d'avis de pros
- Incertitude LMP en cas de cession en début d'exercice
- Comment se protéger quand une ESN remplace un freelance après validation client ?
- COMMENT FAIRE REVENIR SON EX EN 24H:TéL + 229 01 69 02 99 55
26 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois