Find your next tech and IT Job or contract Data Lake

Contractor job
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Contractor job
DataOps AWS Engineer -MlOps
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .

Contractor job
DevOps – Microsoft Fabric / Azure
Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.
Job Vacancy
Data engineer H/F
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance
Contractor job
Product Owner Technique – Data Platform
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Contractor job
Data Analyst - IDF
Le client recherche un data analyst pour un projet au sein du département DER (Direction Employeur et Recrutement) de France Travail, plus précisément dans une entité dédiée à la mise en relation entre les demandeurs d'emploi, les offres et les entreprises. L'objectif est de développer des tableaux de bord (sur Qlik Sense ou Power BI) et de modéliser les flux de données à partir d'un data lake, afin de fournir des indicateurs pertinents pour le suivi des demandeurs d'emploi et des offres. Le projet implique la formalisation des besoins métiers, la définition des règles de gestion, la création de maquettes de tableaux de bord, l'industrialisation, la recette métier et la mise en production. Le profil recherché doit être technico-fonctionnel, capable de comprendre et challenger le métier, de poser les bonnes questions, de s'assurer de la qualité des données et de devenir autonome sur les outils utilisés (SQL, Dataiku, Qlik Sense, Power BI).
Job Vacancy
Data Eng GCP Rouen
Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.
Contractor job
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Contractor job
DataOps - MS FABRIC/ Azure
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Contractor job
Data Engineer azure (SQL / ADF /Power BI)
Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Contractor job
Mission Freelance / Portage - Microsoft Fabric / Azure - Paris - Hybride
Bonjour, Pour l’un de mes clients, je recherche un Consultant Microsoft Fabric Rôle : Concevoir, intégrer et optimiser les flux de données sur la plateforme Microsoft Fabric . Structurer OneLake, Synapse, Data Factory , créer et maintenir les référentiels, améliorer la qualité des données et collaborer avec les équipes BI sur les modèles de reporting. Compétences clés : Microsoft Fabric, Azure (Synapse, Data Factory, Databricks, Event Hub, OneLake), ETL, Data Lake / Lakehouse, modèle Médaillon, SQL, Python (PySpark), Power BI, intégration inter-applicative, reporting BI. Profil recherché : Expérience confirmée sur Azure et ADF, bonne maîtrise des architectures Data Lake / Lakehouse. Personne rigoureuse, organisée, avec un bon esprit d’équipe, capable de documenter et vulgariser les traitements. Si vous êtes intéressé et que votre profil correspond, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.

Contractor job
Consultant SIRH Data
Dans le cadre d'une stratégie Data lancée il y a 3 ans, reposant sur l'écosystème Microsoft (Data Lake, Microsoft Fabric, Power BI), des cockpits de pilotage ont été déployés pour de nombreux domaines fonctionnels (commerce, marketing, centre d'appels, etc.). Le domaine Ressources Humaines reste cependant en retrait : Les données RH sont encore silotées. Leur exploitation repose sur une seule ressource experte, limitant la capacité de partage, de croisement et d'analyse. Les enjeux sont majeurs : la masse salariale représente le principal poste de dépense de l'entreprise. Pour répondre à ces défis, nous recherchons un Consultant SIRH Data chargé de formaliser les besoins fonctionnels, structurer les règles de gestion et préparer l'industrialisation de l'exploitation des données RH au sein de l'écosystème Data. Missions principales Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. Spécifications fonctionnelles : Rédiger les spécifications fonctionnelles d'extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. Collaboration avec les équipes Data : Travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l'accès sécurisé des données RH.

Job Vacancy
Data Engineer (Bordeaux)
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data

Job Vacancy
Architecte Data / Cloud
Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.

Contractor job
Renfort Architecte fonctionnel : activités de marché
Notre client, un établissement majeur du secteur financier, recherche un consultant pour l'accompagner dans la conception de l’architecture fonctionnelle d’un environnement dédié aux activités de marché. Missions principales : - Intervenir en tant qu’architecte fonctionnel sur le périmètre Marché et Risques de Marché - Structurer les flux fonctionnels autour de l’outil Calypso, notamment pour les opérations de titrisation - Cadrer et accompagner l’alimentation du Data Lake - Définir les flux nécessaires aux besoins de reporting réglementaire et de groupe - Concevoir l’architecture fonctionnelle cible en lien avec les plateformes électroniques de marché - Accompagner les équipes métier et IT avec pédagogie pour une meilleure compréhension des activités de marché et des processus associés (capacité à vulgariser)

Contractor job
Consultant SIRH Data Pléiades
Missions principales : • Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. • Spécifications fonctionnelles : rédiger les spécifications fonctionnelles d’extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. • Collaboration avec les équipes Data : travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. • Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l’accès sécurisé des données RH.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country