Trouvez votre prochaine offre d’emploi ou de mission freelance Data Engineering
Votre recherche renvoie 146 résultats.
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Mission freelance
Data Gouv Senior
Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering
5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Mission freelance
Team Leader Data engineering
Codezys
Publiée le
Confluence
JIRA
Python
12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.
Mission freelance
Team Leader Data Engineering (H/F)
AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management
6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Mission freelance
POT8947 - Un Développeur Mobile / Data Engineering sur Chatillon
Almatek
Publiée le
SQL
6 mois
250-330 €
Châtillon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Développeur Mobile / Data Engineering sur Chatillon. Description détaillée 1) Développement mobile -Assurer la maintenance évolutive et corrective d’une application mobile en React Native. -Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité). -Implémenter de nouvelles fonctionnalités et les tests associés, en suivant une démarche Clean Code (sécurité, maintenabilité). 2) Data Engineering -Concevoir, développer et implémenter des solutions Big Data Analytics. -Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake. -Développer des notebooks avancés sous Databricks (SQL, Framework Spark). -Rédiger la documentation technique (DAT, release notes, etc.). -Réaliser les tests unitaires et assurer la qualité des livrables. -Contribuer à la maintenance évolutive et corrective des traitements. -Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés. Profil recherché -Expérience confirmée en développement d’applications React Native en production (minimum 5 ans). -Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (minimum 3 ans). -Maîtrise des APIs REST. -Bonne connaissance de Git et première expérience en CI/CD / DevOps. **Compétences techniques** -React Native – Expert – Impératif -Databricks – Confirmé – Impératif -Spark – Confirmé – Impératif -SQL – Confirmé – Impératif Localisation : Chatillon + 2 jrs de TT
Offre d'emploi
Consultant Data Visualization – Qlik Sense (H/F)
ADDIXWARE
Publiée le
Qlik Sense
1 an
40k-60k €
380-500 €
Signes, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de son pôle Data, notre client structuré autour d’une organisation data en deux volets (Data Engineering / Data Visualization) recherche un Consultant Data Visualization spécialisé sur Qlik Sense . L’équipe Data Engineering (notamment via Talend) est déjà en place et produit les flux et référentiels de données. La mission s’inscrit donc côté restitution et valorisation de la donnée , avec un enjeu fort sur la qualité des dashboards et l’adoption métier. Intégré au sein de l’équipe Data / BI, vous intervenez sur la conception, le développement et l’optimisation de dashboards sous Qlik Sense , en lien étroit avec les équipes métiers et data. À ce titre, vous serez en charge de : Recueillir et analyser les besoins métiers en matière de reporting et de pilotage Concevoir des dashboards interactifs et ergonomiques sous Qlik Sense Modéliser les données dans Qlik (data model, scripts de chargement) en lien avec les flux existants Assurer la qualité, la performance et la fiabilité des visualisations Participer à l’amélioration continue des reportings existants Accompagner les utilisateurs dans la prise en main des outils (pédagogie, support) Collaborer avec les équipes Data Engineering (Talend) pour garantir la cohérence des données Livrables : Tableaux de bord Qlik Sense (KPI, reportings métiers, dashboards interactifs) Modèles de données optimisés (scripts de chargement, structuration) Documentation technique et fonctionnelle Recommandations UX/DataViz pour améliorer la lisibilité et l’usage Support et accompagnement des utilisateurs
Mission freelance
Consultant Power BI/Azure Data Factory
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Mission freelance
Consultant Azure Data Factory/SQL Server
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server
1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Offre d'emploi
Tech Lead Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Offre d'emploi
Tech Lead Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Mission freelance
Data Analyst Power BI
Groupe Aptenia
Publiée le
Azure
Microsoft Power BI
Python
8 mois
400 €
Strasbourg, Grand Est
🔍 Nous recherchons un Data Analyst Power BI pour renforcer une équipe Data dans un contexte industriel international 🎯 Vos missions principales ✅ Concevoir et développer des dashboards Power BI pour les métiers (reporting, analyse) ✅ Interagir avec les équipes business pour comprendre et traduire les besoins ✅ Contribuer à la valorisation des données dans un environnement Azure / Databricks ✅ Collaborer avec les équipes Data Engineering en France et en Allemagne 🧩 Contexte Environnement industriel Interaction directe avec le siège en Allemagne Enjeux Data à l’échelle européenne et internationale Volonté de renforcer l’expertise Data côté France
Offre d'emploi
Data Analyst
GRLCI
Publiée le
Git
Python
SQL
Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos client, un data Analyst afin de renforcer l'équipe existante. Les missions seront les suivantes : - Analyses opérationnelles et études ad hoc : o Réaliser des analyses exploratoires et des études descriptives (segmentation, cohortes, tendances) avec accompagnement, o Produire des synthèses et recommandations claires pour les opérationnels. - Support à l’industrialisation et aux pipelines : o Contribuer à la création et à l’exécution de scripts ETL/ELT simples, o Participer aux tests et à la mise en production sous la supervision de l’équipe data engineering. - Collaboration et acculturation : o Travailler avec les équipes produit, marketing, finance et opérationnelles pour comprendre leurs besoins, o Participer à des actions d’acculturation et à la formation interne sur l’usage des analyses et dashboards.
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Mission freelance
Data Engineer Principal
Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake
6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Offre d'emploi
Data Engineer Java - Spark (HF) - Niveau 2 (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Application web
Big Data
40k-55k €
Nanterre, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
146 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois