L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 286 résultats.
Mission freelance
Data Engineer DBT & IICS
Net technologie
Publiée le
DBT
Informatica
Snowflake
3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
L’équipe est à la recherche d’un Data Engineer senior pour piloter et structurer la migration des flux existants depuis Informatica Intelligent Cloud Services (IICS) vers une architecture moderne basée sur DBT et Snowflake . Ce rôle est clé dans la transformation de la plateforme data : le candidat retenu interviendra à la fois sur les aspects techniques, méthodologiques et de gouvernance des transformations de données. Le candidat idéal devra jouer un véritable rôle de « traducteur » entre l’existant et la cible. Il devra être capable de : analyser et comprendre des mappages IICS hérités , souvent complexes, peu documentés et construits de manière monolithique, effectuer un travail approfondi de rétro-ingénierie afin d’identifier précisément la logique métier, les règles de transformation et les dépendances, refactoriser ces traitements en modèles DBT SQL clairs, modulaires et maintenables , en appliquant les bonnes pratiques DBT (tests, documentation, modularité, réutilisabilité), garantir la qualité, la performance et la traçabilité des données sur Snowflake, tout en facilitant l’évolutivité et la maintenance à long terme. Ce poste nécessite une forte capacité d’analyse, une excellente maîtrise du SQL et une approche structurée de l’ingénierie data, ainsi qu’une aptitude à faire le lien entre des logiques techniques historiques et des architectures data modernes orientées analytics.
Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique
ARTESIA IT
Publiée le
Snowflake
1 an
500-550 €
Belgique
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Mission freelance
DATA ENGINEER GCP
BEEZEN
Publiée le
Google Cloud Platform (GCP)
1 an
Paris, France
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Offre d'emploi
Data Engineer / Analyst (Secteur des Assurances)
Amontech
Publiée le
Azure
Oracle
PL/SQL
1 an
45k-52k €
500-550 €
Île-de-France, France
🎯 Contexte Nous recherchons un Data Engineer / Analyst expérimenté pour rejoindre un programme de transformation Data (secteur des assurances). 🔍 Vos missions Analyser et comprendre les scripts existants en PL/SQL / SQL Étudier les flux de données et les transformations entre les couches Bronze, Silver et Gold Piloter la qualité, complétude et fiabilité des données Développer et valider des traitements en PySpark / Spark SQL Participer à la conception et à la validation des dashboards Power BI Mettre en place et promouvoir les bonnes pratiques Data Déployer les rapports auprès d’autres entités métiers Contribuer à la documentation technique et fonctionnelle
Offre d'emploi
Data Engineer — profil “solution & impact”
HR DNA
Publiée le
Data analysis
Dataiku
RPA (Robotic Process Automation)
2 ans
40k-45k €
400-500 €
Niort, Nouvelle-Aquitaine
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l’assurance basé à Niort , un Data Engineer – profil “solution & impact” . 🎯 Finalité du rôle Un data engineer orienté solutions, capable de répondre à des problématiques métiers concrètes , et pas un simple exécutant technique. 🧠 ADN du profil recherché • Force de proposition, capable de challenger un besoin • Capable de comprendre le pourquoi , pas uniquement le comment • À l’aise dans des environnements data orientés valeur métier 🛠️ Compétences clés • Dataiku (ou plateforme data science équivalente) : – conception de pipelines – optimisation des flux – industrialisation des traitements • Vision end-to-end des chaînes data : – ingestion → transformation → exposition – performance, qualité et maintenabilité 🤝 Posture attendue • Capacité à dialoguer avec un chef de projet data • Compréhension des enjeux métiers • Proposition d’architectures et de choix techniques adaptés 👉 En résumé Un Data Engineer senior , orienté valeur métier, capable de concevoir des solutions data robustes et utiles — pas seulement du code propre. 📍 INDISPENSABLE : présence sur site à Niort minimum 3 jours par semaine.
Mission freelance
Mission Freelance – Analytics Engineer / Data Engineer (H/F)
SKILLWISE
Publiée le
Azure Data Factory
Databricks
Scala
3 mois
100-550 €
Paris, France
Nous recherchons un freelance Analytics Engineer / Data Engineer pour intervenir sur un projet Data transverse d’envergure , au sein d’un grand groupe français du secteur médias & digital . Le projet vise à centraliser, harmoniser et fiabiliser les données de diffusion publicitaire digitale (impressions, chiffre d’affaires, performance, etc.) afin de fournir un reporting unifié et fiable selon différentes dimensions métiers (canaux de vente, équipes commerciales, annonceurs, origines des revenus…). Au sein d’une équipe Data expérimentée, vous interviendrez sur les missions suivantes : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Spark SQL Maintenir et faire évoluer des pipelines de traitement en Scala (part marginale) Développer et maintenir des indicateurs de qualité de données (KPI data) Participer au refactoring du code existant afin d’améliorer performance et maintenabilité (réécriture en DBT ) Garantir la qualité du code et le respect des standards de développement Mettre en place des tests unitaires et contribuer à la fiabilité des traitements Participer au monitoring des solutions Data Digital Produire les livrables attendus : code source, documentation et indicateurs qualité
Mission freelance
🚀 Mission Freelance – Data Engineer Python / PySpark / Azure – Paris
Comet
Publiée le
Azure
PySpark
Python
218 jours
400-660 €
Paris, France
Nous recherchons un Data Engineer senior pour intervenir au sein d’un grand groupe international engagé dans des projets digitaux à forte valeur ajoutée. Vous rejoindrez une Digital Factory dynamique et contribuerez à la conception ainsi qu’à la mise en production de solutions data à grande échelle, dans un environnement cloud moderne. ❌ Pas de sous-traitance 🎯 Objectifs de la mission Recueillir et analyser les besoins métiers Concevoir le data modeling (SQL / NoSQL) Développer et industrialiser des pipelines de données Construire et déployer l’architecture data Garantir la maintenance et l’évolution des plateformes Participer activement aux rituels agiles et à l’amélioration continue
Mission freelance
Senior Data Engineer GCP
Groupe Aptenia
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)
Cherry Pick
Publiée le
Apache
Google Cloud Platform (GCP)
Python
6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
Mission freelance
Data Engineer (H/F) - 56
Mindquest
Publiée le
Spark Streaming
SQL
1 an
370-510 €
Vannes, Bretagne
Context Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mission * Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers * Mettre en œuvre les tests unitaires et automatisés * Déployer le produit dans les différents environnements * Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents * Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Mission freelance
Data Engineer senior/expert DBT & IICS
EBMC
Publiée le
Informatica Cloud (IICS)
3 mois
100-450 €
France
Dans le cadre d’un programme de modernisation de la plateforme data, le client souhaite engager une migration structurante d’Informatica IICS vers dbt sur Snowflake . Cette mission s’inscrit dans une démarche de rationalisation, de standardisation et d’amélioration de la qualité des traitements analytiques. L’enjeu principal est de remplacer des chaînes ETL historiques complexes par des modèles dbt robustes, lisibles et maintenables, tout en garantissant une parité stricte des données (1:1) entre l’existant et la cible. Le consultant jouera un rôle clé dans la réussite de cette transformation, avec un fort niveau d’autonomie et de responsabilité technique.
Offre d'emploi
Data Analyst/ Data Engineer F/H
ICSIS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python
Lille, Hauts-de-France
Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Offre d'emploi
Data Engineer / Data Analyst
ICSIS
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Offre d'emploi
Data Engineer Spark / Java / GCP (F/H)
CELAD
Publiée le
55k-62k €
Écully, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de travailler sur un projet data stratégique à fort impact métier ? Dans le cadre d’un grand groupe français du secteur assurance / services financiers, nous recherchons un.e Data Engineer Spark / Java / GCP pour intervenir sur un projet stratégique de gestion des risques climatiques. Voici un aperçu détaillé de vos missions : En lien étroit avec les équipes IT et métiers du client ainsi que l’intégrateur, vous interviendrez sur l’ensemble de la chaîne projet : - Analyse et compréhension des modèles de calcul actuariels - Participation à la conception technique des solutions data - Développement de traitements Spark Java avec intégration de librairies géospatiales - Industrialisation des pipelines de données - Déploiement et exploitation sur Google Cloud Platform - Rédaction de la documentation technique et fonctionnelle - Accompagnement des équipes internes (montée en compétence Spark / Java) - Anticipation des phases de RUN - Reporting projet auprès du chef de projet
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
286 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois