Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 271 résultats.
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

Publiée le

50k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 7kbz633w88
CDI
Freelance

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Freelance

Mission freelance
Lead Data Engineer Streaming

Publiée le
Apache Kafka
Apache Spark

12 mois
700-850 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Data Engineer (F/H) - 56

Publiée le
Apache Kafka
Java
Shell

1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Freelance

Mission freelance
Senior Data Engineer - Bruxelles

Publiée le
Databricks
SQL

1 an
500-550 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un Senior Data Modeling Engineer pour concevoir et mettre en œuvre des modèles de données robustes, évolutifs et alignés sur les besoins métier, destinés à alimenter diverses analyses, reporting BI et projets de data science. Missions principales : 1. Conception des modèles de données Définir et appliquer les standards et bonnes pratiques de modélisation de données Concevoir les modèles logiques et physiques pour l’intégration de données provenant du CRM, de la facturation et d’autres systèmes opérationnels. Documenter et maintenir les tables et relations en utilisant des outils de modélisation 2. Développement des modèles de données Créer les modèles de données conformément aux standards définis et aux bonnes pratiques de la plateforme (environnements, versioning, code…). Transformer les données via des outils ETL (ex. Databricks, Dataiku) selon les spécifications. Documenter le développement en respectant les pratiques définies. Optimiser les modèles pour la performance, le coût, la scalabilité et l’usage par les équipes BI et data science. 3. Collaboration et support métier Travailler avec les data engineers et architectes pour comprendre la structure des données ingérées. Contribuer aux initiatives de gouvernance et qualité des données en garantissant que les modèles respectent les règles et définitions métier.
CDI

Offre d'emploi
Data engineer appétence machine learning (H/F)

Publiée le

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).
CDI

Offre d'emploi
Data Engineer Flux H/F

Publiée le

35k-45k €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises bancaires. Dans ce cadre, nous recherchons notre Data Engineer qui contribuera à un programme important d'évolution de la plateforme Data. Vos missions et responsabilités : - Analyser les besoins métiers et les traduire en solutions BI pertinentes et durables ; - Modéliser les données en cohérence avec les objectifs fonctionnels et les bonnes pratiques décisionnelles ; - Créer et maintenir les flux de données via des outils ETL, en assurant leur qualité, robustesse et performance ; - Participer à la recette et au suivi de production des chaînes décisionnelles, en lien étroit avec les utilisateurs ; - Assurer un rôle transverse sur les projets décisionnels : échange avec les MOA, rédaction de spécifications fonctionnelles, accompagnement des utilisateurs.
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Microsoft Excel

2 mois
600-630 €
Lille, Hauts-de-France
Télétravail partiel
Mission Temps plein Localisation Lille ou Paris Télétravail : partiel ou full avec quelques déplacements sur Lille Durée 2 mois renouvelable Explications de la Mission Afin de poursuivre l'activité de qualification des BDD en copro et pour mieux prévoir les priorités d'action commerciales, nous avons besoin d'une ressource Data pour effectuer : Le croisement des différentes bases de données en notre possession et en open data disponible Créer une base de données contenant les priorités d'action commerciale "Googeliser" les résidences des BDD nationales Identifier les étiquettes énergétiques (avec GORENOV2) Construire une fiche d'identité par résidence Livrables Attendus Une base de données fusionnée "Googelisation" des BDD Cartographie Objectifs de la Mission Le but de la mission est de pouvoir, à partir du fichier source existant, collecter des données en masses google, afin de pouvoir croiser les données et définir des cibles pour les commerciaux. L'objectif est d'automatiser et industrialiser les outils, afin de sortir d'un traitement manuel.
Freelance

Mission freelance
Data Engineer

Publiée le
Apache Airflow
AWS Cloud
Dataiku

12 mois
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Freelance

Mission freelance
[SCH] Data Engineer Spark / Scala - 1047

Publiée le

10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Freelance

Mission freelance
Data Engineer - Gen AI - Finance (h/f)

Publiée le

12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
CDD
CDI
Freelance

Offre d'emploi
Data Engineers H/F – Junior / Confirmé / Senior

Publiée le
Agile Scrum
BigQuery
Data quality

3 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre d’un projet stratégique de transformation numérique, une grande direction technique souhaite renforcer son pôle Data et constituer une équipe complète de Data Engineers . L’objectif : faire de la donnée un véritable levier de croissance et de pilotage interne. Adossée à une plateforme data moderne, cette équipe – pilotée par un Product Owner et déjà composée de plusieurs ingénieurs – développe et maintient un produit de reporting et d’analyse destiné aux directions métiers. Nous recherchons donc plusieurs profils de Data Engineers de niveaux variés (junior, confirmé, sénior) pour rejoindre cette équipe et contribuer à la mise en place et à l’évolution de la plateforme Data. Objectifs de la mission Les consultants interviendront sur : La maintenance et l’évolution de la plateforme data et des pipelines associés ; L’ accompagnement des utilisateurs internes dans l’exploitation des données ; La mise en place d’un contrôle qualité sur les données traitées ; Le développement et l’industrialisation de nouveaux flux de données sur un environnement Cloud moderne. Stack technique Langages : Python, SQL Data engineering : dbt, BigQuery, Dataplex, Airflow Infrastructure as Code : Terraform, Terragrunt CI/CD : GitLab CI/CD Cloud : Google Cloud Platform Responsabilités principales Concevoir et maintenir des pipelines de données robustes et scalables ; Garantir la qualité, la fiabilité et l’intégrité des données ; Organiser et structurer le stockage des données ; Mettre en œuvre des infrastructures scalables et sécurisées ; Participer à la documentation , au partage de bonnes pratiques et à la veille technologique ; Contribuer aux workflows CI/CD et à l’industrialisation de la plateforme. Profils recherchés Nous recherchons plusieurs niveaux d’expérience : 🧩 Junior : moins de 3 ans d’expérience ⚙️ Confirmé : 3 à 5 ans d’expérience 🧠 Senior : plus de 5 ans d’expérience Compétences clés attendues : Maîtrise de Python , SQL , BigQuery et dbt ; Bonne compréhension des architectures data et des pipelines ETL/ELT ; Expérience sur Google Cloud Platform ; Connaissance de Terraform / Terragrunt et GitLab CI/CD ; Bonnes pratiques Agile (Scrum ou Kanban) ; Capacité à vulgariser et à collaborer efficacement au sein d’une équipe technique. Modalités 📍 Lieu : Paris (présence sur site environ 50 %) 🕓 Démarrage : janvier 2026 📅 Durée initiale : 3 mois, renouvelable (jusqu'à 15 fois) 🗣️ Langue : français courant impératif Pourquoi rejoindre cette mission ? Participer à un projet data stratégique au cœur d’un écosystème numérique en pleine évolution ; Travailler sur une stack GCP moderne (dbt, Airflow, Terraform, GitLab CI/CD) ; Rejoindre une équipe pluridisciplinaire et contribuer à la construction d’une nouvelle plateforme data ambitieuse . 💡 À propos de cette offre : Cette publication unique vise à recruter plusieurs Data Engineers de niveaux variés (junior, confirmé, sénior) afin de constituer une équipe complète autour d’un même produit Data. Lors de votre candidature, merci de préciser votre niveau d’expérience, votre TJM et votre disponibilité .
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Freelance
CDI

Offre d'emploi
Data engineer

Publiée le
Big Data
BigQuery
DBT

1 an
40k-50k €
400-550 €
Île-de-France, France
Télétravail partiel
Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
271 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous