Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 225 résultats.
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

45k-55k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : wkau5pqvbh

Freelance

Mission freelance
Data Engineer (AWS, Snowflake & Terraform)

Trait d'Union Consulting
Publiée le
Snowflake
Terraform

1 an
500-650 €
Paris, France

Notre client souhaite renforcer son équipe DataPlatform. Vous rejoindrez une équipe composée de 3 Data Engineer, 1 DB Admin, 1 Responsbale BI, 1 Product Owner appuyé par des DevOps mettant à disposition les infrastructures de gestion de la donnée. Vous aurez la charge de 3 principales missions : 1° Implémentation de nouveaux flux de données sur AWS & Terraform avec Python/Airflow (COLD et STREAMING) · Implémentation des flux de données de l’extraction à l’exposition des données via Python/Airflow Managé ou avec Nifi pour les données « cold » et « streaming » 2° On vous demandera pour chacun des projets : · Code Review entre les data engineers · Réalisation des tests unitaire, de non-régression et d’intégration · Mise à jour de la documentation sous Confluence · Mettre à jour la documentation dans confluence. · Réaliser les tests unitaires et d’intégration. · Respecter les bonnes pratiques de développements 3° Maintenance corrective des flux de données 1 à 2 jrs de remote Localisé Paris 12e

Freelance
CDI

Offre d'emploi
DATA ENGINEER AWS / TALEND

UCASE CONSULTING
Publiée le
AWS Cloud
PySpark
Talend

6 mois
40k-59k €
400-890 €
Paris, France

🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.

Freelance

Mission freelance
DATA ENGINEER Cloud GCP

KEONI CONSULTING
Publiée le
BigQuery

18 mois
110-600 €
Paris, France

CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Freelance

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)

Cherry Pick
Publiée le
Apache Spark
Java
Python

12 mois
500-560 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

CDI
Freelance

Offre d'emploi
Data Engineer orienté DevOps

STORM GROUP
Publiée le
Apache Spark
DevOps
Hadoop

2 ans
40k-45k €
400-550 €
Charenton-le-Pont, Île-de-France

- Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python

Freelance

Mission freelance
Data Engineer Kafka, KStreams, K8S, Spark

KEONI CONSULTING
Publiée le
DevOps
Java

18 mois
100-400 €
Paris, France

MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

CDI
Freelance

Offre d'emploi
Data Engineer Stambia (F/H)

CELAD
Publiée le
Stambia

12 mois
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting

Freelance

Mission freelance
DATA ENGINEER PRODUCTION

HAYS France
Publiée le
Apache Kafka
Cloudera
Hadoop

3 ans
Hauts-de-France, France

Dans le cadre d’un projet stratégique lié à l’industrialisation de nouvelles lignes de production, nous recherchons un Data Engineer Sénior pour intervenir sur la conception et le développement de flux de données. La mission consiste à spécifier, développer et maintenir des pipelines d’ingestion et de transformation de données dans un environnement Big Data. Le consultant interviendra en régie, au sein d’une équipe Data pluridisciplinaire, en lien avec les équipes IT et métiers. Expérience : Minimum 2 ans en tant que Data Engineer dans des environnements Big Data

Freelance

Mission freelance
Data Engineer Azure

VISIAN
Publiée le
Azure
Azure Data Factory
Azure DevOps

1 an
300-500 €
Île-de-France, France

L’équipe Data est en charge de maintenir les anciens flux de données nécessaires aux différents métiers. Elle est en permanence amené a discuté avec les différents métiers afin de mettre en place de nouveau flux ou apporté des modifications à d’anciens. C’est ensuite à nous de priorisé les sujets qui sont les plus critiques et urgent. Enjeux du projet : Pouvoir fournir des données propres aux différents métier de manière continue et fluide, répondre aux différentes attentes de ceux là. Réussir à mettre en place des pipelines as code. Détails de vos activités : 1. Cadrage en amont de la phase de développement avec les métiers. 2. Mise en place de nouveaux flux de données sous Talend et Azure (Une migration de Talend à Azure est en cours de réalisation) 3. Déploiement as code des pipelines (Cloud, CI/CD) 4. Déploiement de nouvelle base de données as code ou pas. 5. Analyse des couts de mise en place pour les nouvelles demandes Les technos / méthodo / Logiciels Cloud / Data (Talend /GIT/BDD SQL/Azure/Python) Azure Data Factory, Azure Devops Le ROI / Résultats pour le client : Avoir des données accessibles pour le métier répondant à leurs attentes Automatiser le plus possible les différents traitements des métiers.

CDI

Offre d'emploi
Data Analyst/ Data Engineer F/H

ICSIS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python

Lille, Hauts-de-France

Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données

Freelance

Mission freelance
Data Engineer IA GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France

🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

Freelance

Mission freelance
Data Engineer AWS Senior – (PySpark )

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
520-590 €
Île-de-France, France

Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

Freelance

Mission freelance
Data Engineer / Développeur API H/F

Insitoo Freelances
Publiée le
Apache Spark
Hadoop
PySpark

2 ans
500-600 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer / Développeur API H/F à Paris, France. Les missions attendues par le Data Engineer / Développeur API H/F : L'objectif de la mission est d'assurer le rôle de Data Engineer et de développeur API au sein de la squad, avec les responsabilités suivantes : - Gestion de la production - Gestion de la dette technique - Revue de l'architecture actuelle et proposition d'évolutions - Développements liés aux projets La mission pourra évoluer vers d'autres squads Data en fonction des besoins.

Freelance
CDI

Offre d'emploi
Data Engineer (Spark, Hadoop, Scala)

HIGHTEAM
Publiée le
Apache Spark
AWS Cloud
PySpark

3 ans
40k-60k €
400-550 €
Île-de-France, France

Pour l’un de nos clients grands comptes, nous recherchons un Data Engineer confirmé maîtrisant Spark, Hadoop, Scala , pour intégrer une Squad data transverse. L’objectif de la mission est d'assurer un rôle de Data Engineer & développeur API , avec les responsabilités suivantes : Suivi et gestion de la production Réduction de la dette technique Évolution de l’architecture existante et proposition d’améliorations Développements projets et intégration dans les pipelines Possibilité d’évolution vers d’autres Squad Data selon les besoins Activités principales Acheminement, traitement et mise à disposition des données Industrialisation des traitements data Mise en production de modèles statistiques Suivi de projet, développement de jobs Spark Ingestion multi-format (batch & streaming) Développement de scripts et API de restitution Génération de Dashboard ou fichiers à destination des équipes métier Participation à la conception et administration de solutions Big Data Installation, configuration de clusters Hadoop Intégration Spring Boot pour extraction depuis Teradata → Kafka → Data Lake

Freelance

Mission freelance
Consultant (H/F) Tech Lead Data Engineer GCP

HOXTON PARTNERS
Publiée le
Google Cloud Platform (GCP)

12 mois
Paris, France

Nous recherchons un Tech Lead Data Engineer confirmé pour une mission longue à Paris. Le consultant sera responsable de la création et du maintien d’une architecture de pipelines de données optimale, en automatisant les processus manuels, en optimisant la livraison de données et en repensant l’infrastructure pour plus d’évolutivité. Il s’agira d’assembler des ensembles de données volumineux et complexes répondant aux besoins opérationnels, de créer l’infrastructure nécessaire à l’extraction, la transformation et le chargement des données depuis diverses sources grâce aux technologies SQL et BigQuery, et de développer des outils d’analyse permettant de fournir des insights exploitables sur l’acquisition de clients, l’efficacité opérationnelle et la performance globale. Le consultant collaborera étroitement avec les experts data et analytics pour améliorer continuellement la fonctionnalité des systèmes de données.

225 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous