Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 219 résultats.
Offre premium
CDI
Freelance

Offre d'emploi
Data Engineer

HN SERVICES
Publiée le
Apache Kafka
Apache Spark
CI/CD

6 mois
40k-65k €
400-550 €
Paris, France

Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark, Java de la squad Data Value (connaissance client, collecte des événements digitaux...). Expertise technique confirmé sur Kafka, Kstreams, K8s, streaming de données Développer en Spark/Kafka des traitements de transformation et de production de données Designer des chaines optimisées CI/CD en collaboration avec les équipes, DEVOPS, et CAGIP Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code

CDI

Offre d'emploi
Data Engineer

TOHTEM IT
Publiée le

35k-42k €
Toulouse, Occitanie

Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Freelance

Mission freelance
Data engineer

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Spark
AWS Cloud
Big Data

12 mois
510-550 €
Paris, France

Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.

CDI

Offre d'emploi
Data Engineer Teradata

HN SERVICES
Publiée le
DevOps
IBM DataStage
SQL

Île-de-France, France

Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps

Freelance
CDI

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Kafka

3 ans
Île-de-France, France

En résumé, le bénéficiaire cherche un expert data engineering transverse qui va jouer un rôle de référent technique aussi bien pour les équipes de build (projets, nouveaux services) que pour le RUN (production, exploitation) . Objectif de la mission Garantir la stabilité, performance et disponibilité des services liés au streaming (Kafka, Kafka Connect, Flink, etc.). Être force de proposition et d’amélioration continue (optimisation, industrialisation, automatisation). Accompagner le déploiement de nouveaux services dans le Cloud privée en définissant et validant les bons choix techniques. Servir de point d’appui / Tech Lead pour les équipes projet et production. Participer à une veille technologique et aider à la modernisation de l’écosystème. Tâches attendues RUN Expertise incidents et résolution des problèmes complexes. Participation aux astreintes pour les services existants. Support technique aux clients internes (équipes métiers, projets, prod). BUILD Mise en place de nouveaux services dans le Cloud privée (Kafka Connect, Flink). Garantir l’intégration dans le SI BNPP (sécurité, exploitation, monitoring). Assistance Tech Lead auprès des équipes pour débloquer les difficultés. Transverse Amélioration continue des services existants. Participation aux choix d’architecture. Documentation, bonnes pratiques et standardisation. Périmètre technique Tu retrouves un mix de data engineering, DevOps et production autour de : Streaming : Kafka, Kafka Connect, Flink. Big Data : Hadoop (HDFS, Hive), ElasticSearch. Stockage et conteneurs : Object Storage (API S3), Kubernetes / OpenShift, Helm. Dév & intégration : Java (Spring Boot, Spring Security), Python, CI/CD (Git, Jenkins, etc.). NoSQL / DB : MongoDB, PostgreSQL. Automatisation : Ansible.

Freelance

Mission freelance
Data Engineer / Data Scientist

Comet
Publiée le
Python

220 jours
600-800 €
Pau, Nouvelle-Aquitaine

📝 Fiche de Mission – Data Engineer / Data Scientist 📍 Lieu : Pau (64) – Déplacements ponctuels sur Paris (≈ 5 / an) 📅 Démarrage : 13/10/2025 ⏳ Durée : 12 mois – renouvelable 💶 TJM : Jusqu’à 800 € HT / jour 🕐 Rythme : Plein temps (présentiel majoritaire, possibilité part remote) Contexte de la mission Dans le cadre d’un programme de transformation digitale d’un grand groupe industriel, la mission s’inscrit au sein de l’équipe et vise à renforcer les capacités d’ingénierie de données afin d’améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles.

Freelance
CDI

Offre d'emploi
Big Data Engineer

KLETA
Publiée le
Apache Kafka
DevOps
ELK

3 ans
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

CDI

Offre d'emploi
Senior Data Engineer

ANDEMA
Publiée le
Java
Snowflake

55k-70k €
Île-de-France, France

Missions principales Concevoir, développer et maintenir des pipelines d’ingestion et de traitement de données à forte volumétrie . Participer à la migration Scala vers Java/Spring et à l’intégration dans Snowflake/Snowpark . Travailler sur l’ architecture et l’optimisation des solutions data (batch & stream). Garantir la qualité du code : tests unitaires et d’intégration, CI/CD, documentation, monitoring. Collaborer avec le Tech Lead et l’équipe , en agile (daily scrums, code reviews, pair programming). Être un référent technique pour l’équipe et contribuer aux choix technologiques. Participer à des projets transverses et assurer la veille technologique sur les nouvelles solutions data. Architecture & concepts Expérience avec architecture medaillon data : Bronze → Silver → Gold. Compréhension des transformations et de la gestion des données selon cette architecture. Capacité à proposer et mettre en œuvre des améliorations pour la performance et la scalabilité. Stack & compétences recherchées Technologies principales : Java (expert, orienté Spark) Spring Snowflake / Snowpark Connaissances attendues : Databricks (full service managé, migration complète) Airflow, GitLab CI SQL Expérience Cloud (préférence GCP, AWS également possible) Compétences complémentaires : Conception de pipelines de données scalables Tests automatisés, monitoring, CI/CD Autonomie et capacité à driver techniquement l’équipe

Freelance
CDI

Offre d'emploi
Data Engineer Snowflake / DBT

KERNET
Publiée le
autonomie

12 mois
50k-65k €
500-600 €
Île-de-France, France

Dans le cadre du développement de notre Data Factory, nous recherchons un Data Engineer / Data Platform Engineer expérimenté pour concevoir, superviser et optimiser nos plateformes de données. Vous serez un acteur clé dans la définition des standards techniques, l’accompagnement des équipes de développement et la mise en place de solutions scalables et durables. Missions principales : Missions principales Participer activement à l’évolution de la stratégie et des outils data, dans un contexte en constante transformation. Concevoir, déployer et faire évoluer des plateformes de données modernes (Snowflake, BigQuery, Databricks). Définir et appliquer les bonnes pratiques de développement, les normes de qualité et de sécurité. Mettre en place et garantir les normes de sécurité, de gouvernance et d’optimisation des environnements. Piloter la maîtrise et l’optimisation des coûts (approches FinOps par projet fonctionnel). Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) afin de répondre aux besoins de la Data Factory. Développer et maintenir des méthodes d’ingestion de données (via ETL et/ou scripting Python). Concevoir, développer et déployer des frameworks Data (QA, ELT, GitLab, etc.). Automatiser l’infrastructure et les processus (CI/CD avec Git/GitLab). Assurer le monitoring et la gouvernance des environnements Snowflake et DBT. Encadrer et accompagner les équipes de développement data dans leurs projets. Former les équipes aux outils, frameworks et méthodes de Data Engineering. Rédiger et maintenir la documentation technique et fonctionnelle ainsi que les guides de bonnes pratiques.

Freelance

Mission freelance
Data Engineer Databricks

Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes

En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.

CDI
Freelance

Offre d'emploi
Expert Data Engineer

Signe +
Publiée le

24 mois
50k-55k €
358-550 €
Magny-les-Hameaux, Île-de-France

1. Environnement technique de la Prestation Les produits s'appuient sur les technologies suivantes : - Nifi pour l'ingestion de données ; - Amazon EMR pour les traitements de données ; - Amazon EKS et Mongo dB pour la mise à disposition des données. Les développements seront réalisés sur les environnements de développement, de pré-production et de production mis en place par le client. 2. Expertises techniques attendues Pour réaliser leurs missions dans de bonnes conditions, les intervenants du prestataire devront mettre en œuvre une expertise technique dans les domaines suivants : - Expertise en services Data sur la Plateforme AWS (Certifications AWS : Data Analytics, Big Data…) : S3, HDFS, RDS, Redshift, EMR, Airflow… - Expertise en solutions Big Data/Analytics : Spark, NoSQL… - Expertise en technologies d'intégration de données de type ETL/EAI : Mulesoft.. - Expertise en chaîne d'automatisation MLOps et CI/CD Spark -> 2.x EMR on EKS -> 5.32.0 MWAA -> 2.4.3 (latest) MongoDB enterprise -> 6.06 Opensearch -> 1.2 NIFI -> 1.16.3 NiFi Registry -> 0.8.0 Lieu : Magny les Hameaux

Freelance
CDI
CDD

Offre d'emploi
Data Engineer Senior

KERNET
Publiée le
autonomie

12 mois
47k-53k €
450-530 €
Île-de-France, France

Contexte : Dans le cadre de sa stratégie data-driven, notre client souhaite renforcer ses équipes avec un profil Data Engineer senior (5+ ans d’expérience). L’objectif est de concevoir, industrialiser et optimiser les pipelines de données afin d’assurer la fiabilité, la scalabilité et la gouvernance des données pour les cas d’usage analytiques, IA et décisionnels. Missions principales Conception et déploiement de pipelines de données batch et temps réel. Industrialisation des traitements data (ETL/ELT). Mise en place de plateformes data sur le cloud. Optimisation des performances et de la qualité des données. Collaboration avec les Data Scientists et Business Analysts. Contribution à la gouvernance et à la sécurité des données. Modalités de mission Localisation : Sur site + télétravail partiel possible. Durée : 12 mois renouvelables. Démarrage : ASAP.

CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL

Offre premium
Freelance
CDI

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans d'exp minimum)

Digistrat consulting
Publiée le
Azure
MSBI

3 ans
40k-55k €
400-550 €
Paris, France

🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines

CDI

Offre d'emploi
Data Engineer - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

219 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous