Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 286 résultats.
Freelance

Mission freelance
Data Engineer senior/expert DBT/Snowflake 

EBMC
Publiée le
Snowflake

6 mois
120-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement de ses plateformes data, le client recherche un Data Engineer senior / expert dbt & Snowflake pour intervenir sur des sujets à forte valeur ajoutée autour de la modélisation, de l’industrialisation et de l’optimisation des pipelines de données. La mission s’inscrit dans un environnement data moderne, orienté analytics et performance, avec des enjeux forts de qualité, de sécurité et de scalabilité. Le consultant interviendra sur des projets structurants, nécessitant une excellente maîtrise des architectures cloud data et une capacité à travailler en autonomie dans un contexte international
Freelance
CDI

Offre d'emploi
Data Engineer Semarchy xDI (H/F)

GROUPE ALLIANCE
Publiée le
Semarchy

36 mois
Île-de-France, France
SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI… CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi! Pour le compte d'un de nos clients issus du monde de l'assurance , tu participeras au renforcement de leur équipe Data en tant que Data Engineer Semarchy xDI : La conception, le développement et le test des flux d’alimentation de données (brutes et transformées) en utilisant Semarchy xDI , tu réaliseras La collaboration avec le Product Owner et les profils fonctionnels pour comprendre les besoins métiers et leur traduction en spécifications techniques , tu contribueras Le garant de la qualité, de la performance et de la fiabilité des flux de données mis en place, en réalisant notamment des tests unitaires avant livraison , tu seras La rédaction des spécifications techniques détaillées, les cahiers de recette techniques, dossiers d'application, tu veilleras La documentation fonctionnelle des solutions développées , tu rédigeras
Freelance

Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa

WorldWide People
Publiée le
DBT
Informatica
Snowflake

6 mois
400-500 £GB
Bordeaux, Nouvelle-Aquitaine
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Freelance
CDI

Offre d'emploi
Data Engineer - Elasticsearch

VISIAN
Publiée le
Elasticsearch
ETL (Extract-transform-load)

1 an
40k-60k €
400-550 €
Montreuil, Île-de-France
Environnement de travail: Au sein d'une équipe de DataManagement à taille humaine, devoir d'intégration et renfort de l'équipe pour contribution aux enjeux forts de DataDriven Travail à la mise à disposition de données en garantissant la qualité et la fraicheur pour l'ensemble des traitements et process qui l'utilisent. Collaboration avec les équipes informatiques et capacité de traitement des données en provenance de différentes sources, puis analyse et interprétation des résultats tout en définissant la structure de stockage Anglais écrit et oral pour des échanges avec certains interlocuteurs internationaux et les équipes de support éditeur. 1. Objet de la mission Développer, optimiser et maintenir des pipelines de données, incluant l’automatisation, la gestion des bases, la recherche et le traitement. 2. Périmètre de la prestation · Conception et développement de flux ETL/ELT. · Mise en place et exploitation de traitements en streaming. · Développement de scripts et automatisations PowerShell. · Administration et optimisation de PostgreSQL. · Indexation, recherche et optimisation dans Elasticsearch. 3. Livrables attendus · Pipelines opérationnels et documentés. · Scripts PowerShell industrialisés. · Schémas et procédures PostgreSQL optimisés. · Index/mappings Elasticsearch performants.
Freelance
CDI

Offre d'emploi
Data Engineer – Pipelines & Streaming

OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch
PostgreSQL

3 ans
Île-de-France, France
Dans le cadre du renforcement de ses capacités data, la mission consiste à concevoir, développer, optimiser et maintenir des pipelines de données , couvrant l’automatisation des traitements, la gestion des bases de données, les capacités de recherche ainsi que le traitement des flux temps réel. Livrables attendus Pipelines de données opérationnels, robustes et documentés. Scripts PowerShell industrialisés et maintenables. Schémas de données et procédures PostgreSQL optimisés. Index, mappings et configurations Elasticsearch performants.
Freelance

Mission freelance
Data Engineer Big Data – Datalake Hadoop / Spark (on-premise)

CAT-AMANIA
Publiée le
Apache Hive
Big Data
CI/CD

2 ans
400-480 €
Île-de-France, France
Dans un contexte Data & BI à forts enjeux, vous intervenez au sein d’une équipe Big Data & API , rattachée à une squad Financing & Risk , en charge du développement et de l’exploitation d’un datalake utilisé comme plateforme data centrale par les équipes IT et métiers. En tant que Data Engineer , vous jouez un rôle clé dans la gestion, l’évolution et la fiabilité de cette plateforme. Vos principales missions sont les suivantes : Assurer la gestion de la production du datalake (suivi, incidents, stabilité des traitements) Prendre en charge la dette technique et contribuer à l’amélioration continue de la plateforme Analyser l’architecture existante et proposer des évolutions techniques pertinentes Réaliser les développements Big Data liés aux projets en cours et à venir Participer à l’industrialisation et aux déploiements via les chaînes CI/CD Vous évoluez dans un environnement technique Big Data on-premise , au sein d’une équipe travaillant en interaction avec des équipes IT et métiers, sur des sujets à forte valeur ajoutée.
Freelance

Mission freelance
Data Engineer Spark / Java / GCP (F/H)

CELAD
Publiée le

1 an
550-570 €
Écully, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de travailler sur un projet data stratégique à fort impact métier ? Dans le cadre d’un grand groupe français du secteur assurance / services financiers, nous recherchons un.e Data Engineer Spark / Java / GCP pour intervenir sur un projet stratégique de gestion des risques climatiques. Voici un aperçu détaillé de vos missions : En lien étroit avec les équipes IT et métiers du client ainsi que l’intégrateur, vous interviendrez sur l’ensemble de la chaîne projet : - Analyse et compréhension des modèles de calcul actuariels - Participation à la conception technique des solutions data - Développement de traitements Spark Java avec intégration de librairies géospatiales - Industrialisation des pipelines de données - Déploiement et exploitation sur Google Cloud Platform - Rédaction de la documentation technique et fonctionnelle - Accompagnement des équipes internes (montée en compétence Spark / Java) - Anticipation des phases de RUN - Reporting projet auprès du chef de projet
Freelance

Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa

WorldWide People
Publiée le
DBT
Informatica
Snowflake

6 mois
400-500 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Freelance

Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino

WorldWide People
Publiée le
Apache Kafka
DBT
Python

12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
CDI
Freelance

Offre d'emploi
Data Engineer - Finance (H/F)

STORM GROUP
Publiée le
Apache Hive
Bash
Hadoop

3 ans
50k-60k €
480-550 €
Île-de-France, France
Contexte : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (FinLake). Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. Missions : L'objectif de la mission est d'assurer le rôle de Data Engineer du FinLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
Freelance

Mission freelance
Data Engineer AWS / Snowflake

Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake

12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
Freelance

Mission freelance
Data Engineer IA & API (GCP & AWS)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker

6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Freelance

Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)

ALLEGIS GROUP
Publiée le
Azure Data Factory
Microsoft Fabric

6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Freelance

Mission freelance
Data Engineer senior/expert DBT/Snowflake  Paris ou Lyon/sa

WorldWide People
Publiée le
DBT
Snowflake

3 mois
400-480 £GB
Paris, France
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
286 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous