Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 263 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Stambia (F/H)

CELAD
Publiée le
ETL (Extract-transform-load)
Microsoft SQL Server
ODI Oracle Data Integrator

3 ans
40k-47k €
400-500 €
Lille, Hauts-de-France

CDI/Freelance/Portage 💼 – 3 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du secteur bancaire ? Cette mission est peut-être faite pour vous ! 💼🚀 Vos missions : Concevoir, développer et maintenir des flux d’intégration de données avec Stambia, en lien avec les besoins métiers et les exigences des projets décisionnels. Participer à la modélisation des données, à l'alimentation des entrepôts (Data Warehouse) et au traitement des données issues de sources hétérogènes. Garantir la qualité, la performance et la fiabilité des traitements ETL, tout en contribuant à l’optimisation des chaînes d’intégration et à l’industrialisation des processus.

Freelance

Mission freelance
Data Engineer / Analytics Engineer Microsoft Fabric

Hubflow
Publiée le
Microsoft Fabric

6 mois
450-560 €
Paris, France

Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :

Freelance

Mission freelance
Data Engineer / Développeur Dataiku

Deodis
Publiée le
Dataiku
SQL

12 mois
360-400 €
Bordeaux, Nouvelle-Aquitaine

Actuellement en phase d’amélioration de la qualité des données, l’équipe projet souhaite renforcer ponctuellement son dispositif de développement Dataiku. En collaboration étroite avec l’équipe en place, l’objectif est de préparer les données (selon les règles Métier définies) et développer l’ensemble des étapes permettant l’intégration de ces données dans le projet existant. - Montée en compétences : o Appropriation du contexte fonctionnel o Appropriation des bonnes pratiques de développements o Compréhension et maitrise du projet Dataiku existant - Développement Dataiku - Recette des développements réalisées o Tests unitaires o Tests d’intégration dans le projet existant, en lien avec le référent - Documentation du data dictionnaire - Documentation des spécifications techniques et fonctionnelles

CDI
Freelance

Offre d'emploi
Data QA Engineer H/F

PREREQUIS
Publiée le
Data analysis

12 mois
40k-60k €
100-500 €
Île-de-France, France

Missions : • Élaborer la stratégie de test de l’équipe Data et définir la bonne approche qualité en collaboration avec le Product Owner, le Scrum Master et les membres de l’équipe. • Concevoir, piloter et exécuter des tests de bout en bout (E2E), avec un focus particulier sur les produits data dans les environnements Azure Data Stack et Databricks. • Travailler en étroite collaboration avec les Product Owners pour définir et affiner les scénarios de test, en se concentrant sur les exigences fonctionnelles et la qualité des données. • Garantir la fiabilité et la valeur des produits data livrés en appliquant des scénarios de test rigoureux. • Adapter et appliquer le cadre méthodologique QA aux spécificités d’un environnement Data. • Collaborer avec l’équipe Quality Assurance Automation (QAA) pour automatiser les tests critiques, notamment ceux liés à l’ingestion et à la transformation des données. • Participer à la conduite du changement auprès des équipes data pour favoriser l’adoption des bonnes pratiques QA. • Contribuer à la gestion de projet qualité, notamment sur la planification des tests, la priorisation des anomalies et le reporting.

Freelance

Mission freelance
Data Engineer - GCP

Orcan Intelligence
Publiée le
Google Cloud Platform (GCP)

6 mois
500-650 €
Paris, France

Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.

Freelance

Mission freelance
Data Engineer GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Hadoop

12 mois
550-570 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer GCP" pour un client dans le secteur de l'assurance Description 🧩 Contexte de la mission Au sein du Département Data Solutions, l’équipe TAI (Traitement et Analyse de l’Information) a pour objectif de préparer, transformer et mettre à disposition les données nécessaires aux applications métiers. Dans le cadre de la modernisation de la plateforme data, l’équipe lance un projet stratégique de migration des assets OnPrem vers le Cloud GCP, en s’appuyant notamment sur DataProc et BigQuery. 🎯 Objectifs et livrables Le consultant interviendra sur la migration technique des traitements data et sur l’accompagnement fonctionnel des équipes métier et techniques. 🔹 Missions fonctionnelles : Analyser et rationaliser le legacy existant pour le rendre compatible avec le Cloud GCP. Rédiger la documentation fonctionnelle de référence : Description technique et métier du SI cible. Implémentation et intégration dans le projet. Être garant de la bonne application des pré-requis techniques et fonctionnels. Maintenir une relation fluide et de confiance entre les équipes SI Source, Data Fabrik et les métiers. Mettre en place les bonnes pratiques sur DataProc et accompagner leur adoption. Accompagner la migration des projets TAI depuis la plateforme OnPrem vers DataProc. Soutenir les équipes (notamment LCB-FT) dans le développement et le déploiement des traitements. 🔹 Missions techniques ("dev") : Concevoir et développer les chaînes de traitement de données de bout en bout (depuis la source jusqu’à la consommation). Réaliser les développements conformes aux besoins métiers. Créer et industrialiser les workflows sous Control-M pour le pilotage automatisé des flux.

Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer

ADATEK
Publiée le
Apache Spark
Azure
Azure DevOps

3 ans
Île-de-France, France

Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.

Freelance
CDI

Offre d'emploi
Ingénieur Devops / AWS / DataOps (Pas de profils Data Engineer / Data Scientist)

LOMEGARD
Publiée le
AWS Glue

3 ans
40k-60k €
400-600 €
Île-de-France, France

Pour l'un de nos clients nous recherchons un(e) Ingénieur Devops / AWS / DataOps , qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) sur AWS Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)

Freelance

Mission freelance
Data Analyst / Data Engineer

Lawrence Harvey (LHI group limited)
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

1 mois
450-550 €
Paris, France

Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)

CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-60k €
Levallois-Perret, Île-de-France

Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 7kbz633w88

Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Atlas Connect
Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France

Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

CDI

Offre d'emploi
Data Engineer - Expert Cloudera (F/H)

Savane Consulting
Publiée le

60k-70k €
Gennevilliers, Île-de-France

Data Engineer & Expert Cloudera – CDI – Gennevilliers (92) – 60/70 K€ Contexte du poste Dans le cadre d’un projet Groupe couvrant 5 divisions métiers, la DSI renforce son équipe Data avec le recrutement d’un Data Engineer. L’objectif est de concevoir et mettre en place un Data Layer commun et de développer une série d’indicateurs métiers structurants pour le pilotage des activités. Le Data Engineer interviendra également sur l’ implémentation des user stories issues du backlog défini par le PPO. L’équipe actuelle se compose de 4 Chefs de projet BI et 1 Architecte Big Data . À terme, elle intégrera 2 Consultants BI , 2 PPO et 1 autre Data Engineer . Missions principales Participer à la spécification et au développement au sein de la nouvelle infrastructure Cloudera Réaliser les scripts d’intégration et de transformation des données en Scala / Spark Concevoir et préparer les jeux de données nécessaires au reporting dans Power BI Concevoir, documenter et optimiser les modèles de données pour la performance et la maintenabilité Être force de proposition pour l’évolution de la plateforme et l’amélioration des performances globales

Freelance

Mission freelance
DATA ENGINEER GCP

CHOURAK CONSULTING
Publiée le
Apache Spark
BigQuery
DBT

1 an
400-600 €
Île-de-France, France

Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Freelance

Mission freelance
Tech Lead Data Engineer senior

Cherry Pick
Publiée le
Apache Spark
Azure
Databricks

12 mois
530-580 €
Paris, France

Vous rejoindrez notre Data Factory dont la mission est de concevoir et de déployer des produits analytiques innovants à destination des magasins, des fonctions support, de la logistique et des consommateurs. Face à la montée en puissance des besoins, nous avons adopté une organisation Agile en Domaines/Squads, avec une forte volonté d’industrialiser nos pratiques pour accélérer les livraisons tout en valorisant notre patrimoine de données. En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. 2. Compétences Techniques Requises Nous recherchons un profil senior avec une expérience d’au moins 2 ans en tant que Tech Lead et une certification sur Spark ou Databricks sont exigées. Compétence Expérience minimale demandée : Data Engineering 5 ans Azure 3 ans Architecture Lakehouse 3 ans Databricks 5 ans Spark 5 ans SQL, Python 5 ans Scala 2 ans CI/CD, Azure DevOps 5 ans

Freelance

Mission freelance
Développeur / Data Engineer Observabilité

Signe +
Publiée le
Python

6 mois
540-630 €
Levallois-Perret, Île-de-France

Contexte Nous recherchons un Développeur Senior possédant une double expertise en Développement Backend et en Ingénierie des Données, pour intégrer une équipe dédiée à l’Observabilité. Le consultant interviendra dans un environnement Azure et DevOps, avec un fort enjeu de fiabilité, performance et gouvernance des données. Localisation et modalités Lieu : Levallois-Perret Hybridation : 2 à 3 jours sur site / semaine Durée : engagement long terme (jusqu’à 3 ans) Démarrage : 13/10/2025 Fin prévue : 12/10/2026 Seniorité : +8 ans d’expérience minimum Missions et Responsabilités Développement Backend Concevoir, développer et maintenir des services backend (Python, PySpark). Exposer des APIs et intégrations orientées Observabilité. Data Engineering Construire et orchestrer des pipelines ELT/ETL robustes (Airflow, Spark, Python). Assurer la qualité, le lineage, la sécurité et l’observabilité des données. Stockage & Visualisation Gérer les données via PostgreSQL, Azure Blob Storage et ADLS. Créer des dashboards avancés avec Grafana pour la supervision des performances. Collaboration & Méthodologie Travailler avec les équipes de développement et le Product Owner (Agile/Scrum). Intégrer les pratiques d’observabilité dans les cycles de développement pour améliorer résilience et visibilité. Compétences techniques requises Langages : Python, PySpark, SQL, NoSQL (ElasticSearch). Data & orchestration : Spark, Airflow, PostgreSQL, ADLS, Azure Blob Storage. Observabilité : ELK Stack, Logstash, Azure Log Analytics (KQL), Grafana. Cloud & Infrastructure : Azure (AKS, Azure Functions, Event Hub, Delta Lake). CI/CD : GitHub Actions, intégration et déploiement continus. Bonus : Kafka, Spark Structured Streaming. Qualifications & Profil Diplôme en informatique/ingénierie ou équivalent. Expérience : 6+ ans en Data Engineering / Développement backend (dont plusieurs en environnement Azure & DevOps). Langues : Français et Anglais courants (écrit et oral). Résumé Mission longue (1 à 3 ans) sur Levallois-Perret, orientée sur le développement backend et l’ingénierie de données pour renforcer l’observabilité des systèmes critiques.

CDI
Freelance

Offre d'emploi
Data engineer ETL Airflow

IT-EXPLORER
Publiée le
Apache Airflow

3 ans
40k-45k €
400-500 €
Île-de-France, France

Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement

263 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous