Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 307 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

VISIAN
Publiée le
Apache Hive
Apache Spark
CI/CD

1 an
40k-45k €
400-560 €
Île-de-France, France
🎯 Contexte Au sein de la direction IT Data Management & BI , vous intégrez l’équipe Big Data & API / Squad Financing & Risk . L’équipe développe et maintient un datalake , utilisé comme plateforme de données par les équipes IT et métiers (finance, risque). 🚀 Missions En tant que Data Engineer , vous intervenez sur le datalake FinLake avec les responsabilités suivantes : Assurer la gestion de la production (suivi des flux, incidents, performance) Réduire et maîtriser la dette technique Analyser l’ architecture existante et proposer des évolutions Réaliser les développements Big Data liés aux projets métiers Participer aux déploiements et à l’industrialisation des traitements 🛠️ Environnement technique Big Data : Spark, PySpark, Scala, Hadoop (on-premise) Data & requêtage : Hive, SQL/HQL, Starburst, Indexima Scripting : Unix / Bash DevOps & industrialisation : Jenkins, CI/CD, XLDeploy, XLRelease Outils projet : Jira
CDI

Offre d'emploi
Data Engineer (F/H)

INFOGENE
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer (F/H) , venez renforcer notre équipe lyonnaise en ayant les responsabilités suivantes : Analyser et comprendre les besoins : Étudier l’existant pour identifier les axes d’amélioration et co-construire des solutions adaptées avec les équipes métiers. Concevoir et développer des pipelines de données : Créer des pipelines de données robustes, performants et évolutifs à l’aide de technologies comme Snowflake ou équivalent . Modéliser et optimiser : Concevoir des modèles de données performants et optimiser les requêtes pour répondre aux exigences métiers tout en garantissant un haut niveau de performance. Supervision et monitoring : Déployer des solutions de monitoring et d’alertes pour assurer la disponibilité et la fiabilité des traitements de données. Gérer les incidents techniques : Diagnostiquer et résoudre les problèmes liés aux pipelines ou infrastructures de données. Collaboration avec les équipes transverses : Participer aux projets en interagissant avec les experts métiers, les architectes techniques et les chefs de projet.
CDI

Offre d'emploi
Data Engineer H/F

DCS EASYWARE
Publiée le

Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons notre futur.e Data Engineer confirmé.e sur Clermont Ferrand ! Allez, on vous en dit plus... En lien avec notre manager Sébastien, voici les missions qui vous seront confiées : - Récupérer et mettre à disposition des bases de données internes et externes. - Construire de nouvelles bases : - En nettoyant les données (identifier les données aberrantes et les supprimer) - En formatant les données (unités...) - En synchronisant les données (qui ne sont pas synchrones, ni à la même fréquence) - en calculant à partir des données brutes des quantités agrégées (pour l'usage, typiquement pente, courbure...) validant la cohérence des données brutes entre elles - En calculant des données complémentaires (construire des \"engineering features\") Vous serez également présent.e aux réunions projet pour assurer la coordination avec l'équipeEt si on parlait de vous ? De formation informatique avec une spécialité data ou équivalent, vous témoignez de minimum 3 ans en Data Engineering. Compétences techniques attendues : - Maîtrise de Databricks / Snowflake/ Snowpark - Python (PySpark, Pandas, SQL). - Expérience avec Dataiku et industrialisation de pipelines de données. - SQL, requêtage avancé. - Automatisation et industrialisation de process data. - Capacité à travailler en autonomie et à structurer un flux collaboratif. - Capacité à capitaliser et documenter son travail. Connaissances souhaitables : - Capteurs, sens physique - Dynamique véhicule - Dataiku - Requêtage base de données (SQL) - Gitlab Qualités : esprit d'équipe, autonomie, esprit de synthèse, force de proposition, hauteur de vue, capacité à délivrer. Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Pourquoi nous rejoindre : - Paniers repas 6,60EUR net / jour travaillé - Prime de participation - Prime de vacances - Prime d'ancienneté - Comité d'entreprise - Mutuelle familiale prise en charge à 60%
Freelance

Mission freelance
Data Engineer

Nicholson SAS
Publiée le
Apache Hive
Apache Spark
Argo CD

6 mois
550 €
Paris, France
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles. Votre mission Sous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE , en exploitant des sources Big Data et décisionnelles complexes. Environnement Technique & Défis Vous évoluerez dans un écosystème On-Premise (MapR) exigeant : Core : Java 11, Spark, SparkSQL, Hive et Shell. Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux. DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD. Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
Data Engineer Senior – Datamart Finance & Fiscalité (GCP / BigQuery)

Freelance.com
Publiée le
BigQuery
Google Cloud Platform (GCP)
JIRA

1 an
400-480 €
Paris, France
Dans le cadre d’un programme stratégique de modernisation du Système d’Information, une direction Data ambitieuse renforce ses équipes pour accélérer la rationalisation des outils, maximiser l’usage des solutions leaders du marché et intensifier l’exploitation de la Data et de l’IA. Au sein d’une Data Team opérant sur une plateforme GCP , vous intégrerez le pôle Architecture & Projets Data , en charge de la modélisation et de la publication de données à forte valeur métier (usage, interaction, finance, réseau, contrat). Le projet s’inscrit dans un programme réglementaire d’envergure autour de la Loi de Finance (FacElec) . Mission Vous interviendrez sur l’ensemble du cycle de construction Data : Conception & Développement des Pipelines Conception et développement des pipelines d’ingestion Mise à jour des fichiers de paramétrage (Hydra) Développement et optimisation SQL Mise à jour des modèles de données Construction du Datamart Modélisation conceptuelle et physique Développement des transformations sous BigQuery Industrialisation et mise en production Recette Métier Participation aux ateliers Analyse et correction d’anomalies Mise à jour des tickets JIRA Ajustements SQL et pipelines Mise en Service & VSR Suivi post-MEP Correction d’incidents Stabilisation des flux
Freelance

Mission freelance
AWS Data Engineer Senior

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Apache Airflow
AWS Cloud

3 mois
400-650 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform au sein d’un acteur majeur du secteur de l’énergie . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Freelance

Mission freelance
Data Engineer ( Lille, Nantes ou Strasbourg )- (h/f)

emagine Consulting SARL
Publiée le

12 mois
380-400 €
59000, Lille, Hauts-de-France
Au sein de la Data Factory du Groupe, vous serez en charge de préparer et mettre à disposition les données. Responsabilités: Échanger avec la MOA et les utilisateurs pour analyser et spécifier les besoins Modéliser et créer des flux sur l’ETL Assurer la recette et le suivi de production Résoudre les problèmes et assurer la maintenance corrective des systèmes en production. Must Have: Votre formation supérieure (Bac+5 ou Ecole d'Ingénieur) spécialisée en data Votre expérience de 6 ans minimum sur un poste similaire Votre parfaite maîtrise d’un ETL/ELT (idéalement Semachy) et de SQL Nice to Have: Votre connaissance de Vertica sera un atout supplémentaire Votre autonomie et votre esprit d'équipe Autres Détails: Télétravail : Vous pourrez bénéficier de 1 jour de télétravail par semaine après 3 mois d'intégration.
Freelance

Mission freelance
Data Engineer SAP

Mon Consultant Indépendant
Publiée le
SAP

3 mois
800-820 €
Paris, France
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
CDI

Offre d'emploi
Data Engineer Semarchy XDI - Nantes (F/H)

Argain Consulting Innovation
Publiée le
Informatica
Semarchy
Talend

35k-40k €
Nantes, Pays de la Loire
Attention : cette opportunité n'est pas ouverte aux Freelances Nous recherchons un/e Data Engineer pour renforcer des équipes de Data Factory. Les activités à couvrir : · Compréhension de l’activité et des besoins de vos clients, en dialogue avec la MOA · Compréhension du SI de production, en dialogue avec les équipes MOE · Modélisation du Système d’Information Décisionnel · Conception et réalisation des traitements d’alimentation des datamarts · Diagnostic des dysfonctionnements rencontrés · Maintenances correctives et évolutives · Support auprès des différents métiers · Documentation technique · Suivi des traitements Pas d’activité de reporting (Business Object ou autre outil BI). Uniquement de l’alimentation de datamarts via un ELT Les compétences recherchées : Maitrise d’un ELT du type SEMARCHY XDi ou type Talend / Informatica Connaissance d’une base de données orientée Analytique (ex : HP VERTICA) Appétence à manipuler de gros volumes de données Bonne connaissance du langage SQL Des compétences sur un outil de modélisation (ex : Power Designer) et un outil de qualification (ex : QCHP) seraient un plus
CDI
Freelance

Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark

OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera

3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Freelance

Mission freelance
Data engineer

Comet
Publiée le
Azure Data Factory
Databricks
Scala

12 mois
400-560 €
Île-de-France, France
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance
CDI

Offre d'emploi
Senior Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
Apache Airflow
Automatisation

2 ans
Paris, France
Missions principales Concevoir et faire évoluer des architectures data cloud sur AWS Développer et maintenir des pipelines data fiables et performants (batch & orchestration) Industrialiser les traitements data et API de services data Participer aux choix d’architecture, aux bonnes pratiques et à la gouvernance data Collaborer étroitement avec les équipes Analytics, BI et IA Contribuer à l’automatisation, à la qualité et à l’observabilité des chaînes data Cloud & Data AWS (Redshift, services managés) Terraform (Infrastructure as Code) Airflow (orchestration) Développement Python FastAPI Docker Atouts bonus Expérience GCP (BigQuery, services data) Exposition ou projets autour de l’ IA agentique (LLM, agents, automatisation intelligente, pipelines IA)
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : mowzc8bs1s
307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous