Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 307 résultats.
Offre d'emploi
Expert Spark Data Engineer
R&S TELECOM
Publiée le
Apache Kafka
Apache Spark
Kubernetes
1 an
Rennes, Bretagne
Contexte de la mission : Pour un besoin interne , nous recherchons un Expert Spark Data Engineer La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence construite sur une architecture comprenant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur l’infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To par an Tâches à réaliser : Analyse et état des lieux technique Préconisations d'amélioration : Amélioration Spark streaming + temps réel + dimensionnement infra Préconisations d'amélioration : Dimensionnement infra pour le streaming temps réel. Préconisations d'amélioration : Dimensionnement MongoDB & structuration de la donnée (standardisation des patterns) Document d'architecture cible & de préconisations
Mission freelance
Data Engineer - Vannes
VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala
3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Offre d'emploi
Data Integration Engineer (ETL Informatica) (F/H)
Argain Consulting Innovation
Publiée le
Informatica
Qlik
SQL
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée en intégration de données afin de contribuer à l’alimentation et à l’évolution du Data Warehouse et des différents datamarts métiers. Principales missions Accompagnement des métiers dans l’expression des besoins liés aux flux de données et participation aux phases de recette. Analyse des sources, modélisation et conception des traitements d’intégration dans le respect des bonnes pratiques BI. Développement, optimisation et maintenance de flux ETL sous Informatica. Mise en qualité, transformation et préparation des données pour les usages décisionnels. Participation aux travaux d’industrialisation, documentation et amélioration continue de la chaîne de traitement. Contribution au support et au suivi des traitements batch (diagnostic et résolution d’incidents).
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre d'emploi
Data Ops Engineer
VISIAN
Publiée le
Ansible
DevOps
1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Mission freelance
Data Engineer / Développeur Python Cloud
Intuition IT Solutions Ltd.
Publiée le
Python
6 mois
Toulouse, Occitanie
Mission Assurer le maintien en conditions opérationnelles des applications existantes, qu’il s’agisse de prototypes ou de solutions déjà déployées en production, en garantissant leur stabilité, performance et disponibilité. Concevoir, développer et faire évoluer des solutions de traitement de données couvrant l’ensemble de la chaîne : collecte, transformation, stockage, agrégation et restitution. Participer à la définition des besoins techniques, à la rédaction des spécifications et à la conception des architectures applicatives et data. Développer et maintenir des services, APIs et outils internes en Python, dans un environnement cloud AWS industrialisé. Mettre en place, optimiser et superviser des pipelines data fiables et robustes, en veillant à la qualité, l’intégrité et la traçabilité des données. Intervenir en support technique avancé pour analyser, diagnostiquer et résoudre les incidents ou anomalies applicatives et data. Accompagner les équipes lors des déploiements et assurer l’assistance aux utilisateurs internes. Rédiger et maintenir la documentation technique (spécifications, procédures, scripts, guides d’exploitation). Participer aux rituels Agile, au suivi des tickets, au reporting d’avancement et à l’amélioration continue des processus et outils. Garantir le respect des standards techniques, de sécurité, de qualité et de conformité propres à l’environnement industriel du client.
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Offre d'emploi
Data Engineer / BI (H/F)
HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Mission freelance
React Native Data Engineer
Cherry Pick
Publiée le
Databricks
React Native
12 mois
400-470 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur React Native - Data Engineer" pour un client dans le secteur de la grande distribution. Description 📱 Le Contexte : Un Rôle Pivot Mobile & Data Nous recherchons un profil atypique et polyvalent pour intervenir sur une plateforme technologique alliant une interface utilisateur mobile exigeante et une architecture de données robuste sous Azure. Votre mission principale sera d'assurer la maintenance évolutive et corrective d'une application mobile développée en React Native . En complément, et selon la charge du front-end, vous interviendrez sur la partie Data Engineering pour optimiser les pipelines et les notebooks au sein de l'environnement Azure Databricks . 🎯 Vos Missions : Du Pixel à la Donnée 1. Développement Mobile (Majeure) : Assurer la maintenance corrective (bugs) et évolutive (nouvelles features) de l'application React Native. Analyser les opportunités et la faisabilité technologique des nouvelles fonctionnalités. Réaliser le prototypage, le développement des composants et les revues de code croisées. Garantir l'industrialisation des composants et la documentation pour la mise en production (MEP). 2. Data Engineering (Mineure / Support) : Intervenir sur les traitements back/data en environnement Azure . Développer et maintenir des pipelines de données et des notebooks sous Databricks . Optimiser les traitements via Spark et requêtage SQL complexe. Participer à la structuration et au maintien des bases de données liées à l'application. 3. Qualité & Exploitation : Élaborer les jeux d'essais et réaliser les tests unitaires et d'intégration. Analyser les résultats, traiter les dysfonctionnements et rédiger les rapports de tests. Participer à la résolution des incidents de production et mettre à jour les dossiers d'exploitation.
Mission freelance
Data Engineer Snowflake - Lyon
Net technologie
Publiée le
Snowflake
3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Mission freelance
Dbt Technical Expert – Data Engineer Senior
Signe +
Publiée le
DBT
12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
Mission freelance
Data Engineer (1j/ semaine à Toulouse)
Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL
1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Mission freelance
Data Engineer Azure Databricks
CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse
3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault
CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD
3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote
STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL
6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Mission freelance
Sénior Data Engineer SQL & GCP
INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)
3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
307 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois