L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 23 résultats.
Mission freelance
Data Engineer Scala/Spark.
Publiée le
Azure
Databricks
Datadog
1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Offre d'emploi
Lead Data Engineer (H/F)
Publiée le
Apache Spark
Big Data
Data management
3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Offre d'emploi
Data Engineer Python
Publiée le
Azure
Kubernetes
Pandas
2 ans
40k-45k €
400-640 €
Saint-Denis, Île-de-France
Télétravail partiel
Mission : Data Engineer Python Localisation : Saint-Denis Démarrage : 01/01/2026 Durée : longue durée TJM max : 620 € Deadline candidature : 22/11 10 jours de gratuité à prévoir Nous recherchons un Data Engineer Python senior (8+ ans d’expérience) pour renforcer une équipe existante au sein d’une entité Data & IA d’un grand groupe. La mission consiste à intervenir sur un projet de réconciliation de flux bancaires déjà lancé, au sein d’une équipe Agile composée de 4 Data Engineers et d’un Chef de projet. Compétences techniques recherchées : Python, Pandas Kubernetes Azure CI/CD Documentation, tests, modélisation de pipelines Votre rôle : Développer et tester les User Stories Contribuer à la documentation, au mapping des données et à la modélisation des pipelines Participer à la mise en place du CI/CD et du monitoring Intervenir dans un fonctionnement en sprints de deux semaines
Mission freelance
Data Engineer DBT
Publiée le
DBT
6 mois
400-550 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.
Offre d'emploi
DATA ENGINEER MICROSOFT BI
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SQL Server
3 ans
40k-60k €
350-500 €
Paris, France
Télétravail partiel
Bonjour 😊 Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI Senior. Dans le cadre de la poursuite de la mise en place de la plateforme décisionnelle au sein du SI de notre client, nous recherchons un développeur MS BI confirmé opérationnel immédiatement sur les technologies utilisées (Voir $Connaissances Indispensables) Le consultant participera au développement et à la maintenance évolutive et corrective du système décisionnel. Cette ressource sera positionnée au sein de l’équipe BI dans le service MOE E&D. Vous aurez à effectuer les actions suivantes : • Participer à la formalisation des spécifications fonctionnelles • Analyser les besoins et identifier les éventuels impacts sur l’existant • Proposer des solutions et participer à la phase de modélisation. • Contribuer aux choix d’architecture technique (en lien avec l’équipe projet DWH et les équipes infrastructure/architecture) • Contribuer au plan de charge et à la définition du planning • Rédiger les spécifications techniques • Prendre en charge le développement nouvelles demandes (Intégration de nouvelles données, Cubes, Rapports, …) • Rédaction des documents d’exploitation • Rédiger les consignes de pilotage • Accompagner la Direction Informatique lors des phases de déploiement en homologation et production • Accompagner le métier Reporting lors des phases de recette • Accompagner l’équipe Support & Maintenance • Assurer la maintenance corrective (3ème niveau) • Assurer les remontées d’informations auprès du responsable MOE E&D SQL Server 2012(migration vers 2022 en cours) (Requêtes, Vues, Procédures stockées, Optimisation, …), SSIS, SSAS (Cube tabulaire), DAX, SSRS, Visual Studio 2022, Azure DevOps, PowerBI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
23 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois