L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 272 résultats.
Offre d'emploi
TECH LEAD DATA ENGINEER
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Télétravail partiel
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.
Offre d'emploi
TECH LEAD DATA ENGINEER
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Télétravail partiel
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Data Engineer Palantir
Publiée le
PySpark
Python
3 mois
400-600 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :
Mission freelance
Data Engineer (PySpark)
Publiée le
PySpark
18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.
Offre d'emploi
Data Designer / Data Engineer
Publiée le
Azure
Master Data Management (MDM)
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Freelance – Data Designer / Data Engineer Client: secteur minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum Démarrage : ASAP Contexte de la mission Dans le cadre d’un vaste programme de modernisation de la donnée pour un acteur international du secteur des minéraux, vous intégrerez une équipe d’une dizaine de collaborateurs mobilisés sur le déploiement d’une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination. Tech Enablers : mise en place des briques techniques de la plateforme. Data Use Cases : livraison de cas d’usage métiers concrets. Les objectifs à court terme : Livrer 2 à 3 cas d’usage métiers prioritaires . Implémenter une plateforme data moderne basée sur Microsoft Fabric et intégrée à l’écosystème Azure . Structurer une organisation agile , avec des rôles définis, des cérémonies PI Planning et une gouvernance claire. Rôle : Data Designer Vous interviendrez sur la conception et la modélisation des données afin de garantir la cohérence et la pérennité des cas d’usage développés. Vos missions principales : Concevoir les modèles de données (conceptuel, logique et physique) pour les cas d’usage identifiés. Traduire les besoins métiers en structures techniques robustes et évolutives. Collaborer étroitement avec les Data Product Owners et Data Engineers . Documenter les modèles et contribuer à la mise en place du Data Catalogue et du MDM . Participer activement aux rituels agiles et à l’amélioration continue de la Data Factory. Compétences requises : Solides connaissances en modélisation de données (conceptuelle, logique, physique). Bonne compréhension des standards Data Product et des architectures modernes. Expérience confirmée en environnement agile (Scrum / SAFe). Maîtrise des outils et technologies Microsoft Fabric et Azure Data Services . Bonne culture autour du Data Catalogue , MDM et de la gouvernance de la donnée . Anglais professionnel obligatoire (environnement international). 🎓 Profil recherché : Data Designer / Data Engineer confirmé à senior , 3 à 7 ans d’expérience. Capacité à évoluer dans un environnement structuré, international et collaboratif. Esprit analytique, sens du service et autonomie.
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Publiée le
Semarchy
6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Python/Java, ETL/MDM, Git, Docker, Kubernetes. Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Offre d'emploi
Data Engineer (spécialisation Microsoft Fabric) (H/F)
Publiée le
Agile Scrum
Azure Data Factory
Microsoft Fabric
12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Microsoft Fabric) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, en charge de la conception, de la mise en œuvre et de la maintenance des solutions de gestion et d’exploitation des données. Dans un contexte de modernisation du SI et de développement des usages data, l’entreprise déploie la plateforme Microsoft Fabric pour unifier les services de data engineering, d’analyse et de gouvernance des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir et mettre en œuvre les flux de données sur Microsoft Fabric (Data Factory, Dataflows Gen2, Lakehouse, Pipelines) Construire et maintenir les modèles de données dans le OneLake Développer des pipelines de transformation et d’ingestion de données (batch et temps réel) Garantir la qualité, la performance et la robustesse des traitements de données 2. Intégration et industrialisation Optimiser les coûts et les performances de la plateforme data Documenter les architectures, flux et traitements 3. Gouvernance et sécurité des données Collaborer avec le Head of data et le Data Architect Mettre en œuvre les bonnes pratiques de sécurité, gestion des accès et métadonnées 4. Support et amélioration continue Assurer le support technique des environnements Fabric Identifier les axes d’amélioration et participer aux évolutions de la plateforme data Former et accompagner les utilisateurs métiers et analystes Power BI
Offre d'emploi
Senior Data Engineer with Energy Market expertise, Brussels
Publiée le
Bruxelles, Bruxelles-Capitale, Belgique
For a large end client As part of the target architecture, BW/HANA, Databricks, and Dataiku platforms are central to data migration and transformation activities. Join the data governance operational team as a data expert responsible for maintaining, designing and optimizing data transformation and modeling processes using SAP BW, SAP HANA Studio, Databricks, and Dataiku. The goal is to ensure data quality, performance, and relevance for business needs. Responsibilities Develop and maintain complex data transformation and modeling flows using BW and HANA Studio (advanced modeling, development, optimization). Leverage Databricks for data storage, computation, and industrialization. Utilize Dataiku for data transformation, emphasizing visual recipes and custom plug-in development. Ensure data quality and integrity throughout the data lifecycle. Collaborate with other technical and functional stakeholders. Required Skills Strong expertise in SAP BW (modeling and development) and HANA Studio (modeling and development), as well as BODS. Advanced proficiency in Databricks and Dataiku, with demonstrated hands-on experience. In-depth knowledge of processes and data, specific to the Belgian energy market. Functional knowledge of SAP. Strong skills in SQL, Python. Analytical mindset, attention to detail, and teamwork capabilities. Qualifications University degree in Computer Science, Engineering, Mathematics, or related field. Minimum 7 years of experience in the energy market. Minimum 7 years of experience in SAP BW and SAP HANA Studio. Minimum 7 years of experience in Sql and Python Minimum 2 years of experience with Dataiku and Databricks. Languages Fluent English. French and Dutch will be a plus. Location and Period Brussels (minimum 2 days/week on-site). From December 2025 to end of 2027. Requirements Qualifications University degree in Computer Science, Engineering, Mathematics, or related field. Minimum 7 years of experience in the energy market. Minimum 7 years of experience in SAP BW and SAP HANA Studio. Minimum 7 years of experience in Sql and Python Minimum 2 years of experience with Dataiku and Databricks.
Offre d'emploi
Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
Mission freelance
Tech Lead Data Engineer
Publiée le
Azure
6 mois
400-550 €
Île-de-France, France
G Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. FRIDF-TECHNOLEAD-2 - France - IDF - TECH LEAD - Confirmé (4-10 ans) CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer
Mission freelance
Data Engineer
Publiée le
AWS Cloud
Dataiku
Python
12 mois
Paris, France
Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..
Mission freelance
Mission Freelance – Data Engineer Confirmé / Sénior
Publiée le
Python
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Missions Concevoir et maintenir des pipelines de données robustes et performants. Structurer et documenter les datasets (Utilisateurs, Comportements, Référentiels). Mettre en place et administrer des infrastructures data scalables . Déployer et maintenir des workflows CI/CD . Participer aux initiatives de gouvernance et qualité des données . Assurer la stabilité, la sécurité et la performance des environnements. Collaborer avec les équipes Data, Produit et Technique dans un contexte Agile. Environnement technique Langages : Python, SQL, Spark Stack : dbt, Airflow, Terraform, Terragrunt, GitLab CI/CD Cloud : Google Cloud Platform (BigQuery, Dataplex) Méthodologie : Agile (Scrum / Kanban)
Mission freelance
Data Engineer (H/F)
Publiée le
Git
Google Cloud Platform (GCP)
2 ans
100-435 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."
Offre d'emploi
Data Engineer - Java/ Spark
Publiée le
Apache Spark
AWS Cloud
AWS Glue
6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
Mission freelance
Data Engineer Fabric .Net
Publiée le
.NET
Databricks
Python
8 mois
500-520 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
272 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois