Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Paris

Votre recherche renvoie 28 résultats.
Freelance
CDI

Offre d'emploi
DATA ENGINEER DATABRICKS

Publiée le
Databricks
Python
Unity

6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je recherche pour un de mes client dans le monde le l'assurance un Data Engineer Databricks : Les principales missions sont les suivantes : • Faire évoluer les pipelines de données existantes dans l’environnement Databricks, en s’appuyant sur Unity Catalog pour assurer la traçabilité, la gouvernance et la sécurité des données • Intégrer et structurer les données de gestion interne dans la plateforme, en assurant leur cohérence avec les besoins métiers (analyse d’impact). • Réaliser des analyses exploratoires et des contrôles de cohérence, afin d’identifier les anomalies, de proposer une évolution de la brique existante et de fiabiliser les jeux de données. • Optimiser les traitements du lot1 et les performances, tout en assurant une documentation technique rigoureuse et une collaboration étroite avec les équipes MOA et métiers. Niveau d’expérience • Expérience opérationnelle (≥ 7 ans) en data engineering ou data analyse • Expérience confirmée en environnement cloud et CI/CD Compétences clés • Conception et optimisation de pipelines de données complexes dans Databricks • Intégration de données métiers • Mise en œuvre de contrôles qualité, sécurité et anonymisation • Analyse exploratoire, production d’indicateurs et visualisations • Documentation technique, versioning et collaboration transverse • Mise en place de processus CI/CD pour les workflows data • Compétence appréciée : Connaissance des bases client, notamment dans le cadre de l’exploitation de données du secteur assurance Outils et pratiques maîtrisés • Databricks, Spark (PySpark) • Unity Catalog, SQL avancé • Outils de visualisation : Power BI • Jenkins pour l’automatisation des déploiements • Pratiques CI/CD : tests automatisés, intégration continue, déploiement de pipelines • Git / GitHub / GitLab • Cloud : Azure (préféré)
Freelance

Mission freelance
Data Engineer Python/PySpark/Databricks / AWS

Publiée le
AWS Cloud
Databricks
PySpark

218 jours
400-610 €
Paris, France
🚨 Mission Freelance – Data Engineer 🚨 🚫 Pas de sous-traitance Je recherche un·e Data Engineer (Python / PySpark / Databricks / AWS) pour une mission stratégique au sein d’un grand groupe international dans l’énergie 🔋 📍 Paris – 3 jours sur site / 2 jours remote 🕐 Démarrage : 08/12/2025 💰 TJM selon profil Process : Codingame puis live coding 🔥 Ce qui t’attend : ✅ Mission longue durée ✅ Participation à la conception & à la mise en production d’architectures data déployées à l’échelle internationale 🌍 ✅ Environnement technique exigeant, méthodologie robuste & contexte multi-pays 🧠 Stack technique recherchée : Python ⭐⭐⭐⭐ (Expert) PySpark ⭐⭐⭐⭐ (Expert) Databricks ⭐⭐⭐ (Confirmé) Cloud AWS ⭐⭐⭐ (Confirmé) Bonus : culture data engineering avancée, industrialisation, bonne compréhension des architectures distribuées. 📩 Intéressé·e ? 👉 Envoie-moi ton CV en MP ⚠️ Seuls les profils correspondant strictement au besoin seront recontactés.
CDI

Offre d'emploi
DATA ANALYST CONFIRMÉ (H/F)

Publiée le
Databricks
Python
SQL

50k-57k €
Paris, Île-de-France
Télétravail partiel
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI

Offre d'emploi
CONSULTANT AMOA

Publiée le
Confluence
Databricks
JIRA

6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je recherche pour un de mes clients de l'assurance : Le prestataire MOA interviendra en appui des équipes métiers pour : • Recueillir et formaliser les besoins fonctionnels, en lien avec les pôles concernés (Data, Inventaire, Modèle, Pilotage…). • Animer les ateliers métiers et assurer la coordination entre les différentes parties prenantes. • Rédiger les spécifications fonctionnelles détaillées, en intégrant les exigences réglementaires (RGPD, sécurité). • Suivre la mise en œuvre des solutions data, en assurant la conformité aux besoins exprimés. • Contribuer à la conduite du changement, notamment par la production de supports de formation, de documentation fonctionnelle et l’accompagnement des utilisateurs. Niveau d’expérience • Expérience confirmée (≥ 3 ans) en MOA Classification • Connaissance du secteur assurance / prévoyance fortement appréciée Compétences clés • Cadrage et formalisation de besoins métiers complexes • Animation d’ateliers multi-directionnels • Rédaction de spécifications fonctionnelles et cahiers de tests • Suivi de conformité réglementaire (RGPD, sécurité) • Pilotage de projets en environnement agile ou hybride • Accompagnement au changement et conduite de formation (support de présentation) Outils maîtrisés • Jira / Confluence / Trello • Suite Office (Excel, PowerPoint, Word) • Outils de modélisation (BPMN, UML) • Notions en environnement data : Databricks, SQL, Unity Catalog, Python • Outils de documentation collaborative
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance

Mission freelance
Data Engineering Senior - Python/Pyspark/Databricks/AWS (H/F)

Publiée le
AWS Cloud
Databricks
PySpark

6 mois
500-560 €
Paris, France
Télétravail partiel
Notre client dans le secteur Énergie et ressources naturelles recherche un/une Data Engineering Senior - Python/Pyspark/Databricks/AWSH/F Description de la mission: Notre client, acteur majeur dans le secteur de l'énergie, cherche un(e) consultant(e) pour renforcer son équipe : prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement AWS Cloud. Le prestataire Data Engineer évoluera dans un contexte agile, en mode itératif et co-constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : - Collecter les exigences des métiers et des utilisateurs - Concevoir data modeling SQL/NoSQL - Concevoir les pipelines de données - Mettre en production l'architecture - Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en data engineering. Langues : Niveau de français et d’anglais courant Compétences requises : Maîtrise des technologies suivantes : Python 4/4 PySpark 4/4 Databricks 3/4 AWS 3/4 Anglais 3/4 Lieu : Paris Début de mission : 08/12/2025 Télétravail : 2 jours/semaine Lieu de la mission : Paris Compétences Niveau de compétence Python - Expert PYSPARK - Expert Databricks - Confirmé CLOUD AWS - Confirmé Langues Niveau de langue Anglais Courant Compétences / Qualités indispensables : Python (4/4) , PySpark (4/4) , Databricks (3/4) , AWS Cloud (¾) , Anglais (3/4) Informations concernant le télétravail : 2 jours
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYSPARK / PALANTIR / DATABRICKS

Publiée le
PySpark

3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons un data engineer pyspark / Palantir pour le compte de notre client. L’organisation Tech & Data est une organisation matricielle Agile reposant sur 4 piliers : Data and System Engineering, composée des équipes suivantes : Data Center of Excellence, Products and Systems Engineering et Enterprise Architecture La société est composée des équipes supportant les Crews et les domaines fonctionnels transverses : Gouvernance, Mise en œuvre du modèle opérationnel T&D, Sécurité & Conformité, Contrôle financier, Sourcing & Vendor Management, Gouvernance et Processus. Technical, composée des équipes dédiées aux IT Operations, Réseau, Cloud, Services Workplace & Cloud Productivity Crews et domaines fonctionnels transverses Contrainte forte du projet : Palantir Foundry. Livrable : Data Pipeline Risk Compétences techniques : Palantir Foundry – Confirmé – Impératif Python / Pyspark – Confirmé – Impératif Connaissances linguistiques : Français courant (impératif) Anglais courant (impératif) Description détaillée : Nous recherchons un Data Engineer pour développer des pipelines de données pour nos fondations Risk dans Palantir Foundry. Le Data Engineer devra construire, livrer, maintenir et documenter les pipelines de données dans le périmètre des fondations Risk. Il devra notamment livrer les données dans notre Risk Analytical Data Model (représentation medallion de nos données Risk) selon une approche moderne et performante. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais Code documenté et testé unitairement Contrôles qualité et santé des données implémentés Expérience et compétences attendues : +5 ans en tant que Data Engineer Expérience solide sur Palantir Foundry, principalement sur les modules orientés Data Engineer (code repository, ontologie…) Maîtrise de Python et Pyspark Bonnes pratiques de développement (gitflow, tests unitaires, documentation) Bonne compréhension de l’architecture data mesh et medallion architecture Expérience sur Databricks un atout Expérience en (ré)assurance ou dans le domaine du risque financier un atout Esprit d’équipe Curiosité et goût du challenge Capacité à communiquer avec différents interlocuteurs Rigueur et sens analytique Définition du profil : Le Data Engineer assure la maîtrise de la donnée et est garant de la qualité de son utilisation afin d’en faciliter l’exploitation par les équipes. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion et du traitement des données, ainsi que sur les plateformes Big Data, IoT, etc. Il assure la supervision et l’intégration des données provenant de sources multiples et vérifie la qualité des données entrant dans le Data Lake (recette des données, suppression des doublons, etc.).
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Freelance
CDI

Offre d'emploi
Tech Lead Data

Publiée le
Databricks

3 ans
40k-50k €
400-550 €
Paris, France
Télétravail partiel
En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique . À ce titre, vos principales responsabilités seront : · Assurer un leadership technique auprès des équipes de développement. · Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. · Participer activement aux phases de conception, développement et tests. · Porter la vision technique au sein des équipes Agile. · Garantir la qualité des livrables et veiller à la réduction de la dette technique. · Réaliser la modélisation des données. · Assurer une veille technologique et participer aux POCs. · Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Freelance

Mission freelance
Data Engineer Fabric .Net

Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Freelance

Mission freelance
Architecte Cloud Azure

Publiée le
Azure
Conception
Databricks

3 mois
210-700 €
Paris, France
Bonjour, je suis à la recherche d'un architecte Cloud Azure dont vous trouverez la fiche de poste ci-dessous: Architecte Cloud Azure Missions principales En tant qu’Architecte Cloud Azure, vous serez responsable de la conception et de la validation des architectures techniques dans un environnement cloud. Vous interviendrez sur des projets stratégiques en lien avec les équipes métiers, IT et sécurité. Vos responsabilités incluent : Concevoir l’architecture cible : réalisation du High-Level Design et du Detailed Design. Évaluer plusieurs options et recommander l’architecture cible la plus adaptée. Collaborer étroitement avec les éditeurs de logiciels, les utilisateurs métiers, les équipes projets IT et sécurité. Rédiger le document d’architecture générale et le soumettre au comité d’architecture pour validation.
Freelance

Mission freelance
Dev' AZURE DATABRICKS

Publiée le
Azure Data Factory

6 mois
450-530 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients parisiens, pour un démarrage dès début octobre, je suis à la recherche d'un développeur Azure - Databricks. La centrale d'achats de mon client mène un projet de datalake pour centraliser, trier & exploiter les données fournisseurs et clients sous une dimension européene. Dans ce cadre là, il est recherché sur Paris d'un développeur Azure Databricks avec toute la stack azure maitrisée. Curiosité, envie d'apprendre & apétence pour l'IA mandatory.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT

Publiée le
BigQuery
CI/CD
Databricks

1 jour
40k-45k €
100-480 €
Paris, France
Télétravail partiel
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
28 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous