Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks

Votre recherche renvoie 85 résultats.
Freelance

Mission freelance
Data Engineering Senior - Python/Pyspark/Databricks/AWS (H/F)

Publiée le
AWS Cloud
Databricks
PySpark

6 mois
500-560 €
Paris, France
Télétravail partiel
Notre client dans le secteur Énergie et ressources naturelles recherche un/une Data Engineering Senior - Python/Pyspark/Databricks/AWSH/F Description de la mission: Notre client, acteur majeur dans le secteur de l'énergie, cherche un(e) consultant(e) pour renforcer son équipe : prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement AWS Cloud. Le prestataire Data Engineer évoluera dans un contexte agile, en mode itératif et co-constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : - Collecter les exigences des métiers et des utilisateurs - Concevoir data modeling SQL/NoSQL - Concevoir les pipelines de données - Mettre en production l'architecture - Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en data engineering. Langues : Niveau de français et d’anglais courant Compétences requises : Maîtrise des technologies suivantes : Python 4/4 PySpark 4/4 Databricks 3/4 AWS 3/4 Anglais 3/4 Lieu : Paris Début de mission : 08/12/2025 Télétravail : 2 jours/semaine Lieu de la mission : Paris Compétences Niveau de compétence Python - Expert PYSPARK - Expert Databricks - Confirmé CLOUD AWS - Confirmé Langues Niveau de langue Anglais Courant Compétences / Qualités indispensables : Python (4/4) , PySpark (4/4) , Databricks (3/4) , AWS Cloud (¾) , Anglais (3/4) Informations concernant le télétravail : 2 jours
Freelance
CDI
CDD

Offre d'emploi
Lead Dev Databricks

Publiée le
Agile Scrum
Azure
Databricks

3 ans
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Tech Lead Data (H/F) pour intervenir sur un projet stratégique autour d’une plateforme digitale innovante, connectée à des infrastructures réparties dans plusieurs pays. L’objectif de la mission est de contribuer au développement, à l’évolution et au maintien en conditions opérationnelles d’un Data Lake et de ses pipelines. Vos principales responsabilités : Concevoir et développer des pipelines Data sur Databricks, Python, Spark SQL et Azure Blob Storages . Participer aux déploiements sur les environnements de test et de production. Assurer la maintenance corrective et évolutive des composants logiciels en production. Collaborer avec les équipes de développement Web, IoT, SQL et autres pôles techniques. Apporter un support technique et participer aux choix d’architecture et de conception. Contribuer activement à une organisation en méthodologie Agile (SCRUM) au sein d’une équipe pluridisciplinaire.
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Freelance
CDI
CDD

Offre d'emploi
Data Analyst confirmé

Publiée le
Databricks
Microsoft Power BI
Python

12 mois
40k-68k €
360-480 €
Bondoufle, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst – confirmé (4 - 10 ans d’expérience) Objectif : Accompagner l’entité Juridique du Groupe sur les sujets énergies Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques PYTHON - Confirmé - Impératif POWERBI - Confirmé - Important DATABRICKS - Confirmé - Important SQL - Confirmé – Important Connaissances linguistiques Français Courant (Impératif) Anglais Notions (Secondaire) Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Données complémentaires Date de démarrage 08/12/2025 Lieu de réalisation Bondoufle Déplacement à prévoir non Le projet nécessite des astreintes non Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Mission Freelance – Data Analyst Confirmé (H/F)

Publiée le
Databricks
PowerBI
Python

1 an
400-500 €
Essonne, France
Télétravail partiel
📍 Localisation : Essonne (91) 🏠 Télétravail : 4 jours / semaine 🗓️ Démarrage : 8 décembre 2025 📆 Durée : 1 an 💰 TJM max : 510€ 💼 Expérience : minimum 4 ans 🎯 Objectif global de la mission Vous rejoindrez une équipe Data dynamique afin de contribuer à la conception, au développement et à la mise en production d’outils d’analyse et de visualisation des données. Votre rôle sera essentiel pour garantir la qualité, la sécurité et la performance des traitements de données, tout en accompagnant les équipes internes sur les bonnes pratiques Data et BI . 🧩 Responsabilités principales 🔹 Conception et cadrage Définir, développer et maintenir les outils nécessaires à l’analyse des données Concevoir les modèles de données et les contrats d’interfaces Créer des solutions performantes et sécurisées pour le traitement de grands volumes de données 🔹 Mise en production Préparer la documentation pour les Mises En Production (MEP) et le Run Participer à la mise en place de la supervision et des outils de monitoring Assurer le transfert de compétences vers les équipes Run Respecter les bonnes pratiques de développement (optimisation, sécurité, documentation) Participer activement aux cérémonies agiles 🔹 Veille et suivi Assurer une veille technologique sur les outils et langages Data Participer à la résolution d’incidents en collaboration avec les équipes techniques et métiers
Freelance
CDI

Offre d'emploi
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles

Publiée le
Data governance
Databricks
Dataiku

2 ans
40k-45k €
550-770 €
Hauts-de-France, France
Télétravail partiel
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps AWS (H/F)

Publiée le
Azure DevOps
CI/CD
Databricks

1 an
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du renforcement des équipes techniques d’un acteur majeur du secteur de l’énergie, nous recherchons un Ingénieur DevOps expérimenté maîtrisant l’écosystème AWS et les outils modernes de CI/CD et de supervision. Environnement technique : Cloud : AWS (certification AWS appréciée) Supervision : Datadog Data platform : Databricks CI/CD : GitLab CI/CD Containerisation & orchestration : Docker, Kubernetes, EKS Traitement de données : Spark Missions : Gérer, maintenir et faire évoluer les environnements AWS (infrastructure as code, sécurité, monitoring). Automatiser les pipelines CI/CD sous GitLab . Mettre en place et maintenir les clusters Kubernetes / EKS . Superviser la production avec Datadog et optimiser les performances. Collaborer avec les équipes Data sur les environnements Databricks / Spark . Participer à la mise en œuvre des bonnes pratiques DevOps (automatisation, observabilité, déploiement continu).
Freelance
CDI

Offre d'emploi
Tech Lead Data

Publiée le
Databricks

3 ans
40k-50k €
400-550 €
Paris, France
Télétravail partiel
En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique . À ce titre, vos principales responsabilités seront : · Assurer un leadership technique auprès des équipes de développement. · Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. · Participer activement aux phases de conception, développement et tests. · Porter la vision technique au sein des équipes Agile. · Garantir la qualité des livrables et veiller à la réduction de la dette technique. · Réaliser la modélisation des données. · Assurer une veille technologique et participer aux POCs. · Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Freelance

Mission freelance
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences +/s

Publiée le
Apache Hive
Databricks
Hadoop

12 mois
400-520 €
Guyancourt, Île-de-France
Télétravail partiel
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + client logistique basé à Guyancourt (ou Montpellier, Nantes) un Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + Localisation Guyancourt / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Mission : Création d’une équipe transverse pour : Monitorer la qualité des données : intégration fraicheur des données sur les plateformes data identifier les sources de données actuelles (cartographie SI des données) créer un backlog de contrôles à mettre en place mise en place d’indicateurs o validation de la qualité de la Data de bout en bout o pilotage des correctifs à mettre en place en amont · Dimensionner et organiser la cellule • La cellule sera en relation avec les équipes de RUN les métiers et les autres Lignes Produit Compétences requises : Hadoop/Hive/Hbase Databricks
Freelance

Mission freelance
DATA ANALYST - Confirmé (H/F)

Publiée le
Databricks
Microsoft Power BI
Python

124 jours
340-400 €
Bondoufle, Île-de-France
Télétravail 100%
CONCEPTION ET CADRAGE o Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data o Conçoit les modèles de données et les contrats d'interfaces o Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION o Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) o Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés o Participe au transfert de compétences vers l'équipe en charge du RUN o Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) o Participe aux différentes cérémonies agiles VEILLE ET SUIVI o Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes o Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes.
Freelance

Mission freelance
Data Engineer Fabric .Net

Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Freelance
CDI

Offre d'emploi
BI / Big Data – Data Manager Senior

Publiée le
Apache Spark
Dash
Databricks

1 an
40k-56k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.
Freelance

Mission freelance
Architecte Cloud Azure

Publiée le
Azure
Conception
Databricks

3 mois
210-700 €
Paris, France
Bonjour, je suis à la recherche d'un architecte Cloud Azure dont vous trouverez la fiche de poste ci-dessous: Architecte Cloud Azure Missions principales En tant qu’Architecte Cloud Azure, vous serez responsable de la conception et de la validation des architectures techniques dans un environnement cloud. Vous interviendrez sur des projets stratégiques en lien avec les équipes métiers, IT et sécurité. Vos responsabilités incluent : Concevoir l’architecture cible : réalisation du High-Level Design et du Detailed Design. Évaluer plusieurs options et recommander l’architecture cible la plus adaptée. Collaborer étroitement avec les éditeurs de logiciels, les utilisateurs métiers, les équipes projets IT et sécurité. Rédiger le document d’architecture générale et le soumettre au comité d’architecture pour validation.
Freelance

Mission freelance
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience

Publiée le
CI/CD
Databricks
Python

6 mois
480-580 €
Belgique
Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.
CDI
Freelance

Offre d'emploi
Ingénieur Data Visualisation / Data Ops H/F

Publiée le
Databricks
Power Automate
Tableau software

12 mois
35k-45k €
350-400 €
Mulhouse, Grand Est
Télétravail partiel
Vous extrayez, manipulez et filtrez les données à partir de l’ERP SAP, en utilisant notamment Databricks, Theobald et Alteryx. Vous construisez des rapports et dashboards interactifs sous Tableau répondant aux enjeux métier liés à la production et à la performance industrielle. Vous réalisez des entretiens approfondis avec les responsables métiers pour comprendre leurs besoins, formaliser un cahier des charges personnalisé et qualifier les use cases associés. Vous travaillez en lien direct avec les équipes MOA, architecture, développement et data (interfaces fortes avec les équipes ERP, MOA et Production). Vous identifiez la source de la donnée, vous vous assurez de sa fiabilité, investiguez les causes racines en cas de problème et sollicitez les interlocuteurs adaptés lorsque nécessaire. Vous mettez en place (ou automatisez) des flux de traitement et de restitution des données (exploitation de PowerAutomate, Databricks, outils ETL). Vous faites preuve de ténacité, curiosité et capacité à creuser les sujets dans la durée pour mener les investigations jusqu’au bout, même en terrain inconnu. Vous jouez un rôle de guide auprès des équipes métier, là où la fonction de product management n’est pas encore en place sur ce sujet, en évangélisant les bonnes pratiques et en accompagnant l’appropriation des outils et process data!
85 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous