Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks
Votre recherche renvoie 107 résultats.
Mission freelance
POT8961 - Un Développer Databricks et rapports Power BI sur Paris
Almatek
Publiée le
PowerBI
Qlik Sense
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Almatek recherche pour l'un de ses clients, Un Développer Databricks et rapports Power BI sur Paris Définition du profil : À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Compétences techniques : Databricks - Expert - Impératif Power BI - Expert - Impératif Cloud AWS - Confirmé - Important Contrainte forte du projet : Expertise, certification Databricks Almatek recherche pour l'un de ses clients, Un Développer Databricks et rapports Power BI sur Paris Définition du profil : À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Compétences techniques : Databricks - Expert - Impératif Power BI - Expert - Impératif Cloud AWS - Confirmé - Important Contrainte forte du projet : Expertise, certification Databricks
Offre d'emploi
Senior Data Engineer (5+ ans d'exp)
WINSIDE Technology
Publiée le
Azure
Databricks
3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Offre d'emploi
Data Scientist
ANDEMA
Publiée le
Databricks
PySpark
Python
12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Mission freelance
Data Engineer Azure Databricks
CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse
3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Offre d'emploi
Product Owner BI Senior (CDI)
WINSIDE Technology
Publiée le
Databricks
Microsoft Power BI
46k-52k €
Lyon, Auvergne-Rhône-Alpes
🎯 Contexte Dans le cadre d’un programme Data & BI stratégique chez l’un de nos plus grands clients lyonnais du secteur de l’énergie , Winside renforce une équipe déjà en place. Un Product Manager est onboardé depuis plusieurs mois sur le périmètre : nous recherchons un Product Owner BI senior pour l’épauler opérationnellement et accélérer la delivery. Le programme porte notamment une migration MS BI vers Power BI sur un périmètre conséquent (~160 dashboards), avec une vision long terme (2 ans). 🚀 Missions Concevoir et développer rapidement des dashboards Power BI et des POCs Utiliser le visuel comme support de discussion avec les métiers Animer les ateliers métiers et formaliser les besoins Structurer et prioriser le backlog, découper les besoins en tickets Jira Travailler en étroite collaboration avec le Product Manager, les équipes Data et IT Contribuer à la réussite de la migration MS BI → Power BI
Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira
WorldWide People
Publiée le
Azure
Cloudera
12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data Engineer - Azure / Databricks / Power BI
CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Offre d'emploi
Tech Lead Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Mission freelance
React Native Data Engineer
Cherry Pick
Publiée le
Databricks
React Native
12 mois
400-470 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur React Native - Data Engineer" pour un client dans le secteur de la grande distribution. Description 📱 Le Contexte : Un Rôle Pivot Mobile & Data Nous recherchons un profil atypique et polyvalent pour intervenir sur une plateforme technologique alliant une interface utilisateur mobile exigeante et une architecture de données robuste sous Azure. Votre mission principale sera d'assurer la maintenance évolutive et corrective d'une application mobile développée en React Native . En complément, et selon la charge du front-end, vous interviendrez sur la partie Data Engineering pour optimiser les pipelines et les notebooks au sein de l'environnement Azure Databricks . 🎯 Vos Missions : Du Pixel à la Donnée 1. Développement Mobile (Majeure) : Assurer la maintenance corrective (bugs) et évolutive (nouvelles features) de l'application React Native. Analyser les opportunités et la faisabilité technologique des nouvelles fonctionnalités. Réaliser le prototypage, le développement des composants et les revues de code croisées. Garantir l'industrialisation des composants et la documentation pour la mise en production (MEP). 2. Data Engineering (Mineure / Support) : Intervenir sur les traitements back/data en environnement Azure . Développer et maintenir des pipelines de données et des notebooks sous Databricks . Optimiser les traitements via Spark et requêtage SQL complexe. Participer à la structuration et au maintien des bases de données liées à l'application. 3. Qualité & Exploitation : Élaborer les jeux d'essais et réaliser les tests unitaires et d'intégration. Analyser les résultats, traiter les dysfonctionnements et rédiger les rapports de tests. Participer à la résolution des incidents de production et mettre à jour les dossiers d'exploitation.
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data
Hexateam
Publiée le
AWS Cloud
Databricks
Python
36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre d'emploi
Tech Lead Data Engineer - Databricks
VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL
1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Data Engineer Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Lead Data Analyst (H/F)
Cherry Pick
Publiée le
Databricks
Microsoft Power BI
Microstrategy
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Lead Data Analyst(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine des mousquetaires. Description 🎯 Contexte de mission Dans le cadre du renforcement du DataLab , nous recherchons un Data Analyst Lead (prestation) rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution , multienseignes et multimétiers, avec de forts enjeux : Pilotage de la performance Qualité et fiabilité des données Modélisation transverse Usages analytiques à grande échelle ⚠️ Contrainte forte : remplacement d’un prestataire sortant 📍 Localisation : France – IDF 🎓 Séniorité : Expert (>10 ans) La connaissance opérationnelle de la Grande Distribution est impérative . 🚀 Missions principales et rôle 🧠 Expertise & Conception Data Apporter une expertise avancée en data analyse Concevoir et challenger des solutions data robustes Accompagner les équipes produits / projets sur des sujets analytiques complexes Garantir la cohérence des indicateurs et des modèles 📐 Modélisation & Structuration Contribuer activement à la modélisation des données Faire vivre et évoluer le modèle de données communes Définir les contrats d’interfaces Structurer et aligner les KPI métiers 👥 Leadership & Animation Contribuer à la montée en compétence des Data Analysts Animer la communauté Data (ateliers, bonnes pratiques, retours d’expérience) Coanimer la Data Authority en lien avec la Gouvernance des données 🚀 Mise en production & RUN Préparer les documents nécessaires aux MEP et au RUN Participer à la mise en place des outils de supervision Contribuer au transfert de compétences vers les équipes RUN Participer aux cérémonies agiles 🔍 Veille & Amélioration continue Assurer une veille technologique active Contribuer à la résolution d’incidents Promouvoir les bonnes pratiques de développement (sécurité, optimisation, documentation) 📊 Objectifs Apporter un leadership analytique au DataLab Structurer les indicateurs stratégiques métiers Améliorer la cohérence et la qualité des modèles de données Accélérer la maturité data dans un contexte Grande Distribution Sécuriser la continuité et la performance suite au remplacement du prestataire sortant 🛠️ Compétences requises 🔹 Hard Skills (Impératif) Expertise confirmée en data analyse Solide expérience en modélisation de données Conception de solutions data Connaissance confirmée de la Grande Distribution : Indicateurs clés (vente, marge, stock, approvisionnement, performance magasin) Enjeux business retail Compréhension des usages métiers de la donnée
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
107 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois