Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks
Votre recherche renvoie 106 résultats.
Mission freelance
Platform engineer : PYTHON Azure + de 9 ans XP
Codezys
Publiée le
Azure
Azure DevOps Services
Databricks
12 mois
490-550 €
Niort, Nouvelle-Aquitaine
Notre plateforme data science sur Azure est en construction. Le platform engineer a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. Les missions de l'équipe sont : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers Objectifs et livrables La Société devra fournir les prestations suivantes : En tant que platform engineer sur notre plateforme CLAUD.IA. Assurer un rôle de : - concepteur et de développeur de pipelines CI/CD Data et Machine Learning mise en œuvre dans le cycle de vie des produits data science - concepteur et de développeur de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Data Scientist
Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks
3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Mission freelance
Consultant Senior Data Management / Data Quality
Inventiv IT
Publiée le
Collibra
Data governance
Data management
6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon
KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst
50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Mission freelance
Tech Lead Data — Snowflake (Libourne) H/F
LeHibou
Publiée le
Snowflake
9 mois
400-600 €
Libourne, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Tech Lead Data — Snowflake H/F Description de la mission: Offre de mission – Tech Lead Data — Snowflake Contexte de la mission Notre client, dans le cadre de sa transformation numérique, engage en 2026 un programme stratégique de refonte complète de sa Data Platform, avec Snowflake comme technologie cible retenue à l’issue d’un benchmark approfondi. Le planning communiqué est ferme et non négociable : • Q2 2026 : bootstrap de la Data Platform Snowflake et de l’usine logicielle Data • Q2 2026 : démarrage de la migration des stacks legacy • Fin 2026 : migration complète Le contexte est celui d’un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique. Périmètre de la mission 1. Bootstrap de la Data Platform Snowflake • Définir et implémenter l’architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition • Structurer l’environnement Snowflake : databases, schemas, RBAC, sécurité et accès • Mettre en place des pipelines d’ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards • Garantir la qualité des données dès l’ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle 2. Bootstrap de l’usine logicielle Data • Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité • Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions • Structurer la factory Data pour permettre la montée en autonomie des équipes internes • Accompagner les équipes dans l’adoption des pratiques 3. Pilotage de la migration • Coordonner la migration des usages legacy vers la nouvelle stack Snowflake • Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack • Être le référent technique principal vis-à-vis des parties prenantes IT et métier • Assurer le reporting auprès de la DSI Stack technique • Data Warehouse : Snowflake • Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) • Transformation : dbt ou équivalent • Orchestration : Apache Airflow ou équivalent • Langages : SQL avancé, Python • CI/CD et DevOps : à mettre en place • Data Quality : à définir et implémenter Compétences requises Indispensables • Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes • Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) • Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud • Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante • Bonnes pratiques : CI/CD, tests, documentation, standards de code • SQL avancé, Python Appréciées • Expérience sur un ERP multi-instances • Outils de Data Quality • Expérience en environnement industriel ou Life Sciences / Pharma • Connaissance de GCP et/ou Azure Databricks dans un contexte de migration Profil recherché • Expérience totale : 8 à 12 ans • Expérience Snowflake : 3 ans minimum avec projets significatifs • Expérience Tech Lead Data : 3 ans minimum • Expérience de migration de stack : indispensable • Anglais : professionnel courant • Localisation : région Nouvelle-Aquitaine ou mobilité
Mission freelance
PMO Stratégique & Agile H/F
OUICODING
Publiée le
1 mois
400-550 €
Paris
Vos Défis : Sécurisation, Pilotage & Agilité En tant que PMO Stratégique, vous agissez comme le garant de la cohérence globale du programme. Vos responsabilités se déclinent sur quatre axes majeurs : -Pilotage Transverse & Delivery : Vous coordonnez trois pôles d'expertise (Data Ingestion, Plateforme technique, Visualisation/Contrôle de gestion). Vous levez les verrous d'intégration et gérez les dépendances critiques. -Gouvernance & Reporting : Vous assurez le reporting auprès des sponsors Métier et IT. Vous gérez la roadmap, les risques et le suivi budgétaire rigoureux du programme. -Facilitation Agile (Posture RTE) : Vous stabilisez les pratiques SAFe et animez les instances clés (PI Planning, System Demo). Votre objectif : booster la vélocité et la prédictibilité des équipes. -Acculturation Data : Vous facilitez le dialogue avec les architectes pour garantir la qualité des flux de données et l'optimisation de la plateforme Databricks.
Mission freelance
PMO Stratégique & AgileH/F
OUICODING
Publiée le
1 mois
400-550 €
Paris
Vos Défis : Sécurisation, Pilotage & Agilité En tant que PMO Stratégique, vous agissez comme le garant de la cohérence globale du programme. Vos responsabilités se déclinent sur quatre axes majeurs : -Pilotage Transverse & Delivery : Vous coordonnez trois pôles d'expertise (Data Ingestion, Plateforme technique, Visualisation/Contrôle de gestion). Vous levez les verrous d'intégration et gérez les dépendances critiques. -Gouvernance & Reporting : Vous assurez le reporting auprès des sponsors Métier et IT. Vous gérez la roadmap, les risques et le suivi budgétaire rigoureux du programme. -Facilitation Agile (Posture RTE) : Vous stabilisez les pratiques SAFe et animez les instances clés (PI Planning, System Demo). Votre objectif : booster la vélocité et la prédictibilité des équipes. -Acculturation Data : Vous facilitez le dialogue avec les architectes pour garantir la qualité des flux de données et l'optimisation de la plateforme Databricks.
Mission freelance
Data Analyst confirmé X 2 (H/F) - 91 / 92
Mindquest
Publiée le
JIRA
Microsoft Power BI
3 mois
310-480 €
Bondoufle, Île-de-France
Mission Cadrage & Analyse * Recueillir et analyser les besoins métiers * Rédiger les spécifications fonctionnelles et détaillées * Concevoir les modèles de données et structurer les flux Data Visualisation & POC * Réaliser des maquettes dashboards (Power BI) en mode POC * Construire des visualisations claires et pertinentes pour les métiers * Exploiter les données via Databricks (requêtage, traitement simple) Suivi & Coordination * Assurer le lien entre équipes métiers et techniques * Suivre les développements et garantir la bonne compréhension des besoins * Participer aux rituels agiles (JIRA) Delivery & Run * Préparer les livrables pour les mises en production (MEP) * Participer à la mise en place des outils de supervision * Assurer le transfert de compétences vers les équipes RUN * Contribuer à la résolution d’incidents * Assurer une veille sur les outils data et BI * Proposer des améliorations continues
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
106 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois