Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks
Votre recherche renvoie 88 résultats.
Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)
SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks
1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
Offre d'emploi
QA Data (H/F)
SMARTPOINT
Publiée le
Databricks
JIRA
Microsoft Power BI
3 ans
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un(e) QA Data (H/F) pour rejoindre la squad Équipement de la Maison , rattaché(e) au Pôle Qualité Data . Vous évoluerez dans un environnement agile et structuré , rythmé par : Des rituels agiles cadrés et trimestriels Des cycles de réalisation de 3 semaines (Sprint Planning, Affinage, Sprint Review, Daily Meeting) Une culture d'équipe basée sur l'entraide et l'autonomie Pilotage de la qualité Définir et réaliser la stratégie de test adaptée au contexte Data Analyser et évaluer les cas d'usage et User Stories Rédiger les plans de test , identifier les prérequis et spécifier les jeux de données Identifier et réceptionner les environnements de test Maintenir et faire évoluer le référentiel de test Exécution & suivi Exécuter les cas de tests fonctionnels Réaliser des tests d'intégration 2 à 2 , des tests end-to-end et des tests de surface dans un contexte Data Créer et assurer le suivi des défauts avec les différentes parties prenantes Rédiger les Procès-Verbaux de recette Présenter les sujets en CAB (Change Advisory Board) pour le passage en production Collaboration & amélioration continue Participer activement aux ateliers et rituels agiles Contribuer à l' amélioration continue des pratiques et process qualité Être force de proposition pour gagner en efficacité et en qualité
Mission freelance
Chef de projet GMAO / data senior - H/F - 93
Mindquest
Publiée le
Databricks
ETL (Extract-transform-load)
Python
3 mois
Seine-Saint-Denis, France
Pilotage de projets: - Piloter des projets décisionnels autour de la GMAO, de la phase de cadrage à la mise en production - Garantir la livraison des projets dans le respect des délais, des coûts et des exigences de qualité - Assurer un reporting régulier auprès du management sur l’avancement des projets Coordination & gouvernance: - Faire le lien entre les équipes d’architecture, d’intégration et de développement - Définir et faire appliquer les normes, méthodes et bonnes pratiques - Être garant du respect des processus de gouvernance de la donnée - Veiller au bon usage des données dans les projets Cadrage fonctionnel & expérience utilisateur: - Contribuer à la définition des besoins métiers - Participer à la conception des solutions en intégrant les enjeux d’expérience utilisateur - Définir les fonctionnalités à implémenter Data engineering & performance: - Développer et maintenir des traitements de données robustes sur Databricks - Optimiser les performances des jobs et des rapports existants - Assurer la fiabilité, la qualité et la disponibilité des données Suivi & amélioration continue: - Remonter de manière proactive les risques, alertes et points de blocage à votre manager - Maintenir et enrichir la documentation projet (technique et fonctionnelle) - Contribuer à l’amélioration continue des processus et des outils
Mission freelance
Architecte Sécurité Cloud & Données (H/F)
HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM
6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Mission freelance
Data Engineer - Niort
Signe +
Publiée le
Azure
CI/CD
Data Lake
6 mois
350 €
Niort, Nouvelle-Aquitaine
Je cherche un profil Data ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d’une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d’erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d’amélioration continue -Participation active aux rituels agiles
Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience
Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue
La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Mission freelance
Data Governance Specialist - Data Catalog
Codezys
Publiée le
Apache Airflow
Collibra
Databricks
6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
Mission freelance
Data Engineer
DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks
1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote
Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI
3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
Offre d'emploi
Expert Data Gouvernance H/F
Avanda
Publiée le
Apache Airflow
Collibra
Databricks
12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Offre d'emploi
Expert SRE Azure- Ingénieur Fiabilité Cloud
AVALIANCE
Publiée le
Azure
Azure Kubernetes Service (AKS)
Cloud
2 ans
40k-70k €
400-600 €
Maurepas, Île-de-France
- Rattachement hiérarchique : Responsable Cloud & Datacenter – Équipe Cloud & Datacenter Missions principales : • Fiabilité & SRE : définition des SLI/SLO/error budgets, revues de fiabilité, gestion des incidents majeurs, post-mortems blameless, plans de remédiation. • Observabilité : contribution à la plateforme monitoring (Prometheus, Grafana, Loki, Mimir, Alloy), intégration de nouveaux périmètres Azure, dashboards et alerting. • FinOps & gouvernance Cloud : suivi de la consommation MACC, analyses Azure Resource Graph (KQL), right-sizing, chasse aux ressources orphelines, recommandations d’optimisation. • Infrastructure as Code : industrialisation via Terraform, modules réutilisables, pipelines GitOPS CI/CD, revues de code et bonnes pratiques IaC. • Plateforme Kubernetes (AKS) : exploitation, patching, scaling, sécurité (RBAC, Network Policies, Azure AD integration), support aux équipes applicatives. • Data Platform : accompagnement de la migration ADF v2 vers Databricks, fiabilisation des pipelines et suivi des coûts de compute. • Automatisation & tooling : scripts Python / PowerShell / Bash, runbooks, self-healing, réduction du toil. • Sécurité & conformité : application des standards groupe, gestion des secrets (Key Vault), RBAC, Defender for Cloud, PRA/PCA. • Documentation & partage : runbooks, architecture decision records (ADR), transfert de compétences vers l’équipe et les partenaires (Accenture).
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F
SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas
1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Retour d'expérience démission-reconversion
- Démission pour création d'entreprise rapide
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Offre fictifs et offre non sérieuses
88 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois