Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Paris

Votre recherche renvoie 28 résultats.
Freelance

Mission freelance
Tech Lead Data Engineer senior

Publiée le
Apache Spark
Azure
Databricks

12 mois
530-580 €
Paris, France
Télétravail partiel
Vous rejoindrez notre Data Factory dont la mission est de concevoir et de déployer des produits analytiques innovants à destination des magasins, des fonctions support, de la logistique et des consommateurs. Face à la montée en puissance des besoins, nous avons adopté une organisation Agile en Domaines/Squads, avec une forte volonté d’industrialiser nos pratiques pour accélérer les livraisons tout en valorisant notre patrimoine de données. En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. 2. Compétences Techniques Requises Nous recherchons un profil senior avec une expérience d’au moins 2 ans en tant que Tech Lead et une certification sur Spark ou Databricks sont exigées. Compétence Expérience minimale demandée : Data Engineering 5 ans Azure 3 ans Architecture Lakehouse 3 ans Databricks 5 ans Spark 5 ans SQL, Python 5 ans Scala 2 ans CI/CD, Azure DevOps 5 ans
Freelance
CDI

Offre d'emploi
Data Analyst Azure (H/F)

Publiée le
Azure
Databricks
Scala

3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
En tant que Data Analyst Azure, vous interviendrez au sein d’un pôle Data regroupant différentes compétences. Cette mission sera dans un environnement agile où l’entraide et l’esprit d’équipe sont des points forts de l’organisation. L'utilisation massive de données et le développement d’approches analytiques ne doivent plus avoir de secret pour vous. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Pour cela, vous serez amené(e) à : Participer au recueil de besoin et cadrage auprès des utilisateurs finaux Rédiger des contrats d’interfaces pour mise à disposition des données par la source de données Rédiger de la documentation technique et fonctionnelle Modéliser des données Analyser des données à travers Databricks (langage SQL, SCALA) Accompagner des Data Engineers Créer et suivre des tickets JIRA Documenter de notre outil de Gouvernance de données DATA GALAXY Analyser des incidents Une 1ere expérience dans le secteur du retail / bricolage serait appréciée.
Freelance
CDD

Offre d'emploi
Data Scientist

Publiée le
CI/CD
Databricks
Deep Learning

1 an
40k-45k €
400-550 €
Paris, France
Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.
Freelance

Mission freelance
Ingénieur Cloud Azure

Publiée le
Azure
Big Data
CI/CD

3 mois
Paris, France
Télétravail partiel
Construire et déployer des infrastructures Cloud Public (principalement sur Microsoft Azure) pour les projets Data. Industrialiser les architectures cibles et configurer les équipements via des chaînes CI/CD automatisées. Assurer la fiabilité et la sécurité des plateformes , en mettant en place la supervision, la haute disponibilité et les bonnes pratiques de sécurité Cloud. Collaborer avec les équipes développement, sécurité et projets pour accompagner la transformation Data dans un environnement Agile.
Freelance

Mission freelance
Senior Engineer - Migrations

Publiée le
AWS Cloud
Databricks
Migration

6 mois
450-500 €
Paris, France
Télétravail partiel
Mission / Freelance / Longue / France / Paris / Hyrbide / Senior Engineer / Migration / Typescript / AWS / Kafka / SQL / Anglais Notre partenaire recherche plusieurs Senior Engineers – Migrations pour renforcer son équipe d’ici la fin de l’année. L’objectif : accompagner la migration de systèmes clients complexes vers une plateforme innovante. Localisation : Paris (Gare du Nord), 3j/semaine sur site Démarrage : ASAP Durée : mission longue Langue : Anglais professionnel courant (obligatoire) Vos missions Au sein de l’équipe Client Engineering, vous interviendrez sur : La migration de comptes et données clients depuis des systèmes legacy vers les environnements modernes de la plateforme. L’analyse de données client pour comprendre le comportement utilisateur et orienter les stratégies de migration. Le développement d’outils backend et de pipelines performants pour automatiser et fiabiliser les processus de transfert. La collaboration transverse avec les équipes produit, data et infrastructure afin d’assurer une intégration fluide et une satisfaction client optimale. La participation à la définition des standards techniques et à la mise en place de bonnes pratiques sur un contexte à forte croissance. Stack technique TypeScript, Node.js, Databricks, AWS (serverless), Kafka, GraphQL, Docker, Kubernetes, GitHub Actions. Profil recherché Solide expérience en développement backend (TypeScript idéalement, ou autre langage moderne avec volonté d’évoluer dessus). Maîtrise des architectures événementielles et des systèmes à base de queues (Kafka, SNS/SQS…). Bonne expérience du cloud AWS et des environnements serverless. Connaissances en base de données SQL/NoSQL, performance et optimisation. Capacité à évoluer dans un environnement international, collaboratif et exigeant. Anglais courant indispensable (environnement 100% anglophone). Serait un vrai plus Expérience en data engineering (Databricks, pipelines, data mapping). Participation à un programme de migration ou à des projets d’intégration complexe. Si cette opportunité vous intéresse, vous pouvez y postuler ou me contacter directement (Christopher Delannoy).
Freelance

Mission freelance
AI Engineer

Publiée le
AI
AWS Cloud
Azure

12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
CDI

Offre d'emploi
Data Architect

Publiée le
Architecture
AWS Cloud
Azure

65k-80k €
Paris, France
Télétravail partiel
Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble
Freelance

Mission freelance
Senior SAP BW Consultant – Interface Implementation H/F

Publiée le
SAP BW

50 jours
500 €
Paris, France
Télétravail partiel
Notre client dans le secteur High-tech recherche un/une Senior SAP BW Consultant – Interface ImplementationH/F Description de la mission: Mission Freelance – Senior SAP BW Consultant (Interface & Data Integration) Contexte : Dans le cadre d’un programme stratégique visant à bâtir une Corporate Data Platform , l’équipe Data rencontre des difficultés sur la récupération et l’intégration de données issues de SAP ECC/BW . Les enjeux se situent tant au niveau du design des extractions que de la construction des pipelines vers la plateforme data (Databricks / Azure). Afin d'accélérer l’exécution, nous recherchons un consultant expert SAP BW , immédiatement disponible, pour un renfort opérationnel de courte durée. Objectifs de la mission Concevoir et sécuriser l’ extraction des données SAP ECC/BW Industrialiser les flux d’intégration entre SAP BW et Databricks (via Azure) Garantir la qualité, la fiabilité et la performance des transferts de données Compétences recherchées Profil : Senior SAP BW Consultant – Interface / Integration 8–10 ans d’expérience sur SAP BW , avec une forte expertise technique et architecture Expérience avérée sur des projets d’ intégration SAP BW → Databricks via Azure Maîtrise des concepts : Datasource management : données transactionnelles / master data Gestion des extractions standard & custom, mapping, conformité Conception et optimisation des flux : SAP BW → Databricks (Azure services / flat files) Gestion des contraintes BW : multi-files, full/delta loads, timestamp logic Bonus fortement souhaité : compétences ABAP pour debug / enhancements Nous recherchons un profil hands-on, orienté delivery , capable de proposer des patterns efficaces d’intégration SaaS-to-SaaS et disposant d’une compréhension avancée de la modélisation data sur une plateforme Databricks. Informations pratiques Démarrage : ASAP (urgent staffing) Durée : 30 à 50 jours (mission courte, concentrée sur la résolution des blocages) Localisation : Paris (préférence), hybride possible Compétences / Qualités indispensables : SAP ECC/BW, Expérience avérée sur des projets d’intégration SAP BW → Databricks via Azure, optimisation des flux : SAP BW → Databricks, Anglais courant Informations concernant le télétravail : 2 ou 3 jours
CDI

Offre d'emploi
Data Architect

Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
CDI

Offre d'emploi
Expert Data Gouvernance

Publiée le
AWS Cloud
Azure
Collibra

65k-80k €
Paris, France
Télétravail partiel
Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées
Freelance

Mission freelance
Architecte Data – Expert Azure

Publiée le
Azure
Big Data

3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
28 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous