Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Lille

Votre recherche renvoie 11 résultats.
CDI

Offre d'emploi
Tech Lead Data Snowflake Lille

Proxiad
Publiée le
Databricks
DBT
Snowflake

48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Freelance
CDI

Offre d'emploi
Senior Data Engineer (5+ ans d'exp)

WINSIDE Technology
Publiée le
Azure
Databricks

3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance
CDI

Offre d'emploi
Data Scientist

ANDEMA
Publiée le
Databricks
PySpark
Python

12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Freelance
CDI

Offre d'emploi
DataOps Engineer - H/F

AMD Blue
Publiée le
Amazon S3
AWS Cloud
CI/CD

3 ans
48k-56k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Ops . Contexte de la mission : Notre client recherche un(e) Senior Data Ops Engineer pour rejoindre son équipe en charge du Datalake. La donnée est au cœur de la stratégie de notre client, guidant chaque décision de la conception à l'expérience utilisateur. L'équipe est responsable de la mise à disposition du stockage, de la robustesse, de la scalabilité et de la gouvernance technique du patrimoine de données. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Gestion du DRP et du PCA. Monitoring et pilotage : Actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails). Support et accompagnement : Expertise sur S3, Glue et Unity Catalog. Infrastructure as Code : Déploiement de nouvelles ressources via Terraform et maintenance de l'existant. Collaboration : Travail en étroite collaboration avec les ingénieurs infra et les équipes ops. Accompagnement et formation : Définition et promotion des bonnes pratiques, conseil lors de la conception des pipelines de données. Développement du futur : Automatisation de la gouvernance (Data contract registry, access management) et déploiement de Unity Catalog (lineage, managed tables, etc.).
Freelance

Mission freelance
Ops engineer - Data Factory (AWS, Databricks)

CAT-AMANIA
Publiée le
Amazon S3
AWS Glue
Databricks

1 an
100-450 €
Lille, Hauts-de-France
Objectifs et livrables Ta mission sera de Garantir la robustesse de la plateforme (DRP, PCA) Monitorer et prendre des actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails) Assurer le support et l'accompagnement sur S3, Glue, Unity Catalog Déployer de nouvelles ressources infra via Terraform et maintenir l'existant Etroite collaboration avec les ops engineer de notre team infra centrale et notre staff ops Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management) Déploiement de Unity catalog et activations de ses nouvelles features (lineage, managed tables etc.)
Freelance

Mission freelance
Data Engineer Azure / IA

Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks

12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Databricks
PySpark
Tableau software

1 an
100-500 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer, Data Manager…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Etre force de proposition auprès de la Stream Leader Data pour permettre la mise à l’échelle des futurs déploiements Contribuer et participer activement à la communauté des Data Quality Manager
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra

1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
Freelance

Mission freelance
Data engineer

CAT-AMANIA
Publiée le
CI/CD
Databricks
PySpark

1 an
100-450 €
Lille, Hauts-de-France
la data est au cœur de notre stratégie, elle guide chaque décision, de la conception du produit à l'expérience client. Notre équipe Managed tools au coeur de la Data Factory est une brique essentielle de cette mission. Organisée autour des outils de compute, orchestration et expostion, l'équipe Managed tools est chargée de mettre à disposition la stack data pour l'ensemble du groupe Decathlon et d'en assurer sa robustesse et scalabilité. Au sein de la squad Compute nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme.
Freelance

Mission freelance
Data Analyst

CAT-AMANIA
Publiée le
Databricks
Google Sheets
Looker Studio

1 an
100-550 €
Lille, Hauts-de-France
Vous serez le garant de la qualité et de la cohérence des données pour nos tableaux de bord et audits. Analyse & Modélisation : Concevoir des modèles de données (fichiers plats/CSV) à partir de sources variées et définir les règles de transformation et d'agrégation. Reporting & Visualisation : Alimenter et optimiser les tableaux de bord sous Google / Looker Studio pour assurer un pilotage efficace. Consolidation Internationale : Collecter, vérifier et uniformiser les données de formation issues de différents pays (gestion des UUID, formatage CSV standardisé). Qualité & Documentation : Mettre en place des contrôles qualité rigoureux (audit, nettoyage), documenter les processus de transformation et maintenir le référentiel des règles de gestion. Approche Analytique : Traduire les problématiques business en questions analytiques claires et proposer des recommandations actionnables.
Freelance

Mission freelance
Data Scientist / ML Engineer (Credit Risk & GenAI)

Codezys
Publiée le
API
Azure
Data science

12 mois
Lille, Hauts-de-France
Dans le cadre de sa feuille de route en intelligence artificielle, ce client s'engage à développer et accélérer l’intégration des technologies de Machine Learning , Deep Learning , NLP (traitement du langage naturel) ainsi que des solutions d’IA Génératives . L’objectif est de maximiser l’exploitation des données, d’optimiser les processus opérationnels et d’améliorer l’expérience client. Objectifs et livrables Credit Risk Scoring Concevoir et optimiser, pour les équipes Risque et Validation, des modèles de scoring d’octroi et de comportement, en explorant des approches innovantes. Assurer la stabilité du coût du risque en entraînant et déployant ces solutions, tout en mettant en place un monitoring efficace de la dérive des modèles. Collaborer étroitement avec les experts métier et les équipes Risque pour garantir la pertinence et l’efficacité des solutions développées. Solutions d’Intelligence Artificielle Optimiser l’expérience client en intégrant en temps réel nos modèles d’IA via des API dans les parcours digitaux (ex. scoring en temps réel, personnalisation des offres de paiement, etc.). Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques en matière de développement (notamment Cloud et MLOps). Collaborer avec les équipes Produit et IT afin d’industrialiser et déployer ces solutions à grande échelle. Intelligence Artificielle Générative (GenAI) Transformer les processus internes (Marketing, Audit, Risque, etc.) ainsi que la relation et le support client, en prototypant puis en déployant en production des solutions d’IA Générative sous forme d’agents (ex. LLM, RAG). Automatiser l’octroi de crédits, réaliser des analyses documentaires complexes et faciliter l’interaction avec la clientèle en mettant en place des architectures orientées agents. Évaluer, optimiser et suivre les performances des agents (cohérence, diversité, utilisation de LLM en tant que juge, etc.).
11 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous