Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Votre recherche renvoie 82 résultats.
Freelance

Mission freelance
Expert Denodo (H/F)

Publiée le
Data Lake
ELK

1 an
Châtillon, Île-de-France
Télétravail partiel
Si manipuler et structurer les données est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’Expert Denodo ! 🚀 Ton challenge si tu l’acceptes : Administrer et paramétrer des requêtes dans Denodo pour répondre aux besoins métiers Assister les utilisateurs et les projets dans l’exploitation de la solution Denodo Maintenir et optimiser la plateforme pour garantir un service de qualité Structurer, intégrer et sécuriser les flux de données venant de multiples sources Participer à la supervision et au nettoyage des données pour assurer leur fiabilité Contribuer à la documentation et à la cartographie des sources de données Proposer des évolutions techniques et des améliorations des infrastructures existantes
Freelance

Mission freelance
Senior Manager / Expert Data & BI – Projet EPM Oracle

Publiée le
Data Lake
Database
Oracle

24 mois
530-950 €
Île-de-France, France
Télétravail partiel
Contexte du projet : Dans le cadre d’un programme international de transformation Finance & Performance , une organisation leader dans le secteur du divertissement et des services déploie une solution EPM Oracle standardisée sur l’ensemble de ses entités mondiales. Vos missions principales : 1. Expertise Data & Architecture – rôle clé en amont Cartographier et analyser les systèmes sources actuels (SAP ECC, BW, applications opérationnelles). Contribuer au design de la future architecture Data (Snowflake, data lake, pipelines, modèle finance). Définir les modalités d’ alimentation de l’EPM Oracle , les granularités cibles et les règles structurelles. 2. Cohérence fonctionnelle & technique Finance / EPM Garantir l’alignement entre les besoins Finance et la solution EPM cible. Participer aux ateliers de design pour orienter les choix data, fonctionnels et techniques. Challenger les intégrateurs et les standards corporate pour préserver la cohérence locale. 3. Pilotage & coordination Animer les phases de cadrage, pré-étude et design en lien avec l’ensemble des parties prenantes. Clarifier le RACI avec les partenaires externes (intégrateur global & intégrateur EPM). Identifier les impacts sur le SI Finance et proposer des trajectoires de transition. 4. Accompagnement du changement Data & Reporting Expliquer les impacts Data et EPM aux équipes Finance et Systèmes d’Information. Préparer la transition vers les plateformes cibles et le retrait des solutions historiques. 5. Préparation du Run Définir les processus opérationnels post-implémentation et la gouvernance Data/EPM. Accompagner la montée en compétences interne sur la future plateforme.
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Freelance

Mission freelance
Développeur CRM Salesforce Marketing Cloud

Publiée le
Data Lake
Salesforce Sales Cloud

1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Freelance

Mission freelance
Senior Azure Data Engineer

Publiée le
Automatisation
Azure
Data Lake

6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Freelance
CDI

Offre d'emploi
Business Analyst Data / Expert Data Management - Banque

Publiée le
Data analysis
Data governance
Data Lake

6 mois
45k-60k €
470-700 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour une grande banque européenne , nous recherchons deux profils complémentaires : Business Analyst Data et Expert Data Management. Vous interviendrez sur des sujets clés liés à la migration de Datalake et à la gouvernance des données . Vos responsabilités incluront : Participer à la migration et à la valorisation des données. Implémenter des contrôles de Data Governance (Ownership, Definition, Quality). Gérer les Metadata et le Data Lineage . Superviser le End User Computing (EUC) . Définir et exécuter des plans pour garantir la conformité avec les frameworks Data Management & EUC.
Freelance

Mission freelance
Testeur ET Big data

Publiée le
Big Data
Data Lake
TestNG

3 ans
400 €
Nanterre, Île-de-France
Télétravail partiel
Testeur expert sur l'environnement big data Contexte : Mission N°1 La gestion de projet de test de bout en bout (cadrage, stratégie, conception, jeux de données, exécution, pilotage, livrable, PV) sur la mise en place d'un USE CASE KYC permettant d'automatiser la selection des abonnés envoyés en remédiation depuis des sources du datalake Mission N°2 Elaborer une stratégie de test à partir d'un process macro décrit sur les environnements BIG DATA / Etre référent de la cop data test qui va se monter ensuite
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance

Mission freelance
Chef de projet technique Data plateforme - Nantes

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Freelance

Mission freelance
Data Analyst

Publiée le
Data Lake
Data visualisation
Dataiku

2 mois
250 €
Nantes, Pays de la Loire
Télétravail partiel
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Freelance

Mission freelance
Data Engineer Ms Fabric - Python /Azure

Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
550-630 €
Paris, France
Télétravail partiel
Contexte Dans le cadre du renforcement de ses équipes Data, notre client du secteur de l’énergie recherche 2 Data Engineers spécialisés en Python , PySpark , Microsoft Fabric et maîtrisant l’environnement Azure Cloud . Les prestations débuteront début / mi-janvier 2026 pour une mission longue à Paris. Objectifs de la mission Le Data Engineer interviendra sur la conception, le développement et la mise en production de l’architecture de données de l’entreprise. Il aura notamment pour missions : Objectifs Concevoir une architecture Data performante, scalable et conforme aux besoins métiers. Industrialiser les flux de données au sein de l’écosystème Azure et Microsoft Fabric. Garantir la fiabilité, la qualité et la disponibilité des données. Livrables attendus Architecture cible documentée Pipelines de données développés et testés Pipelines mis en production et monitorés Documentation technique complète Plan de maintenance et évolutions techniques recommandées Responsabilités détaillées Recueillir et analyser les besoins des métiers et utilisateurs. Concevoir l’architecture de données : modèles, schémas, stockage, orchestration. Développer des pipelines data robustes sous Python , PySpark , Microsoft Fabric . Mettre en production les différents flux (CI/CD, monitoring…). Maintenir et faire évoluer l’architecture existante. Assurer un support technique de niveau expert sur la chaîne de traitement des données. Contribuer à l’amélioration continue des pratiques Data et Cloud. Compétences requises Techniques CompétenceNiveau Python ⭐⭐⭐⭐ (Expert) PySpark ⭐⭐⭐⭐ (Expert) Microsoft Fabric ⭐⭐⭐ (Confirmé) Certification « Microsoft Certified: Fabric Data Engineer Associate » Souhaitée / requise Azure Cloud ⭐⭐⭐ (Confirmé) Anglais ⭐⭐⭐ (Courant) Soft Skills Rigueur et autonomie Communication claire avec les métiers Capacité à travailler en équipe dans un environnement Agile/Cloud Bon sens de l’analyse et de la résolution de problèmes Modalités Lieu : Paris Type : Prestation de Data Engineering Présence obligatoire : 3 jours sur site / semaine Télétravail : 2 jours Début de mission : début / mi-janvier 2026
Freelance
CDI

Offre d'emploi
Product Owner data

Publiée le
Azure Data Factory
Cybersécurité
Data Lake

6 mois
Courbevoie, Île-de-France
Télétravail partiel
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.
Freelance

Mission freelance
Senior Data Scientist

Publiée le
ADFS
Analyse financière
Azure

6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
CDI
Freelance

Offre d'emploi
Data Engineer Azure & Databricks

Publiée le
Apache NiFi
CI/CD
Data Lake

6 mois
55k-65k €
420-520 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
Télétravail partiel
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Freelance

Mission freelance
Architecte DATA - Ms Fabric Full TT

Publiée le
Architecture
Azure Data Factory
Azure DevOps

6 mois
610-660 €
France
Télétravail 100%
Responsabilités principales : Feuille de route Data : Définir et maintenir une roadmap de la plateforme de données alignée avec la stratégie de l’organisation. Évolution du Data Stack : Concevoir, déployer et faire évoluer l’architecture du data stack moderne (MSF). Données de référence : Mettre en place et gérer les données de référence (MDM), sources uniques de vérité pour réduire incohérences et redondances. Alignement métier : Traduire les besoins business en solutions architecturales sécurisées et évolutives. Cohérence des outils : Assurer l’intégration fluide entre systèmes existants, cloud, outils départementaux et solutions BI/ERP. Livraison transverse : Collaborer avec ingénieurs data, analystes BI et responsables métiers pour produire des données fiables et gouvernées. Normes et bonnes pratiques : Développer architectures de référence, modèles de données et protocoles de gouvernance. BI en libre-service : Permettre une analyse libre mais gouvernée via exposition structurée des données. Profil recherché : Formation : Diplôme d’ingénieur ou équivalent en informatique, data engineering ou discipline similaire. Expérience : 5+ ans en architecture de données dans des environnements complexes et hybrides. Expérience avec MDM et plateformes Microsoft Fabric. Expertise sur plateformes hybrides (legacy, on-prem, cloud-native). Pilotage d’initiatives transverse (IT, métier, gouvernance). Compétences clés : Cloud & Data Platform : Azure, conception d’architectures Azure, CI/CD avec Azure DevOps. Intégration & pipelines : Azure Data Factory, Fabric Pipelines, intégration avec CRM/ERP. Solutions unifiées modernes : Microsoft Fabric, Databricks / PySpark. Modélisation & stockage : SQL Server, Cosmos DB, modèles dimensionnels, normalisés, Lakehouse. Gouvernance & métadonnées : Data lineage, catalogue de données, intégration BI/MDM/qualité. Sécurité & conformité : Entra ID, Key Vault, RGPD, PasswordState. BI & analytique : Power BI, DAX, modélisation sémantique, Microsoft Fabric.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

82 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous