Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Votre recherche renvoie 70 résultats.
Freelance

Mission freelance
DevOps – Microsoft Fabric / Azure

Cherry Pick
Publiée le
.NET
AWS Cloud
Azure

12 mois
500-550 €
Île-de-France, France

Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.

Freelance

Mission freelance
Architecte Entreprise - Assurance

Cherry Pick
Publiée le
Advanced Design System (ADS)
API
API Platform

12 mois
650-750 €
Paris, France

Contexte La Direction Stratégie & Architecture d’Entreprise assure le lien entre la stratégie du groupe et les feuilles de route IT. Elle définit les normes, standards et patterns à privilégier, garantit la cohérence globale de l’architecture et veille à ce que l’entreprise investisse au bon moment dans les bons systèmes et services. L’équipe accompagne également les Directions Métiers dans la transformation stratégique du SI et intervient sur trois axes principaux : Proximité avec les Directions Métiers : soutien à la construction de la vision cible des SI métier. Accompagnement des projets de transformation SI : alignement avec le plan stratégique et cohérence avec le cadre de référence. Diffusion et valorisation du patrimoine informatique : mise à disposition de référentiels capacitaires et partage de la connaissance. Missions principales Réaliser des études de transformation cible du SI, avec un niveau de restitution adapté aux instances managériales, dans une démarche d’architecture d’entreprise. Assurer la cohérence des solutions avec le cadre de référence et les exigences non fonctionnelles. Instruire avec le métier, les experts techniques et les architectes les scénarios d’architecture, les estimations de coûts ("T-Shirt Sizing") et les différentes trajectoires pour atteindre la cible. Faire valider les solutions cibles auprès de la direction informatique. Accompagner les Directions SI et Métiers dans la construction de leur stratégie de transformation SI (Schéma Directeur SI) et de la feuille de route associée. Alimenter, documenter et cartographier les référentiels et principes d’architecture.

Freelance

Mission freelance
Data Analyst - IDF

ISUPPLIER
Publiée le
Data Lake
Dataiku
Microsoft Power BI

12 mois
400-420 €
Montreuil, Île-de-France

Le client recherche un data analyst pour un projet au sein du département DER (Direction Employeur et Recrutement) de France Travail, plus précisément dans une entité dédiée à la mise en relation entre les demandeurs d'emploi, les offres et les entreprises. L'objectif est de développer des tableaux de bord (sur Qlik Sense ou Power BI) et de modéliser les flux de données à partir d'un data lake, afin de fournir des indicateurs pertinents pour le suivi des demandeurs d'emploi et des offres. Le projet implique la formalisation des besoins métiers, la définition des règles de gestion, la création de maquettes de tableaux de bord, l'industrialisation, la recette métier et la mise en production. Le profil recherché doit être technico-fonctionnel, capable de comprendre et challenger le métier, de poser les bonnes questions, de s'assurer de la qualité des données et de devenir autonome sur les outils utilisés (SQL, Dataiku, Qlik Sense, Power BI).

Freelance

Mission freelance
Product Owner Technique – Data Platform

Atlas Connect
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France

Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.

Freelance

Mission freelance
DataOps - MS FABRIC/ Azure

Cherry Pick
Publiée le
.NET
.NET Framework
AWS Cloud

12 mois
500-550 €
Paris, France

Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

CDI

Offre d'emploi
Data engineer H/F

OPEN GROUPE
Publiée le
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Freelance

Mission freelance
Data Engineer azure (SQL / ADF /Power BI)

adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD

10 mois
Île-de-France, France

Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Freelance

Mission freelance
Mission Freelance / Portage - Microsoft Fabric / Azure - Paris - Hybride

KUBE Partners S.L. / Pixie Services
Publiée le
Azure
Azure Data Factory
Azure Synapse

3 ans
380-460 €
Courbevoie, Île-de-France

Bonjour, Pour l’un de mes clients, je recherche un Consultant Microsoft Fabric Rôle : Concevoir, intégrer et optimiser les flux de données sur la plateforme Microsoft Fabric . Structurer OneLake, Synapse, Data Factory , créer et maintenir les référentiels, améliorer la qualité des données et collaborer avec les équipes BI sur les modèles de reporting. Compétences clés : Microsoft Fabric, Azure (Synapse, Data Factory, Databricks, Event Hub, OneLake), ETL, Data Lake / Lakehouse, modèle Médaillon, SQL, Python (PySpark), Power BI, intégration inter-applicative, reporting BI. Profil recherché : Expérience confirmée sur Azure et ADF, bonne maîtrise des architectures Data Lake / Lakehouse. Personne rigoureuse, organisée, avec un bon esprit d’équipe, capable de documenter et vulgariser les traitements. Si vous êtes intéressé et que votre profil correspond, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.

Freelance

Mission freelance
AMOA gouvernance de la donnée

Etixway
Publiée le
Data Lake
Gouvernance

1 an
450-550 €
Noisy-le-Grand, Île-de-France

L’orchestration de la mise en place du contrat de données, incluant la définition des règles de gouvernance et des processus d’intégration. La gestion de la conformité réglementaire et contractuelle (RGPD, politiques internes de gouvernance des données, etc.). L’accompagnement des équipes métiers et techniques pour l’utilisation optimale et sécurisée du Data Lake, y compris la traçabilité, le catalogage et les droits d’accès aux données. Le suivi et la coordination des relations avec les fournisseurs et les propriétaires de données, ainsi que la mise à jour et le suivi des clauses du contrat de données. La contribution à la mise en œuvre d’indicateurs de qualité et de performance liés à la disponibilité, l’intégrité et l’usage des données

Freelance
CDI

Offre d'emploi
Architecte Data / Cloud

KLETA
Publiée le
Apache Airflow
AWS Cloud
Azure

2 ans
Paris, France

Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.

Freelance
CDI

Offre d'emploi
Ingénieur DBA & DevOps Cloud (AWS) H/F

HIGHTEAM
Publiée le
MariaDB

3 ans
Île-de-France, France

Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Missions principales : • Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). • Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). • Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. • Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). • Optimiser les performances (requêtes SQL, tuning, architectures de stockage). • Garantir la haute disponibilité, le PRA et la continuité de service. • Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. • Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). • Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. • Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). • Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase.

Freelance

Mission freelance
Renfort Architecte fonctionnel : activités de marché

NEXORIS
Publiée le
Analyse

1 an
700 €
Paris, France

Notre client, un établissement majeur du secteur financier, recherche un consultant pour l'accompagner dans la conception de l’architecture fonctionnelle d’un environnement dédié aux activités de marché. Missions principales : - Intervenir en tant qu’architecte fonctionnel sur le périmètre Marché et Risques de Marché - Structurer les flux fonctionnels autour de l’outil Calypso, notamment pour les opérations de titrisation - Cadrer et accompagner l’alimentation du Data Lake - Définir les flux nécessaires aux besoins de reporting réglementaire et de groupe - Concevoir l’architecture fonctionnelle cible en lien avec les plateformes électroniques de marché - Accompagner les équipes métier et IT avec pédagogie pour une meilleure compréhension des activités de marché et des processus associés (capacité à vulgariser)

Freelance
CDI

Offre d'emploi
Architecte Solution Stream IT Data Monétique

VISIAN
Publiée le
Architecture
Monétique

1 an
40k-45k €
140-620 €
Montreuil, Île-de-France

Offre d'emploi : Architecte Solution Stream IT Data Monétique Dans un contexte de révolution numérique des paiements par carte et de l'initiative de paiement paneuropéen, une grande banque européenne recherche un architecte solution pour son domaine data monétique. Contexte Le monde des paiements par carte est en pleine effervescence et promet une transformation numérique sans précédent. Les termes tels que data lake, event stream, base de données distribuée, consistency, availability, RPO/RTO, acceptation, acquisition, SLA, Cloud vous interpellent ? Cette annonce est faite pour vous ! Missions principales Définir les évolutions des composants du stream IT data monétique et documenter les changements et leurs impacts Assurer la cohérence des solutions avec le cadre d'architecture du groupe bancaire Garantir l'évolutivité et la résilience du système Collaborer avec les équipes métier, architectes d'entreprise, sécurité et développement

Freelance

Mission freelance
Architecte Solution Data AWS

Hexateam
Publiée le
AWS Cloud
AWS Glue
Big Data

3 ans
600-700 €
Paris, France

Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :

70 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous