Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake
Votre recherche renvoie 80 résultats.
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Mission freelance
Data Product Manager/PO (Rennes)
Atlas Connect
Publiée le
BigQuery
Data Lake
Data science
12 mois
500-540 €
Rennes, Bretagne
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Offre d'emploi
Directeur de projet technique - Lyon
VISIAN
Publiée le
Chef
Direction de projet
3 ans
60k-70k €
600-650 €
Lyon, Auvergne-Rhône-Alpes
Contexte Au sein de la Direction des Systèmes d’Information d’un grand groupe, vous intervenez dans le cadre d’un programme stratégique de transformation visant la modernisation d’une plateforme de données à grande échelle. L’environnement est multi-équipes et multi-sites, avec des enjeux forts de performance, de montée en charge, de fiabilité et d’alignement avec les besoins métiers. Mission principale Assurer le pilotage transverse d’un programme de transformation technique portant sur la migration et l’évolution de plusieurs plateformes data, en garantissant la cohérence globale, la maîtrise des risques et la fluidité des interactions entre équipes. Responsabilités Pilotage de programme Planifier et coordonner les différents chantiers techniques Synchroniser les équipes impliquées (data, cloud, architecture, exploitation, sécurité…) Assurer le suivi opérationnel et le reporting à différents niveaux Contribuer au cadrage et au suivi budgétaire Garantir le respect de la trajectoire globale de transformation Gestion des projets de migration Accompagner la migration de plateformes data existantes vers de nouvelles solutions Superviser l’évolution d’une plateforme Data Lake et d’architectures orientées microservices Veiller à la performance, la scalabilité et la robustesse des solutions Coordination des équipes Faciliter la collaboration entre équipes techniques et managers Identifier rapidement les risques, blocages et écarts Proposer des actions correctives adaptées Soutenir la montée en maturité d’équipes récentes Suivi et gouvernance Définir et piloter des indicateurs de performance (KPI) pertinents Produire des tableaux de bord d’avancement Assurer la visibilité globale du programme auprès du management Sécuriser la trajectoire globale plutôt que l’optimisation locale Environnement technique Plateformes de données et Data Lake Traitements batch et temps réel Architectures microservices Technologies Big Data (ex. Spark, Scala) Technologies backend (ex. Java) Environnements cloud ou hybrides Outils de streaming (ex. Kafka) Profil recherché Compétences techniques Solide expérience en pilotage de projets techniques complexes Bonne compréhension des architectures data et cloud Expérience des programmes de migration ou de transformation IT Capacité à interagir avec des experts techniques variés Compétences comportementales Excellente communication et leadership transversal Forte autonomie et capacité d’adaptation Esprit d’analyse et de synthèse Orientation résultats et gestion des risques Capacité à entrer rapidement dans des sujets complexes
Mission freelance
Data Engineer AWS / GenAI
Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Offre premium
Offre d'emploi
Chef de projet DATA
UCASE CONSULTING
Publiée le
JIRA
Kubernetes
Python
1 an
40k-60k €
400-620 €
Île-de-France, France
Chef de Projet Data (H/F) Bonjour tous 😀 Nous recherchons un Chef de Projet Data charge du pilotage de projets data, depuis la phase de cadrage et d’estimation jusqu’à la mise en production et l’exploitation de traitements de données complexes. L’intervention pourra couvrir plusieurs projets en parallèle en fonction des priorités du programme data. Missions : Pilotage de projets data de bout en bout Coordination des équipes techniques et métiers Validation des spécifications fonctionnelles Suivi des livrables (qualité / coûts / délais) Gestion du backlog et des user stories Pilotage des phases de tests et de recette Suivi des mises en production et de l’exploitation Communication avec les parties prenantes Environnement Agile / Scrum (sprints de 2 semaines). Must-have Connaissance CI/CD Connaissance Kubernetes Connaissance Python Connaissance PostgreSQL Expérience en pilotage de projets data Expérience en environnement agile / Scrum Expérience de coordination d’équipes data ou IT Maîtrise de JIRA et Confluence Bonne compréhension des data pipelines / data platforms Expérience en recette et qualité des livrables Expérience en migration ou intégration de données (fort plus) Nice-to-have Certification Scrum Master Expérience Data Lake / Data Warehouse Expérience en run / exploitation applicative Stack / environnement JIRA Confluence Python PostgreSQL Gitlab / Jenkins Kubernetes Séniorité attendue : 👉 environ 6–10 ans d’expérience
Mission freelance
Consultant Expert Adobe Campaign H/F
OUICODING
Publiée le
1 mois
650 €
Courbevoie, Île-de-France
Votre rôle sera central dans l'exécution technique des campagnes et l'évolution de la plateforme : -Développement & Data : Création de requêtes de ciblage complexes, automatisation de workflows (JS serveur/SQL) et extension de schémas de données (XML). -Intégration & Écosystème : Connexion de la plateforme aux outils tiers (CRM Salesforce, Web via API SOAP/REST) et interface avec le Data Lake (compréhension des flux ETL via Talend). -Expérience Client : Création de templates d'emails robustes (HTML/CSS responsive) et déploiement de scénarios automatisés (Panier abandonné, Welcome pack, etc.). -Gouvernance : Garantir la délivrabilité, le respect du RGPD et la gestion de la pression commerciale.
Mission freelance
Consultant Expert Adobe Campaign H/F
OUICODING
Publiée le
1 mois
420-900 €
Courbevoie, Île-de-France
Votre rôle sera central dans l'exécution technique des campagnes et l'évolution de la plateforme : -Développement & Data : Création de requêtes de ciblage complexes, automatisation de workflows (JS serveur/SQL) et extension de schémas de données (XML). -Intégration & Écosystème : Connexion de la plateforme aux outils tiers (CRM Salesforce, Web via API SOAP/REST) et interface avec le Data Lake (compréhension des flux ETL via Talend). -Expérience Client : Création de templates d'emails robustes (HTML/CSS responsive) et déploiement de scénarios automatisés (Panier abandonné, Welcome pack, etc.). -Gouvernance : Garantir la délivrabilité, le respect du RGPD et la gestion de la pression commerciale.
Offre d'emploi
Ingénieur Sécurité Data (H/F)
AVA2I
Publiée le
AWS Cloud
Cybersécurité
FortiGate
3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Sécurité Data pour renforcer la sécurisation d’un environnement multicloud AWS & GCP . L’objectif est de protéger l’ensemble de la chaîne de valeur Data : ingestion, stockage, transformation et exposition des données, tout en garantissant conformité, traçabilité et résilience des infrastructures. 🏗️ Environnement Technique Cloud : AWS & GCP (environnement multicloud) Plateforme Data : Data Lake / Data Warehouse ETL / ELT Orchestration de flux data Sécurité réseau : Firewalls Fortinet / FortiGate Segmentation réseau & sécurisation des flux inter-VPC / inter-projets CI/CD & approche DevSecOps Supervision & monitoring sécurité 🛠️ Missions principales🔒 Sécurité Cloud & Data Sécurisation des architectures Data sur AWS et GCP Mise en place et contrôle des politiques IAM Gestion des accès aux environnements Data Sécurisation des flux d’ingestion et d’exposition des données Application des standards sécurité groupe 🌐 Sécurité Réseau Administration et configuration des firewalls FortiGate Gestion des règles de filtrage, VPN, NAT, IPS Segmentation réseau et sécurisation des flux inter-environnements Analyse et traitement des incidents sécurité réseau
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Mission freelance
Développeur Java / Kafka / GCP
Sapiens Group
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
12 mois
420-450 €
Hauts-de-France, France
Missions principales Concevoir et développer des applications backend robustes en Java Concevoir et maintenir des pipelines de données sur Google Cloud Platform (GCP) Manipuler et structurer des Data Sets volumineux Développer des flux de données temps réel via Kafka Concevoir et optimiser des bases MongoDB Exploiter et analyser les données via BigQuery Participer aux choix d’architecture technique Garantir la performance, la scalabilité et la sécurité des systèmes Mettre en place les bonnes pratiques (tests, CI/CD, monitoring) 🛠 Compétences techniques requisesLangage & Développement Excellente maîtrise de Java Connaissance des frameworks type Spring Boot (fortement apprécié) Cloud & Data Solide expérience sur GCP Maîtrise de BigQuery Bonne compréhension des architectures data (Data Lake, Data Warehouse) Bases de données MongoDB (modélisation, optimisation des requêtes) Streaming & Messaging Kafka (architecture event-driven, streaming temps réel) Data Manipulation, structuration et optimisation de Data Sets Gestion de volumes importants de données
Offre d'emploi
Data Engineer / Analytics Engineer
VISIAN
Publiée le
Microsoft Power BI
3 ans
40k-45k €
350-440 €
Île-de-France, France
Description de la mission : Rattaché au Data Office, vous mettez en œuvre les outils et méthodes statistiques nécessaires pour organiser, synthétiser et traduire les données en leviers de décision. Vous intervenez sur l'ensemble de la chaîne de valeur, de la gestion des flux ETL à la publication des indicateurs dans les outils de Dataviz. Missions principales : Gestion des flux de données : Piloter et maintenir les flux ETL via Dataiku et Databricks à partir du Data Lake. Analyse & Exploration : Fournir un appui analytique pour des explorations complexes. Créer des algorithmes de recherche de données pour identifier les informations utiles. Industrialisation : Transformer les analyses exploratoires en procédés industrialisés pour les données stratégiques. Pilotage de la performance : Définir et mettre en œuvre les indicateurs clés de performance (KPI) et les indicateurs de qualité de données (DQI). Architecture & Modélisation : Gérer l'administration, la modélisation et l'architecture des gisements de données. Garantir la cohérence et la performance des bases de données existantes. Aide à la décision : Synthétiser les informations complexes pour faciliter les arbitrages de la direction. Profil recherché : Expérience : Profil confirmé avec une solide maîtrise de l'analyse statistique et de l'ingénierie de données. Expertise Technique : Maîtrise des outils ETL : Dataiku , Databricks . Expérience sur les environnements Data Lake . Compétences en outils de Dataviz . Solides connaissances en modélisation et architecture de données. Soft Skills : Esprit d'analyse rigoureux, capacité de synthèse, autonomie et force de proposition. Livrables attendus : Définition précise des KPI. Établissement des règles de calcul et de gestion. Documentation des flux et des modèles de données.
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes. Profil recherché :
Offre d'emploi
Chef de Projet MOA Décisionnelle – Assurance / Programme Relation Client (H/F)
CELAD
Publiée le
60k €
Paris, France
Contexte Dans le cadre du Programme Relation Client (PRC) d’un acteur majeur du secteur assurance / mutualité , CELAD recherche un Chef de Projet MOA Décisionnelle pour participer à la transformation du modèle de relation client et à l’optimisation des outils de pilotage. Le programme s’appuie sur le progiciel Pega pour : Gérer les parcours clients et orchestrer les interactions Traquer les intentions, actions et activités relationnelles Alimenter les dispositifs de pilotage et reporting décisionnel Les données issues de Pega, intégrées à d’autres briques du système d’information, servent à fournir aux métiers et managers des outils fiables et orientés usages . Missions principales Piloter les projets décisionnels dans le contexte assurance / mutualité Analyser les besoins métiers et les traduire en spécifications décisionnelles Contribuer à la conception et au suivi du Data Warehouse / Data Lake Coordonner les équipes métiers, IT et Data centrales Suivre les recettes et valider la qualité des livrables décisionnels Participer à la convergence des indicateurs et à l’optimisation des dispositifs de pilotage
Mission freelance
BI analyst & developer
Gentis Recruitment SAS
Publiée le
Microstrategy
Oracle
PL/SQL
3 mois
450-550 €
Luxembourg
La mission s’inscrit dans un environnement bancaire exigeant, autour de : La gestion et la production de données réglementaires Des projets d’ analytique et de statistique pour une application plateforme Un contexte structuré avec des enjeux de qualité, conformité et fiabilité des données L’équipe est soudée et collaborative, majoritairement francophone. Responsabilités principales Développement et optimisation de requêtes PL/SQL Développement et maintenance de flux Talend Création et maintenance de rapports sous MicroStrategy Participation aux projets analytiques et réglementaires Contribution à l’amélioration continue des processus data Force de proposition sur l’optimisation et les nouvelles solutions data (Data Lake, nouvelles architectures…)
Mission freelance
Senior Data Engineer
Signe +
Publiée le
Talend
6 mois
440-550 €
Vélizy Espace, Île-de-France
Contexte Dans le cadre d’un programme de transformation Data, le consultant interviendra sur la conception et l’industrialisation de pipelines de données, la structuration des plateformes Data et la collaboration avec les équipes métiers et techniques. Missions principales Conception et optimisation de pipelines ETL (Talend, SSIS, Azure Data Factory) Ingestion et traitement de données en environnement cloud (BigQuery, Cloud Storage, Dataproc) Conception de Data Warehouses, Data Marts et Data Cubes Intégration de données via API, fichiers et flux batch Participation au cadrage, data discovery et qualification Optimisation SQL, DAX, MDX Mise en place de CI/CD data Contribution à la structuration du Data Lake Compétences techniques Talend / SSIS / Azure Data Factory SQL Server (SSIS, SSAS, Reporting) SQL avancé, DAX, MDX Azure DevOps / GitLab Architectures Data modernes / Data Lake Profil recherché Senior Data Engineer confirmé Forte autonomie et capacité d’analyse Capacité à travailler en environnement international
Offre d'emploi
Architecte Data Azure / Databricks
xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
80 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois