Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake à Paris

Mission freelance
Data Engineer AWS
Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :
Mission freelance
Product Owner Data
Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.

Mission freelance
Product Owner DATA
Dans le cadre d’une transformation majeure côté data , le département Data de notre client recherche un Product Owner Data pour piloter la roadmap produit du CRM Lakehouse . Le poste implique la coordination entre les équipes techniques et métiers afin d’assurer la convergence des données CRM vers un modèle harmonisé . Le contexte technique est exigeant et repose sur une stack moderne full AWS (multi-tenant) , associée à des pratiques d’infrastructure as code, d’industrialisation et de gouvernance data avancée. Environnement technique : AWS (multi-tenant), Terraform, GitLab CI/CD, Serverless, FastAPI, batch Python, Snowflake, Spark, Lambda, Kinesis, MSR Gouvernance : Data Steward, DataOps, DataFlops Collaboration internationale et en anglais courant impératif Projet long terme, démarrage immédiat ou début septembre Missions Définir la vision produit et les objectifs alignés sur la stratégie data globale du groupe. Prioriser et gérer le backlog , assurer le suivi et la bonne exécution des sprints. Contrôler la qualité et la cohérence des données CRM intégrées dans le Lakehouse. Animer des ateliers avec les filiales et recueillir les besoins métiers. Coordonner la communication entre équipes techniques, data et métiers pour fluidifier la mise en œuvre des évolutions produit.

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Offre d'emploi
Business Analyst Data
1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Azure Data Factory Expert
1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.

Mission freelance
Data Engineer DBT SNOWFLAKE AZURE
Expertise Technique : Solide maîtrise de l’architectureSnowflake architecture, incluant data sharing, partitioning, clustering,et materialized views. Expérience avancée avec DBT pour les transformations de données et la gestion des workflows. Compétences confirmées sur les services Azure : Data Factory, Data Lake, Synapse et Functions. Ingénierie de Données : Maîtrise de SQL, Python ou autres langages pertinents. Excellente compréhension des concepts de modélisation de données (schéma en étoile, normalisation). Pratique avérée dans la mise en place de pipelines ETL/ELT et d’outils d’intégration de données.

Mission freelance
Consultant SIRH Data - Innovation - Paris (H/F)
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.

Mission freelance
Renfort Architecte fonctionnel - Activités de marché
Notre client, un établissement majeur du secteur financier, recherche un consultant pour l'accompagner dans la conception de l’architecture fonctionnelle d’un environnement dédié aux activités de marché. Missions principales : - Intervenir en tant qu’architecte fonctionnel sur le périmètre Marché et Risques de Marché - Structurer les flux fonctionnels autour de l’outil Calypso, notamment pour les opérations de titrisation - Cadrer et accompagner l’alimentation du Data Lake - Définir les flux nécessaires aux besoins de reporting réglementaire et de groupe - Concevoir l’architecture fonctionnelle cible en lien avec les plateformes électroniques de marché - Accompagner les équipes métier et IT avec pédagogie pour une meilleure compréhension des activités de marché et des processus associés (capacité à vulgariser)

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.
Mission freelance
Data engineer senior (AWS/Azure + Databricks)
Bonjour à tous, Démarrage : Début septembre Télétravail : 2 jours par semaine Processus de recrutement : 2 entretiens en visioconférence Lieu de la mission : Paris Description du poste Nous recherchons un Ingénieur Data expérimenté pour développer des pipelines de données robustes, intégrer des sources de données brutes et rendre les données commerciales accessibles à l'ensemble de l'organisation. Responsabilités principales Mettre en place et exécuter le framework et les pipelines de traitement des données Se connecter à diverses sources de données brutes (APIs internes/externes, data lakes cloud, bases de données) pour ingérer les données dans Databricks Mettre en œuvre des transformations de données à grande échelle afin d'automatiser la création de nouvelles données pour l'analytique Construire et gérer des bases de données et solutions de stockage efficaces (SQL/NoSQL) pour organiser des données structurées et non structurées Exposer les données via des APIs, Datamarts, SQL Endpoints, solutions de reporting/dashboards Assurer la qualité, la cohérence et la sécurité des données selon les standards du secteur Développer des APIs REST avec des frameworks web Python tels que FastAPI Travailler au sein d'une équipe projet pluridisciplinaire et multiculturelle, en collaboration avec DevOps, Data Scientists et Chefs de projet Documenter les workflows, modèles de données et configurations de pipelines afin de garantir la transparence et la facilité d'utilisation pour les analystes et parties prenantes Profil recherché Qualifications / Expérience : Master ou Doctorat en Informatique, Data Engineering ou domaine connexe Minimum 8 ans d'expérience en Data Engineering Esprit d'équipe Culture DevOps et mentalité Agile Ouverture d'esprit et capacité à évoluer dans un environnement changeant Communication ouverte et transparente Compétences techniques : Maîtrise de l'ingénierie logicielle en Python, SQL, Databricks, CI/CD, services AWS et Azure Langues : Maîtrise du français et de l'anglais Qualifications souhaitées Expérience avec SAP, données CRM Expérience préalable dans l'industrie de la santé ou pharmaceutique A bientôt,

Mission freelance
Data Architect – Core Model CRM
Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.
Mission freelance
Product Owner Data Industrie / pharma
Bonjour à tous, Mission Poste de Product Owner Data Industrie – secteur pharmaceutique basé à Paris intra-muros, avec 2 jours de télétravail par semaine. Démarrage ASAP. Dans le cadre du déploiement d'une nouvelle plateforme de données, vous piloterez des projets stratégiques liés à la donnée, l'automatisation et l'optimisation des processus industriels. Vous serez en interface directe entre les équipes IT, OT (Operational Technology) et Manufacturing, et interviendrez sur des projets intégrant des technologies cloud (Azure, S3, Databricks), de l'IoT, du MES/SCADA, et des solutions d'analyse temps réel. Principales Responsabilités Piloter des projets data dans un contexte industriel (production, supply chain, qualité…) Coordonner les parties prenantes métier, IT, data et OT tout au long du cycle projet Suivre l'avancement des projets via des outils de gestion (Jira, Confluence, MS Project…) Déployer des solutions d'automatisation et d'analyse industrielle (IoT, Edge computing, Historian...) Contribuer à la définition d'architectures cloud industrielles (Azure, IoT Hub, Data Factory…) Rédiger la documentation projet (spécifications, comptes rendus, etc.) Profil Recherché Formation et Expérience Diplôme Bac+5 (école d'ingénieur ou université), spécialisé en informatique industrielle, data ou supply chain Minimum 8 ans d'expérience en gestion de projets dans un contexte industriel, idéalement pharmaceutique Anglais courant exigé (écrit et oral), environnement international Compétences Techniques Solide compréhension des environnements industriels : production, supply chain, qualité Maîtrise des systèmes OT : MES, SCADA, API, IoT, Historian Connaissance des architectures cloud : Azure (Data Lake, Synapse, Data Factory…), Databricks, Power BI Bases solides en ingénierie des données : ETL/ELT, connectivité machines, traitement temps réel Maîtrise des outils de gestion de projet (Jira, Confluence, MS Project, Trello…) Méthodologies Agile (Scrum, Kanban) ou cycle en V Soft Skills Autonomie, rigueur et sens du détail Excellentes capacités de communication avec profils techniques et métiers Leadership naturel et aptitude à fédérer des équipes projet Esprit d'équipe, adaptabilité, orientation solution Gestion du stress et des priorités Curiosité technologique (Edge computing, IA industrielle…) Description de l'Entreprise Vous rejoindrez un contexte industriel stratégique et innovant, au croisement du digital, des opérations industrielles et de la donnée. Les projets sur lesquels vous interviendrez ont un fort impact métier et technologique, avec un environnement stimulant mêlant technologies cloud de pointe, IoT industriel, automatisation et intelligence des données. Vous évoluerez dans une organisation internationale, collaborative et transverse, avec une grande autonomie et des perspectives d'évolution sur des sujets innovants et structurants. A bientôt,

Mission freelance
Data Engineer Talend
En quelques mots Cherry Pick est à la recherche d'un "Expert Talend" pour un client dans le secteur bancaire Description 🎯 Objectif de la mission Dans le cadre de projets critiques (MCO, facturation, référentiels), la mission vise à assurer le développement de flux ETL sous Talend pour le compte d’une structure utilisant des solutions comme Opencell. L’enjeu est de garantir une intégration de données fiable et performante, au cœur de processus stratégiques. 🧪 Responsabilités principales Concevoir, développer et maintenir les flux ETL sous Talend. Travailler dans un environnement soumis à de fortes contraintes de maintenance en conditions opérationnelles (MCO). Assurer la qualité, la cohérence et la conformité des référentiels de données. Participer à la mise en œuvre et à la supervision de solutions liées à Opencell (facturation, gestion client…). Garantir l’intégrité des données alimentant le Data Lake et les systèmes décisionnels.
Mission freelance
Data engineer Python / Pyspark
Nous recherchons un Data Engineer freelance pour intervenir sur une mission de longue durée (minimum 12 mois) dans le secteur de l’assurance. Vous rejoindrez une direction data structurée et en pleine croissance, au cœur d’une transformation digitale d’envergure. 🎯 Objectifs et contexte de la mission : En tant que Data Engineer , vous intégrerez une équipe d’environ 30 personnes (data engineers, tech leads) organisée en feature teams agiles . Vous contribuerez à la construction du socle technique Big Data et à l'industrialisation des projets data portés par les directions métier (client, marketing, produits...). 🔧 Stack technique & compétences requises : Compétences techniques indispensables : Développement en Python , avec une solide maîtrise de Spark / PySpark Bonne connaissance de l’environnement Microsoft Azure (Data Factory, Data Lake, Databricks, etc.) Expérience sur des outils de visualisation type Power BI Connaissances des bases de données relationnelles et NoSQL Compétences complémentaires (un plus) : Outils de delivery : Azure DevOps , Azure Pipelines , GIT , JIRA Connaissance des principes CI/CD , tests automatisés , clean code Connaissance des méthodes agiles : Scrum , Kanban 📍 Informations pratiques : Type de contrat : Mission freelance uniquement Localisation : Paris (modèle hybride possible) Démarrage : ASAP Durée : 12 mois minimum

Mission freelance
développeur python GCP
Dans le cadre des projets développés au sein de l'équipe Assets et projets Data, nous recherchons un développeur Python dans l'écosystème GCP (Google) • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise. • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent *** • Maîtriser l'utilisation avancée des données et réaliser des projets décisionnels, datamining, et data management • Assurer le développement et l'industrialisation des applications utilisant une grosse volumétrie • Analyser les besoins clients • Avoir une approche analytique, statistique ou encore en "Machine Learning" Concevoir et réaliser des solutions Big Data (Collecter, transformer, analyser et visualiser des données sur une large volumétrie avec un niveau de performance élevé) *** • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données ; • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers. • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI). • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP. • Participer à la conception, mise en place et administration de solutions Big Data. Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka. • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trajet domicile travail en voiture de fonction c'est usage perso ??
- Masquer infos entreprise Pappers, Google etc
- Reconversion professionnelle cyber
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Reconversion professionnelle dans la cybersécurité
- Mes dashboards finissent au placard ? Besoin de vos retours