Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake à Paris

Votre recherche renvoie 24 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Python / Azure Cloud

Craftman data
Publiée le
Azure
Azure Data Factory
Python

1 an
Paris, France
Dans le cadre du lancement d’un nouveau projet stratégique orienté data, notre client souhaite s’appuyer sur l’expertise d’un Data Engineer senior afin de concevoir, développer et industrialiser des pipelines de données robustes dans un environnement Azure Cloud serverless . La mission s’inscrit dans un contexte exigeant en matière de qualité logicielle , de scalabilité et de sécurité , avec une forte collaboration entre les équipes data, software et ops , dans une logique de non-silotage et de montée en compétences collective. Objectifs de la mission Concevoir et mettre en œuvre des pipelines de données performants et maintenables Garantir la qualité, la fiabilité et la traçabilité des données traitées Industrialiser les flux de données dans un environnement cloud Azure serverless Contribuer activement à l’architecture data et aux bonnes pratiques de l’équipe Périmètre et missions principales Le consultant interviendra notamment sur les activités suivantes : Conception et développement de pipelines de données en Python Implémentation de traitements batch et orchestrations via Azure Durable Functions (v2) Manipulation et optimisation de volumes de données importants (formats Parquet) Mise en place de validations de schémas et de contrôles de qualité des données Intégration et consommation d’ APIs externes Participation à la modélisation et l’optimisation des bases de données Azure SQL Implémentation de l’ observabilité : logs, métriques et traces Industrialisation des déploiements via des pipelines CI/CD Garantie de la qualité et de la sécurité du code (tests automatisés, coverage, scans de sécurité) Partage des connaissances et accompagnement des membres de la squad Environnement technique Langage : Python Cloud : Azure Functions (Durable Functions v2) Azure Data Lake / Blob Storage / Azure Storage Azure SQL Database Data processing : Pandas Polars PyArrow Architecture : serverless, clean architecture, tests automatisés DevOps : CI/CD, sécurité du code, observabilité Profil recherché Data Engineer senior avec minimum 6 ans d’expérience réussie Excellente maîtrise de Python dans des contextes data complexes Expertise confirmée sur Azure Cloud Solide culture de la qualité logicielle et des bonnes pratiques d’industrialisation Capacité à travailler en équipe, à partager ses connaissances et à faire monter les autres en compétences Anglais courant (écrit et oral) Modalités de la mission Démarrage : mi – fin mars 2026 Durée : longue mission (selon projet) Localisation : Paris Télétravail : 2 jours / semaine Présence sur site : 3 jours / semaine (obligatoire) Processus de sélection Envoi d’un Codingame aux profils présélectionnés (à réaliser sous 72h) Proctoring obligatoire (règles strictes communiquées au profil) Soutenance technique prévue dans la foulée (disponibilité du profil requise) Le non-respect des consignes entraînera la disqualification du profil Livrables attendus Pipelines de données industrialisés et documentés Code testé, sécurisé et conforme aux standards qualité Mise en place de l’observabilité et des contrôles qualité Documentation technique et partage des bonnes pratiques avec la squad
Freelance

Mission freelance
POT8975 - Un chef de projet data avec experience BI entreprise sur Paris

Almatek
Publiée le
PowerBI

6 mois
Paris, France
ALMATEK recherche pour l'un de ses clients, Un chef de projet data avec experience BI entreprise sur Paris Dans le cadre du Programme Relation Client (PRC), le Groupe poursuit la transformation de son modèle de relation client afin d’améliorer la satisfaction client, l’efficacité opérationnelle et la performance commerciale. Le programme PRC s’appuie notamment sur le progiciel Pega, utilisé comme socle de : • gestion des parcours clients, • orchestration des interactions et des tâches, • traçabilité des intentions, actions et activités relationnelles, • alimentation des dispositifs de pilotage et de reporting décisionnel. Les données issues de Pega constituent une source majeure pour les dispositifs de pilotage et de reporting décisionnel du programme. Le projet Pilotage PRC vise à exploiter ces données, en lien avec les autres briques du système d’information, afin de fournir aux métiers et aux managers des outils de pilotage fiables, partagés et orientés usages. Dans ce contexte, le Chef de Projet MOA Décisionnelle interviendra au sein de la DETD (Direction Études, Tarification & Data), sur le volet pilotage du Programme PRC et interviendra en coordination étroite avec : • les équipes métiers, • les équipes du programme PRC, • les équipes IT, les instances de gouvernance du programme. Objectifs et livrables Expertises requises Projets décisionnels • Expérience de projets décisionnels à l’échelle d’un Groupe (multi-entités, multi-directions). • Compréhension des enjeux d’un DWH central : mutualisation, convergence des indicateurs, normalisation des règles de gestion. • Capacité à articuler besoins locaux et cadre décisionnel Groupe. • Expérience de coordination transverse entre métiers, IT et équipes Data centrales, et de suivi des recettes • Contribution à des trajectoires de rationalisation ou de convergence décisionnelle appréciée. Compétences data • Bonne compréhension des architectures Data Warehouse / Data Lake. • Connaissance des principes de modélisation décisionnelle (étoile, flocon, datamarts). • Connaissance des principes de modélisation d’entreprise. • Compréhension des flux d’alimentation, ETL/ELT. • Intégration de nouvelles sources dans un DWH Groupe. • Capacité à réaliser des requêtes sur des environnements Data (SQL) Compétences transverses • Forte capacité de coordination transverse (métiers / IT / programme). • Excellentes capacités rédactionnelles. • Esprit de synthèse et posture de conseil. • Expérience dans le secteur de l’assurance / mutualité fortement souhaitée. • Capacité à évoluer dans un contexte mutualiste avec enjeux de convergence. Expertises appréciées • Compréhension des modèles de données CRM. • Capacité à analyser des objets métier relationnels (interactions, intentions, tâches). • Connaissance du secteur de l’assurance et/ou de la mutualité (enjeux relation client, performance commerciale, pilotage opérationnel).
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
CP Technique D365FO

Net technologie
Publiée le
Gestion de projet
Microsoft Dynamics

3 mois
Paris, France
Dans un contexte de croissance par acquisitions , le département Finance recherche un Technical Project Manager expert de Dynamics 365 F&O / Dynamics AX pour accompagner le déploiement de l’ERP au sein des entités acquises, stabiliser l’écosystème applicatif et contribuer activement à la transformation Finance . 🎯 Rôle clé : Pilotage et amélioration continue de l’architecture des systèmes financiers (Data Lake, Synapse, reporting, décommissionnement LCS) Évaluation technique de nouveaux outils Coordination des évolutions et incidents techniques avec les équipes IT internes et partenaires Suivi de l’implémentation des nouveaux outils de reporting
CDI

Offre d'emploi
Data Architect ERP Oracle

Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion

Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Freelance

Mission freelance
Architecte Data Cloud Salesforce

JobiStart
Publiée le
Salesforce Sales Cloud

3 ans
400-550 €
Paris, France
Expert de la nouvelle plateforme Data Cloud de Salesforce, vous pilotez la stratégie d'unification des données clients en temps réel. Votre rôle consiste à concevoir l'architecture d'ingestion des données provenant de sources hétérogènes (Data Lakes, systèmes legacy, web/mobile) pour créer une "Golden Record" unique. Vous paramétrez les processus d'harmonisation, de réconciliation (Identity Resolution) et de segmentation avancée pour alimenter les cas d'usage marketing et service. Vous travaillez sur l'activation des données vers les différentes clouds Salesforce et les systèmes externes via des Data Actions. Vous garantissez la performance des flux de données à haute vélocité et veillez au respect des politiques de confidentialité. Véritable trait d'union entre le CRM et le Big Data, vous permettez à la banque de passer d'une vision transactionnelle à une vision client ultra-personnalisée et prédictive.
CDI

Offre d'emploi
Data Governance (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
SQL

38 400-44 400 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer - CDI

VingtCinq
Publiée le
Azure
Databricks
DBT

Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
24 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous