Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake à Paris
Votre recherche renvoie 24 résultats.
Offre d'emploi
Data Engineer Python / Azure Cloud
Craftman data
Publiée le
Azure
Azure Data Factory
Python
1 an
Paris, France
Dans le cadre du lancement d’un nouveau projet stratégique orienté data, notre client souhaite s’appuyer sur l’expertise d’un Data Engineer senior afin de concevoir, développer et industrialiser des pipelines de données robustes dans un environnement Azure Cloud serverless . La mission s’inscrit dans un contexte exigeant en matière de qualité logicielle , de scalabilité et de sécurité , avec une forte collaboration entre les équipes data, software et ops , dans une logique de non-silotage et de montée en compétences collective. Objectifs de la mission Concevoir et mettre en œuvre des pipelines de données performants et maintenables Garantir la qualité, la fiabilité et la traçabilité des données traitées Industrialiser les flux de données dans un environnement cloud Azure serverless Contribuer activement à l’architecture data et aux bonnes pratiques de l’équipe Périmètre et missions principales Le consultant interviendra notamment sur les activités suivantes : Conception et développement de pipelines de données en Python Implémentation de traitements batch et orchestrations via Azure Durable Functions (v2) Manipulation et optimisation de volumes de données importants (formats Parquet) Mise en place de validations de schémas et de contrôles de qualité des données Intégration et consommation d’ APIs externes Participation à la modélisation et l’optimisation des bases de données Azure SQL Implémentation de l’ observabilité : logs, métriques et traces Industrialisation des déploiements via des pipelines CI/CD Garantie de la qualité et de la sécurité du code (tests automatisés, coverage, scans de sécurité) Partage des connaissances et accompagnement des membres de la squad Environnement technique Langage : Python Cloud : Azure Functions (Durable Functions v2) Azure Data Lake / Blob Storage / Azure Storage Azure SQL Database Data processing : Pandas Polars PyArrow Architecture : serverless, clean architecture, tests automatisés DevOps : CI/CD, sécurité du code, observabilité Profil recherché Data Engineer senior avec minimum 6 ans d’expérience réussie Excellente maîtrise de Python dans des contextes data complexes Expertise confirmée sur Azure Cloud Solide culture de la qualité logicielle et des bonnes pratiques d’industrialisation Capacité à travailler en équipe, à partager ses connaissances et à faire monter les autres en compétences Anglais courant (écrit et oral) Modalités de la mission Démarrage : mi – fin mars 2026 Durée : longue mission (selon projet) Localisation : Paris Télétravail : 2 jours / semaine Présence sur site : 3 jours / semaine (obligatoire) Processus de sélection Envoi d’un Codingame aux profils présélectionnés (à réaliser sous 72h) Proctoring obligatoire (règles strictes communiquées au profil) Soutenance technique prévue dans la foulée (disponibilité du profil requise) Le non-respect des consignes entraînera la disqualification du profil Livrables attendus Pipelines de données industrialisés et documentés Code testé, sécurisé et conforme aux standards qualité Mise en place de l’observabilité et des contrôles qualité Documentation technique et partage des bonnes pratiques avec la squad
Mission freelance
POT8975 - Un chef de projet data avec experience BI entreprise sur Paris
Almatek
Publiée le
PowerBI
6 mois
Paris, France
ALMATEK recherche pour l'un de ses clients, Un chef de projet data avec experience BI entreprise sur Paris Dans le cadre du Programme Relation Client (PRC), le Groupe poursuit la transformation de son modèle de relation client afin d’améliorer la satisfaction client, l’efficacité opérationnelle et la performance commerciale. Le programme PRC s’appuie notamment sur le progiciel Pega, utilisé comme socle de : • gestion des parcours clients, • orchestration des interactions et des tâches, • traçabilité des intentions, actions et activités relationnelles, • alimentation des dispositifs de pilotage et de reporting décisionnel. Les données issues de Pega constituent une source majeure pour les dispositifs de pilotage et de reporting décisionnel du programme. Le projet Pilotage PRC vise à exploiter ces données, en lien avec les autres briques du système d’information, afin de fournir aux métiers et aux managers des outils de pilotage fiables, partagés et orientés usages. Dans ce contexte, le Chef de Projet MOA Décisionnelle interviendra au sein de la DETD (Direction Études, Tarification & Data), sur le volet pilotage du Programme PRC et interviendra en coordination étroite avec : • les équipes métiers, • les équipes du programme PRC, • les équipes IT, les instances de gouvernance du programme. Objectifs et livrables Expertises requises Projets décisionnels • Expérience de projets décisionnels à l’échelle d’un Groupe (multi-entités, multi-directions). • Compréhension des enjeux d’un DWH central : mutualisation, convergence des indicateurs, normalisation des règles de gestion. • Capacité à articuler besoins locaux et cadre décisionnel Groupe. • Expérience de coordination transverse entre métiers, IT et équipes Data centrales, et de suivi des recettes • Contribution à des trajectoires de rationalisation ou de convergence décisionnelle appréciée. Compétences data • Bonne compréhension des architectures Data Warehouse / Data Lake. • Connaissance des principes de modélisation décisionnelle (étoile, flocon, datamarts). • Connaissance des principes de modélisation d’entreprise. • Compréhension des flux d’alimentation, ETL/ELT. • Intégration de nouvelles sources dans un DWH Groupe. • Capacité à réaliser des requêtes sur des environnements Data (SQL) Compétences transverses • Forte capacité de coordination transverse (métiers / IT / programme). • Excellentes capacités rédactionnelles. • Esprit de synthèse et posture de conseil. • Expérience dans le secteur de l’assurance / mutualité fortement souhaitée. • Capacité à évoluer dans un contexte mutualiste avec enjeux de convergence. Expertises appréciées • Compréhension des modèles de données CRM. • Capacité à analyser des objets métier relationnels (interactions, intentions, tâches). • Connaissance du secteur de l’assurance et/ou de la mutualité (enjeux relation client, performance commerciale, pilotage opérationnel).
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Mission freelance
CP Technique D365FO
Net technologie
Publiée le
Gestion de projet
Microsoft Dynamics
3 mois
Paris, France
Dans un contexte de croissance par acquisitions , le département Finance recherche un Technical Project Manager expert de Dynamics 365 F&O / Dynamics AX pour accompagner le déploiement de l’ERP au sein des entités acquises, stabiliser l’écosystème applicatif et contribuer activement à la transformation Finance . 🎯 Rôle clé : Pilotage et amélioration continue de l’architecture des systèmes financiers (Data Lake, Synapse, reporting, décommissionnement LCS) Évaluation technique de nouveaux outils Coordination des évolutions et incidents techniques avec les équipes IT internes et partenaires Suivi de l’implémentation des nouveaux outils de reporting
Offre d'emploi
Data Architect ERP Oracle
Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion
Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Mission freelance
Architecte Data Cloud Salesforce
JobiStart
Publiée le
Salesforce Sales Cloud
3 ans
400-550 €
Paris, France
Expert de la nouvelle plateforme Data Cloud de Salesforce, vous pilotez la stratégie d'unification des données clients en temps réel. Votre rôle consiste à concevoir l'architecture d'ingestion des données provenant de sources hétérogènes (Data Lakes, systèmes legacy, web/mobile) pour créer une "Golden Record" unique. Vous paramétrez les processus d'harmonisation, de réconciliation (Identity Resolution) et de segmentation avancée pour alimenter les cas d'usage marketing et service. Vous travaillez sur l'activation des données vers les différentes clouds Salesforce et les systèmes externes via des Data Actions. Vous garantissez la performance des flux de données à haute vélocité et veillez au respect des politiques de confidentialité. Véritable trait d'union entre le CRM et le Big Data, vous permettez à la banque de passer d'une vision transactionnelle à une vision client ultra-personnalisée et prédictive.
Offre d'emploi
Data Governance (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
SQL
38 400-44 400 €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
24 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois