Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris
Votre recherche renvoie 50 résultats.
Mission freelance
Pilote Opérationnel d’Application
Hexateam
Publiée le
Axway
Biztalk
Enterprise Service Bus (ESB)
12 mois
400-500 €
Paris, France
Poste : Pilote Opérationnel d’Application (POA) – Plateforme d’Échange Contexte : Nous recherchons un Pilote Opérationnel d’Application (POA) pour intervenir sur le périmètre Plateforme d’Échange de données. Le consultant sera en charge du pilotage opérationnel des activités Build et Run (MCO) sur les applications du domaine. Missions principales : • Assurer le pilotage du delivery des flux et des APIs • Accompagner les équipes dans les phases de recette et validation • Suivre les activités de maintenance en conditions opérationnelles (MCO) • Contribuer à l’amélioration continue des applications et des processus • Assurer le suivi des échanges de données et des interfaces • Participer à la coordination entre les équipes techniques et métiers
Offre d'emploi
Pilote Opérationnel d’Application
Hexateam
Publiée le
Axway
Biztalk
Enterprise Service Bus (ESB)
Paris, France
Poste : Pilote Opérationnel d’Application (POA) – Plateforme d’Échange Contexte : Nous recherchons un Pilote Opérationnel d’Application (POA) pour intervenir sur le périmètre Plateforme d’Échange de données. Le consultant sera en charge du pilotage opérationnel des activités Build et Run (MCO) sur les applications du domaine. Missions principales : • Assurer le pilotage du delivery des flux et des APIs • Accompagner les équipes dans les phases de recette et validation • Suivre les activités de maintenance en conditions opérationnelles (MCO) • Contribuer à l’amélioration continue des applications et des processus • Assurer le suivi des échanges de données et des interfaces • Participer à la coordination entre les équipes techniques et métiers
Mission freelance
Data Manager Senior
RIDCHA DATA
Publiée le
BI
Dataiku
ETL (Extract-transform-load)
1 an
380-500 €
Paris, France
🎯 1. Contexte du projet Une organisation du secteur assurance de personnes est en pleine transformation digitale avec : Migration vers Google Cloud Platform (GCP) Adoption de Dataiku pour la préparation des données 👉 Objectifs : Moderniser la plateforme Data Mettre en place une gouvernance data Accompagner les métiers dans l’exploitation des données 🧩 2. Missions principales🔹 Data Management Mise en place de la gouvernance des données Gestion de la qualité des données (Data Quality) Structuration et fiabilisation des flux de données 🔹 Data Engineering & BI Préparation des données avec Dataiku Traitement et intégration sur Google Cloud Platform Création de reporting et dashboards 🔹 Accompagnement au changement Formation des utilisateurs Aide à l’adoption des outils data Support et communication avec les équipes métiers 🛠️ 3. Compétences techniques attendues SQL / ETL / BI Plateforme Cloud : Google Cloud Platform Data préparation : Dataiku Gouvernance Data Data Quality 🧠 4. Compétences fonctionnelles Connaissances en assurance (vie, retraite, prévoyance) = un plus 👉 Sinon : capacité à comprendre rapidement un métier 🤝 5. Soft skills Autonomie Rigueur Bon relationnel
Offre d'emploi
Consultant AMOA Senior – SI Data & Reporting Bancaire (H/F)
REACTIS
Publiée le
AMOA
Business Object
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un programme de refonte d’un système d’information stratégique et de son maintien en conditions opérationnelles, nous recherchons un Consultant AMOA Senior. Vous interviendrez sur des sujets à forts enjeux autour de la qualité des données, du reporting réglementaire et de la transformation des outils. Missions principales : Participer à l’analyse de l’existant et à la formalisation des besoins métiers. Rédiger les spécifications fonctionnelles détaillées et les livrables associés. Concevoir et exécuter les tests fonctionnels (recette). Assurer le suivi des anomalies et des évolutions en lien avec les équipes IT. Contribuer au pilotage opérationnel (planning, suivi, reporting). Faciliter la coordination entre les parties prenantes (métiers, MOA, MOE).
Mission freelance
Développeur Python / Ferroviaire
INFOTEL CONSEIL
Publiée le
ETL (Extract-transform-load)
PostgreSQL
Python
1 an
500-510 €
Paris, France
La consultation a pour objet la recherche d’un Dev Back end Senior avec maitrise du langage Python afin de maintenir et améliorer l’ETL de mises en œuvre des données référentielles. Il sera le spécialiste des données dans l’équipe de développement présente et sera certainement amené dans cette mission à participer à la réinternalisation du système MIDI au sein de l’application. 2.2 Description détaillée des tâches qui constituent la mission Le Dev Back end Senior de l’application LeBon’IT participe, au sein de l’équipe de développeurs, à la construction et l’évolution de l’application : • Il comprend et maintient l’ensemble des scripts ETL Python qui garantissent l’alimentation en données de l’application depuis des sources externes • Il dispose d’une très bonne connaissance en BDD (Postgresql) afin de garantir la performance des requêtes et de comprendre la modélisation de l’application • Il/elle contribue à l’évolution des applications back (APIs, taches) Le Bon It • Il/elle devra maitriser la consommation de WS via Postmann ou SOAPUI • Il/elle est garant(e) de la qualité du code back et force de proposition sur le développement de nouvelles fonctionnalités • Il/elle prendra en charge les évolutions sur le volet statistiques de l’application pour répondre aux fortes attentes de notre commanditaire IDF et assurera également les échanges de données avec d’autres partenaires comme Capteur. • Il/elle aide à faire progresser les développeurs moins expérimenté(e)s de l’équipe. 2.3 Résultats attendus et/ou livrables Au travers de ses activités, et en lien avec le chef de projet, les autres développeurs et l’équipe Produit, il/elle - Finalise l’attribution et la réalisation en qualité des tickets de chaque sprint - Respecte la roadmap globale : déploiement de l'application sur de nouvelles zones géographiques, avec inclusion des nouvelles fonctionnalités. Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : - Excellente maitrise du langage Python et des concepts d’ingénierie de la données (ETL, pipeline, etc) - Excellente maitrise de Postgresql ou d’un langage de BDD relationnelle SQL - Expérience en développement d’API pour des applications internes - Une expérience avec des données cartographiques (Postgis, MBTiles/MVT) sera appréciée - Connaissances de (ou à défaut appétence pour) l’environnement industriel ferroviaire ou des réseaux en général (transports, ressources...)
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Mission freelance
Profil Talend Confirmé
NEXTWYN
Publiée le
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)
Nosql
12 mois
Paris, France
Description de poste Dans le cadre de l’accord-cadre, nous recherchons un profil Talend expérimenté en intégration et gestion de données, capable d’intervenir en totale autonomie. La mission consiste à évoluer dans un environnement technique existant sans besoin de formation préalable, avec une forte composante autour des flux de données, de leur traitement et de leur restitution. Le consultant devra également participer à l’animation des réunions projets, aux échanges techniques et aux restitutions d’architecture applicative.
Offre d'emploi
Business Analyst MDM / Data
VISIAN
Publiée le
Big Data
Data governance
ETL (Extract-transform-load)
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Offre d'emploi
Administrateur Infrastructure Cognos – Expert (H/F)
AVA2I
Publiée le
Administration linux
Administration système
Administration Windows
3 ans
52k-63k €
450-550 €
Paris, France
🎯 Contexte de la mission Dans le cadre d’un appel d’offres visant à améliorer l’offre infrastructure Cognos , nous recherchons un Administrateur Infrastructure Cognos senior . La mission est orientée évolution, fiabilisation et optimisation d’une plateforme Cognos déjà en place. 👉 Aucune première installation ni paramétrage initial : l’environnement existe, l’enjeu porte sur la montée en charge, la robustesse et l’industrialisation . 🛠️ Missions principales Assurer le maintien en conditions opérationnelles (MCO) des plateformes Cognos Gérer l’ évolution de l’infrastructure (ajout / maintien de serveurs, load balancers, stockage, disques) Anticiper les besoins en capacité et performance Traiter les incidents, problèmes et changements complexes Mettre en œuvre et tester les solutions de continuité et de sauvegarde Administrer et optimiser les paramètres systèmes et applicatifs Cognos Participer aux projets d’évolution des environnements Cognos Mettre en place et exploiter les outils de supervision Documenter les configurations et procédures (support N1/N2) Collaborer étroitement avec les équipes Production, Infra et Sécurité Participer à l’ astreinte ETL / BI (Windows / Linux) ⚠️ Pas de développement de rapports Cognos ⚠️ Pas d’administration fonctionnelle quotidienne
Offre d'emploi
Développeur Talend
INOV
Publiée le
PL/pgSQL
Talend
40k-45k €
Paris, France
Dans le cadre d’un nouveau projet stratégique, nous recrutons un Développeur confirmé sur Talend disposant de 5 à 10 ans d’expérience. Vous interviendrez au sein d’une équipe Data afin de concevoir, développer et maintenir des flux d’intégration de données robustes et performants. Votre rôle consistera à analyser les besoins métiers, développer des jobs Talend, optimiser les traitements ETL et garantir la qualité, la fiabilité et la performance des flux de données. Vous participerez également aux phases de tests, de déploiement et de maintenance des solutions mises en place, tout en assurant la documentation technique associée.
Mission freelance
Data Engineer / Développeur Talend
Atlas Connect
Publiée le
Data governance
Data Lake
Data modelling
12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Offre d'emploi
Expert Talend
Lùkla
Publiée le
Talend
1 an
40k-65k €
400-550 €
Paris, France
Missions clés • Encadrement technique des développeurs, définition des standards Talend. • Conception et optimisation de flux. • Industrialisation : packaging, promotion, supervision, gestion des erreurs. • Contribution aux architectures Data (Datamarts, D365, référentiels). • Support N3, résolution d’incidents, documentation d’exploitation (DEX). Application des bonnes pratiques de sécurité, conformité et qualité des données. En tant qu’ Expert Talend , vous serez responsable de la conception, du développement et de la maintenance des processus d’intégration de données (ETL) dans le cadre des projets de BI et de transformation data du groupe.
Offre d'emploi
Intégrateur Production Data (Talend / PL-SQL) H/F
TechOps SAS
Publiée le
PL/SQL
SQL
Talend
40k-45k €
Paris, France
Nous recherchons un(e) Intégrateur Production Data pour rejoindre une équipe en charge de l’intégration et de l’interopérabilité des systèmes d’information. Vous serez responsable de la création, la maintenance et l’évolution des flux de données , afin de garantir la cohérence et la bonne circulation des informations entre différents systèmes. Vous participerez également à l’ optimisation et à l’automatisation des traitements , en collaborant avec les équipes IT pour assurer la qualité et la fiabilité des données.
Mission freelance
Data Engineer Talend (habilitation requise)
Signe +
Publiée le
Talend
12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
50 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois