Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris
Votre recherche renvoie 63 résultats.
Mission freelance
ETL Talent Team Lead
K2 Partnering Solutions
Publiée le
CRM
ETL (Extract-transform-load)
Talend
1 an
Paris, France
Nous recherchons un(e) ETL Talent Team Lead pour rejoindre les équipes de notre client. Début : Mai 2026 Durée : 12 mois + Extension Lieu : Paris (Hybride : 2 jours sur site / 3 jours télétravail) Description de la mission Au sein de l’équipe Architecture et Intégration, vous pilotez les lignes de services ETL et Data Streaming dans un contexte international. Pilotage : Encadrement technique d'une équipe de développement internationale (Build/Run). Cadrage technique : Analyse des besoins clients, design d'architecture et conception technique des flux. Administration : Suivi opérationnel et maintien en condition opérationnelle (MCO) des plateformes Talend Cloud (hybride) et Kafka Confluent Cloud . Support & Maintenance : Suivi de l'existant sur les domaines CRM, PIM et Annuaire. Gouvernance : Définition et partage des bonnes pratiques de développement et de configuration. Compétences Requises Talend : Maîtrise de Talend Data Integration Studio V8. CRM : Expérience sur l'intégration avec Salesforce. Anglais : Capacité à travailler quotidiennement dans un contexte multiculturel. Compétences Techniques (Skills) Data : Kafka, SQL et bases de données. Développement : Java (8+), JSON, XML, CSV. Outils & Environnement : Gitlab, Linux/Unix. API : Conception et intégration de flux API.
Mission freelance
DevOps / ETL Data Engineer - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Mission freelance
Chef de Projet - Expert ETL
EMGS GROUP
Publiée le
Administration linux
Apache Kafka
Java
1 an
540-650 €
Paris, France
nous sommes à la recherche d'un Expert Intégration ETL / Data Streaming pour piloter et faire évoluer les services d’intégration autour de Talend Cloud / Hybride et Kafka Confluent Cloud . Vos missions : Assurer le support, la maintenance et le suivi des projets existants (CRM, annuaire, PIM…) Accompagner la création de nouveaux projets : recueil du besoin, challenge métier, cadrage technique, définition d’architecture et conception des flux Piloter une équipe offshore (développement, tests, déploiement) Gérer le plan de charge et les plannings Administrer et superviser la plateforme Talend ainsi que les composants On-Premise (upgrade, monitoring, résolution d’incidents) Assurer l’administration et le suivi opérationnel de Kafka Confluent Cloud Suivre la facturation des deux plateformes Définir et diffuser les bonnes pratiques techniques et de développement
Mission freelance
DevOps / ETL Data Engineee - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Offre d'emploi
Administrateur Technique ETL (Informatica / DataStage)
Lùkla
Publiée le
Azure
IBM DataStage
Informatica
3 ans
50k-55k €
500-600 €
Paris, France
Vous évoluerez au sein d'un centre d’expertise transverse en charge de technologies clés telles que la BI (MSBI), l'ETL (Informatica, DataStage), les ERP (PeopleSoft), la GED (Documentum) et l'EAI. Votre rôle sera pivot : vous assurerez l'interface entre les entités d'infrastructure (parisiennes et internationales) et les équipes de développement des applications métiers. En tant qu'Administrateur technique, vos responsabilités seront les suivantes : Administration et MCO (Maintien en Condition Opérationnelle) : Gestion complète du cycle de vie des plateformes Informatica et DataStage (Installation, configuration, paramétrage). Suivi des environnements de Production, UAT (Recette), Homologation et Développement. Application des correctifs (patching) et gestion des sauvegardes. Support technique : Support de niveau 2/3 auprès des entités fonctionnelles et des équipes projets. Résolution d'incidents techniques complexes sur les environnements ETL. Architecture et Évolution : Maintenance et optimisation des architectures techniques existantes. Amélioration des systèmes de supervision pour garantir une visibilité optimale sur la santé des flux. Déploiement et Qualité : Tests de non-régression et validations techniques. Accompagnement et suivi des mises en production (MEP) des nouvelles applications.
Mission freelance
Data Quality Analyst (H/F)
Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)
3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
Mission freelance
Développeur Data ETL
Lùkla
Publiée le
ETL (Extract-transform-load)
2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Mission freelance
Analyste développeur SQL, ETL (Semarchy ou base VERTICA), BO, SSRS (h/f)
emagine Consulting SARL
Publiée le
1 mois
450-530 €
75009, Paris, Île-de-France
Introduction & Résumé : Nous recherchons un Analyste développeur SQL expérimenté pour rejoindre notre équipe au sein du secteur de la Salle des Marchés. Le candidat idéal possède au moins 5 ans d'expérience dans des missions similaires et maîtrise SQL, ETL Semarchy ou VERTICA, ainsi que Business Objects et SSRS. Ce poste nécessite la capacité à développer et intégrer des solutions complexes tout en collaborant avec une équipe dédiée à l'extraction et à l'exploitation des données. Principales responsabilités : Le candidat sera chargé de : Développer et intégrer des solutions front-to-back pour le secteur de la Salle des Marchés. Participer à la finalisation du projet « Installation sur des infrastructures décisionnelles ». Alimenter une base de données VERTICA à partir de données actuelles via BusinessObjects. Créer des interfaces d'alimentation avec l'ETL Semarchy. Migrer des procédures SQL existantes et ajuster des univers pour interroger la nouvelle base. Développer de nouveaux rapports SSRS ou Business Objects. Mettre en place des procédures stockées pour l'extraction de données. Exigences clés : Minimum 5 ans d'expérience dans des missions similaires. Excellente maîtrise de SQL (procédures stockées, requêtes complexes). Connaissance de l’ETL Semarchy ou de la base VERTICA. Familiarité avec la suite Business Objects, notamment Information Design Tools et Universe Design Tools. Expérience avec SSRS. La connaissance du domaine des Titres dans la Salle des Marchés est un atout appréciable. Atouts : Expérience dans des outils de gestion de transactions financières. Connaissance des services d'analyse de coûts ou de reporting réglementaire. Autres détails : Ce poste est idéal pour un professionnel cherchant à évoluer dans un environnement dynamique, axé sur le développement de solutions décisionnelles. Une excellente collaboration avec des experts en données est attendue.
Mission freelance
Développeur Boomi / Intégration
VISIAN
Publiée le
Boomi
ETL (Extract-transform-load)
1 an
Paris, France
La mission est à réaliser au sein de la Direction des Systèmes d’Information – Domaine OPS AI, pôle OFFRE AI qui déploie et exploite les applications métier et les infrastructures de production associées. L’intégration portera sur la qualification technique des applications, leur déploiement sur les infrastructures d’hébergement, l’ordonnancement des traitements (Automic, TWS), la rédaction des consignes d’exploitation. L’intégrateur sera amené à développer des scripts pour automatiser les traitements et les déploiements. Le suivi de la production consistera à intervenir pour la résolution des incidents, en niveau 2, et à veiller à l’optimisation de l’exploi
Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud
1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration
12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Mission freelance
Architecte Talend / Senior Data Management - PLUS DE 10 ANS D'EXPERIENCE
NEXTWYN
Publiée le
Data management
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)
12 mois
Paris, France
Description du poste Dans le cadre de notre accord-cadre, nous recherchons un Architecte / Consultant Senior spécialisé en Data Management , avec une expertise confirmée sur l’écosystème Talend. La mission s’inscrit dans un environnement technique existant et nécessite une capacité d’intervention en totale autonomie , sans phase de montée en compétence préalable. Le consultant interviendra sur : la conception et l’architecture des flux de données , l’optimisation des traitements et de la qualité des données, la mise en place et l’évolution des solutions d’intégration, la restitution et la valorisation des données. Il participera également activement aux échanges techniques , à l’ animation des réunions projets et à la production de livrables d’architecture .
Mission freelance
Data Engineer
Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)
3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Offre d'emploi
Data Engineer Snowflake Sénior (H/F)
Panda Services
Publiée le
Apache Airflow
Azure
CI/CD
6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Mission freelance
Expert Talend / Paris, Toulouse ou Montpelier
Signe +
Publiée le
Talend
4 mois
500-550 €
Paris, France
Nous recherchons pour l'un de nos clients un Expert Talend pour intervenir sur une mission de migration de données , notamment dans un environnement Salesforce (Person Account) . Vos missions En tant qu’Expert Talend, vous serez en charge de : Participer à la migration de données vers un nouvel environnement Salesforce Concevoir, développer et maintenir les flux d’intégration via Talend Analyser les données sources et garantir leur qualité, cohérence et intégrité Identifier et gérer les problématiques liées à la migration (doublons, mapping, transformation…) Mettre en place les règles de transformation des données (mapping fonctionnel et technique) Assurer les phases de tests, validation et recette des flux Collaborer avec les équipes métiers et techniques (Salesforce, Data, IT)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
63 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois