Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Votre recherche renvoie 62 résultats.
Freelance

Mission freelance
ETL Talent Team Lead

K2 Partnering Solutions
Publiée le
CRM
ETL (Extract-transform-load)
Talend

1 an
Paris, France
Nous recherchons un(e) ETL Talent Team Lead pour rejoindre les équipes de notre client. Début : Mai 2026 Durée : 12 mois + Extension Lieu : Paris (Hybride : 2 jours sur site / 3 jours télétravail) Description de la mission Au sein de l’équipe Architecture et Intégration, vous pilotez les lignes de services ETL et Data Streaming dans un contexte international. Pilotage : Encadrement technique d'une équipe de développement internationale (Build/Run). Cadrage technique : Analyse des besoins clients, design d'architecture et conception technique des flux. Administration : Suivi opérationnel et maintien en condition opérationnelle (MCO) des plateformes Talend Cloud (hybride) et Kafka Confluent Cloud . Support & Maintenance : Suivi de l'existant sur les domaines CRM, PIM et Annuaire. Gouvernance : Définition et partage des bonnes pratiques de développement et de configuration. Compétences Requises Talend : Maîtrise de Talend Data Integration Studio V8. CRM : Expérience sur l'intégration avec Salesforce. Anglais : Capacité à travailler quotidiennement dans un contexte multiculturel. Compétences Techniques (Skills) Data : Kafka, SQL et bases de données. Développement : Java (8+), JSON, XML, CSV. Outils & Environnement : Gitlab, Linux/Unix. API : Conception et intégration de flux API.
Freelance

Mission freelance
DevOps / ETL Data Engineer - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Freelance

Mission freelance
Chef de Projet - Expert ETL

EMGS GROUP
Publiée le
Administration linux
Apache Kafka
Java

1 an
540-650 €
Paris, France
nous sommes à la recherche d'un Expert Intégration ETL / Data Streaming pour piloter et faire évoluer les services d’intégration autour de Talend Cloud / Hybride et Kafka Confluent Cloud . Vos missions : Assurer le support, la maintenance et le suivi des projets existants (CRM, annuaire, PIM…) Accompagner la création de nouveaux projets : recueil du besoin, challenge métier, cadrage technique, définition d’architecture et conception des flux Piloter une équipe offshore (développement, tests, déploiement) Gérer le plan de charge et les plannings Administrer et superviser la plateforme Talend ainsi que les composants On-Premise (upgrade, monitoring, résolution d’incidents) Assurer l’administration et le suivi opérationnel de Kafka Confluent Cloud Suivre la facturation des deux plateformes Définir et diffuser les bonnes pratiques techniques et de développement
Freelance

Mission freelance
DevOps / ETL Data Engineee - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Freelance
CDI

Offre d'emploi
Administrateur Technique ETL (Informatica / DataStage)

Lùkla
Publiée le
Azure
IBM DataStage
Informatica

3 ans
50k-55k €
500-600 €
Paris, France
Vous évoluerez au sein d'un centre d’expertise transverse en charge de technologies clés telles que la BI (MSBI), l'ETL (Informatica, DataStage), les ERP (PeopleSoft), la GED (Documentum) et l'EAI. Votre rôle sera pivot : vous assurerez l'interface entre les entités d'infrastructure (parisiennes et internationales) et les équipes de développement des applications métiers. En tant qu'Administrateur technique, vos responsabilités seront les suivantes : Administration et MCO (Maintien en Condition Opérationnelle) : Gestion complète du cycle de vie des plateformes Informatica et DataStage (Installation, configuration, paramétrage). Suivi des environnements de Production, UAT (Recette), Homologation et Développement. Application des correctifs (patching) et gestion des sauvegardes. Support technique : Support de niveau 2/3 auprès des entités fonctionnelles et des équipes projets. Résolution d'incidents techniques complexes sur les environnements ETL. Architecture et Évolution : Maintenance et optimisation des architectures techniques existantes. Amélioration des systèmes de supervision pour garantir une visibilité optimale sur la santé des flux. Déploiement et Qualité : Tests de non-régression et validations techniques. Accompagnement et suivi des mises en production (MEP) des nouvelles applications.
Freelance

Mission freelance
Data Quality Analyst (H/F)

Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)

3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
Freelance

Mission freelance
Développeur Data ETL

Lùkla
Publiée le
ETL (Extract-transform-load)

2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Freelance

Mission freelance
Analyste développeur SQL, ETL (Semarchy ou base VERTICA), BO, SSRS (h/f)

emagine Consulting SARL
Publiée le

1 mois
450-530 €
75009, Paris, Île-de-France
Introduction & Résumé : Nous recherchons un Analyste développeur SQL expérimenté pour rejoindre notre équipe au sein du secteur de la Salle des Marchés. Le candidat idéal possède au moins 5 ans d'expérience dans des missions similaires et maîtrise SQL, ETL Semarchy ou VERTICA, ainsi que Business Objects et SSRS. Ce poste nécessite la capacité à développer et intégrer des solutions complexes tout en collaborant avec une équipe dédiée à l'extraction et à l'exploitation des données. Principales responsabilités : Le candidat sera chargé de : Développer et intégrer des solutions front-to-back pour le secteur de la Salle des Marchés. Participer à la finalisation du projet « Installation sur des infrastructures décisionnelles ». Alimenter une base de données VERTICA à partir de données actuelles via BusinessObjects. Créer des interfaces d'alimentation avec l'ETL Semarchy. Migrer des procédures SQL existantes et ajuster des univers pour interroger la nouvelle base. Développer de nouveaux rapports SSRS ou Business Objects. Mettre en place des procédures stockées pour l'extraction de données. Exigences clés : Minimum 5 ans d'expérience dans des missions similaires. Excellente maîtrise de SQL (procédures stockées, requêtes complexes). Connaissance de l’ETL Semarchy ou de la base VERTICA. Familiarité avec la suite Business Objects, notamment Information Design Tools et Universe Design Tools. Expérience avec SSRS. La connaissance du domaine des Titres dans la Salle des Marchés est un atout appréciable. Atouts : Expérience dans des outils de gestion de transactions financières. Connaissance des services d'analyse de coûts ou de reporting réglementaire. Autres détails : Ce poste est idéal pour un professionnel cherchant à évoluer dans un environnement dynamique, axé sur le développement de solutions décisionnelles. Une excellente collaboration avec des experts en données est attendue.
Freelance

Mission freelance
Développeur Boomi / Intégration

VISIAN
Publiée le
Boomi
ETL (Extract-transform-load)

1 an
Paris, France
La mission est à réaliser au sein de la Direction des Systèmes d’Information – Domaine OPS AI, pôle OFFRE AI qui déploie et exploite les applications métier et les infrastructures de production associées. L’intégration portera sur la qualification technique des applications, leur déploiement sur les infrastructures d’hébergement, l’ordonnancement des traitements (Automic, TWS), la rédaction des consignes d’exploitation. L’intégrateur sera amené à développer des scripts pour automatiser les traitements et les déploiements. Le suivi de la production consistera à intervenir pour la résolution des incidents, en niveau 2, et à veiller à l’optimisation de l’exploi
CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Freelance

Mission freelance
Architecte Talend / Senior Data Management - PLUS DE 10 ANS D'EXPERIENCE

NEXTWYN
Publiée le
Data management
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)

12 mois
Paris, France
Description du poste Dans le cadre de notre accord-cadre, nous recherchons un Architecte / Consultant Senior spécialisé en Data Management , avec une expertise confirmée sur l’écosystème Talend. La mission s’inscrit dans un environnement technique existant et nécessite une capacité d’intervention en totale autonomie , sans phase de montée en compétence préalable. Le consultant interviendra sur : la conception et l’architecture des flux de données , l’optimisation des traitements et de la qualité des données, la mise en place et l’évolution des solutions d’intégration, la restitution et la valorisation des données. Il participera également activement aux échanges techniques , à l’ animation des réunions projets et à la production de livrables d’architecture .
Freelance

Mission freelance
Data Engineer

Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)

3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Freelance
CDI

Offre d'emploi
Data Engineer

UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)

1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
CDI
Freelance

Offre d'emploi
Data Engineer Snowflake Sénior (H/F)

Panda Services
Publiée le
Apache Airflow
Azure
CI/CD

6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Freelance

Mission freelance
Expert Talend / Paris, Toulouse ou Montpelier

Signe +
Publiée le
Talend

4 mois
500-550 €
Paris, France
Nous recherchons pour l'un de nos clients un Expert Talend pour intervenir sur une mission de migration de données , notamment dans un environnement Salesforce (Person Account) . Vos missions En tant qu’Expert Talend, vous serez en charge de : Participer à la migration de données vers un nouvel environnement Salesforce Concevoir, développer et maintenir les flux d’intégration via Talend Analyser les données sources et garantir leur qualité, cohérence et intégrité Identifier et gérer les problématiques liées à la migration (doublons, mapping, transformation…) Mettre en place les règles de transformation des données (mapping fonctionnel et technique) Assurer les phases de tests, validation et recette des flux Collaborer avec les équipes métiers et techniques (Salesforce, Data, IT)
Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

62 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous