Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Votre recherche renvoie 48 résultats.
Freelance

Mission freelance
Expert Moodys ROL

MLMCONSEIL
Publiée le
Talend

6 mois
250-480 €
Paris, France

Pour le besoin de mon client je suis à la recherche Expert Moodys ROL La prestation consiste, au sein d’une équipe client, de développer de nouvelles fonctionnalités ou d’améliorer des fonctionnalités existantes identifiées. Réalisation des développements et les tests des projets confiés à l’équipe ROL sur le périmètre du progiciel Moodys ROL et de l’ETL Talend, - Réalisation des tâches de mise en production Expertise SI Risk Origin Développement Oracle PL/SQL Compétences Techniques Expert Maîtrise Notion Commentaire

Freelance

Mission freelance
TECH LEAD TALEND

SQLI
Publiée le
Talend

3 mois
500-600 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients dans le secteur pharmaceutique, je suis à la recherche d'un tech-lead TALEND. Objectif de la mission : Assurer le rôle de Tech Lead Talend au sein de l’équipe Data client. Le consultant pilotera les développements ETL, encadrera les développeurs Talend, et participera à l’architecture des flux de données dans un environnement pharmaceutique exigeant. Compétences techniques requises : • Expertise Talend (v7.x, Talend Cloud, CI/CD avec Git) • Maîtrise des bases de données Oracle et SQL • Connaissance des environnements GCP + DBT (souhaitée) • Expérience en mise en place de pipelines CI/CD pour Talend • Connaissance des outils de monitoring et de gestion des flux Responsabilités : • Encadrement technique d’une équipe de développeurs Talend • Participation aux choix d’architecture et à la conception des flux • Mise en œuvre et suivi des bonnes pratiques de développement • Support aux équipes projets et coordination avec les métiers • Participation aux comités techniques et aux revues de code

CDI

Offre d'emploi
Architecte technique applicatif

Atlanse
Publiée le
AWS Cloud
Azure
HashiCorp Vault

60k-70k €
Paris, France

Vous serez en charge de la conception et du pilotage des architectures techniques dans une logique de standardisation, mutualisation des services et industrialisation via l’Infrastructure as Code. Votre rôle Infrastructure & Automatisation Concevoir, automatiser et maintenir des infrastructures Cloud via des outils IaC (Terraform, Ansible, etc.). Gérer des environnements hybrides et multi-cloud Middleware & Architectures applicatives Concevoir des architectures intégrant des couches d’intermédiation performantes et résilientes Déployer des passerelles applicatives sécurisées (Reverse Proxy) et optimisées Flux de données & Intégration Intégrer et transformer des données entre systèmes via ETL et MessageBus (Kafka) Faciliter la circulation des données pour des usages analytiques et IA Sécurité & Gestion des secrets Déployer et gérer HashiCorp Vault pour sécuriser les accès et les clés d’infrastructure et d’application Garantir la conformité et la protection des données sensibles Architecture & Bonnes pratiques Appliquer une architecture hexagonale pour séparer clairement les couches métier, d’infrastructure et d’interfaces Standardiser les pratiques pour optimiser la qualité, la maintenabilité et le testing des systèmes

Freelance

Mission freelance
Consultant Talend

JCW Search Ltd
Publiée le
Talend

6 mois
620-790 €
Paris, France

Dans le cadre d’un nouveau projet, nous recherchons un Consultant Talend Senior pour une mission de plusieurs mois. Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie Dans le cadre d’un nouveau projet, nous recherchons un Consultant Talend Senior pour une mission de plusieurs mois Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie

CDI

Offre d'emploi
Data Ingénieur.e

TO B SERVICES
Publiée le
Big Data
Kubernetes
SQL

45k-80k €
75309 CEDEX 09, Paris, Île-de-France

Objectifs et missions principales : titulaire du poste sera un.e interlocuteur.rice clé pour l'équipe Produit, en l'accompagnant dans la conception et la mise en œuvre d'architectures optimisées pour fluidifier l'ensemble des flux de données. Ses missions incluront : Concevoir et maintenir une architecture de pipeline de données performante. Assurer la fiabilité et l'évolutivité de l'infrastructure de données. Participer à l'amélioration continue des processus et outils liés à la gestion des données. Mettre en œuvre et maintenir des normes de qualité des données, ainsi que des systèmes de surveillance et d'alerte associés. Garantir la fiabilité des pipelines de données et établir les bonnes pratiques pour la cohérence des données sur l'ensemble de la plateforme. Développer l'infrastructure nécessaire à l'extraction, la transformation et le chargement (ETL) optimaux des données provenant de diverses sources, en utilisant des technologies SQL et Big Data. Collaborer avec les parties prenantes pour résoudre les problèmes techniques liés aux données et répondre aux besoins en infrastructure de données.

Freelance

Mission freelance
Data Engineer - GCP

Orcan Intelligence
Publiée le
Google Cloud Platform (GCP)

6 mois
500-650 €
Paris, France

Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.

Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

CELAD
Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€

Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT

Konvergence Consulting
Publiée le
BigQuery
CI/CD
Databricks

1 jour
40k-45k €
100-480 €
Paris, France

Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Freelance

Mission freelance
Architecte DATA

IBSI
Publiée le
Azure Data Factory
PowerBI
Powershell

6 mois
520-590 €
Paris, France

Recherchons un Architecte DATA Tâches à réaliser : Conceptualisation de solutions et réalisation de proof of concept Estimation des efforts, développement, mise en œuvre et déploiement d’applications Développement de code sécurisé, propre, réutilisable et bien documenté (méthode AGILE) Configuration des environnements de développement, test et production (local et cloud) Maintien de la qualité du code, documentation, déploiement en production et transfert de connaissances Compétences demandées Data ingestion: scripting like PowerShell & python Confirmé PowerBI (DAX) Confirmé Knowledge in Azure Cloud Confirmé TALEND Expert ServiceNow customization Avancé Azure Data Factory Confirmé Familiarité avec les solutions d’automatisation d’infrastructure (Ansible, Terraform, etc.) Confirmé Pratique du langage Python, documentation du code, implémentation de tests unitaires et de pipelines d’intégration Confirmé

Freelance
CDI
CDD

Offre d'emploi
Consultant Teradata

WHIZE
Publiée le
IBM DataStage
Teradata

3 ans
Paris, France

Dans le cadre d’un projet stratégique orienté data, la mission consiste à intervenir sur des traitements ETL complexes au sein d’un environnement décisionnel basé sur Teradata. Le poste couvre à la fois des activités d’étude et de réalisation : 🔍 Phase d’étude Analyse de l’existant sur un périmètre de traitements ETL Définition de la cible technique sur Teradata Découpage en lots, estimation des charges et planification 🛠️ Phase de réalisation Conception des solutions cibles Développement et tests en SQL Teradata Exécution de doubles RUN et bilans en vue des mises en production Suivi des traitements post-MEP durant la phase de VSR Proposition et mise en œuvre d’optimisations techniques 📑 Livrables attendus Documentation technique et fonctionnelle Dossiers d’étude, d’architecture, de sécurité et de mise en production Résultats de tests, PV de recette, fiches d’anomalies Comptes rendus d’activité et de réunions 🤝 Interactions Collaboration avec les équipes métiers pour la mise à disposition et l’exposition des données Coordination avec les autres équipes IT et partenaires externes

Freelance

Mission freelance
DataOps - MS FABRIC/ Azure

Cherry Pick
Publiée le
.NET
.NET Framework
AWS Cloud

12 mois
500-550 €
Paris, France

Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.

Freelance

Mission freelance
Cybersecurity Architect (H/F) – Basé à Paris

Groupe Aptenia
Publiée le
Architecture

1 an
400-570 €
Paris, France

Description du poste Nous recherchons un Architecte Cybersécurité , basé à Paris , pour accompagner les projets dans l’intégration de la sécurité dès la conception. Le poste s’inscrit dans un contexte international , couvrant un périmètre étendu : Cloud, Data, IA, Applications et Infrastructures . Missions principales Conseiller et accompagner les équipes projets dès les phases de design et de choix techniques . Définir et maintenir des guidelines de sécurité robustes et évolutives. Participer aux revues d’architectures (infrastructure, plateformes, applications). Contribuer aux audits techniques et à la définition de nouvelles architectures sécurisées . Diffuser la culture sécurité au sein des équipes internes et assurer un rôle de référence technique . Travailler en lien étroit avec les équipes internationales sur les projets stratégiques du groupe . Stack & Environnement technique Cloud : AWS, GCP Infrastructure as Code , Kubernetes , Containers , Serverless API Management , CI/CD , GitOps Protocoles d’authentification : SAML, OAuth2.0, OIDC… Data Platform : ETL, Kafka, Datalake, IoT, Réseau (VPN, WAF, PAM…)

Freelance

Mission freelance
Consultant(e) Approvisionnement Retail — Mission APS (advanced planning and scheduling)

WorldWide People
Publiée le
APS

3 mois
400-550 €
Paris, France

Consultant(e) Approvisionnement Retail — Mission APS (advanced planning and scheduling) (côté DSI : Architecture / Urbanisation / Sécurité) Profil recherché • Expérience confirmée d’un rôle en Architecture / Urbanisation dans un contexte supply chain retail (idéalement APS / planning / replenishment) • Pratique avérée de RFP / AO éditeurs avec analyse technique et challenge des réponses • Bonne maîtrise des pratiques cloud / SaaS enterprise, API, sécurité applicative, data governance • Connaissance du marché APS est un plus appréciable, pas nécessairement expert mais capable de les challenger techniquement • Savoir rédiger des livrables (RFP, scoring, note de reco, note d’architecture) & faciliter les échanges entre métier, DSI, éditeurs Contexte : Dans le cadre d’un projet de refonte de l’approvisionnement magasins et de sélection d’une nouvelle solution APS (Advanced Planning & Scheduling), la DSI recherche un(e) consultant(e) confirmé(e) capable d’intervenir au carrefour métier / architecture SI / sécurité, avec un rôle clé durant l’appel d’offres éditeurs.⸻ Missions principales Sur le périmètre APS et Supply : • Compréhension des besoins d’approvisionnement magasin et de leur déclinaison fonctionnelle dans l’APS • Participation à la rédaction/lecture critique des exigences dans le RFP Sur le périmètre DSI (cœur de la mission) : • Analyse technique des solutions candidates : architectures, patterns d’intégration, scalabilité, performance, SLA • Urbanisation & alignement SI : compatibilité avec les briques existantes (ERP, WMS, ETL, dataplatform…), dette / cohérence cible • Sécurité & conformité : exigences Cyber, IAM / RBAC, data privacy, auditabilité, certifications, hébergement (SaaS/Public cloud/On prem), réversibilité • Interopérabilité & intégration : API, bus d’intégration, latence, cadence de rafraîchissement, gestion des exceptions • Participation aux soutenances éditeurs côté DSI** : questionning, scoring, risques, trade-offs techniques • Support à la décision : matrice de scoring technique, risques d’implémentation, dépendances, TCO/ROI technique Livrables attendus • Contribution RFP (volets non-fonctionnels, intégration, sécurité, architecture cible) • Matrices d’analyse / scoring technique + note de risques • Note de recommandation finale côté DSI (urbanisation, sécurisation, intégration)

Freelance

Mission freelance
Data Scientist – Secteur Public (H/F)

Bek Advisory
Publiée le
Dataiku
Microsoft Power BI
MySQL

6 mois
400-500 €
Paris, France

Dans le cadre de projets de transformation et de modernisation du secteur public, nous recherchons un(e) Data Scientist freelance pour intervenir sur des missions de valorisation et d’exploitation des données. L’outil Dataiku est au cœur de l’environnement technique, et sa maîtrise est indispensable. Vos missions Développer et maintenir des modèles de data science dans Dataiku (exploration, apprentissage automatique, analyses prédictives et prescriptives). Identifier, intégrer et exploiter des données hétérogènes tout en garantissant la conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des flux de données avec Dataiku et/ou Talend . Construire des tableaux de bord et visualisations avec Tableau ou Power BI pour répondre aux besoins métiers. Collaborer étroitement avec les équipes internes afin de traduire les besoins métiers en solutions data-driven.

Freelance

Mission freelance
Data Engineer AWS senior

Cherry Pick
Publiée le
AWS Cloud
Python
SQL

12 mois
570-580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS senior" pour un client dans le secteur de l'Energie Description 🧩 Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un Data Engineer AWS Senior capable de concevoir, maintenir et optimiser les pipelines de données critiques de la plateforme analytique. La mission s’inscrit dans un environnement cloud AWS, au cœur de la transformation data et de l’industrialisation des flux d’ingestion, de traitement et d’exposition des données. 🎯 Objectifs et livrables 🔹 Responsabilités principales : Concevoir, développer et maintenir des pipelines de données ETL/ELT robustes et scalables. Travailler principalement en Python pour manipuler, transformer et automatiser les flux d’ingestion de données. Gérer les workflows SQL et concevoir des modèles de données relationnels sur PostgreSQL. Exploiter les services AWS (Lambda, Step Function, EC2, S3, Glue, etc.) pour l’orchestration et la livraison des données. Collaborer étroitement avec les équipes backend et data consumers pour assurer la cohérence des intégrations et des APIs. Mettre en œuvre des processus de monitoring, test et optimisation des systèmes de données afin de garantir performance, fiabilité et sécurité. Contribuer activement à l’amélioration continue de l’architecture et des bonnes pratiques techniques (code review, automatisation, documentation).

48 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous