Find your next tech and IT Job or contract ETL (Extract-transform-load)
Your search returns 54 results.
Contractor job
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Published on
ETL (Extract-transform-load)
6 months
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Hybrid
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Job Vacancy
Architecte Solution Integration
Published on
API
ETL (Extract-transform-load)
SAP
12 months
65k-80k €
600-700 €
Ile-de-France, France
Contexte de la mission Intégré(e) aux équipes Digital & IT du groupe, vous rejoindrez le département Global Data Operations (GDO), en charge de concevoir, développer et exploiter la Data Platform, l’AI Platform, l’Automation Platform et l’Integration Platform de l’entreprise. La ligne de service Integration Platform a pour mission : D’intégrer, gérer et exploiter les solutions d’intégration de données et d’applications pour l’ensemble du groupe. De piloter un programme stratégique de rationalisation et modernisation des solutions d’intégration. De promouvoir la globalisation des activités d’intégration à l’échelle mondiale. Les technologies concernées incluent : ETL/ELT, ESB, B2B/EDI, API, CDC, EDA. L’équipe regroupe des architectes, experts produits, responsables produits et chefs de projet spécialisés en intégration. Objectifs et responsabilités Sous la responsabilité du manager de programme et dans le cadre de la globalisation de l’intégration du groupe, vos missions principales seront : Inventaire et analyse : recenser les solutions d’intégration existantes, collecter les besoins actuels et futurs, évaluer les solutions et définir les architectures cibles ainsi que les scénarios d’évolution. Conception d’architectures : proposer des architectures fiables, performantes, évolutives et conformes aux standards et règles de sécurité du groupe. Participation à la Design Authority : contribuer aux comités d’architecture pour les solutions existantes ou dans le cadre de nouveaux projets/programmes. Accompagnement technique : conseiller les équipes techniques sur les patterns d’intégration, les performances, le dimensionnement, la supervision et la gestion de configuration. Documentation et bonnes pratiques : rédiger des documents d’architecture, procédures, règles et bonnes pratiques d’intégration. Proof of Concept (PoC) : conduire des PoCs pour tester de nouvelles solutions ou technologies à valeur ajoutée métier. Animation de communauté : mettre en place et animer une communauté d’experts autour de la plateforme d’intégration globale. Maintenance du référentiel : assurer la mise à jour du référentiel d’architecture et de la documentation associée.
Contractor job
Expert Talend / Talend Data Integration Specialist
Published on
ETL (Extract-transform-load)
Talend
12 months
Paris, France
Hybrid
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Contractor job
Tech Lead DATAIKU
Published on
Dataiku
ETL (Extract-transform-load)
Python
12 months
520-550 €
Ile-de-France, France
Hybrid
Dans le cadre de nouveaux projets stratégiques chez nos clients grands comptes, nous recherchons actuellement deux types de profils spécialisés : 🔹 1. Tech Lead DATAIKU Votre rôle : Piloter et encadrer les développements autour de la plateforme Dataiku (DSS), accompagner les équipes Data, garantir la qualité des pipelines et assurer la bonne intégration des solutions dans l’écosystème IT. Compétences clés recherchées : • Expertise confirmée sur DATAIKU DSS • Solide background en data engineering (Python, SQL, orchestrations…) • Bonne compréhension des architectures data (ETL/ELT, data pipelines, APIs) • Capacité à guider les équipes et à prendre des décisions techniques • Expérience en environnement exigeant (idéalement finance)
Contractor job
Développeur ETL - Informatica confirmé
Published on
ETL (Extract-transform-load)
Informatica
3 months
100-450 €
Ile-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un Développeur ETL - Informatica confirmé pour une mission freelance (longue visibilité) Context : Dans une architecture Big Data collectant les données de l’ensemble des Back Office et alimentant un Dataware communautaire stockée sur une base Exadata via un Datalake, la mission est de renforcer l'équipe de Maintenance Lotie Data au sein de la direction des études Goals and deliverables : La mission s'inscrit dans le cadre de la Maintenance Lotie du système d'information Décisionnel / Data de. L'objectif est de mettre en œuvre les évolutions applicatives dans les lots de maintenances définies. Le profil recherché est un ingénieur d'études, analyste confirmé de 8 à 10 expériences qui prendra en charge l'analyse des évolutions confiées, la conception de solution, la réalisation, la recette et la livraison des composants du projet. La maitrise de la conception et du développement sous ETL Informatica est requise, ainsi que la connaissance des bases de données Oracle, de l'environnement UNIX. Un bon relationnel est attendu ainsi qu'une forte autonomie est impérative. Le démarrage de la mission est prévu en octobre 2025. Une mission déjà effectuée chez le client sera un plus apprécié. Vous aurez à réaliser les spécifications fonctionnelles générales, spécifications fonctionnelles détaillées et techniques, plan de tests, la réalisation des traitements en ETL Informatica, les dossiers techniques (STD, dossier d'industrialisation, dossier de livraison) et les livraison en production. Les livrables attendus sont : Spécifications fonctionnelles générales et détaillées Spécifications techniques Développement de workflow ETL Plan de tests Documentation Passation à l'équipe de gestion courante Dossiers de livraison et de mise
Job Vacancy
Consultant BI [Informatica]
Published on
ETL (Extract-transform-load)
Informatica
SQL
1 year
42k-48k €
400-440 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Nous recherchons un Consultant BI confirmé pour renforcer une équipe dédiée à la mise à disposition de solutions d’analyse et de pilotage. L’objectif : soutenir les métiers dans la compréhension, l’exploitation et la valorisation de données issues de plusieurs systèmes opérationnels (interventions terrain, services connectés, déploiement d’équipements, performance opérationnelle…). Vos missions Analyse & conception Comprendre les besoins métiers et les traduire en solutions décisionnelles fiables et performantes. Proposer des modèles de données adaptés (datawarehouse, datamarts, cubes, zones d’analyse). Élaborer des flux d’acquisition de données cohérents avec l’architecture existante. Développement BI Développer et optimiser des traitements ETL (principalement sous Informatica). Construire et améliorer des scripts SQL avancés. Concevoir des tableaux de bord et rapports destinés aux équipes métier. Mettre en place les déploiements jusqu’à la production. Contribution aux activités Agile Participer aux cérémonies de l’équipe (daily, sprint planning, reviews…). Documenter, tester et valider les développements avant livraison. Support & accompagnement Aider les utilisateurs dans la prise en main des solutions BI. Animer des ateliers de recueil de besoins ou d’analyse fonctionnelle. Contribuer à la résolution des incidents et aux actions de maintenance corrective. Travailler avec les autres équipes techniques si des briques Big Data ou non-BI sont impliquées.
Job Vacancy
Business Analyst Attribution de performance
Published on
Bloomberg
ETL (Extract-transform-load)
MySQL
1 year
Paris, France
Hybrid
Nous recherchons pour l’un de nos clients bancaire un Consultant MOA confirmé disposant d’une solide expérience en Asset Management et d’une bonne maîtrise des environnements techniques. Vos principales missions : - Recueillir et analyser les besoins métiers liés à la gestion d’actifs - Rédiger les spécifications fonctionnelles et techniques - Animer les ateliers avec les équipes métiers et IT - Participer à la mise en place de solutions adaptées et au suivi des projets - Challenger les choix d’architecture et assurer la cohérence fonctionnelle du périmètre Compétences techniques attendues : Bloomberg, Port (module attribution de Bloomberg), Requêtes SQL, Connaissances techniques permettant de challenger les choix d’architecture projet (programmation, ETL, …). Compétences fonctionnelles : Calculs d’attribution de performance Taux / Connaissance de l’Asset Management / Rédaction de spécifications et documentations, animation d’ateliers.
Job Vacancy
Consultant Datastage PX (H/F)
Published on
ETL (Extract-transform-load)
IBM DataStage
1 year
Ile-de-France, France
Hybrid
Contexte de la mission Dans le cadre d’un projet stratégique au sein d’une DSI d’envergure, nous recherchons un Consultant Datastage PX pour intervenir sur des problématiques d’intégration et de traitement de données à grande volumétrie. Responsabilité de la mission Analyser les besoins et concevoir des flux ETL sous IBM Datastage PX . Développer, tester et mettre en production les traitements. Optimiser les performances des jobs Datastage. Assurer la qualité et la cohérence des données dans les environnements cibles. Participer à la définition des standards et bonnes pratiques ETL. Rédiger la documentation technique et assurer le transfert de compétences. Collaborer avec les équipes projet (MOA, MOE, DBA, exploitation). Environnement technique ETL : IBM Datastage PX Bases de données : Oracle, DB2, SQL Server OS : Unix/Linux Outils : Shell scripting, ordonnanceurs (Control-M, Autosys) Méthodologie : Cycle en V / Agile
Contractor job
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Published on
Data quality
ETL (Extract-transform-load)
Linux
12 months
400-650 €
Paris, France
Hybrid
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Job Vacancy
Data Engineer - Nantes
Published on
ETL (Extract-transform-load)
Informatica
Semarchy
40k-43k €
Nantes, Pays de la Loire
Nous recherchons un Ingénieur Data / Développeur ELT en CDI, passionné par la manipulation de données et les environnements analytiques. Vous participerez à la conception, l’alimentation et l’optimisation de nos flux de données stratégiques. vos missions : Concevoir, développer et maintenir des flux d’intégration de données. Participer à l’architecture et à l’industrialisation des traitements ELT/ETL. Travailler sur des environnements manipulant de très gros volumes de données. Collaborer avec les équipes métiers et techniques pour garantir la qualité et la cohérence des données. Optimiser la performance des requêtes et des pipelines de données.
Contractor job
Consultant Data SAS / SQL – Migration & Modèle Pivot – Contexte Épargne
Published on
ETL (Extract-transform-load)
SAS
SQL
2 years
400-490 €
Ile-de-France, France
Hybrid
Description de la mission : Dans le cadre d’un programme de modernisation du système d’information épargne , nous recherchons un consultant data confirmé pour intervenir sur la construction et l’industrialisation d’un modèle de données Pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements existants sous SAS Enterprise et comprendre les flux de données en place Concevoir et faire évoluer le modèle de données Pivot servant de passerelle entre les systèmes source et cible Industrialiser et fiabiliser les traitements SAS pour garantir la qualité et la traçabilité des données Participer aux phases de tests unitaires, intégration et suivi des anomalies Rédiger la documentation technique (SFD, suivi de compteurs, rapports de traitement) Contribuer à la préparation et au passage des runs de migration
Contractor job
Data Analyst Informatica
Published on
Azure
ETL (Extract-transform-load)
Informatica
1 year
300-460 €
Strasbourg, Grand Est
Hybrid
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Contractor job
Développeur ETL - Informatica confirmé H/F
Published on
ETL (Extract-transform-load)
Informatica
Oracle
3 months
Nanterre, Ile-de-France
Hybrid
Objectifs et livrables La mission s'inscrit dans le cadre de la Maintenance Lotie du système d'information Décisionnel / Data de Groupama. L'objectif est de mettre en œuvre les évolutions applicatives dans les lots de maintenances définies. Un bon relationnel est attendu ainsi qu'une forte autonomie est impérative. Vous aurez à réaliser les spécifications fonctionnelles générales, spécifications fonctionnelles détaillées et techniques, plan de tests, la réalisation des traitements en ETL Informatica, les dossiers techniques (STD, dossier d'industrialisation, dossier de livraison) et les livraison en production. Les livrables attendus sont : Spécifications fonctionnelles générales et détaillées Spécifications techniques Développement de workflow ETL Plan de tests Documentation Passation à l'équipe de gestion courante Dossiers de livraison et de mise
Contractor job
Senior Azure Data Engineer
Published on
Automation
Azure
Data Lake
6 months
400-550 €
Paris, France
Hybrid
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Contractor job
DATA ANALYST
Published on
Azure
Cloud
ETL (Extract-transform-load)
1 year
Strasbourg, Grand Est
Hybrid
Nous recherchons un Data Analyst expérimenté pour rejoindre un projet stratégique au sein d’un grand groupe industriel international. Cette mission, de longue durée, vise à renforcer la qualité des données à l’échelle du groupe et à accompagner les équipes métiers dans la mise en place de processus robustes. Votre rôle : Dans le cadre de cette prestation, vous serez responsable de la création et du maintien des reportings de qualité des données au niveau global. Vous interviendrez en étroite collaboration avec les différentes fonctions métiers afin de collecter les problématiques liées à la qualité des données , puis de traduire leurs besoins en spécifications techniques claires et exploitables . Vous jouerez également un rôle clé dans l’accompagnement des équipes à travers les différentes étapes de la méthodologie qualité des données, incluant la découverte des données , la définition des règles , leur exécution et le monitoring continu .
Job Vacancy
Data Analyst - PowerBI
Published on
Conception
ETL (Extract-transform-load)
Microsoft Power BI
1 year
40k-45k €
300-500 €
Toulouse, Occitania
Hybrid
Nous recherchons un Data Analyst expérimenté pour intervenir sur la conception, le développement et l’industrialisation de dashboards Power BI destinés à des équipes internes. La mission couvre l’ensemble de la chaîne data : recueil des besoins, récupération et intégration des données, modélisation, alimentation de l’entrepôt de données, création de tableaux de bord, livraison et support aux utilisateurs. Vous participerez également à l’administration de l’environnement Power BI et au suivi des activités dans un outil de ticketing. Vous interviendrez sur des données liées au support informatique et aux cycles de vie des incidents. Le rôle nécessite une excellente maîtrise de SQL, Power BI et SSIS, ainsi qu’un esprit analytique, une rigueur forte et une réelle capacité de communication. Compétences techniques SQL – Expert Power BI – Expert SSIS – Confirmé / Important PL/SQL ETL Environnements On-Premise (pas d’Azure / pas de Data Factory) Conception et modélisation de données Intégration de données dans un entrepôt Conception de bases agrégées
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- How to Recover Lost Funds, Usdt? Captain Jack Recovery is here to help
- 5 easy ways to get a job without a CV
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- How Can “Do My Exam for Me” Services Reduce Stress?
- Take Control of Your Printer with Advanced OrcaSlicer Features
- Why Should You Use a Travel Ads Network in 2025?
Jobs by city
Jobs by country
54 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k