Find your next tech and IT Job or contract ETL (Extract-transform-load)

Your search returns 45 results.
Contractor

Contractor job
Expert Azure Data Factory F/H - 3 mois

Published on
Azure Data Factory
ETL (Extract-transform-load)

3 months
500-600 €
Saint-Denis, Ile-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Contractor

Contractor job
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble

Published on
ETL (Extract-transform-load)

6 months
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Hybrid
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Contractor

Contractor job
Développeur CRM e-DEAL - Lyon

Published on
CRM
ETL (Extract-transform-load)

1 year
410-910 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
📢 Offre de mission – Développeur CRM E-deal (H/F) – LyonContexte de la mission Dans le cadre du renforcement des équipes digitales de notre client, nous recherchons un Développeur CRM E-DEAL / Efficy expérimenté afin d’accompagner les équipes métiers et IT dans l’évolution et l’optimisation de la plateforme CRM. L’objectif est de soutenir les projets de modernisation, d’amélioration de la relation client et de fiabilisation des processus internes grâce à une exploitation maîtrisée et évolutive du CRM Efficy. 🎯 Responsabilités principales Dossier d’architecture technique et de paramétrage. Dossier des développements et interfaces (code, scripts, documentation API / web services). Procédures de déploiement, guides d’exploitation et modes opératoires. Plans de tests et résultats associés (unitaires, intégration, recette, non-régression). Rapport de fin d’intervention et recommandations techniques. Journal de versions et de configuration. Documentation sécurité / conformité (RGPD, gestion des accès, sauvegardes). Propositions d’amélioration continue. 📍 Localisation Mission basée à Lyon , sur site (présence requise selon les modalités du client). ⏳ Durée & Disponibilité Démarrage : Dès que possible Durée : Long terme (mission renouvelable) Temps plein
Contractor
Permanent

Job Vacancy
Dataiku Data Engineer

Published on
Databricks
Dataiku
ETL (Extract-transform-load)

8 months
40k-59k €
400-640 €
Brussels, Brussels-Capital, Belgium
Hybrid
Attention, 2 jours de présence sur site non consécutifs à Bruxelles OBLIGATOIRE. Dans le cadre de son architecture cible, ENGIE M&S Belgium a mis en place les plateformes Databricks et Dataiku sur AWS et a lancé des projets de migration pour différents cas d’usage (SAS, AWS Sagemaker, BW/HANA, etc.). Nous recherchons un(e) Expert(e) Dataiku pour rejoindre une équipe projet chargée de reconstruire les fonctionnalités de programmes SAS, dont les résultats sont utilisés par les équipes Finance et Reporting Réglementaire. L’objectif est de combiner l’utilisation de Databricks (stockage/calcul) et de Dataiku (transformation de données), en privilégiant autant que possible les recettes visuelles de Dataiku.
Contractor

Contractor job
Senior Analytics Engineer

Published on
AWS Cloud
ETL (Extract-transform-load)
Microsoft Power BI

6 months
550-650 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Dans un contexte d’hypercroissance, nous recherchons un Senior Analytics Engineer pour rejoindre l’équipe Data et contribuer à structurer, fiabiliser et faire évoluer la plateforme analytique de notre client dans le secteur de la mutuelle Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT). Automatiser les traitements pour améliorer la performance et la fiabilité des données. Mettre en place la gouvernance des données : catalogage, gestion des métadonnées, droits d’accès. Concevoir et optimiser des modèles de données adaptés aux besoins métier (AWS, Redshift…). Garantir les performances des bases de données, y compris sur de grands volumes. Collaborer avec les Data Analysts, Data Engineers et IA Engineers pour répondre aux besoins de l’entreprise. Participer à la création de tableaux de bord et reporting (Power BI) en assurant l'exactitude des données. Assurer la disponibilité des données pour les prises de décision stratégiques. Apporter une expertise technique et accompagner les équipes sur les bonnes pratiques analytiques. Former et soutenir les utilisateurs métier sur les outils data. Mettre en place des contrôles qualité et détecter les anomalies via le monitoring. S’assurer de la conformité aux réglementations sur la confidentialité et la sécurité (GDPR, CCPA).
Permanent
Contractor

Job Vacancy
Consultant(e)Chef de projet DATA F/H-Niort

Published on
Business Object
Dataiku
ETL (Extract-transform-load)

120 years
40k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Chef de projet Data (F/H)pour notre cabinet à Niort🚀 En tant que Consultant(e) chef de projet Data (F/H), vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de: piloter l'activité DATA Manager les équipes opérationnellement Contribuer aux estimations fournies par les équipes en vue du s’assurer de la faisabilité dans le budget accordé ou demandé, Construire le planning prévisionnel, accompagner les équipes dans la conception Etre garant des livrables et s’assurer que la solution proposée corresponde aux contraintes de l’organisation (technologiques, sécurité, …), Accompagner les PO dans l'aide à la relation métier Coordonner les équipes projet ainsi que les acteurs externes en vue d’atteindre les engagements (vérification de l’allocation des tâches en fonction des ressources), Construire ses indicateurs et tableaux de bords afin d’assurer le pilotage efficace de son projet, Assurer la visibilité au travers des comitologies projet (animation des comités projets COPIL, COPROJ, Steering Committee, etc …). Mener des TASK FORCE en cas d'incidents Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Contractor

Contractor job
Expert Talend / Talend Data Integration Specialist

Published on
ETL (Extract-transform-load)
Talend

12 months
Paris, France
Hybrid
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Contractor

Contractor job
Business Process Owner facturation

Published on
ETL (Extract-transform-load)
HP ALM
JIRA

1 year
680-720 €
Ile-de-France, France
Hybrid
Contexte & Mission Rôle stratégique dans un projet de transformation Billing basé sur ARIA Systems . Objectif : implémenter la solution Billing et les processus associés pour plusieurs pays. Interlocuteur clé entre Finance métier et IT , garant de la cohérence des processus Order-to-Cash. Responsabilités principales Implémentation & Process Design : Animation des ateliers de découverte, collecte des besoins, gap analysis. Gestion des Change Requests et alignement avec le template global. Tests & Migration : Définition et pilotage des UAT (test cases, jeux de données, coordination cross-module). Participation à la stratégie et exécution de migration. Cutover & Hypercare : Suivi des activités de bascule et support post-go-live. Formation & Communication : Formation des utilisateurs, documentation, communication claire des concepts techniques. Leadership opérationnel : Challenger les besoins locaux vs standardisation globale. Coordination avec équipes multiculturelles en mode Agile.
Contractor

Contractor job
Data Analyst & Enabler / SQL /Python / Outils de BI / Tableau Software (H/F)

Published on
Data analysis
ETL (Extract-transform-load)
Python

6 months
460-550 €
Villeurbanne, Auvergne-Rhône-Alpes
Hybrid
Nous sommes à la recherche d'un Consultant Data Analyst & Enabler pour rejoindre l’équipe agile Data Platform de notre client grand compte dans le domaine de l'Energie. Vous aurez pour mission principale : d'être en appui sur la construction de produits data (développements BI, requêtage SQL, scripts Python), d'animer la communauté des utilisateurs BI/Self-service, de piloter des projets data spécifiques pour garantir leur livraison et leur adoption. Vous jouerez un rôle clé pour fluidifier l'usage de la donnée par les métiers, garantir la qualité des livrables techniques et accélérer l'autonomie des analystes via le Self-Service. Missions : Construction de Produits Data (Build) : Conception & Développement : Prendre en charge la réalisation de produits data concrets : création de tableaux de bord complexes (BI), écriture et optimisation de requêtes SQL pour l'analyse, et développement de scripts Python pour des traitements de données spécifiques. Qualité & Recette : Assurer les tests et la validation technique des produits développés avant leur mise à disposition aux métiers. Maintenance : Assurer le maintien en condition opérationnelle des rapports et scripts déployés. Animation de Communauté & SelfService Support & Formation : Animer la communauté des utilisateurs selfservice de la plateforme (en self-BI via l’outil Tableau, en SQL etc.). Accompagner les analystes métier dans leur montée en compétence. Communication : Être le point de contact privilégié pour les questions d'usage et les bonnes pratiques de la plateforme. Adoption : Promouvoir les nouveaux outils et datasets auprès des utilisateurs finaux. S’assurer qu’ils appliquent les bonnes pratiques d’optimisation des requêtes Pilotage de projets : Gestion de Projet : Piloter des projets data de bout en bout (cadrage, suivi, livraison) en respectant les contraintes de coûts et délais. Backlog & Spécifications : Collaborer étroitement avec le product owner et l’équipe data platform performance énergétique pour mettre en place les fonctionnalités et produits nécessaires à la communauté
Contractor

Contractor job
Tech Lead DATAIKU

Published on
Dataiku
ETL (Extract-transform-load)
Python

12 months
520-550 €
Ile-de-France, France
Hybrid
Dans le cadre de nouveaux projets stratégiques chez nos clients grands comptes, nous recherchons actuellement deux types de profils spécialisés : 🔹 1. Tech Lead DATAIKU Votre rôle : Piloter et encadrer les développements autour de la plateforme Dataiku (DSS), accompagner les équipes Data, garantir la qualité des pipelines et assurer la bonne intégration des solutions dans l’écosystème IT. Compétences clés recherchées : • Expertise confirmée sur DATAIKU DSS • Solide background en data engineering (Python, SQL, orchestrations…) • Bonne compréhension des architectures data (ETL/ELT, data pipelines, APIs) • Capacité à guider les équipes et à prendre des décisions techniques • Expérience en environnement exigeant (idéalement finance)
Contractor

Contractor job
Développeur ETL - Informatica confirmé

Published on
ETL (Extract-transform-load)
Informatica

3 months
100-450 €
Ile-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un Développeur ETL - Informatica confirmé pour une mission freelance (longue visibilité) Context : Dans une architecture Big Data collectant les données de l’ensemble des Back Office et alimentant un Dataware communautaire stockée sur une base Exadata via un Datalake, la mission est de renforcer l'équipe de Maintenance Lotie Data au sein de la direction des études Goals and deliverables : La mission s'inscrit dans le cadre de la Maintenance Lotie du système d'information Décisionnel / Data de. L'objectif est de mettre en œuvre les évolutions applicatives dans les lots de maintenances définies. Le profil recherché est un ingénieur d'études, analyste confirmé de 8 à 10 expériences qui prendra en charge l'analyse des évolutions confiées, la conception de solution, la réalisation, la recette et la livraison des composants du projet. La maitrise de la conception et du développement sous ETL Informatica est requise, ainsi que la connaissance des bases de données Oracle, de l'environnement UNIX. Un bon relationnel est attendu ainsi qu'une forte autonomie est impérative. Le démarrage de la mission est prévu en octobre 2025. Une mission déjà effectuée chez le client sera un plus apprécié. Vous aurez à réaliser les spécifications fonctionnelles générales, spécifications fonctionnelles détaillées et techniques, plan de tests, la réalisation des traitements en ETL Informatica, les dossiers techniques (STD, dossier d'industrialisation, dossier de livraison) et les livraison en production. Les livrables attendus sont : Spécifications fonctionnelles générales et détaillées Spécifications techniques Développement de workflow ETL Plan de tests Documentation Passation à l'équipe de gestion courante Dossiers de livraison et de mise
Contractor
Permanent

Job Vacancy
Consultant AMOA – Épargne Salariale (H/F)

Published on
API
Batch
Confluence

12 months
Paris, France
Hybrid
Nous recherchons un Consultant AMOA expérimenté dans l’Épargne Salariale pour intervenir au sein d’une équipe Back Office en charge d’une plateforme de gestion clé pour l’entreprise. Vous serez l’interlocuteur privilégié entre les équipes métiers, les équipes techniques et l’éditeur, avec un rôle central dans la transformation du SI et la bonne performance des traitements métiers. Missions principales : Pilotage fonctionnel & accompagnement métier Recueillir, analyser et formaliser les besoins métiers. Challenger les demandes et proposer des solutions adaptées et durables. Rédiger des spécifications fonctionnelles et accompagner la conception. Contribuer au programme de transformation du SI Épargne Salariale. Évolutions réglementaires Analyser les exigences légales et réglementaires. Proposer des solutions fonctionnelles alignées avec les contraintes métiers et le calendrier réglementaire. Maintien en Conditions Opérationnelles (MCO) Suivre et traiter les incidents d’exploitation avec la MOE et l’éditeur. Assurer la performance, la disponibilité et la cohérence des traitements. Préparer, piloter et animer les campagnes métiers et fiscales (relevés de situation, déclarations fiscales, PAS…). Produire un reporting régulier sur la qualité de service de la plateforme.
Contractor

Contractor job
Lead Developer Talend Cloud (ESB / ETL)

Published on
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)
Talend

12 months
450-520 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Nous recherchons un Lead Developer Talend Cloud pour accompagner la mise en place de la plateforme Talend et le développement des flux d’intégration dans le cadre d’une migration vers l’ERP IFS. La mission s’inscrit dans un contexte de transformation forte, avec un rôle clé d’animation technique, de structuration des bonnes pratiques et de pilotage des développements. Le consultant interviendra en proximité avec les équipes internes et les directions projets, afin de garantir la qualité, la performance et la fiabilité des flux ESB et ETL déployés sur Talend Cloud. Rôle attendu : • Participer à la conception et au développement des flux Talend (Cloud, ESB, ETL). • Animer et encadrer l’équipe de développement : accompagnement, support, bonnes pratiques. • Réaliser les revues de code et garantir la qualité technique des livrables. • Contribuer à la mise en place et à l’industrialisation de la plateforme Talend Cloud. • Participer aux ateliers techniques liés à la migration ERP IFS et aux intégrations associées. • Assurer un rôle de référent technique sur l’ensemble du périmètre Talend.
Permanent
Contractor

Job Vacancy
Business Analyst Attribution de performance

Published on
Bloomberg
ETL (Extract-transform-load)
MySQL

1 year
Paris, France
Hybrid
Nous recherchons pour l’un de nos clients bancaire un Consultant MOA confirmé disposant d’une solide expérience en Asset Management et d’une bonne maîtrise des environnements techniques. Vos principales missions : - Recueillir et analyser les besoins métiers liés à la gestion d’actifs - Rédiger les spécifications fonctionnelles et techniques - Animer les ateliers avec les équipes métiers et IT - Participer à la mise en place de solutions adaptées et au suivi des projets - Challenger les choix d’architecture et assurer la cohérence fonctionnelle du périmètre Compétences techniques attendues : Bloomberg, Port (module attribution de Bloomberg), Requêtes SQL, Connaissances techniques permettant de challenger les choix d’architecture projet (programmation, ETL, …). Compétences fonctionnelles : Calculs d’attribution de performance Taux / Connaissance de l’Asset Management / Rédaction de spécifications et documentations, animation d’ateliers.
Contractor
Permanent
Fixed term

Job Vacancy
Consultant Datastage PX (H/F)

Published on
ETL (Extract-transform-load)
IBM DataStage

1 year
Ile-de-France, France
Hybrid
Contexte de la mission Dans le cadre d’un projet stratégique au sein d’une DSI d’envergure, nous recherchons un Consultant Datastage PX pour intervenir sur des problématiques d’intégration et de traitement de données à grande volumétrie. Responsabilité de la mission Analyser les besoins et concevoir des flux ETL sous IBM Datastage PX . Développer, tester et mettre en production les traitements. Optimiser les performances des jobs Datastage. Assurer la qualité et la cohérence des données dans les environnements cibles. Participer à la définition des standards et bonnes pratiques ETL. Rédiger la documentation technique et assurer le transfert de compétences. Collaborer avec les équipes projet (MOA, MOE, DBA, exploitation). Environnement technique ETL : IBM Datastage PX Bases de données : Oracle, DB2, SQL Server OS : Unix/Linux Outils : Shell scripting, ordonnanceurs (Control-M, Autosys) Méthodologie : Cycle en V / Agile
Contractor

Contractor job
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Published on
Data quality
ETL (Extract-transform-load)
Linux

12 months
400-650 €
Paris, France
Hybrid
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
45 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us