Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 184 résultats.
Mission freelance
Spécialiste EDI & Supply Chain (H/F)
Publiée le
ERP
ETL (Extract-transform-load)
JSON
8 mois
Poissy, Île-de-France
Nous recherchons pour le compte de notre client, un géant industriel de renommée mondiale opérant dans le secteur automobile, un Spécialiste EDI intégré à l'équipe Supply Chain . Dans un contexte de transformation digitale et d'exigence opérationnelle élevée, ce rôle est central pour garantir la fluidité des opérations logistiques et industrielles du groupe. En tant que Spécialiste EDI, votre mission principale sera de piloter, concevoir et optimiser les flux de données qui constituent le système nerveux de la chaîne d'approvisionnement. Vous agirez comme le garant de l'interopérabilité entre les systèmes d'information internes de l'entreprise et ceux de son vaste écosystème de partenaires externes (fournisseurs de rang 1 et 2, clients, prestataires logistiques). Votre intervention assure que chaque pièce, chaque commande et chaque avis d'expédition soit transmis de manière fiable, rapide et conforme. Vos responsabilités s'articuleront autour de plusieurs axes stratégiques et opérationnels : Conception et Architecture des Flux : Vous serez en charge de l'implémentation de nouvelles solutions EDI. Cela implique d'analyser les besoins métiers, de définir les spécifications techniques et de configurer les processus d'intégration aux systèmes ERP et WMS internes. Vous devrez traduire des besoins logistiques complexes en solutions techniques robustes. Développement et Maintenance des Mappings : Cœur technique du métier, vous développerez et maintiendrez les "mappings" (traductions) entre les formats pivots de l'entreprise et les standards internationaux. Vous devrez assurer la conversion fluide des données, quelle que soit la diversité des systèmes utilisés par les partenaires. Pilotage de la Conformité et Standards : Le secteur automobile étant hautement normé, vous veillerez au respect scrupuleux des protocoles et standards en vigueur, notamment Odette, Galia, Teccom et Edifact . Vous serez le référent technique pour valider que les échanges respectent ces normes strictes, garantissant ainsi une compréhension universelle des données échangées. Gestion Opérationnelle et Support : Au quotidien, vous surveillerez les transactions EDI via des outils de monitoring avancés. Votre rôle sera de diagnostiquer proactivement les incidents (rejets, erreurs de syntaxe, problèmes de connexion) et de les résoudre rapidement pour minimiser l'impact sur la production ou la livraison. Vous apporterez également un support de niveau expert aux utilisateurs internes. Optimisation Continue : Au-delà de la maintenance, vous analyserez les workflows existants pour identifier des goulots d'étranglement ou des sources d'erreurs récurrentes. Vous proposerez des optimisations pour automatiser davantage les processus, réduire les interventions manuelles et améliorer la qualité globale des données (Data Quality). Documentation et Formation : Vous produirez une documentation technique et fonctionnelle précise (guides de mappings, spécifications de flux) et assurerez la montée en compétence des équipes internes à travers des sessions de formation et de transfert de connaissances.
Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko
Publiée le
ETL (Extract-transform-load)
6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Offre premium
Mission freelance
Consultant Data Senior (H/F)
Publiée le
Modélisation
Talend
3 mois
480-560 €
Hauts-de-Seine, France
Télétravail partiel
Nous recherchons un Consultant Data orienté Data Quality & Référentiel, avec expérience fiabilisation de référentiel dans un environnement d'applications transactionnelles. Démarrage ASAP. Lieu : Boulogne (92) - Metro Porte de Saint Cloud télétravail possible 1 jour par semaine Durée 3 mois renouvelable Merci de ne pas répondre à cette offre avant d'avoir lu attentivement la rubrique "Pour candidater" ci-après Mission Principale - établir une compréhension exhaustive et une cartographie précise de l'état actuel de nos bases de données référentielles dans le cadre d'un projet de rationalisation de différents outils CRM - identifier les anomalies, les défaillances de flux - définir un référentiel de données nettoyé et fiable. - prendre la responsabilité de la préparation et de la mise à disposition des sources de données optimisées pour le reporting, ainsi que de la production des rapports au travers d'outils de dataviz Activités détaillées Audit et Cartographie des Bases de Données - Comprendre l'état actuel : Réaliser un audit détaillé des tables et champs des bases de données référentielles existantes sur les différents outils CRM - Identifier les anomalies : Analyser les champs renseignés, détecter les anomalies (données manquantes, incohérences), les doublons, et évaluer la structure du modèle de données. - Produire une cartographie claire : Obtenir et documenter une cartographie claire et précise de l'état des bases de données. Analyse et Optimisation des Flux de Données (avec Talend) - Comprendre les flux : Analyser en profondeur les flux de données existants permettant la constitution des bases de données référentielles. - Évaluer les interfaces : Examiner les règles d'interfaces et la connectivité entre les différents outils. - Identifier les défaillances : Détecter et documenter les défaillances potentielles dans ces flux de données. - Mettre en œuvre des optimisations : Contribuer à l'optimisation des flux de données, potentiellement via l'utilisation de Talend, pour améliorer la qualité et la fiabilité des données. Nettoyage et Établissement du Référentiel - Nettoyer les bases : Mettre en œuvre des processus de nettoyage pour réconcilier et valider les données. - Définir le référentiel : Établir et obtenir une base de données faisant office de référentiel unique et validé. Ce référentiel servira de base de travail fiable pour l'analyse et le reporting. Analyse du Référentiel, Préparation des Sources de Données - Analyser la base nettoyée : Réaliser une analyse approfondie de la base de données référentielle nettoyée. - Définir les métriques clés (KPI) : Identifier et calculer les indicateurs de performance clés pertinents pour l'appréciation de la qualité et de la richesse des données référentielles. - Préparer les sources de données : Alimenter et préparer les sources de données nécessaires pour le reporting, en garantissant leur fiabilité et leur performance. - Déterminer la cartographie optimisée : Fournir une cartographie claire et précise de la base de données référentielle, reflétant l'état optimisé et prête pour le reporting. Eventuellement dans le périmètre de la mission - Produire les rapports : Concevoir, développer et produire des rapports précis et pertinents via un outil de Dataviz permettant une appréciation précise des données avec les métriques clés identifiées.
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Mission freelance
Senior Analytics Engineer
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft Power BI
6 mois
550-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans un contexte d’hypercroissance, nous recherchons un Senior Analytics Engineer pour rejoindre l’équipe Data et contribuer à structurer, fiabiliser et faire évoluer la plateforme analytique de notre client dans le secteur de la mutuelle Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT). Automatiser les traitements pour améliorer la performance et la fiabilité des données. Mettre en place la gouvernance des données : catalogage, gestion des métadonnées, droits d’accès. Concevoir et optimiser des modèles de données adaptés aux besoins métier (AWS, Redshift…). Garantir les performances des bases de données, y compris sur de grands volumes. Collaborer avec les Data Analysts, Data Engineers et IA Engineers pour répondre aux besoins de l’entreprise. Participer à la création de tableaux de bord et reporting (Power BI) en assurant l'exactitude des données. Assurer la disponibilité des données pour les prises de décision stratégiques. Apporter une expertise technique et accompagner les équipes sur les bonnes pratiques analytiques. Former et soutenir les utilisateurs métier sur les outils data. Mettre en place des contrôles qualité et détecter les anomalies via le monitoring. S’assurer de la conformité aux réglementations sur la confidentialité et la sécurité (GDPR, CCPA).
Offre d'emploi
Senior Cloud Data Engineer
Publiée le
Apache Airflow
Apache Spark
AWS Cloud
6 mois
45k-60k €
550-600 €
Île-de-France, France
Télétravail partiel
Les Systèmes de Données du Groupe recherchent un(e) Senior Cloud Data Engineer passionné(e) basé(e) à Paris afin d’accompagner la forte croissance de nos activités. En rejoignant notre équipe, vous ferez partie d’une équipe autonome et serez affecté(e) à un programme de transformation , en travaillant sur des projets de Data Engineering . Vous apporterez des conseils en stratégie data , participerez à la conception de l’architecture et à sa mise en œuvre , et aurez l’opportunité d’expérimenter de nouvelles technologies et solutions . Au sein de notre équipe, vous serez accompagné(e) par des collègues dynamiques, toujours prêts à partager leurs connaissances . Nous attendrons de vous que vous apportiez des recommandations sur les meilleures pratiques . Vous serez un point central , mettant à profit vos compétences et votre état d’esprit pour contribuer au développement des compétences professionnelles de l’équipe, avec un accent particulier sur la fiabilité , la maintenabilité et la scalabilité des solutions que nous fournissons à nos clients. Compétences et expériences requises 3 à 5 ans d’expérience pratique dans la construction de pipelines de données sur des services et plateformes cloud publics , de préférence Amazon Web Services (notre principal fournisseur cloud) et/ou Azure , Google Cloud Platform Plus de 3 ans d’expérience dans l’ architecture , la conception , le développement , l’ implémentation et le support de solutions data Expérience dans plusieurs des domaines suivants : architecture de bases de données , ETL , business intelligence , big data , machine learning , analytique avancée Expérience dans des environnements basés sur Hadoop et Spark Expérience dans l’ orchestration de pipelines avec Airflow Expérience des architectures Lakehouse : Hudi, Iceberg, Delta Connaissance des optimisations Lakehouse : compaction , Z-Order , etc. Expérience en développement logiciel et en langages de transformation de données tels que Python , SQL , ainsi qu’avec Docker , les pipelines CI/CD et les concepts d’ automatisation pour construire des pipelines de traitement de données critiques Sensibilisation aux concepts clés du DevOps et aux principes Agile Connaissances de base des services fondamentaux du cloud (réseau, sécurité, stockage, IAM), de leur fonctionnement et de leurs options de configuration Esprit ouvert et attitude proactive en faveur de l’ apprentissage continu , du développement personnel et de l’orientation client Solides compétences relationnelles , avec une sensibilité et une compréhension des enjeux interculturels Capacité à garantir la performance , la disponibilité et la scalabilité des applications, tout en maintenant un haut niveau de qualité de code et une conception réfléchie En tant qu’ ingénieur cloud , vous livrez des solutions de haute qualité , de la conception à la mise en production, avec un fort accent sur la fiabilité , l’ automatisation , la maintenabilité et la sécurité Contribution à l’ évolution de notre offre de Cloud Data Engineering (conception, implémentation, déploiement)
Offre d'emploi
Développeur Talend (H/F)
Publiée le
API
CI/CD
DevOps
Villepinte, Île-de-France
Télétravail partiel
Dans un contexte de transformation numérique et de besoins croissants en fiabilisation des données, mon client renforce son pôle Data & Intégration en recrutant un Développeur Talend . Sous la responsabilité de l'Architecte Informatique, le Développeur Talend joue un rôle central dans la mise en place, la modernisation et la maintenance des flux entre systèmes internes et externes. Garantir la circulation des données entre applications métiers. Assurer la cohérence, la qualité et la disponibilité des flux. Optimiser les traitements pour accélérer et fiabiliser les échanges. Travailler au sein d’une équipe technique expérimentée, pilotée par l’Architecte Informatique, où communication, rigueur et capacité d’analyse sont essentielles.
Mission freelance
Data Engineer Senior - Data Warehouse
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Télétravail partiel
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Offre d'emploi
Consultant AMOA – Épargne Salariale (H/F)
Publiée le
AMOA
API
Batch
12 mois
Paris, France
Télétravail partiel
Nous recherchons un Consultant AMOA expérimenté dans l’Épargne Salariale pour intervenir au sein d’une équipe Back Office en charge d’une plateforme de gestion clé pour l’entreprise. Vous serez l’interlocuteur privilégié entre les équipes métiers, les équipes techniques et l’éditeur, avec un rôle central dans la transformation du SI et la bonne performance des traitements métiers. Missions principales : Pilotage fonctionnel & accompagnement métier Recueillir, analyser et formaliser les besoins métiers. Challenger les demandes et proposer des solutions adaptées et durables. Rédiger des spécifications fonctionnelles et accompagner la conception. Contribuer au programme de transformation du SI Épargne Salariale. Évolutions réglementaires Analyser les exigences légales et réglementaires. Proposer des solutions fonctionnelles alignées avec les contraintes métiers et le calendrier réglementaire. Maintien en Conditions Opérationnelles (MCO) Suivre et traiter les incidents d’exploitation avec la MOE et l’éditeur. Assurer la performance, la disponibilité et la cohérence des traitements. Préparer, piloter et animer les campagnes métiers et fiscales (relevés de situation, déclarations fiscales, PAS…). Produire un reporting régulier sur la qualité de service de la plateforme.
Mission freelance
Développeur ETL Talend (h/f)
Publiée le
1 mois
400-450 €
13000, Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Introduction & Résumé Nous recherchons un Développeur ETL Talend ayant une expérience avérée dans le développement et la gestion de données. Le candidat idéal doit posséder des compétences techniques solides, notamment avec Talend et SQL, tout en ayant la capacité d'aligner les solutions spécifiques aux besoins métiers, favorisant ainsi l'optimisation des processus. Missions principales Développement et maintenance de flux Talend : conception, développement et optimisation de processus d’intégration de données, en garantissant performance, fiabilité et qualité. Analyse et traitement des données : rédaction de requêtes SQL complexes pour l’extraction, l’analyse et la manipulation de données issues de sources multiples. Collaboration étroite avec les équipes métier : compréhension des besoins fonctionnels et traduction en solutions techniques adaptées. Amélioration continue : optimisation des performances des flux, réduction des temps de traitement et fiabilisation des données. Profil recherché Minimum 4 ans d’expérience en développement Talend et SQL, avec une expérience solide en intégration et gestion de données. Très bonne maîtrise de Talend (Open Studio, Talend Data Integration) et forte expertise SQL (optimisation de requêtes, gestion de gros volumes). Bonne compréhension des environnements ETL et des architectures data. Profil autonome, rigoureux, curieux, avec un excellent esprit d’équipe et une vraie sensibilité aux enjeux métier. Capacité à s’adapter et à évoluer dans un contexte technologique amené à changer. Compétences techniques clés Talend (Open Studio, Talend Data Integration) SQL (MySQL, PostgreSQL, Oracle, etc.) Processus ETL et architectures de données Optimisation de performances et gestion de bases de données Autres détails Type de travail : Présentiel obligatoire à l'onboarding puis 2J / TT Anglais : Courant Remarque : un profil maîtrisant d’autres solutions d’intégration de données (ex. Stambia ou technologies équivalentes) et démontrant une forte expertise ETL pourra également être considéré comme un excellent candidat, même sans expertise Talend exclusive.
Mission freelance
Concepteur Développeur IBM DataStage
Publiée le
BI
Data governance
ETL (Extract-transform-load)
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Offre d'emploi
Ingenieur Senior Mulesoft/Talend
Publiée le
MuleSoft
Salesforce Commerce Cloud
Talend
5 ans
Paris, France
Télétravail partiel
Mission Dans le cadre du développement de nos activités d’intégration, vous interviendrez au sein des équipes métiers et IT pour concevoir, développer et maintenir des solutions d’intégration robustes, évolutives et alignées avec les bonnes pratiques d’architecture moderne (API-led, microservices, intégrations synchrones / asynchrones). Responsabilités Analyse & Conception Analyser les besoins fonctionnels et techniques en collaboration avec les équipes métiers et informatiques. Concevoir le design des API et des flux d’intégration (contrats, modèles de données, versioning). Rédiger et maintenir les spécifications d’API (RAML / OpenAPI). Développement & Déploiement Développer, déployer et maintenir les API et solutions d’intégration, notamment sur MuleSoft ou Talend . Mettre en œuvre les bonnes pratiques d’intégration : sécurité, performance, gestion des erreurs, gouvernance. Implémenter et promouvoir les patterns d’architecture d’intégration : API-led, microservices, synchrones / asynchrones. CI/CD & Qualité Contribuer à la mise en place et à l’amélioration des pratiques CI/CD , de l’automatisation et du monitoring. Participer à l’évolution des standards internes et des frameworks d’intégration. Collaboration & Expertise Participer à des ateliers techniques autour de l’intégration et des API. Agir en référent technique sur votre périmètre et accompagner la montée en compétences des équipes internes. Profil Recherché Maîtrise des concepts d’intégration et des outils ESB/iPaaS (MuleSoft, Talend…). Solide compréhension des architectures API, REST, microservices. Connaissance des standards RAML / OpenAPI. Expérience avec les pratiques DevOps : CI/CD, pipelines, automatisation, monitoring. Capacité à travailler en équipe, sens du service, goût pour la transmission et le partage de connaissances.
Offre d'emploi
CONSULTANT TALEND / SAP BO
Publiée le
MySQL
Sap BO
Talend
6 mois
40k-45k €
400-550 €
Paris, France
– Consultant Talend (H/F) Contexte Dans le cadre du déploiement de nouveaux projets Data, nous recherchons un Consultant Talend disponible ASAP pour intervenir à la fois sur des activités de RUN et sur un nouveau projet de réécriture de flux . Missions Assurer les activités de RUN sur les flux Talend existants Concevoir et développer de nouveaux flux Talend Réécrire et optimiser les flux actuels dans le cadre du nouveau projet Garantir la fiabilité, la performance et la maintenance des traitements Travailler en collaboration avec les équipes techniques et projets Compétences requises Talend : indispensable (must-have) SAP BusinessObjects (BO) : apprécié / en plus Bonne maîtrise des flux ETL et des traitements de données Capacité à intervenir à la fois sur du RUN et du projet Profil recherché Consultant technique autonome et opérationnel rapidement Capacité à comprendre des flux existants et à les refondre Bonne communication à l’écrit et à l’oral Bon esprit d’analyse et de résolution de problèmes Disponibilité ASAP
Offre d'emploi
Consultant Talend
Publiée le
ALM
PL/SQL
SGBD
18 mois
20k-60k €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 5 ans plus Métiers Fonctions : Etudes & Développement, Consultant Spécialités technologiques : Applications Web, ALM, SGBD, Data management Intégration de données MISSIONS Responsabilités : Gestion de une application Talend : Être responsable de la maintenance et de l'évolution de l'application gérée avec Talend. Recevoir et analyser les besoins métier, traiter les anomalies de production et coordonner les actions nécessaires avec les équipes métier et techniques. Expertise technique : Apporter une expertise technique approfondie en matière de Talend et de PL/SQL. Être capable de résoudre les problèmes techniques complexes et d'optimiser les performances des applications. Veiller à ce que les objectifs de qualité et de délais soient atteints. Expertise souhaitée Séniorité de 5 ans sur l’outil Talend avec des expérience en montée de version/ migration et test des jobs en cible ; Contexte bancaire (la montée de version touche à tous les composants du SI ALM) ; Objectif : montée de version avant fin septembre, reprise du projet à effectuer. Apporter un soutien en PL-SQL de niveau « Maîtrise » pour participer à d’autres projets si besoin ; SGBD Oracle 19
Offre d'emploi
Analyste/Développeur - Expert Talend
Publiée le
SQL
Talend
Île-de-France, France
Analyste/Développeur 6-10 ans Expert Talend.... Dans le cadre de plusieurs chantiers de transformation, BP²I a besoin de ressource Talend pour développer des jobs d'alimentation et de renforcer son équipe. Il s'agit de jobs de Data intégration ou de Data Préparation..... Développements en Talend de jobsc pour alimenter le Datawarehouse ou des Datamarts du patrimoine data de BP²I..... Développements en Talend de jobs pour alimenter le Datawarehouse ou des Datamarts du patrimoine data de BP²I....
Offre d'emploi
Consultant(e) Talend
Publiée le
PostgreSQL
SQL
Talend
6 mois
40k-55k €
400-560 €
Île-de-France, France
Télétravail partiel
Dans le cadre de la transformation digitale et data au sein du groupe, le service IS/IT lance une solution ETL globale pour l’ensemble du groupe. Cette solution propose un accès et un service à l’échelle mondiale. L’équipe IS IT Digital Services est en charge du déploiement et de la gestion de cette solution. Dans ce contexte, IDS recherche une assistance technique pour un service en tant que consultant(e) technique Talend. Informations générales : Lieu : 3 jours sur site (Vélizy) Langue : Anglais requis Missions principales : Proposer les meilleures pratiques et lignes directrices pour l’outil Talend Data Management , de la phase de développement au déploiement : définition et mise en place des standards avec le tech lead ETL. Assurer le support de niveau 2 pendant la mise en œuvre des projets : qualification, transformation et intégration des données. Fournir un support de niveau 3 pour l’optimisation et la configuration de l’outil Talend Data Management (support technique). Réaliser un guide des bonnes pratiques concernant : L’exploitation (RUN).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
184 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois