Trouvez votre prochaine offre d’emploi ou de mission freelance Talend à Paris
Ce qu’il faut savoir sur Talend
Talend est une plateforme d'intégration de données open-source conçue pour simplifier l'extraction, la transformation et le chargement (ETL) des données. Elle permet de connecter diverses sources de données à des cibles définies grâce à une interface graphique intuitive, évitant la nécessité de compétences avancées en programmation. Talend offre une connectivité étendue avec plus de 900 connecteurs, permettant d’interagir avec des bases de données, des systèmes cloud, des applications et des fichiers plats. La plateforme intègre des outils pour le profilage, le nettoyage et la déduplication des données, garantissant leur qualité et leur fiabilité. Talend génère automatiquement du code optimisé en Java ou en Perl, facilitant les performances et la maintenance des processus. Elle est compatible avec des déploiements on-premise, cloud, multi-cloud ou hybrides, ce qui lui confère une grande flexibilité pour s’adapter aux infrastructures existantes. Grâce à sa modularité et à son adoption massive, Talend est un outil clé pour répondre aux besoins d’intégration et de gestion des données, soutenant les projets de transformation numérique et les initiatives décisionnelles des entreprises.

Mission freelance
Consultant Talend Confirmé
Nous recherchons un Consultant Talend ESB confirmé pour l'un de nos clients du secteur public. Le consultant interviendra sur des projets d’intégration des systèmes d’information, au sein d’une équipe projet pluridisciplinaire. M issions principales Concevoir, développer et maintenir des flux d’intégration via Talend ESB Mettre en place et consommer des API et web services Assurer la transformation, l’acheminement et la sécurisation des données échangées entre systèmes. Participer à l’ analyse des besoins métiers et à la rédaction des spécifications techniques. Contribuer à l’ orchestration des échanges applicatifs et au monitoring des flux. Réaliser les tests unitaires et d’intégration . Participer au support et à l’optimisation des performances .
Mission freelance
Data Engineer (GCP/Talend)
• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Mission freelance
Expert Talend
Concevoir, développer et maintenir des flux d’intégration de données sous Talend. Assurer la migration et l’optimisation des solutions ETL existantes. Contribuer à l’industrialisation des processus et à l’amélioration continue des pratiques Data. Rédiger les spécifications techniques et la documentation associée. Collaborer avec les équipes métiers et techniques afin de garantir la bonne circulation et la valorisation des données. Participer aux phases de tests, de validation et de mise en production des flux. Veiller à la qualité, la sécurité et la conformité des données intégrées. Mettre en place des outils de suivi et de monitoring pour contrôler la performance des traitements. Apporter un support technique aux équipes projet et aux utilisateurs internes. Assurer une veille technologique régulière sur les solutions Talend et les évolutions ETL.

Offre d'emploi
Data Engineer Talend - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Offre d'emploi
Développeur Talend
Client : Public Poste : Consultant Talend Expérience : +3 ans sur du TALEND Localisation : Paris (2 jours de Télé travail) Démarrage : ASAP Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Développeur Talend au sein de nos équipes pour l’un de nos clients. Contexte : Dans le cadre d’un projet stratégique d’intégration de l'Oracle Cloud ERP, notre client souhaite renforcer son équipe avec un développeur ETL utilisant TALEND. L’objectif de la mission est d’assurer la conception, le développement, l’optimisation et la maintenance des flux d’intégration de données dans un environnement complexe, en interaction avec plusieurs systèmes sources (ERP, bases de données, fichiers plats, API, etc). Missions Recueil et analyse des besoins en termes de flux de données Rédaction des spécifications techniques (en collaboration avec les équipes MOA/MOE) Développement de jobs ETL sous Talend Mise en place de processus d’automatisation, de contrôle qualité et de reprise sur incident Optimisation des performances des traitements ETL Rédaction de la documentation technique Participation aux tests, à la recette et à la mise en production Support et maintenance corrective/évolutive des flux existants Profil De formation supérieure en informatique vous justifiez d'au moins 3 ans d'expérience sur du TALEND. Compétences techniques : Maîtrise de Talend Cloud Data Management Solide expérience en développement de flux ETL dans des environnements complexes Connaissance approfondie des bases de données relationnelles (PostgreSQL, Oracle etc.) Maîtrise du langage SQL (requêtes complexes, procédures stockées) Connaissance des formats d’échange de données (XML, JSON, CSV, etc.) Sensibilité aux problématiques de qualité de données et de performance Planification via Talend TMC ou ordonnanceur externe Vos Atouts : Autonome Orientation client Capacité d'analyse Travail en équipe

Mission freelance
Data Engineer Talend
En quelques mots Cherry Pick est à la recherche d'un "Expert Talend" pour un client dans le secteur bancaire Description 🎯 Objectif de la mission Dans le cadre de projets critiques (MCO, facturation, référentiels), la mission vise à assurer le développement de flux ETL sous Talend pour le compte d’une structure utilisant des solutions comme Opencell. L’enjeu est de garantir une intégration de données fiable et performante, au cœur de processus stratégiques. 🧪 Responsabilités principales Concevoir, développer et maintenir les flux ETL sous Talend. Travailler dans un environnement soumis à de fortes contraintes de maintenance en conditions opérationnelles (MCO). Assurer la qualité, la cohérence et la conformité des référentiels de données. Participer à la mise en œuvre et à la supervision de solutions liées à Opencell (facturation, gestion client…). Garantir l’intégrité des données alimentant le Data Lake et les systèmes décisionnels.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Chef de Projet Intégration confirmé (H/F)
En tant que Chef de Projet Intégration (H/F) , vous intervenez au sein du département « Études & Développement » du domaine IT d'un grand compte bancaire , en charge de : Maintenir en condition opérationnelle les applicatifs du périmètre, que ce soit des applications développées spécifiquement mais aussi des solutions du marché (qu’elles soient hébergées ou non au sein de nos Datacenter); Accompagner le métier dans sa stratégie et ses projets en lui proposant des solutions et services innovants, de la phase d’étude jusqu’au déploiement; Déployer la stratégie informatique de X et d’assurer le respect de sa gouvernance (Architecture, Sécurité, Risques, Obsolescence…). A ce titre, vous avez pour responsabilités d’accompagner la gestion des activités ADM IT du delivery et de l'expertise technique sur toutes les applications, activités et livrables du projet, ainsi que la maintenance évolutive. Les attendus de la mission sont : Gérer les projets d’évolution et assurer l’activité d’intégration; Maintenir et piloter la maintenance par la coordination des équipes techniques : éditeur des solutions externes, équipes de développement et équipes en charge de la Production Assurer l’expertise technique (solution, performance, maintenabilité) des évolutions mises en place par les Products Owner avec le sous-traitant; Maintenir les différents environnements hors production pour les activités de recette / intégration / formation; Assurer les déploiements des releases sur les environnements hors production; Contribuer à la rédaction des documents d'installation et d'exploitation avant mise en production Assurer l'analyse des besoins de maintenance évolutive et corrective; Assurer l'activité d’expertise niveau 3 des applications et coordonner les autres niveaux d’expertise (support APS niveau 1 & 2, support niveau 4 développement) : traitement des obsolescences applicatives, des niveau 3 incidents de product, support Utilisateur; Garantir le respect des normes de sécurité, obsolescence et d'architecture technique applicables pour l'application et pour les environnements, Mettre à jour les documentations conformément à la méthodologie en vigueur.

Offre d'emploi
Expert Kinaxis - (certification Author/Admin impératif)
Dans le cadre de la création d’un Centre d’Excellence Supply Chain Planning, nous recrutons un Solution Owner IT pour piloter l’implémentation et l’exploitation de la solution APS Kinaxis Maestro (ex-RapidResponse). Ce poste est clé dans la stratégie de transformation digitale de la Supply Chain du groupe. PRINCIPALES RESPONSABILITES • Piloter la solution Kinaxis en build et en run o Garantir la cohérence, la performance et la sécurité de la solution Kinaxis. o Animer la gouvernance Build & Run avec les équipes métiers, projets et intégrateurs. o Prioriser les évolutions fonctionnelles selon les besoins du Business. • S’assurer de l’intégration de la solution dans son écosystèmes DDSI o Valider les spécifications techniques (Kinaxis, Talend, interfaces). o Superviser les tests d’intégration, de charge et les recettes utilisateurs (SIT, UAT). o Coordonner l’intégration entre Kinaxis et les ERP (SAP ECC, S/4HANA, JDE). • Assurer le support et la trantision vers le run o Organiser le transfert de responsabilités et de compétences vers les équipes RUN. o Gérer les incidents de niveau • Contribuer aux projets o Participer à la roadmap des vagues de déploiement Kinaxis (DP/SCP). o Proposer des axes d’amélioration de la solution (UX, performance, stabilité).

Offre d'emploi
Data Architecte Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Data Architect GCP - Paris
Tu corresponds au/à la Data Engineer GCP que nous recherchons si : - Tu as une expérience significative de 5 minimum ans ou plus de projets Data : architecture, traitement ou analyse de données. - Tu as une expérience sur GCP ( + de 5 ans) et les services Data associés. (Big Query, Dataform, Looker Studio, Pub Sub) - Tu maîtrises au minimum un langage de programmation appliqué à l’analyse de données (Scala, Python, Java…). - Tu possèdes de solides compétences en SQL - Tu as de bonnes compétences dans l’architecture des systèmes, bases de données, méthodologies d’analyse. Tu sais ainsi préconiser les bons outils/technologies selon les contextes de tes clients. - Tu es sensible à la Business Intelligence , au Big Data et au Machine Learning - Tu es autonome et sais travailler en équipe notamment dans des contextes Scrum/Agile - Une compétence sur les outils d’ingestion de données low-code type Talend / Snaplogic est un plus - Enfin, tu sais être force de proposition et as un esprit de synthèse.

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Mission freelance
Expert Microsoft SSIS
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Etudes & Développement : Expert Spécialités technologiques : ETL Vous interviendrez au sein de l’équipe Data en charge de la création d’un nouvel entrepôt décisionnel (collecte, entrepôt, magasins) dont l’alimentation se fera avec l’ETL Microsoft SSIS. Le contexte implique des traitements de volumes moyens, avec des enjeux de performance à ne pas négliger afin de garantir une production quotidienne d’indicateurs. MISSIONS Compétences recherchées : · Très bonne maîtrise de SQL Server · Expertise confirmée en SSIS (développement, tests, déploiement, optimisation) · Expérience significative sur la gestion et l’ordonnancement de traitements SSIS · Maitrise des concepts fondamentaux de projets décisionnels : extraction fichiers CSV, dumps bases de données, modélisation en étoiles, restitution d’indicateurs etc. · Bonne compréhension des problématiques de performance, indexation, partitionnement, parallélisation des flux, etc. · Autonomie, rigueur, et esprit d’équipe Socle technologique transverse (hors SSIS) : Talend, PostgreSQL, Linux, Suadeo (datavisualisation), SF
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Confidentialité des comptes annuels
- Auto entrepreneur: Acre est chiffre d'affaire première année
- Chiffre d'affaire d'un cabinet conseil
- Clause de non concurrence B2B et CDI chez le client final
- Si vous êtes intéressé par une bonne boite de portazge FR
Les métiers et les missions en freelance pour Talend
Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...)
Le/ La Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...) utilise Talend pour extraire, transformer et charger (ETL) des données, en préparant des jeux de données pour des analyses et des rapports décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...) .
Découvrir les offresIntégrateur·rice d'application
Le / La Intégrateur·rice d'application utilise Talend pour connecter et synchroniser diverses applications d'entreprise, en facilitant l'intégration des données et en assurant leur cohérence à travers les systèmes.
Explorez les offres d'emploi ou de mission freelance pour Intégrateur·rice d'application .
Découvrir les offresConsultant·e ERP (MS Dynamics, Oracle, Sage, SAP...)
Le/ La Consultant·e ERP (MS Dynamics, Oracle, Sage, SAP...) utilise Talend pour l'intégration de données entre différents systèmes ERP et autres applications, en automatisant les processus de transfert de données.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e ERP (MS Dynamics, Oracle, Sage, SAP...) .
Découvrir les offresDéveloppeur·euse base de données (SQL, PL/SQL, Oracle...)
Le/ La Développeur·euse base de données (SQL, PL/SQL, Oracle...) utilise Talend pour automatiser l'intégration et la gestion des données, en facilitant l'interopérabilité entre les bases de données et d'autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse base de données (SQL, PL/SQL, Oracle...) .
Découvrir les offres