Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Offre d'emploi
Chef de Projet ETL/BI (H/F)
Nous recherchons un Chef de projet ETL/BI confirmé pour une mission longue durée à Paris.Vos missions principales : - Pilotage de projets ETL/BI : encadrer toutes les phases du projet (cadrage, conception, développement, tests, mise en production) en garantissant la qualité, le respect des délais et des budgets. - Suivi et planification : définir et maintenir les plannings, piloter les livrables, établir et suivre les indicateurs de performance. - Coordination d'équipes : animer les équipes techniques et fonctionnelles, assurer la cohésion et favoriser la collaboration transverse. - Comités & reporting : préparer et animer les réunions de suivi, rédiger les comptes-rendus, remonter les alertes et risques éventuels. - Accompagnement au changement : sensibiliser les équipes aux outils BI/ETL, assurer la communication et le transfert de connaissances. - Veille et amélioration continue : proposer des solutions innovantes, contribuer à l'optimisation des processus et des outils existants. Environnement technique : - BI : PowerBI, QlikView, BO, Cognos, Tableau, SSRS. - ETL : Informatica, Datastage, Semarchy, SSIS, Dataïku, Denodo, Alteryx, Amadea. - Méthodologies & outils : Jira, Bitbucket, Jenkins, Artifactory, Ansible Tower, pratiques Agile & DevOps Profil recherché : - Expérience confirmée en gestion de projets ETL/BI. - Maîtrise ETL (impératif), Jira (impératif), PowerBI (important), Informatica (un plus). - Excellentes compétences en coordination, planification et communication. - Anglais professionnel courant requis (collaboration avec équipes internationales).

Mission freelance
Chef de projet production - ETL & BI-N3
CONTEXTE Objectif global : Piloter projet ETL & BI MISSIONS : Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs.

Mission freelance
Data Analyst expert BI ETL
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.

Mission freelance
Chef de projet data/BI
Description détaillée Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs. Compétences techniques ETL - Confirmé - Impératif JIRA - Confirmé - Impératif powerBI - Confirmé - Important informatica - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif)

Offre d'emploi
Business Analyst Data
Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Offre d'emploi
Développeur BI / Décisionnel - Expert Dataiku
Au sein du département Réassurance (constitué d'actuaires) Dans le cadre d'une migration de SAS vers Dataiku, nous avons développé des projets Dataiku. Nous souhaiterions optimiser ces projets existants en terme de : -vitesse d'exécution -clarté du projet -facilement de la maintenance Nous souhaitons donc un profil expérimenté en Dataiku, connaissant les bonnes pratiques de cet outil. • Restituer les données de l'entreprise sous forme de tableaux de bord, de graphiques, de cubes OLAP pour faciliter les choix stratégiques de la direction • Comprendre l’attendu en terme de reporting • Collecter et stocker les données (extraction) puis les distribuer et les exploiter (restitution) • Tester les différentes restitutions (cubes OLAP, tableaux de bord, reporting) • Intégrer et mettre en production le développement • Assurer une maintenance • Mise en œuvre de socles/applications, DataManagement & Business Intelligence/Analytics • Migration d'un outil BI • Mise en œuvre d'applications analytiques sous PowerBI ou autres (e.g. analyse des dépenses, cartographie et optimisation des immeubles, ...) Activités et tâches : • Le Pilotage et l’organisation des phases de migration de données (coordonner les travaux de migration) • L’étude des modèles de données source et destination • L’élaboration des fichiers de mapping (source / destination). Ainsi que les différents fichiers de spécification • La stratégie de migration (ETL) • La validation des scripts d'extraction et transformation

Mission freelance
Data Engineer Talend
En quelques mots Cherry Pick est à la recherche d'un "Expert Talend" pour un client dans le secteur bancaire Description 🎯 Objectif de la mission Dans le cadre de projets critiques (MCO, facturation, référentiels), la mission vise à assurer le développement de flux ETL sous Talend pour le compte d’une structure utilisant des solutions comme Opencell. L’enjeu est de garantir une intégration de données fiable et performante, au cœur de processus stratégiques. 🧪 Responsabilités principales Concevoir, développer et maintenir les flux ETL sous Talend. Travailler dans un environnement soumis à de fortes contraintes de maintenance en conditions opérationnelles (MCO). Assurer la qualité, la cohérence et la conformité des référentiels de données. Participer à la mise en œuvre et à la supervision de solutions liées à Opencell (facturation, gestion client…). Garantir l’intégrité des données alimentant le Data Lake et les systèmes décisionnels.
Mission freelance
TECH LEAD TALEND
Bonjour, Pour le compte de l'un de mes clients dans le secteur pharmaceutique, je suis à la recherche d'un tech-lead TALEND. Objectif de la mission : Assurer le rôle de Tech Lead Talend au sein de l’équipe Data client. Le consultant pilotera les développements ETL, encadrera les développeurs Talend, et participera à l’architecture des flux de données dans un environnement pharmaceutique exigeant. Compétences techniques requises : • Expertise Talend (v7.x, Talend Cloud, CI/CD avec Git) • Maîtrise des bases de données Oracle et SQL • Connaissance des environnements GCP + DBT (souhaitée) • Expérience en mise en place de pipelines CI/CD pour Talend • Connaissance des outils de monitoring et de gestion des flux Responsabilités : • Encadrement technique d’une équipe de développeurs Talend • Participation aux choix d’architecture et à la conception des flux • Mise en œuvre et suivi des bonnes pratiques de développement • Support aux équipes projets et coordination avec les métiers • Participation aux comités techniques et aux revues de code
Mission freelance
Consultant Talend
Dans le cadre d’un nouveau projet, nous recherchons un Consultant Talend Senior pour une mission de plusieurs mois. Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie Dans le cadre d’un nouveau projet, nous recherchons un Consultant Talend Senior pour une mission de plusieurs mois Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie
Mission freelance
Data Engineer (GCP/Talend)
• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Mission freelance
Consultant Talend ESB Confirmé
Nous recherchons un Consultant Talend ESB confirmé pour l'un de nos clients du secteur public. Le consultant interviendra sur des projets d’intégration des systèmes d’information, au sein d’une équipe projet pluridisciplinaire. M issions principales Concevoir, développer et maintenir des flux d’intégration via Talend ESB Mettre en place et consommer des API et web services Assurer la transformation, l’acheminement et la sécurisation des données échangées entre systèmes. Participer à l’ analyse des besoins métiers et à la rédaction des spécifications techniques. Contribuer à l’ orchestration des échanges applicatifs et au monitoring des flux. Réaliser les tests unitaires et d’intégration . Participer au support et à l’optimisation des performances .
Mission freelance
DEVELOPPEUR SSIS CONFIRME
Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

Offre d'emploi
Tech Lead ODI
Missions principales Assurer la conception et le développement des flux ODI pour les projets Data & BI. Définir l’ architecture technique et les standards de développement des intégrations de données. Piloter l’équipe technique ODI : planification, répartition des tâches, suivi de la qualité. Garantir la performance et la scalabilité des processus ETL. Participer à la mise en place de l’ industrialisation et automatisation des traitements (orchestration, batchs, alerting). Superviser le déploiement, le monitoring et la maintenance des environnements ODI. Travailler en collaboration avec les équipes Data, BI et DevOps pour aligner les livrables techniques avec les besoins métiers. Être force de proposition sur les évolutions de l’architecture et des outils.

Mission freelance
Consultant BI
Nous recherchons actuellement un Consultant BI pour accompagner les équipes métiers et IT dans des projets de valorisation et de mise à disposition de la donnée, de la collecte jusqu’à la restitution sous forme de tableaux de bord et de rapports décisionnels Identifier et comprendre les besoins métiers, assurer le dialogue avec les utilisateurs pour traduire leurs attentes en solutions BI. Vérifier et garantir la bonne alimentation des données dans les systèmes décisionnels, en collaboration avec les équipes en charge des systèmes sources. Concevoir et modéliser les solutions adaptées, en tenant compte de l’existant, des normes de développement et des bonnes pratiques BI. Développer les flux ETL avec SSIS et Oracle Data Integration , modéliser les données et produire des restitutions avec SSRS et Power BI . Entamer une démarche d’optimisation et de rationalisation des indicateurs et rapports existants (nettoyage des doublons, suppression des obsolètes, harmonisation). Réaliser la mise en œuvre technique (développements, tests unitaires) et assister les métiers lors des phases de recette

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Recherche partenaire pour un projet innovant dans l'univers de la mode
- Artibot – Un assistant IA français pour générer vos devis artisans en 1 clic
- Le choix du statut juridique de son entreprise
- IPREC, Jedha et la formation TISR (TSSR)
- PARTAGER DE DOSSIER SUR LE SERVEUR WINDOWS
- Choisir SASU IR ou autre solution