Find your next tech and IT Job or contract ETL (Extract-transform-load)

Job Vacancy
Data Engineer Stambia (F/H)
CDI/Freelance/Portage 💼 – 3 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du secteur bancaire ? Cette mission est peut-être faite pour vous ! 💼🚀 Vos missions : Concevoir, développer et maintenir des flux d’intégration de données avec Stambia, en lien avec les besoins métiers et les exigences des projets décisionnels. Participer à la modélisation des données, à l'alimentation des entrepôts (Data Warehouse) et au traitement des données issues de sources hétérogènes. Garantir la qualité, la performance et la fiabilité des traitements ETL, tout en contribuant à l’optimisation des chaînes d’intégration et à l’industrialisation des processus.

Contractor job
Chef de projet production - ETL & BI-N3
CONTEXTE Objectif global : Piloter projet ETL & BI MISSIONS : Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs.

Contractor job
CONSULTANT TECHNICO-FONCTIONNEL WMS H/F
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients, un CONSULTANT TECHNICO-FONCTIONNEL WMS H/F pour une mission de longue durée. Rattaché(e) à l’équipe IT Logistique, vous serez en charge du bon fonctionnement, de l’évolution et de la fiabilité des solutions de gestion d’entrepôt (WMS) et de leurs interfaces avec les systèmes métiers. Votre rôle sera transversal : à la fois fonctionnel (recueil et formalisation des besoins, tests, support utilisateur) et technique (paramétrage, SQL, suivi d’interfaces et flux applicatifs). Objectif et livrable: Assurer la maintenance et les évolutions du WMS Manhattan / Logidrive. Accompagner les utilisateurs métiers dans l’expression et la validation de leurs besoins. Réaliser le paramétrage fonctionnel et technique des modules concernés. Contribuer aux phases de test, recette et déploiement des nouvelles fonctionnalités. Garantir la bonne intégration des flux entre le WMS et les systèmes connexes (via Informatica / ETL). Compétences attendues: Expertise sur les WMS (Manhattan, Logidrive). Excellente maîtrise de SQL / Oracle (analyse de données, correction d’anomalies). Connaissance pratique de Linux pour les vérifications et traitements applicatifs. Maîtrise des interfaces et ETL (Informatica ou équivalent). Capacité à rédiger des spécifications fonctionnelles détaillées et cahiers de tests. Connaissance approfondie des processus logistiques (réception, stockage, préparation, expédition). Rigueur et autonomie dans la gestion des incidents et la coordination IT / métier. TJM: 400-450€ NOUS VOUS INVITONS À POSTULER SI VOTRE TJM EST EN ADÉQUATION AVEC CELUI MENTIONNÉ DANS L’OFFRE

Contractor job
DBA confirmé AWS / Postgresql / Mariadb
Nous recherchons 1 freelance DBA pour notre client, disponible ASAP. Description : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. 3 jours de présentiel Ouest Parisien

Job Vacancy
Expertise Infrastructure Middleware et Progiciel
Description détaillée Gère et administre les systèmes de l’application Cognos, en assure la cohérence, la qualité et la sécurité. Participe à la définition et à la mise en œuvre des environnements retenus par les projets : Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. Traite les incidents et problèmes pouvant survenir sur les plates-formes. Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. Réalise les déploiements des bases de données dans le cadre des projets techniques et métier. Travaille en relation étroite et permanente avec les équipes de production, d’infrastructures et de sécurité. Contribue aux projets d'évolution des environnements liés aux offres Cognos. Administre les systèmes de gestion de données/référentiels. Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance. Effectue un support technique. Effectue l'adaptation, l'administration et la maintenance des logiciels liés aux offres Cognos. Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. Assure l'intégrité des offres existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident) et logique (confidentialité, accès). Met en œuvre les outils de surveillance. Règle les paramètres des applications Cognos pour une utilisation optimale. Suit et contrôle les évolutions de versions retenues. Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. Astreinte du domaine : Assure une astreinte sur le périmètre ETL / BI (Windows/Linux).

Contractor job
Chef de projet Data / BI
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

Contractor job
Data Analyst GCP (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst GCP (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst GCP (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Contractor job
Chef de projet data/BI
Description détaillée Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs. Compétences techniques ETL - Confirmé - Impératif JIRA - Confirmé - Impératif powerBI - Confirmé - Important informatica - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif)
Contractor job
Data Engineer | DevOps AWS (H/F)
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Job Vacancy
Développeur Mainframe Cobol / JCL
Description du poste Nous recherchons un Développeur Mainframe confirmé pour rejoindre une squad dédiée au domaine Risques, dans un contexte réglementaire stratégique. Vous participerez à la conception, au développement et aux tests de traitements mainframe en lien avec les Business Analysts et l’équipe produit. Vous contribuerez à la mise en œuvre et à la maintenance des applications qui alimentent les reportings réglementaires et les données transmises aux équipes centrales. Votre rôle consistera à : Concevoir, développer et tester des traitements en environnement mainframe (COBOL, JCL) Maintenir la documentation technique des développements Participer aux livraisons et appliquer les process de mise en production Collaborer avec le Product Owner, le Scrum Master, les Business Analysts et les autres membres de la squad Contribuer aux échanges avec les pôles utilisateurs et les équipes de production Stack technique utilisée : COBOL JCL z/OS JIRA Software (Agile / Scrum) SQL (Teradata, MySQL, ETL – appréciés) Windows / Linux / Java (connaissance appréciée)

Contractor job
Data Engineer Suite MSBI
Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)

Job Vacancy
Business Analyst Data
Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Job Vacancy
sas developper etl - Dwh
Le département Technology et l’équipe BICC (Business Intelligence Competency Center) Centraliser et fiabiliser toutes les données de l’entreprise dans un data warehouse . Mettre à disposition des données de qualité pour le management et les métiers, afin de faciliter la prise de décision . Automatiser et sécuriser les flux d’intégration de données (ETL). En clair : le projet vise à bâtir et maintenir une plateforme BI/DWH solide, qui serve de source unique de vérité pour toute l’organisation. stack : sas / etl / dwh français - anglais

Job Vacancy
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Contractor job
Consultant Data - Reprise/Injection de données - Assurance
Mission d’appui à un consultant expert pour sécuriser des reprises et injections de données dans un SI d’assurance. Périmètre : audit des sources, cartographie, préparation des jeux de données, nettoyage, normalisation et alignement référentiel, conception et exécution des scripts/pipelines d’injection, contrôles de qualité et réconciliations, gestion des performances et des volumétries, sécurisation RGPD, documentation et transfert de connaissances. Environnement type : SQL avancé (procédures stockées, optimisation, transactions), ETL (Talend/SSIS/ADF ou équivalent), formats CSV/JSON/XML, automatisation batch, Git/Jira. Interlocuteurs : expert data, DSI, métiers Assurance (IARD, Santé, Vie). Lieu : présence à Quimper les premières semaines, puis mise en place de télétravail selon accord client. Intérêt : accompagnement quotidien par un expert, montée en compétences accélérée, exposition à des chantiers de migration à fort enjeu.

Contractor job
Chef de Projet Data / BI
Missions principales:Gestion de projet Piloter les projets ETL et BI de bout en bout (cadrage, conception, développement, tests, mise en production, suivi post-déploiement). Assurer le respect des délais, budgets et ressources . Définir, suivre et mettre à jour les plannings, livrables et KPI projet. Garantir la qualité des livrables et l’alignement avec les besoins métiers. Coordination et communication Animer et coordonner les équipes techniques et fonctionnelles. Organiser et conduire les réunions de suivi et les comités de pilotage . Rédiger et diffuser les comptes rendus et documents de suivi. Assurer le lien entre les équipes internes (techniques, métiers) et les partenaires/fournisseurs. Expertise technique et environnement Participer aux choix techniques et à l’architecture des solutions BI/ETL. Apporter un support technique et méthodologique aux équipes projet. Contribuer à l’amélioration continue des processus et outils Data & BI. Compétences techniques attendues ETL : Confirmé – impératif JIRA : Confirmé – impératif PowerBI : Confirmé – important Informatica : Confirmé – serait un plus Connaissance des principaux outils BI : PowerBI, QlikView, Business Objects, Cognos, Tableau, SSRS . Maîtrise des solutions ETL : Informatica Power Center, Semarchy, IBM Datastage, SSIS . Connaissance d’outils complémentaires : Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea . Connaissance des outils DevOps et environnements Agile : Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira . Compétences linguistiques Anglais professionnel impératif : à l’oral comme à l’écrit (collaboration avec les équipes de Porto et fournisseurs internationaux). Profil recherché Formation supérieure Bac +5 (école d’ingénieur, informatique, MIAGE ou équivalent). Expérience confirmée en gestion de projets IT/Data/BI , idéalement dans un contexte ETL/BI. Excellentes capacités d’organisation, de coordination et de communication. Leadership, sens du service et capacité à travailler dans un environnement international et multi-projets.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country