Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)

Votre recherche renvoie 187 résultats.
CDD

Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)

ARKAMA CS
Publiée le
Java
Node.js
SQL

62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Freelance

Mission freelance
Développeur Informatica (H/F)

INFOTEL CONSEIL
Publiée le
Informatica
Informatica PowerCenter

12 mois
400-550 €
Île-de-France, France
Nous recherchons un développeur Informatica : Dans le cadre d’un renfort, nous recherchons un profil technique expérimenté pour intervenir sur des flux de données et des applications à forte volumétrie. La mission s’inscrit dans un environnement structuré, au sein d’une équipe pluridisciplinaire. Missions principales : Conception et évolution de traitements de données Développement et optimisation de flux applicatifs Analyse et clarification des besoins fonctionnels Rédaction de livrables techniques Support technique et résolution d’incidents Environnement : Outils ETL et bases de données relationnelles SQL, scripting, intégration continue Travail collaboratif, reporting régulier Télétravail possible (2 à 3 Jours de TT) - En IDF Profil autonome, rigoureux, avec une forte capacité d’analyse et d’adaptation.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst

ICSIS
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)

2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Freelance

Mission freelance
Lead Tech Integration & ERP

Phaidon London- Glocomms
Publiée le
API REST
BigQuery
ERP

6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Assurer le rôle de référent technique pour toutes les intégrations inter-applications Définir et mettre en œuvre une architecture d'intégration cohérente Piloter les décisions techniques en garantissant la qualité, la performance, la résilience et l'évolutivité Établir les normes de développement, de déploiement et de supervision Encadrer et accompagner les développeurs Talend (revues de code, bonnes pratiques, formation) Assurer la liaison entre les équipes métiers, l'IT, l'intégration et l'infrastructure Contribuer à l'élaboration des feuilles de route techniques et de la stratégie d'intégration à long terme
Freelance

Mission freelance
Data Engineer Senior / Data Product Analyst

Signe +
Publiée le
Microsoft Power BI

24 mois
370 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte du poste Dans un contexte industriel et data-driven, le poste vise à renforcer la capacité de l’entreprise à exploiter ses données pour améliorer le pilotage des activités, optimiser les processus et créer de la valeur métier. Le profil interviendra comme référent data opérationnel, à l’interface entre les équipes métiers et les équipes techniques, dans des conditions industrielles exigeantes. Profil recherché Profil autonome avec au moins 5 ans d’expérience en data engineering Forte capacité d’analyse business et de compréhension desseux des enjeux métiers Capacité à concevoir, développer et opérer des solutions data de bout en bout Aisance dans un rôle d’interface entre équipes métiers et équipes techniques Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et d’identifier les leviers de création de valeur Accompagner les équipes métiers dans le développement, le déploiement et l’exploitation des solutions data Être le référent technique de la solution, avec une maîtrise fine des données manipulées Agir comme point de contact privilégié des équipes métiers pour les sujets liés à l’exposition, à l’exploitation et à la valorisation des données industrielles Garantir la mise à disposition de données fiables, compréhensibles et exploitables Principaux résultats attendus Identification, capture et sélection des données pertinentes pour répondre aux besoins des utilisateurs Optimisation du temps, des ressources et des outils nécessaires à la gestion et à l’analyse des données Mise à disposition des données sous des formats accessibles et exploitables via des visualisations adaptées Production de recommandations et lignes directrices permettant aux métiers de créer de la valeur Optimisation des offres, services ou processus grâce aux analyses et évaluations réalisées Application et respect des règles du groupe en matière d’éthique et de gouvernance des données Présentation et promotion des fonctionnalités des produits data afin de faciliter leur adoption et leur maintenabilité Réalisation de tests conformes à la stratégie de test définie Maintien à jour du catalogue des produits data (datasets) Mise à disposition de kits de formation et d’outils à destination des utilisateurs Compétences fondamentales en Data Engineering Modélisation de données Modèles relationnels Modèles dimensionnels Data Vault ETL / ELT Conception et optimisation de pipelines robustes Gestion des dépendances et de l’industrialisation Qualité et gouvernance des données Data lineage Contrôles de qualité des données Catalogage et gestion des métadonnées Architecture data Compréhension des architectures modernes (Data Lakehouse, Data Mesh, etc.) Langages de programmation SQL avancé Python / PySpark avancé Outils et technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps
Freelance

Mission freelance
Data Analyste Confirmé Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos

WorldWide People
Publiée le
Microsoft Power BI
SQL

12 mois
390-400 £GB
Mer, Centre-Val de Loire
Data Analyste Confirmé pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Freelance
CDI

Offre d'emploi
Consultant BI senior Lyon

EterniTech
Publiée le
IBM DataStage
PowerBI
SQL

1 an
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients un Consultant BI senior Lyon Contexte du besoin: Le client, dans le cadre de son activité Décisionnel, recherche un un Fonctionnel BI sénior (plus de 7 ans d'expérience) pour une charge correspondant à 1 ETP, pour compléter le dispositif Bureau d'Etude, sur le site de Lyon. Objet de la prestation Le présent marché spécifique a pour objet le renforcement de l'équipe Bureau d'Etude Décisonnel avec l'intégration d'une resource maitisant le conception et rédaction de spécifications d'une chaine BI de bout en bout . Fort de ses expériences techniques et fonctionnelles, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) Description du besoin : défintion des missions et des obligations afférentes (obligation de conseil et/ou obligation de résultat) au Titulaire Rattaché au responsable Bureau d'Etude et Qualification Décisionnel & Big Data, le profil aura pour principales missions : • Rédiger la conception générale ou les spécifications fonctionnelles générales, dans le cadre de la mise en place d’une nouvelle application, ou d’un projet de maintenance important ; • Rédiger les spécifications fonctionnelles détaillées concernant des composants nouveaux ou dans le cadre d'une évolution de composants ; Dans le cadre de ces missions les compétences sous-jacentes requises sont les suivantes : - La méthode Agile (Srcum idéalement) et représentant le Product Owner lors des cérémonies - Bonne aisance à l’oral et à l’écrit avec un esprit de persuasion, capable d'appréhender le détail comme d’avoir un esprit de synthèse, - Rigoureux pour rédiger les Users Stories, les chiffrer, les prioriser et en valider les développements, - Force de proposition, en lien direct avec la maitrise d’ouvrage, mais aussi avec les architectes (techniques et fonctionnels), Les connaissances attendues sont : - Techniques : sur l'univers de la BI, avec l'ETL (Datastage et une bonne connaissance du SQL), le stockage (Teradata et/ou Cloudera), et la dataviz (power BI), - Fonctionnelles : le métier de la retraite. Préciser la technologie ou les certifications attendues : POWER BI , Datastage Teradata, et PostgreSQL Calendrier associé à chaque prestation Intégration de l'équipe RUN (Prise en compte d'anomalies et d'évolutions) Livrables attendus Participe aux études de cadrages Analyse des besoins métiers (MOA) Réalise les spécifications fonctionnelles et techniques Est garant des solutions proposées en fonction de l’environnement technique et fonctionnel Structure et organise le découpage de l’activité sous l’outil Jira avec toutes les phases de réalisations (lotissement) Effectue le suivi de ces phases Environnement technique ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL Compétences techniques minimales attendues : Niveau 0 - NE CONNAIT PAS Niveau 1 - CONNAISSANCE / exécute des tâches confiées sous contrôle d'un Référent Niveau 2 - PRATIQUE / planifie et exécute des tâches, analyse des problèmes, propose des solutions Niveau 3 - MAITRISE / gère ses tâches en autonomie complète dans des contextes multiplateformes, engage sa responsabilité sur des tâches confiées Niveau 4 - EXPERT / référent dans son domaine de compétence, propose des solutions innovantes liées à son domaine d'expertise, capable d'organiser des formations et transferts de compétences Rédaction de conception générale et/ou spécification fonctionnelle générale (maitrise) Rédaction de spécification fonctionnelle détaillée (expert) Méthode Agile (connaissance) Modélisation sous l’outil Hopex/MEGA (connaissance) Manipulation d’un gestionnaire de ticketing, de préférence JIRA de préférence JIRA (connaissance) Compétences métiers Expérience dans l'écosystème de la BI ( niveau Pratique) - ETL (Datastage et SQL) - stockage (Teradata ) - dataviz (Power BI ) Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement) (niveau connaissance)
Freelance

Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique

ARTESIA IT
Publiée le
Snowflake

1 an
500-550 €
Belgique
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Freelance

Mission freelance
Un Tech Lead Data sur Grenoble

Almatek
Publiée le
DevOps
Git
Jenkins

6 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Tech Lead Data sur Grenoble. Contexte du projet Projet TMA Data pour un client industriel : maintenance évolutive et corrective des systèmes de reporting et datawarehouse, gestion des flux de données sensibles (production, finance), support et développement de nouvelles fonctionnalités. Environnement technique orienté bases de données, ETL, BI Missions principales Pilotage technique et coordination Prendre du recul sur les besoins et proposer des solutions adaptées Cadrer les sujets techniques et fonctionnels Challenger les solutions proposées par l’équipe et le client Animer des réunions techniques et ateliers avec le client Assurer la qualité des livrables et le respect des délais Encadrement et accompagnement Accompagner les profils juniors Réaliser des revues de code et garantir les bonnes pratiques Partager les connaissances (process, outils, standards) Contribution technique Concevoir et optimiser des pipelines ETL/ELT Maintenir et faire évoluer les datawarehouses et bases de reporting Participer aux développements complexes et aux tests d’intégration Assurer la documentation technique et la capitalisation Amélioration continue Identifier et proposer des axes d’amélioration (process, outils, organisation notamment mise en place CI/CD, utilisation de l’IA..) Être force de proposition sur les évolutions techniques et méthodologiques Assurer le cadrage et plan de déploiement de ces propositions d’amélioration / industrialisation Compétences techniques requises Langages & outils : SQL avancé Bases de données : Oracle, PostgreSQL CI/CD & DevOps : Git, Jenkins Expérience 5 à 8 ans minimum en ingénierie des données, dont 2 ans en rôle de lead ou senior. Expérience en contexte TMA ou projets de maintenance évolutive. Localisation & Langues Région grenobloise Français courant, anglais professionnel.
Freelance

Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer

Almatek
Publiée le
Java

6 mois
280-400 €
Mer, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Freelance
CDI

Offre d'emploi
Expertise COGNOS

Taimpel
Publiée le
Ansible
Cognos
DevOps

24 mois
52k-57k €
460-500 €
Paris, France
OFFRE DE MISSION – EXPERT INFRASTRUCTURE MIDDLEWARE / COGNOS Objectif global Améliorer la solution COGNOS Contexte de la mission Gère et administre les systèmes de l’application Cognos de l'entreprise, en assure la cohérence, la qualité et la sécurité. Participe à la définition et à la mise en œuvre des environnement retenus par les projets. Intervient en tant qu'expert sur les infrastructures Middleware et les progiciels dans le cadre de projets IT. Missions principales Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. Traite les incidents et problèmes pouvant survenir sur les plates-formes. Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. Réalise les déploiements des bases de données dans le cadre des projets techniques et métier. Travaille en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité. Contribue aux projets d'évolution des environnements lié aux offres Cognos. Administrer les systèmes de gestion de données/référentiel de l'entreprise. Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance. Effectue un support technique. Effectue l'adaptation, l'administration et la maintenance des logiciels lié aux offres Cognos. Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. Assure l'intégrité des offres existants en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident ?) et logique (confidentialité, accès). Met en œuvre les outils de surveillance. Règle les paramètres des applications Cognos pour une utilisation optimale. Suit et contrôle les évolutions de versions retenues par l'entreprise. Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. Interventions en production et expertise Prend en charge des actions à forte valeur ajoutée technique en production, notamment lors d'incidents et de problèmes complexes. Assure le bon fonctionnement des infrastructures en veillant à leur disponibilité et à la correction des incidents. Participe à la gestion et à l'exploitation des composants techniques, en intégrant les principes de qualité, de productivité et de sécurité. Collabore avec les experts d'autres domaines (réseau, sécurité, systèmes) pour garantir une approche intégrée et cohérente des infrastructures. Architecture & ingénierie Participe à la définition d'architectures techniques adaptées aux besoins des projets, en veillant à la cohérence et à l'optimisation des solutions proposées. Réalise la conception technique (design) pour la mise en oeuvre des infrastructures Middleware et des progiciels, en tenant compte des besoins spécifiques des projets. Assurer l'ingénierie d'installation et de paramétrage des plateformes techniques, simples ou complexes, et coordonne les intervenants impliqués. Participe à des études d'opportunité et réaliser des analyses détaillées pour éclairer les décisions stratégiques concernant les évolutions technologiques. Définit et met en oeuvre les méthodes et outils nécessaires à la qualification des infrastructures et à l'application des normes en vigueur. Astreinte Assure une astreinte sur le périmètre ETL / BI (windows/linux) Livrables attendus Dossier d'architecture Procédure d'exploitation destiné aux clients Compétences requises Compétences techniques : Cognos - Expert - Impératif iis - Confirmé - Impératif devops - Confirmé - Souhaitable ansible - Confirmé - Serait un plus Connaissances linguistiques : Anglais Professionnel (Impératif)
Freelance

Mission freelance
Ingénieur BI - SAP Datasphere

RED Commerce - The Global SAP Solutions Provider
Publiée le
BI

3 mois
Île-de-France, France
Je recherche, pour l’un de mes clients finaux, un ingénieur BI expérimenté afin de renforcer leurs équipes Data dans le cadre d’un projet de modernisation BI autour de SAP Datasphere. Le rôle s’inscrit dans un environnement SAP S/4HANA et Power BI, au sein d’une équipe internationale en forte transformation. Missions principales : Participer à la conception et au développement du Data Warehouse SAP Datasphere, en lien étroit avec les équipes SAP et les métiers. Mettre en place et maintenir les modèles de données (views, datasets, modèles analytiques) selon les bonnes pratiques SAP. Intégrer, transformer et documenter les flux de données provenant de SAP S/4HANA et de sources externes. Concevoir et optimiser les rapports et tableaux de bord Power BI connectés à SAP Datasphere. Contribuer à la migration et à la reprise de l’existant depuis d’autres outils BI (Qlik, Cognos, Power BI on-premise, etc.). Assurer la qualité, la cohérence et la performance des modèles de données tout au long du cycle projet. Collaborer avec les architectes BI et chefs de projet pour garantir la gouvernance et la standardisation des solutions Data. Profil recherché : 5 ans d’expérience minimum en Business Intelligence / Data Engineering. Maîtrise de SAP Datasphere (anciennement SAP Data Warehouse Cloud) et des concepts BW / HANA. Bonne compréhension des environnements SAP S/4HANA et SAP Analytics Cloud. Expérience dans la modélisation de données, la création de vues, la gestion des flux ETL et l’intégration vers des outils de reporting. Solides compétences sur Power BI (modélisation, DAX, visualisations). Connaissances des outils Qlik ou Cognos appréciées. Esprit d’analyse, rigueur, sens du travail en équipe et autonomie. Français et anglais impératifs (contexte international). Détails de la mission : Démarrage : Décembre 2025 / Janvier 2026 Localisation : Paris 95 – 3 jours sur site / 2 jours remote Durée : 3 mois renouvelable – Mission longue Si vous souhaitez obtenir davantage d’informations sur le poste ou recommander un collègue ou un ami, n’hésitez pas à me contacter par mail avec votre CV à jour au format Word
Freelance

Mission freelance
Chef de projet spécialisé en comptabilité - Finance

STHREE SAS pour HUXLEY
Publiée le

12 mois
500-700 €
Roissy-en-France, Île-de-France
Contexte & objectifs Dans le cadre d'une réorganisation de la Direction Comptabilité et de la création d'un service projet , la mission vise à piloter et sécuriser des projets comptables et transverses , à fiabiliser les processus métiers et à accompagner le changement auprès des équipes. Missions principales Piloter les projets et évolutions comptables et transverses (planning, risques, dépendances). Analyser les besoins en ressources ; rédiger les expressions de besoin . Mettre en place le suivi d'avancement et le reporting ; gérer les risques . Fiabiliser et sécuriser les processus lancés (contrôles, suivis). Animer les réunions avec les métiers et l'IT ; accompagner le changement (formation des collaborateurs). Audit & design des processus métier (Facturation) Cartographier, analyser et documenter les processus existants et leurs règles de gestion . Co‑définir les processus cibles en ateliers, en intégrant les contraintes réglementaires . Documenter les processus/règles cibles et formaliser les besoins à destination des fournisseurs. Validation fonctionnelle & tests Contribuer à la stratégie de tests métier , à la rédaction des cas/scénarios , et à l' exécution des tests liés aux évolutions SI. Analyser les écarts entre processus actuels et cibles ; identifier les évolutions prioritaires. Accompagnement au changement Définir la stratégie , produire les supports de formation , et animer les sessions pour les équipes concernées. Livrables attendus Plans de projet (jalons, risques, dépendances) et reportings réguliers. Cartographies des processus (as‑is / to‑be), règles de gestion et dossiers de conception . Stratégie de tests , cas de tests , PV d'exécution . Supports de formation et compte‑rendus des sessions. Compte‑rendus de revues de service (suivi des KPI et de la satisfaction). Compétences recherchées Techniques / fonctionnelles Connaissance SAP indispensable (environnement Finance/Comptabilité). Pratique des ETL , tests fonctionnels , et SQL (Oracle) . Appétence pour les outils et l'IA . Maîtrise de la documentation processus et de la formalisation des besoins . Sens aigu des données personnelles et de leur protection (exposition possible à des données clients : identité, e‑mail, encours, bancaires). Comportementales (soft skills) Organisation , rigueur , autonomie , dynamisme . Aisance relationnelle , curiosité , capacité à influencer positivement des interlocuteurs de tous niveaux. Priorisation , respect des délais , analyse et synthèse , force de proposition .
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

REDLAB
Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance
CDI

Offre d'emploi
Consultant BI – SSIS / SAS / Suite MSBI (H/F)

Lùkla
Publiée le
Business Intelligence

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de nos projets data et décisionnels, nous recherchons un(e) Consultant(e) Business Intelligence pour intervenir sur des environnements à forte valeur ajoutée, en lien étroit avec les équipes métiers et techniques. Vos missions Analyser les besoins métiers et participer à la définition des solutions BI Concevoir, développer et maintenir des flux d’intégration de données (ETL SSIS) Exploiter et valoriser les données via la suite MSBI (SQL Server, SSIS, SSAS, SSRS) Intervenir sur des environnements SAS (traitements, analyses, reporting) Garantir la qualité, la fiabilité et la performance des données Rédiger la documentation technique et fonctionnelle Participer aux phases de tests, de mise en production et de support
Freelance

Mission freelance
Chef de projet Migration de données et archivage

MGT Conseils
Publiée le
Gestion de projet

1 an
500-650 €
La Défense, Île-de-France
Contexte du poste : Dans le cadre d’un programme, principal chantier de transformation SI, le client déploie Sinergie, outil stratégique de gestion d’expertise sinistre, en remplacement progressif de ITEX (solution actuelle). Les travaux de migration des dossiers, archivage et décommissionnement des systèmes historiques constituent un volet majeur du programme. Nous recherchons un(e) chef(fe) de projet capable de cadrer et piloter ces chantiers de bout en bout, en lien étroit avec les équipes SI, métiers et intégrateurs. Environnement de travail : Programme de transformation stratégique Interactions fortes avec Métiers, SI et partenaires Forte exigence de qualité et de sécurisation (données et continuité de service) Objectif de la mission : Assurer la conduite opérationnelle des chantiers suivants : ➢ Migration des dossiers (ITEX vers Sinergie) : • Identifier les dossiers à reprendre et définir le périmètre de migration (quels dossiers, sur quelle période, selon quels critères) • Cadrer la reprise de données : règles métiers, mapping, qualité de données, volumétrie • Piloter et contribuer aux étapes de migration : extraction, transformation, chargement, contrôles et validation métier • Organiser les phases de tests et de recette (jeux de données, contrôles, PV de recette) • Sécuriser la bascule et l’exécution des runs de migration (répétitions, plan de rollback, gestion des anomalies). ➢ Archivage des dossiers ITEX (dans solution spécifique LEGACY) : • Définir le périmètre des dossiers à archiver (dossiers clos, anciens etc.) • Cadrer les exigences d’archivage : accessibilité, recherche, conformité, durée de conservation. • Piloter et suivre la mise en œuvre de l’archivage dans la solution cible (LEGACY) : intégration, modalités de consultation, règles d’accès. • Piloter les activités du développeur de LEGACY • Organiser la bascule archive et la mise à disposition des utilisateurs. ➢ Décommissionnement des anciens systèmes : • Établir la stratégie de décommissionnement : dépendances, interfaces, usages résiduels. • Planifier les actions de fermeture progressive (arrêt applicatif, arrêt flux, nettoyage, preuves de fin). • Sécuriser la continuité de service et maîtriser les risques (retour arrière, impacts métiers). ➢ Responsabilités principales : • Construire et animer le planning détaillé du chantier (jalons, dépendances, risques) • Coordonner les parties prenantes : métiers, MOA, équipe applicative, intégrateur, data, infra, développeur • Mettre en place un suivi rigoureux : comptes rendus, RACI, plan d’actions, gestion des arbitrages • Gérer les risques, alertes et points de blocage de façon proactive. • Produire les livrables projet et garantir leur validation (cadrage, stratégie, recette, PV, go/no go) ➢ Quelques livrables attendus : • Note de cadrage migration + archivage (périmètre, règles, stratégie) • Planning projet détaillé + jalons • Mapping de données (en lien MOA / intégrateur) • Stratégie de reprise + plan de tests / plan de recette • Suivi anomalies / plan de correction • PV de recette validés • Dossier de bascule + go/no go • Plan de décommissionnement + checklists de fermeture Compétences requises : ➢ Compétences “projet” : • Pilotage de chantiers complexes (multi-acteurs, multi-outils, multi-lots) • Conduite de recette et de bascule • Gestion des risques, dépendances et arbitrages • Reporting et gouvernance (COPRO / COPIL) ➢ Compétences “data / migration” : • Expérience concrète en migration de données (cadrage, mapping, qualité, volumétrie) • Connaissance des étapes ETL (extraction / transformation / chargement) • Capacité à structurer des contrôles de reprise (réconciliation, complétude, cohérence) ➢ Compétences “archivage ” : • Expérience en archivage applicatif / GED • Sensibilité aux contraintes réglementaires et de conservation (sans être expert juridique)
187 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous