Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 264 résultats.
Offre d'emploi
Data Architect ERP Oracle
Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion
Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Offre d'emploi
Data Engineer
Codezys
Publiée le
Azure DevOps Services
Python
24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Mission freelance
DBA Oracle / MariaDB – Automatisation Ansible & Compliance
Signe +
Publiée le
Oracle
12 mois
350-480 €
Rousset, Provence-Alpes-Côte d'Azur
Je recherche un DBA confirmé orienté automatisation & fiabilisation d’infrastructures bases de données pour intervenir chez l’un de nos clients industriels à Rousset. On est sur un rôle très opérationnel + structurant , pas du simple run. Contexte L’équipe souhaite : Industrialiser l’administration des bases via Ansible Renforcer la compliance sécurité Oracle (Qualys) Migrer vers Oracle 19 Améliorer les outils internes de supervision (DBAMON) Tu travailleras au quotidien avec : Admin systèmes Admin applicatifs Équipes support/projets Donc : profil terrain, autonome, capable de produire du script et de la doc propre. Modalités Démarrage : 1er mars 2026 Durée : 12 mois Présence : 100% sur site les 2 premiers mois puis 3j site / 2j télétravail Localisation : Rousset (13) Missions principalesAutomatisation / DevOps DB Création de use cases Ansible (install binaires, création DB, patching…) Scripts d’industrialisation et documentation associée Compliance & Sécurité Oracle Exploitation rapports Qualys Identification non-conformités Nettoyage des GRANTS inutiles Travail avec équipes applicatives pour ajustements propres Migration Migration Oracle 19 Préparation environnements intégration + production Respect des procédures/runbooks existants Outils & Support Évolutions sur l’outil DBAMON Analyse performance & capacité (FPS) Support incidents/projets ponctuels Compétences requises (must-have) DBA Oracle confirmé (niveau OCP attendu) MariaDB / Galera Cluster OEM / Cloud Control 13c SQL Developer, Putty, MobaXterm Zabbix (supervision) Linux / Unix (Red Hat, HP-UX) Shell scripting Anglais technique conversationnel Livrables attendus Scripts Ansible + documentation d’usage Rapports compliance GRANTS par instance Infra Oracle 19 prête à l’emploi (intégration + prod) Documentation technique DBAMON + ETL Analyse performance & capacité FPS + support
Offre d'emploi
Intégrateur applicatif cognos
OBJECTWARE MANAGEMENT GROUP
Publiée le
Cognos
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client (secteur bancaire) un intégrateur applicatif Cognos. Vos missions seront : Assurer l’administration, l’exploitation et l’évolution des infrastructures Cognos, en garantissant un haut niveau de qualité de service, de fiabilité et de sécurité, et en contribuant à l’amélioration continue de l’offre. Exploitation & MCO (RUN – cœur du poste). Administrer les infrastructures applicatives Cognos (systèmes et plateformes). Assurer le maintien en conditions opérationnelles des offres Cognos. Exploiter les environnements en garantissant leur intégrité, disponibilité et performance. Traiter les incidents et problèmes sur les plateformes. Assurer un support technique sur le périmètre Cognos / BI. Mettre en œuvre et exploiter les outils de supervision. Participer aux astreintes du domaine ETL / BI (environnements Windows / Linux) Continuité & Sécurité. Contribuer à la mise en œuvre des solutions de continuité de service. Participer aux tests de sauvegarde et de restauration. Travailler en lien étroit avec les équipes Infrastructures, Production et Sécurité. Garantir le respect des exigences de sécurité sur son périmètre Projets & Évolutions (BUILD). Participer à la définition et à la mise en œuvre des environnements Cognos retenus par les projets. Réaliser les déploiements d’infrastructures et des bases de données associées. Contribuer aux projets d’évolution des plateformes Cognos. Assurer l’adaptation, l’administration et la maintenance des composants logiciels Cognos. Suivre et contrôler les évolutions de versions validées par l’entreprise. Définir et maintenir les normes et standards d’exploitation des offres Cognos.
Offre d'emploi
Responsable Data & Business Intelligence
CONCRETIO SERVICES
Publiée le
Data management
Microsoft Power BI
40k-80k €
Île-de-France, France
Rattaché(e) à la DSI, vous définissez et pilotez la stratégie Data d'un groupe structuré. Vous encadrez l'équipe Business Intelligence, garantissez la performance des plateformes décisionnelles et accompagnez les métiers dans l'exploitation de la donnée comme levier de performance. Vos missions : 1- Management & Organisation Manager et animer une équipe d'analystes et d'experts BI (environ 5 à 10 collaborateurs) Organiser et prioriser les demandes, piloter la charge et assurer le respect des engagements (qualité, coûts, délais) Accompagner la montée en compétences de l'équipe et promouvoir les bonnes pratiques Data Travailler en étroite collaboration avec les autres équipes IT (AMOA, infrastructures, sécurité) et les directions métiers. 2- Pilotage de la stratégie Data Définir la feuille de route Data en lien avec la DSI et les directions métiers Contribuer la refonte du système d'information décisionnel et des outils Data Participer à la gouvernance de la donnée (qualité, sécurité, conformité) Etre force de proposition sur les évolutions technologiques et l'architecture cible du SI Data 3 - Supervision technique & opérationnelle Superviser et faire évolue les plateformes décisionnelles existantes (SAP BW, BO, Power BI, Snowflake, Talend Garantir la fiabilité, la performance et la disponibilité des flux et entrepôts de données Participer activement à la conception et à la mise en oeuvre des solutions techniques (ETL, modèles de données, reporting, dashboards) 4- Relation métiers & accompagnement Recueillir, analyser et challenger les besoins Data des différentes directions (commerciale, finance, logistique, RH) Garantir la pertinence et la qualité des livrables décisionnels (KPIs, tableaux de bord, indicateurs de pilotage 5 - Pilotage applicatif & MCO Piloter et assurer le MCO des applications du SI Groupe Réaliser les pré-études, les estimations de charge et assurer une veille technologique continue Recueillir les besoins métiers et rédiger les spécifications fonctionnelles associés Planifier et mettre en œuvre les paramétrages des solutions SAP et des logiciels connexes Piloter et/ou réaliser les développements applicatifs Assurer un rôle d'expertise fonctionnelle et technique, ainsi que le support de niveau 2 et 3 Animer et/ou participer à des projets transverses au sein de la DSI
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes
Almatek
Publiée le
JIRA
6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Mission freelance
ANALYSTE TECHNIQUE EXPERIMENTÉ ET DEVELOPPEUR .NET FLUX COMPTABLES
PROPULSE IT
Publiée le
.NET
24 mois
325-650 €
La Défense, Île-de-France
Analyste technique Flux Comptables et Développements .NET Missions Principales : L'Analyste Technique des Flux Comptables est chargé d'assurer la documentation et l'optimisation des flux comptables transitant entre différentes applications via un format pivot, en s'appuyant sur Talend et les bases de données. 1. Documentation des Flux Comptables : • Analyser et documenter en détail les flux IT comptables depuis l'application métier. • Élaborer des procédures détaillées de gestion des flux. • Maintenir une documentation claire et à jour des flux et transformations. 2. Gestion des Interfaces et des Formats Pivot : • Comprendre, formaliser et documenter les formats pivots utilisés pour la transmission des flux comptables. • Décrire et cartographier les transformations de données effectuées à travers ces formats. • Décrire les adaptations à effectuer entre l'application et le format pivot • Mettre en place des processus de vérification pour garantir l'intégrité des données échangées. 3. Analyse des Flux via Talend (expertise Talend non requise) : • Documenter en détail les processus d'intégration et de transformation des données avec Talend. 4. Analyse de la Base de Données : • Analyse les requêtes SQL utilisées par Talend des données comptables. • Documenter les structures des bases de données impactées par les flux comptables. 5. Développement total ou partiel de la solution cible en .Net C#
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
264 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois