Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 268 résultats.
Mission freelance
Consultant Expert Adobe Campaign H/F
OUICODING
Publiée le
1 mois
420-900 €
Courbevoie, Île-de-France
Votre rôle sera central dans l'exécution technique des campagnes et l'évolution de la plateforme : -Développement & Data : Création de requêtes de ciblage complexes, automatisation de workflows (JS serveur/SQL) et extension de schémas de données (XML). -Intégration & Écosystème : Connexion de la plateforme aux outils tiers (CRM Salesforce, Web via API SOAP/REST) et interface avec le Data Lake (compréhension des flux ETL via Talend). -Expérience Client : Création de templates d'emails robustes (HTML/CSS responsive) et déploiement de scénarios automatisés (Panier abandonné, Welcome pack, etc.). -Gouvernance : Garantir la délivrabilité, le respect du RGPD et la gestion de la pression commerciale.
Offre d'emploi
Consultant MSBI
UCASE CONSULTING
Publiée le
ADFS
PowerBI
SQL
3 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre du renforcement de son pôle data, notre client dans le secteur de l'immobilier français, acteur majeur de la transformation urbaine bas carbone, recherche un Consultant Microsoft BI confirmé . Vous interviendrez au sein de la DSI sur des projets data stratégiques, notamment autour du MDM Marketing / RFE , avec un fort enjeu de structuration et de fiabilisation des données. Missions principales Développer et optimiser des bases de données SQL Server Concevoir et maintenir des scripts SQL / procédures stockées Développer des pipelines Azure Data Factory Participer à la mise en place des bonnes pratiques Data (CI/CD, DevOps, Data Quality) Proposer des axes d’ optimisation des performances Rédiger la documentation technique et participer aux recettes Gérer le code source ( Azure DevOps / Git ) Préparer les mises en production et les livrables ass Environnement technique : Base de données : SQL Server ETL / Data : Azure Data Factory DevOps : Azure DevOps, CI/CD Versionning : Git / TFS
Mission freelance
Data Engineer (Bordeaux) H/F
LeHibou
Publiée le
Azure Synapse
6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Engineer H/F Description de la mission: Offre de mission – Data Engineer Contexte et objectif de la mission Notre client est composé de plusieurs filiales et structures de services partagés (IT, RH, juridique, finance, marketing). Le groupe est engagé dans une transformation digitale avec des enjeux autour de la gouvernance de la donnée, de l'harmonisation des systèmes d'information entre filiales et de la structuration d'une plateforme data moderne. La DSI pilote un programme de refonte de l'infrastructure data et souhaite renforcer son équipe avec un Data Engineer expérimenté capable de construire et maintenir des pipelines robustes, de structurer les flux de données entre les différentes entités du groupe et d'alimenter les outils de restitution. Missions principales Le/la consultant(e) interviendra au sein de l'équipe Data pour : • Concevoir, développer et maintenir des pipelines de données (ingestion, transformation, chargement) • Administrer et exploiter Azure Synapse Analytics comme socle de la plateforme data • Modéliser les données (modélisation dimensionnelle, data warehouse, data lakehouse) • Écrire et optimiser des requêtes SQL complexes sur les bases du groupe • Développer des scripts et orchestrateurs en Python pour l'automatisation des flux • Connecter les sources de données à Power BI et garantir la qualité des données exposées aux analystes • Contribuer à l'harmonisation des données entre les filiales du groupe • Participer à la gouvernance de la donnée (documentation, qualité, traçabilité) Stack technique Compétences obligatoires : • Azure Synapse Analytics : maîtrise obligatoire • SQL : maîtrise obligatoire (requêtes complexes, optimisation) • Python : maîtrise obligatoire (ETL, orchestration, scripting) • Power BI : bonne connaissance (alimentation des modèles) Environnement complémentaire apprécié • Azure Data Factory / Azure Data Lake • Spark / PySpark • Outils de versionning (Git) • Notions de modélisation dimensionnelle Profil recherché Compétences techniques : • Expérience confirmée sur la conception et le maintien de pipelines de données en environnement cloud Azure • Solide maîtrise de SQL et des environnements analytiques (Synapse, DWH) • Bonne maîtrise de Python dans un contexte data engineering (ETL, automatisation) • Capacité à exposer des données propres et fiables vers des outils de BI • Connaissance des bonnes pratiques de qualité et gouvernance de la donnée Compétences comportementales : • Autonomie et rigueur dans les développements • Adaptabilité dans un environnement multi-filiales en transformation • Sens du détail et souci de la qualité de la donnée • Bonnes capacités relationnelles pour collaborer avec les équipes métiers et IT • Dynamisme et réactivité face aux priorités Atout majeur • Certification Microsoft Azure (DP-203 Data Engineer ou équivalent) appréciée
Offre d'emploi
CONSULTANT DATA H/F
PROMAN EXPERTISE
Publiée le
Microsoft Power BI
37k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Vos missions ? Rattaché(e) au Responsable SI, vous contribuez à la mise en place, la fiabilité et l’évolution des données utilisées par l’entreprise et ses services internes. Vous serez notamment chargé(e) de : - Gestion et exploitation de la donnée o Mettre en œuvre la collecte, le stockage et l’exposition de données de différentes natures. o Développer et administrer la base de données centrale (SQL). o Maintenir et faire évoluer les indicateurs existants. - Outils et automatisation o Gérer des flux de données et ETL (Microsoft SSIS). o Concevoir des outils digitaux pour dématérialiser des tâches métiers (low‑code). o Développer ou participer à la création de solutions facilitant le traitement et le partage de l’information. - Sécurité & documentation o Garantir le respect des règles de sécurité informatique définies par le service SI. o Rédiger des modes opératoires, documentations techniques et rapports. o Assurer un reporting clair de vos actions auprès de votre hiérarchie. Environnement technique : Suite Microsoft Power BI/Automate/Apps, SSIS, SQL
Offre d'emploi
Expert Data & Cloud Azure (H/F)
Amiltone
Publiée le
Azure
Cloud
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Offre d'emploi
Expert MSBI - Toulouse (H/F)
STORM GROUP
Publiée le
Cognos
IBM DataStage
Informatica
3 ans
45k €
350 €
Toulouse, Occitanie
• Le Pilotage et l’organisation des phases de migration de données (coordonner les travaux de migration) • L’étude des modèles de données source et destination • L’élaboration des fichiers de mapping (source / destination). Ainsi que les différents fichiers de spécification • La stratégie de migration (ETL) • La validation des scripts d'extraction et transformation. • La prise en charge du plan de réversibilité des données. • Conception et réalisation de modèles de données et cubes SSAS • Conception Dashboard PowerBI (en proximité avec les métiers) et réalisation (mode import, direct query, live query) • Développement de dashboards TABLEAU, gestion des bases de données type SQL, gestion des ETLs type Informatica Cloud, récupération ou le plug de données SalesForce Livrables Exemples de livrables : • Dossiers d'analyse/cadrage + chiffrages • Dossiers de conception fonctionnelle et technique • Développements • Tests unitaires, et d'intégration & Cahiers de recette • Documentations des développements, de l'application, procédures d'exploitation ou d'utilisation... • Supports des instances de suivi • Rapports ou tableaux de bord, composés d’indicateurs, sous forme de graphiques
Mission freelance
Dev ActivePivot/Atoti - Finance
AVALIANCE
Publiée le
ActivePivot
Finance
SingleStore
3 ans
400-700 €
Charenton-le-Pont, Île-de-France
Département Pre Trade Sales. Vous rejoignez l'équipe IT dédiée aux indicateurs de trading qui est composée de plusieurs experts passionnés. Dans cette équipe, nous travaillons à l’implémentation de solutions innovantes pour la visualisation des données et le suivi en temps réel des indicateurs de risques de marchés et de P&L pour les desks de dérivés de Taux (short & long term, options). Un à deux profils > Dev ActivePivot/Atoti avec de la finance de marché. Au quotidien, vous avez pour missions de : Accompagner les Business Analysts, les développeurs Java Front End et ETL Back End dans la construction de ce nouveau Framework; Collaborer avec le Product Owner métier pour concevoir les expressions de besoins ; Designer des dashboards opérationnels et analytiques pour assister le trading dans la prise de décision ; Assurer la conduite du projet avec le manager de l’équipe pour garantir un delivery régulier ; Participer à l'élaboration de la documentation liée au projet. La stack technique utilisée est la suivante : Atoti (ex ActivePivot - éditeur Activiam); bases de données relationnelles (Sybase, SingleStore, Oracle); Cube OLAP, MDX, SQL.
Mission freelance
BI analyst & developer
Gentis Recruitment SAS
Publiée le
Microstrategy
Oracle
PL/SQL
3 mois
450-550 €
Luxembourg
La mission s’inscrit dans un environnement bancaire exigeant, autour de : La gestion et la production de données réglementaires Des projets d’ analytique et de statistique pour une application plateforme Un contexte structuré avec des enjeux de qualité, conformité et fiabilité des données L’équipe est soudée et collaborative, majoritairement francophone. Responsabilités principales Développement et optimisation de requêtes PL/SQL Développement et maintenance de flux Talend Création et maintenance de rapports sous MicroStrategy Participation aux projets analytiques et réglementaires Contribution à l’amélioration continue des processus data Force de proposition sur l’optimisation et les nouvelles solutions data (Data Lake, nouvelles architectures…)
Offre d'emploi
Consultant DATASPHERE
Craftman data
Publiée le
Microsoft Power BI
SAP
SAP BW
6 mois
Paris, France
Contexte & mission : Dans le cadre de ses projets data, Renault recherche un Consultant SAP Datasphere pour concevoir, intégrer et gouverner les données d’entreprise afin de fournir des données fiables et exploitables pour le pilotage métier. 🚀 Responsabilités principales Recueil des besoins métiers (finance, supply, production…) Définition des KPI et rédaction des spécifications Conception de l’architecture data (Data Fabric / Data Mesh / DWH) Modélisation et structuration des données dans Datasphere Mise en place des flux (Data Flows, Replication Flows) Construction du modèle sémantique (mesures, dimensions…) Gouvernance, sécurité et gestion des accès Support et accompagnement des utilisateurs (SAC, Power BI…) Optimisation des performances et maintenance 🛠️ Compétences requises SAP Datasphere (Spaces, Data Builder, Business Builder) Data Flows / Replication Flows SQL & modélisation dimensionnelle (Star Schema, Snowflake) Écosystème SAP : S/4HANA, BW/BW4HANA, BTP ETL / ELT & intégration multi-sources Outils BI : SAP Analytics Cloud, Power BI ou Tableau 👤 Profil Consultant Datasphere +4 ans d’expérience Bonne compréhension des processus métiers Capacité à traduire les besoins en modèles data Autonomie, rigueur et bon relationnel
Mission freelance
Un Développeur Senior Python à Paris
Almatek
Publiée le
Python
3 mois
340-370 €
Paris, France
Almatek recherche pour l'un de ses clients, Un Développeur Senior Python à Paris Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Mission freelance
POT9036 - Un Data ingénieur sur Massy
Almatek
Publiée le
SQL
6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
Offre d'emploi
Data Engineer Semarchy XDI - Nantes (F/H)
Argain Consulting Innovation
Publiée le
Informatica
Semarchy
Talend
35k-40k €
Nantes, Pays de la Loire
Attention : cette opportunité n'est pas ouverte aux Freelances Nous recherchons un/e Data Engineer pour renforcer des équipes de Data Factory. Les activités à couvrir : · Compréhension de l’activité et des besoins de vos clients, en dialogue avec la MOA · Compréhension du SI de production, en dialogue avec les équipes MOE · Modélisation du Système d’Information Décisionnel · Conception et réalisation des traitements d’alimentation des datamarts · Diagnostic des dysfonctionnements rencontrés · Maintenances correctives et évolutives · Support auprès des différents métiers · Documentation technique · Suivi des traitements Pas d’activité de reporting (Business Object ou autre outil BI). Uniquement de l’alimentation de datamarts via un ELT Les compétences recherchées : Maitrise d’un ELT du type SEMARCHY XDi ou type Talend / Informatica Connaissance d’une base de données orientée Analytique (ex : HP VERTICA) Appétence à manipuler de gros volumes de données Bonne connaissance du langage SQL Des compétences sur un outil de modélisation (ex : Power Designer) et un outil de qualification (ex : QCHP) seraient un plus
Offre d'emploi
Ingenieur Senior Mulesoft/Talend
Halian
Publiée le
MuleSoft
Salesforce Commerce Cloud
Talend
5 ans
Paris, France
Mission Dans le cadre du développement de nos activités d’intégration, vous interviendrez au sein des équipes métiers et IT pour concevoir, développer et maintenir des solutions d’intégration robustes, évolutives et alignées avec les bonnes pratiques d’architecture moderne (API-led, microservices, intégrations synchrones / asynchrones). Responsabilités Analyse & Conception Analyser les besoins fonctionnels et techniques en collaboration avec les équipes métiers et informatiques. Concevoir le design des API et des flux d’intégration (contrats, modèles de données, versioning). Rédiger et maintenir les spécifications d’API (RAML / OpenAPI). Développement & Déploiement Développer, déployer et maintenir les API et solutions d’intégration, notamment sur MuleSoft ou Talend . Mettre en œuvre les bonnes pratiques d’intégration : sécurité, performance, gestion des erreurs, gouvernance. Implémenter et promouvoir les patterns d’architecture d’intégration : API-led, microservices, synchrones / asynchrones. CI/CD & Qualité Contribuer à la mise en place et à l’amélioration des pratiques CI/CD , de l’automatisation et du monitoring. Participer à l’évolution des standards internes et des frameworks d’intégration. Collaboration & Expertise Participer à des ateliers techniques autour de l’intégration et des API. Agir en référent technique sur votre périmètre et accompagner la montée en compétences des équipes internes. Profil Recherché Maîtrise des concepts d’intégration et des outils ESB/iPaaS (MuleSoft, Talend…). Solide compréhension des architectures API, REST, microservices. Connaissance des standards RAML / OpenAPI. Expérience avec les pratiques DevOps : CI/CD, pipelines, automatisation, monitoring. Capacité à travailler en équipe, sens du service, goût pour la transmission et le partage de connaissances.
Offre d'emploi
Responsable RUN/Data
OBJECTWARE
Publiée le
Master Data Management (MDM)
3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
Mission freelance
Team Leader Data Engineering (H/F)
AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management
6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois