Find your next tech and IT Job or contract Azure Data Factory

Contractor job
Data Engineer - Azure
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Contractor job
Ingénieur senior cloud et DevOps
Responsabilités clés d'un ingénieur senior cloud et DevOps : Intégrer le Centre d'Excellence Cloud (CCoE) pour gérer et optimiser la plateforme cloud du SPF Affaires étrangères. Concevoir, déployer et maintenir des solutions cloud conformes aux besoins métiers et techniques. S'assurer que les déploiements respectent le principe d' Infrastructure as Code (IaC) à l'aide d'outils comme Terraform, ARM Templates ou Bicep, pour automatiser, garantir la cohérence et assurer la traçabilité. Documenter les actions dans Azure Wiki et réaliser des diagrammes dans MS Visio pour faciliter la collaboration. Mentorer et accompagner les collègues (développeurs, ingénieurs) en fournissant conseils, bonnes pratiques et recommandations pour la performance et la sécurité. Faciliter la communication entre les équipes produit, sécurité, architecture et opérations, en intégrant le développement, les tests et l'exploitation via des frameworks CI/CD. Partager ses connaissances par des sessions de transfert, ateliers ou formations pour renforcer l'expertise collective et pérenniser les bonnes pratiques.

Job Vacancy
Développeur MSBI Senior – Asset Management
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Développeur MSBI confirmé pour participer à la mise en œuvre de solutions décisionnelles autour des outils Microsoft BI et de la plateforme Azure. Tâches et responsabilités Participation au cadrage technique des solutions à implémenter Développement des User Stories (US) en coordination avec les équipes projet Contribution aux phases de recette fonctionnelle , UAT et mise en production Prise en charge de la maintenance évolutive et corrective Rédaction de la documentation technique Participation à l’ amélioration continue du modèle de développement Veille au respect des standards de qualité et de développement Stack technique attendue Microsoft SQL Server 2019/2022 : SSIS (Intégration Services) SSRS (Reporting Services) Solides compétences SQL et base de données relationnelles Azure Data Factory (expérience significative attendue) Azure DevOps : bonne maîtrise souhaitée Connaissances appréciées : Python , notamment avec la librairie Pandas

Contractor job
Data Engineer
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Contractor job
Data Engineer azure (SQL / ADF /Power BI)
Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Job Vacancy
Data engineer BI (H/F)
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'ingénieur BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Silae (Gestion des droits, etc.) Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure.
Contractor job
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.

Job Vacancy
Développeur INFORMATICA & DBT
Bonjour à toutes et à tous 😊 Je recherche un développeur orienté Informatica & DBT pour l'un de nos clients dans le cadre d'un démarrage ASAP. 🎯 Contexte de la mission Dans le cadre d’un projet stratégique de transformation et de migration de données vers un environnement moderne, nous recherchons un Expert Data Migration / Développeur ETL Senior pour rejoindre notre équipe Data. Vous interviendrez sur des projets à forte valeur ajoutée, en collaboration avec des équipes métiers et techniques dans un contexte Agile (SAFe). 🧭 Missions principales Concevoir et développer des flux ETL complexes dans le cadre de projets de migration de données. Participer activement aux phases de cadrage, conception et modélisation des bases de données cibles. Réaliser les développements sous DBT et Informatica , en garantissant la qualité, la performance et la maintenabilité des livrables. Écrire et optimiser des requêtes en SQL et T-SQL pour l’intégration, la transformation et le contrôle des données. Collaborer étroitement avec les équipes Data Engineering, Architecture et Métier dans un environnement Azure (Data Factory, Blob Storage, etc.). Participer aux cérémonies Agiles (SAFe) et contribuer à la planification, aux revues et aux démonstrations. Documenter les développements et transférer la connaissance aux autres membres de l’équipe. Pré-requis : Plus de 10 ans d'expérience dont 5 ans dans le domaine requis Maîtrise des développements en DBT et Informatica dans un environnement de migration Maîtrise des développements en langage SQL et T-SQL Maîtrise des bases de données et de la modélisation Ayant déjà travaillé en méthodologie SAFE (Agile) et cycle en V Bonne connaisse de l’éco-système cloud Azure (Data factory, Blob) Bonne connaisse de Tableau (si possible)

Job Vacancy
Data Engineer Databricks (F/H)
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).

Contractor job
Ingénieur Data - BI & ETL
CONTEXTE : Experience : 4 ans et plus Métiers Fonctions : Data Management, Ingenieur data Spécialités technologiques : BI Vous intégrerez l’équipe BI Entreprise afin de répondre aux nouveaux besoins des métiers (Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux). Votre rôle sera central dans l’évolution de notre architecture décisionnelle et dans la modernisation de nos flux de données, avec un accent particulier sur la migration des packages SSIS vers Azure Data Factory (ADF) et le développement de pipelines cloud. MISSIONS Assurer la migration des traitements SSIS existants vers Azure Data Factory, en garantissant performance, robustesse et conformité. Concevoir et développer des pipelines ADF complets, depuis la collecte des données jusqu’à leur intégration dans l’entrepôt (SQL Managed Instance / Snowflake). Créer et maintenir des Data Flows ADF (nettoyage, enrichissement, transformation). Mettre en place et gérer des triggers conditionnels permettant d’orchestrer des traitements complexes. Participer à l’optimisation des coûts et des performances des modèles BI (Power BI, modèles sémantiques, DAX). Documenter les développements et assurer la MCO (Maintien en Condition Opérationnelle) de l’existant. Expertise souhaitée Diplômé(e) d’un Master 2 ou d’une école d’ingénieur en décisionnel, vous justifiez d’une expérience significative en ingénierie de données et êtes à l’aise dans un environnement mixte on-premise et cloud Azure. Vous savez combiner expertise technique, autonomie et relationnel métier. BI & ETL : maîtrise de SSIS, SQL Server (2017+), expérience confirmée en migration de packages SSIS vers ADF. Azure Data Factory : - Développement de pipelines de bout en bout - Conception de Data Flows complexes - Gestion de triggers conditionnels et orchestrations Cloud & Bases de données : SQL Managed Instance, Snowflake (migration, intégration).

Job Vacancy
Développeur Data (Bordeaux)
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Contractor job
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience
Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.
Contractor job
Data Engineer / Analytics Engineer Microsoft Fabric
Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :
Job Vacancy
Consultant(e) Ivalua (H/F)
Galula Consulting est une ESN en pleine croissance qui propose du conseil et de l’expertise aux entreprises sur les ERP Oracle E-business-suite , Oracle ERP Cloud et SAP . Dans le cadre du renforcement de notre pôle ERP & Achats, nous recherchons un(e) Consultant(e) Fonctionnel(le) expérimenté(e) sur Oracle E-Business Suite (EBS) et Ivalua , capable d’accompagner nos clients dans la transformation et l’optimisation de leurs processus métiers. 🛠️ Missions Le/la candidat(e) retenu(e) sera responsable : Du bon fonctionnement, de la maintenance technique et fonctionnelle et des évolutions futures des applications Finance qui lui seront confiées : Ivalua (modules SRM, S2C et P2P) – expertise obligatoire, le RUN démarre début 2026. Oracle OeBS R12 – intégration d’Ivalua et d’autres produits avec l’ERP Groupe. Applications additionnelles : Generix (module facturation, démarrage en Belgique début 2026), SideTrade (Cash et modules optionnels, déploiement dans plus de 10 pays), Azure Data Factory (middleware). De l’administration des outils : validation des processus de RUN, validation des procédures projets. D’assurer l’alignement entre IT et métiers Finance, au niveau mondial. Du suivi de la conformité (architecture, sécurité, audit, RGPD, politique interne). Du pilotage et suivi des prestataires externes (qualité et conformité des livrables).

Job Vacancy
Tech Lead Databricks
Ingénieur Data Confirmé – Databricks / Hadoop / Scala / Kafka (secteur Énergie) 📍 La Défense (92) | 🏠 10 jours de télétravail / mois | 🗓️ Démarrage : novembre 2025 | ⏱️ Mission longue durée Contexte Dans le cadre du renforcement d’un pôle Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Data confirmé pour accompagner la migration d’une plateforme Hadoop open source vers Databricks et Snowflake . Le projet est en pleine expansion, avec une montée en charge prévue jusqu’à 7 collaborateurs. Vos missions Participer à la migration des traitements Hadoop/Scala vers Databricks et Snowflake Concevoir et industrialiser des pipelines data performants et maintenables Optimiser les traitements Spark (Scala/PySpark) Mettre en œuvre des bonnes pratiques DataOps / CI-CD Accompagner la montée en compétence des équipes internes Environnement technique Hadoop (HDFS, Yarn, Hive), Spark, Scala, Kafka, Databricks, Snowflake, Azure Data Factory, Terraform, dbt Profil recherché Solide expérience sur Hadoop full open source, Spark et Scala Bonne maîtrise de Kafka pour les traitements en streaming Expérience sur Databricks et/ou Snowflake Connaissance d’un environnement cloud (idéalement Azure) Autonomie, rigueur, esprit d’équipe et force de proposition Informations pratiques Localisation : La Défense (2 jours sur site / semaine) Télétravail : 10 jours par mois Démarrage : début novembre 2025 Durée : mission longue, renouvelable

Contractor job
Business Analyst Administrateur Ivalua (H/F)
Nous recherchons pour l'un de nos clients un Business Analyst Administrateur Ivalua (H/F) Description du poste Le ou la candidat(e) retenu(e) sera responsable de la bonne gestion des services, de la maintenance technique et fonctionnelle, ainsi que des évolutions futures des applications et produits Finance qui lui seront confiés, notamment : Ivalua , et plus particulièrement les modules SRM, S2C et P2P. Le déploiement des premiers pays et fonctionnalités débutera au tout début de l’année 2026. Une expertise sur cette solution est indispensable afin d’assurer la gestion opérationnelle et l’administration de la plateforme. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres applications seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12. Une connaissance des solutions suivantes constituerait un atout : Generix, notamment le module Generix Invoices Service, SideTrade et Azure Data Factory (ADF), utilisés comme middleware pour interconnecter certaines applications avec l’ERP du Groupe. Le ou la titulaire du poste devra assurer l’administration de l’ensemble de ces outils, couvrant un périmètre fonctionnel élargi, incluant : la validation des processus de run mis en place, et la validation des procédures préparées dans le cadre des projets.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country