Find your next tech and IT Job or contract Azure Data Factory

Your search returns 61 results.
Contractor

Contractor job
Data Engineer - Azure

VISIAN
Published on
Architecture
Azure
Azure Data Factory

1 year
400-570 €
Ile-de-France, France

Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.

Contractor

Contractor job
Ingénieur senior cloud et DevOps

Codezys
Published on
Ansible
Azure
Azure Data Factory

6 months
450-600 €
Brussels, Brussels-Capital, Belgium

Responsabilités clés d'un ingénieur senior cloud et DevOps : Intégrer le Centre d'Excellence Cloud (CCoE) pour gérer et optimiser la plateforme cloud du SPF Affaires étrangères. Concevoir, déployer et maintenir des solutions cloud conformes aux besoins métiers et techniques. S'assurer que les déploiements respectent le principe d' Infrastructure as Code (IaC) à l'aide d'outils comme Terraform, ARM Templates ou Bicep, pour automatiser, garantir la cohérence et assurer la traçabilité. Documenter les actions dans Azure Wiki et réaliser des diagrammes dans MS Visio pour faciliter la collaboration. Mentorer et accompagner les collègues (développeurs, ingénieurs) en fournissant conseils, bonnes pratiques et recommandations pour la performance et la sécurité. Faciliter la communication entre les équipes produit, sécurité, architecture et opérations, en intégrant le développement, les tests et l'exploitation via des frameworks CI/CD. Partager ses connaissances par des sessions de transfert, ateliers ou formations pour renforcer l'expertise collective et pérenniser les bonnes pratiques.

Permanent
Contractor

Job Vacancy
Développeur MSBI Senior – Asset Management

HIGHTEAM
Published on
Azure Data Factory
Microsoft SSIS
MSBI

3 years
40k-55k €
400-550 €
Ile-de-France, France

Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Développeur MSBI confirmé pour participer à la mise en œuvre de solutions décisionnelles autour des outils Microsoft BI et de la plateforme Azure. Tâches et responsabilités Participation au cadrage technique des solutions à implémenter Développement des User Stories (US) en coordination avec les équipes projet Contribution aux phases de recette fonctionnelle , UAT et mise en production Prise en charge de la maintenance évolutive et corrective Rédaction de la documentation technique Participation à l’ amélioration continue du modèle de développement Veille au respect des standards de qualité et de développement Stack technique attendue Microsoft SQL Server 2019/2022 : SSIS (Intégration Services) SSRS (Reporting Services) Solides compétences SQL et base de données relationnelles Azure Data Factory (expérience significative attendue) Azure DevOps : bonne maîtrise souhaitée Connaissances appréciées : Python , notamment avec la librairie Pandas

Contractor

Contractor job
Data Engineer

Gentis Recruitment SAS
Published on
Azure
Databricks
PySpark

6 months
Paris, France

Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery

Contractor

Contractor job
Data Engineer azure (SQL / ADF /Power BI)

adbi
Published on
Azure Data Factory
Azure DevOps
CI/CD

10 months
Ile-de-France, France

Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Permanent

Job Vacancy
Data engineer BI (H/F)

Amiltone
Published on
BI

35k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'ingénieur BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Silae (Gestion des droits, etc.) Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure.

Contractor

Contractor job
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)

Atlas Connect
Published on
Azure Data Factory
Azure DevOps
BI

12 months
500-560 €
Ile-de-France, France

Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.

Permanent
Contractor

Job Vacancy
Développeur INFORMATICA & DBT

UCASE CONSULTING
Published on
Agile Method
Safe

3 years
42k-92k €
470-970 €
Ile-de-France, France

Bonjour à toutes et à tous 😊 Je recherche un développeur orienté Informatica & DBT pour l'un de nos clients dans le cadre d'un démarrage ASAP. 🎯 Contexte de la mission Dans le cadre d’un projet stratégique de transformation et de migration de données vers un environnement moderne, nous recherchons un Expert Data Migration / Développeur ETL Senior pour rejoindre notre équipe Data. Vous interviendrez sur des projets à forte valeur ajoutée, en collaboration avec des équipes métiers et techniques dans un contexte Agile (SAFe). 🧭 Missions principales Concevoir et développer des flux ETL complexes dans le cadre de projets de migration de données. Participer activement aux phases de cadrage, conception et modélisation des bases de données cibles. Réaliser les développements sous DBT et Informatica , en garantissant la qualité, la performance et la maintenabilité des livrables. Écrire et optimiser des requêtes en SQL et T-SQL pour l’intégration, la transformation et le contrôle des données. Collaborer étroitement avec les équipes Data Engineering, Architecture et Métier dans un environnement Azure (Data Factory, Blob Storage, etc.). Participer aux cérémonies Agiles (SAFe) et contribuer à la planification, aux revues et aux démonstrations. Documenter les développements et transférer la connaissance aux autres membres de l’équipe. Pré-requis : Plus de 10 ans d'expérience dont 5 ans dans le domaine requis Maîtrise des développements en DBT et Informatica dans un environnement de migration Maîtrise des développements en langage SQL et T-SQL Maîtrise des bases de données et de la modélisation Ayant déjà travaillé en méthodologie SAFE (Agile) et cycle en V Bonne connaisse de l’éco-système cloud Azure (Data factory, Blob) Bonne connaisse de Tableau (si possible)

Permanent

Job Vacancy
Data Engineer Databricks (F/H)

Quick Source
Published on
Databricks

50k-65k €
Saint-Denis, Ile-de-France

Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).

Contractor

Contractor job
Ingénieur Data - BI & ETL

KEONI CONSULTING
Published on
MySQL

18 months
100-400 €
Nantes, Pays de la Loire

CONTEXTE : Experience : 4 ans et plus Métiers Fonctions : Data Management, Ingenieur data Spécialités technologiques : BI Vous intégrerez l’équipe BI Entreprise afin de répondre aux nouveaux besoins des métiers (Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux). Votre rôle sera central dans l’évolution de notre architecture décisionnelle et dans la modernisation de nos flux de données, avec un accent particulier sur la migration des packages SSIS vers Azure Data Factory (ADF) et le développement de pipelines cloud. MISSIONS Assurer la migration des traitements SSIS existants vers Azure Data Factory, en garantissant performance, robustesse et conformité. Concevoir et développer des pipelines ADF complets, depuis la collecte des données jusqu’à leur intégration dans l’entrepôt (SQL Managed Instance / Snowflake). Créer et maintenir des Data Flows ADF (nettoyage, enrichissement, transformation). Mettre en place et gérer des triggers conditionnels permettant d’orchestrer des traitements complexes. Participer à l’optimisation des coûts et des performances des modèles BI (Power BI, modèles sémantiques, DAX). Documenter les développements et assurer la MCO (Maintien en Condition Opérationnelle) de l’existant. Expertise souhaitée Diplômé(e) d’un Master 2 ou d’une école d’ingénieur en décisionnel, vous justifiez d’une expérience significative en ingénierie de données et êtes à l’aise dans un environnement mixte on-premise et cloud Azure. Vous savez combiner expertise technique, autonomie et relationnel métier. BI & ETL : maîtrise de SSIS, SQL Server (2017+), expérience confirmée en migration de packages SSIS vers ADF. Azure Data Factory : - Développement de pipelines de bout en bout - Conception de Data Flows complexes - Gestion de triggers conditionnels et orchestrations Cloud & Bases de données : SQL Managed Instance, Snowflake (migration, intégration).

Contractor
Permanent

Job Vacancy
Développeur Data (Bordeaux)

CAT-AMANIA
Published on
Apache Kafka
DBT
Microsoft Power BI

3 months
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine

En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place

Contractor

Contractor job
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience

Octopus Group
Published on
CI/CD
Databricks
Python

6 months
480-580 €
Belgium

Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.

Contractor

Contractor job
Data Engineer / Analytics Engineer Microsoft Fabric

Hubflow
Published on
Microsoft Fabric

6 months
450-560 €
Paris, France

Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :

Contractor
Permanent

Job Vacancy
Consultant(e) Ivalua (H/F)

GALULA CONSULTING
Published on
Ivalua
Oracle forms
Oracle SQL Developer

1 year
45k-55k €
450-600 €
Ile-de-France, France

Galula Consulting est une ESN en pleine croissance qui propose du conseil et de l’expertise aux entreprises sur les ERP Oracle E-business-suite , Oracle ERP Cloud et SAP . Dans le cadre du renforcement de notre pôle ERP & Achats, nous recherchons un(e) Consultant(e) Fonctionnel(le) expérimenté(e) sur Oracle E-Business Suite (EBS) et Ivalua , capable d’accompagner nos clients dans la transformation et l’optimisation de leurs processus métiers. 🛠️ Missions Le/la candidat(e) retenu(e) sera responsable : Du bon fonctionnement, de la maintenance technique et fonctionnelle et des évolutions futures des applications Finance qui lui seront confiées : Ivalua (modules SRM, S2C et P2P) – expertise obligatoire, le RUN démarre début 2026. Oracle OeBS R12 – intégration d’Ivalua et d’autres produits avec l’ERP Groupe. Applications additionnelles : Generix (module facturation, démarrage en Belgique début 2026), SideTrade (Cash et modules optionnels, déploiement dans plus de 10 pays), Azure Data Factory (middleware). De l’administration des outils : validation des processus de RUN, validation des procédures projets. D’assurer l’alignement entre IT et métiers Finance, au niveau mondial. Du suivi de la conformité (architecture, sécurité, audit, RGPD, politique interne). Du pilotage et suivi des prestataires externes (qualité et conformité des livrables).

Contractor
Permanent

Job Vacancy
Tech Lead Databricks

1G-LINK CONSULTING
Published on
Databricks
Snowflake

2 years
La Défense, Ile-de-France

Ingénieur Data Confirmé – Databricks / Hadoop / Scala / Kafka (secteur Énergie) 📍 La Défense (92) | 🏠 10 jours de télétravail / mois | 🗓️ Démarrage : novembre 2025 | ⏱️ Mission longue durée Contexte Dans le cadre du renforcement d’un pôle Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Data confirmé pour accompagner la migration d’une plateforme Hadoop open source vers Databricks et Snowflake . Le projet est en pleine expansion, avec une montée en charge prévue jusqu’à 7 collaborateurs. Vos missions Participer à la migration des traitements Hadoop/Scala vers Databricks et Snowflake Concevoir et industrialiser des pipelines data performants et maintenables Optimiser les traitements Spark (Scala/PySpark) Mettre en œuvre des bonnes pratiques DataOps / CI-CD Accompagner la montée en compétence des équipes internes Environnement technique Hadoop (HDFS, Yarn, Hive), Spark, Scala, Kafka, Databricks, Snowflake, Azure Data Factory, Terraform, dbt Profil recherché Solide expérience sur Hadoop full open source, Spark et Scala Bonne maîtrise de Kafka pour les traitements en streaming Expérience sur Databricks et/ou Snowflake Connaissance d’un environnement cloud (idéalement Azure) Autonomie, rigueur, esprit d’équipe et force de proposition Informations pratiques Localisation : La Défense (2 jours sur site / semaine) Télétravail : 10 jours par mois Démarrage : début novembre 2025 Durée : mission longue, renouvelable

Contractor

Contractor job
Business Analyst Administrateur Ivalua (H/F)

PREREQUIS
Published on
Ivalua
Oracle

1 year
Paris, France

Nous recherchons pour l'un de nos clients un Business Analyst Administrateur Ivalua (H/F) Description du poste Le ou la candidat(e) retenu(e) sera responsable de la bonne gestion des services, de la maintenance technique et fonctionnelle, ainsi que des évolutions futures des applications et produits Finance qui lui seront confiés, notamment : Ivalua , et plus particulièrement les modules SRM, S2C et P2P. Le déploiement des premiers pays et fonctionnalités débutera au tout début de l’année 2026. Une expertise sur cette solution est indispensable afin d’assurer la gestion opérationnelle et l’administration de la plateforme. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres applications seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12. Une connaissance des solutions suivantes constituerait un atout : Generix, notamment le module Generix Invoices Service, SideTrade et Azure Data Factory (ADF), utilisés comme middleware pour interconnecter certaines applications avec l’ERP du Groupe. Le ou la titulaire du poste devra assurer l’administration de l’ensemble de ces outils, couvrant un périmètre fonctionnel élargi, incluant : la validation des processus de run mis en place, et la validation des procédures préparées dans le cadre des projets.

61 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us