Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory

Offre d'emploi
Data Engineer Azure / Python
Le rôle consiste à piloter des projets d’intégration temps réel et de data (big data & insights) , en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées , d’apporter une expertise sur les architectures Cloud , de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d’optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données .

Offre d'emploi
Chef(fe) de projet modelisation data
Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.

Mission freelance
Expert Data Azure – Azure Data Factory / Finance
Pour l’un de nos clients grand compte dans le secteur de la Finance , nous recherchons un Expert Data Azure , spécialisé dans Azure Data Factory , afin de renforcer l’équipe Data & Analytics . Conception, développement et optimisation des flux de données sur la plateforme Azure : Injection , stockage , traitement , analyse Outils : ADF , Azure Synapse , Data Lake , SQL Data base , Analysais Services Challenger l'existant pour faire évoluer le Data Hub interne , dans une logique de migration progressive vers la solution cible Garantir la qualité des données , le time to market et la facilité d’intégration (SQL, API, Cube OLAP…) Être force de proposition sur les outils, modèles de données et processus à mettre en place Participer à la mise en œuvre de tests automatisés et proposer des approches d’ analyse avancée des données via l’ IA Collaborer avec les équipes IT, Data, Business Analystes , dans un environnement Agile à l’échelle

Offre d'emploi
Ingénieur Data Senior - Azure
Ingénieur Data Senior – Azure | Spark | Microsoft Fabric Localisation : Paris (hybride) Nous sommes un partenaire de référence de Microsoft , spécialisé dans la mise en œuvre de solutions cloud et data pour des clients grands comptes en Europe. Grâce à notre expertise approfondie de l’écosystème Microsoft, nous accompagnons nos clients dans leur transformation digitale, en concevant des plateformes de données modernes, scalables et sécurisées. Dans le cadre de notre développement, nous recherchons un(e) Ingénieur(e) Data Senior expérimenté(e) sur Apache Spark, Azure Synapse Analytics, Databricks et Microsoft Fabric. Ce rôle technique et orienté client vous amènera à piloter la conception et la mise en œuvre de solutions data de bout en bout dans un environnement cloud Azure. Vos missions Concevoir et développer des plateformes data modernes sur le cloud Azure, avec Databricks, Synapse et Microsoft Fabric. Développer des pipelines de données performants et scalables avec Apache Spark (PySpark, SQL ou Scala). Mettre en œuvre des processus d’ingestion de données structurées, semi-structurées et non structurées. Définir des modèles de données robustes et des logiques de transformation pour les cas d’usage analytiques. Orchestrer les flux de données via Azure Data Factory ou Microsoft Fabric Pipelines. Garantir la qualité, la gouvernance, la sécurité et la traçabilité des données via les services natifs d’Azure. Collaborer avec les architectes, les analystes et les parties prenantes pour aligner les solutions techniques sur les enjeux métiers. Encadrer des profils plus juniors et participer activement au partage de connaissances internes. Contribuer aux avant-ventes, aux réponses à appels d’offres et aux ateliers clients. Assurer une veille constante sur les nouvelles technologies du domaine data & cloud. Compétences techniques requises Maîtrise avancée d’Apache Spark (idéalement PySpark) et optimisation de performances. Expérience pratique sur Microsoft Fabric (Lakehouse, Pipelines, Notebooks...). Expertise sur Databricks (workflows de développement, Delta Lake, Unity Catalog…). Compétence en orchestration avec Azure Data Factory et/ou Fabric Data Pipelines. Bonne connaissance des architectures Lakehouse, modélisation dimensionnelle, et bonnes pratiques ELT/ETL. Connaissance des pratiques DevOps dans Azure (CI/CD, Azure DevOps). Compréhension des enjeux de gouvernance des données, sécurité et gestion des accès (RBAC) dans Azure. Atouts supplémentaires Expérience préalable dans un cabinet de conseil ou un environnement de services professionnels. Maîtrise de Power BI, notamment dans un contexte Microsoft Fabric. Familiarité avec les outils d’Infrastructure as Code (Bicep, Terraform). Connaissances des technologies temps réel : Azure Event Hub, Stream Analytics ou équivalents. Expérience de collaboration avec des équipes Data Science ou sur des pipelines de Machine Learning. Profil recherché Excellente communication, à l’aise pour vulgariser des concepts techniques auprès d’un public non technique. Approche orientée conseil, avec une capacité à identifier les besoins métiers et proposer des solutions data sur mesure. Esprit d’équipe, proactivité, rigueur et autonomie. Expérience en environnement agile ou orienté livraison. Maîtrise du français et de l’anglais (à l’écrit comme à l’oral).

Offre d'emploi
Chef(fe) de projet modelisation data
Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.
Mission freelance
Tech Lead Data Databricks / Azure
Nous recherchons un Tech Lead Data expérimenté pour piloter l’architecture, la conception et la gouvernance d’une Data Platform moderne construite sur Azure et Databricks . Environnement exigeant et stimulant, avec des projets stratégiques autour du traitement de données à grande échelle, de la qualité et de l’industrialisation. ✅ Piloter les choix techniques autour de Databricks & Azure Data Services ✅ Encadrer les équipes de Data Engineers (code review, support, best practices) ✅ Industrialiser les pipelines (CI/CD, monitoring, sécurité, catalogues) ✅ Accompagner la mise en œuvre du Unity Catalog ✅ Assurer la scalabilité et la performance des traitements ✅ Collaborer avec les architectes, la DSI, les métiers et le cloud center of excellence

Mission freelance
Chef de projet
Bonjour à tous, Un client recherche un profil chefferie de projet Data (fonctionnelle : 80% / Technique 20%), qui piloterait son programme de transformation, avec l'équipe projet : Le Programme « Data Foundation » : Refonte de l’architecture Création d’un Data Lake Mise en place de reporting Optimisation de la circulation des flux DataHub : décision de le conserver dans l’architecture. Migration Data Warehouse : passage d’Oracle vers Fabric. Power BI : centralisation des données groupe. Enjeu de Process de Data Gouvernance : Déploiement Informatica : MDM, Data Quality, Data Catalogue (documentation des données), tracking des données / mise en place d’un rôle de Data Gouvernernance . Day-to-day du chef de projet Data recherché : Pilotage de projet et production de livrables Gestion de portefeuille projets ( Portfolio Manager ) Respect des jalons Chefferie de projet et analyse métier (orientation avec les équipes métier / marketing et communication) Aspects logistiques Start Date : fin septembre => Profil recherché : transversal, couvrant l’ensemble du domaine DATA. Durée du projet : 6 à 8 mois (travail en lots). Localisation : Proche de Lyon Télétravail : 2 jours / semaine après 4 mois de période d’essai. présence full time sur site proche de Lyon les premiers mois, puis 2 jours de télétravail Important : il y a des déplacements entre les sites et les différentes filiales (Paris, Grenoble, selon l'avancée des projets) En bref, de belles perspectives projets sont à prévoir dès octobre et sur toute l'année 2026 ! N'hésitez pas à proposer votre CV

Mission freelance
Sénior Business Analyst DATA H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Sénior Business Analyst DATA H/F à Lille, France. Contexte : Les missions attendues par le Sénior Business Analyst DATA H/F : En tant que Senior Business Analyste Data, vous devez être en mesure de mener à bien l’ensemble des activités suivantes : • Recueillir et formaliser les besoins métier • Rédiger les spécifications fonctionnelles (cadrage, dictionnaire de données, mapping, data lineage, cartographie des sources, règles de gestion) • Réaliser la modélisation fonctionnelle des données (Modèle Conceptuel & Modèle Logique) • Assister le TECHLEAD dans la conception de la solution • Coordonner les équipes MOE, data et métier • Suivre les développements et vérifier que la réalisation correspond bien au besoin • Piloter les phases de tests fonctionnels et de validation métier. • Jouer un rôle de référent fonctionnel sur les projets data et de son produit. • Accompagner les utilisateurs aux changements • Mettre en place des processus de gouvernance de la donnée Compétences recherchées : • Bac + 5, master/Ingénieur en Ingénierie, Informatique ou dans un domaine connexe, ou expérience pratique équivalente • Plus de 8 ans d’expérience dans les projets Data et dans l’analyse des besoins métiers. • Maîtrise des concepts de modélisation de données • Analyse métier avancée : compréhension fine des enjeux métiers, capacité à challenger les besoins exprimés. • Méthodologie projet : agilité, gestion de backlog, participation à des rituels • Maitrise du langage SQL, Connaissance des plateformes DATA (GCP, BigQuery), culture des environnements ELT/ETL (DBT) • Expérience sur les métiers de l’assurance des personnes (produits retraite, épargne, santé et prévoyance) et du commissionnement d’un réseau de ventes serait un plus. Qualités requises : • Leadership fonctionnel, bon communiquant et une esprit de synthèse • Forte capacité analytique et force de proposition • Esprit d’équipe et esprit de service • Curieux et une appétence forte pour les sujets techniques Compétences technologiques : • SGBD/SQL (Oracle/Bigquery) – Confirmé - Impératif • Google Cloud Plateform (Bigquery, Airflow, autres outils selon projets) – Connaissance - Souhaité • ETL dbt, stambia, odi – Connaissance - Souhaité
Mission freelance
Technicien N2/N3 - MCO / Data Factory -BDD) INDISPONIBLE
1. Gestion des demandes (activité principale) Réception des demandes entrantes (tickets DOIT, emails, outils internes, etc.). Analyse des demandes pour en qualifier le périmètre, les données concernées, les interlocuteurs, la faisabilité technique. Estimer et communiquer sur le délai prévisionnel de traitement. Prise en charge corrective des demandes. Partage de la demande à un expert interne en cas de besoin, avec : Suivi de la prise en charge. Communication avec le demandeur jusqu’à la clôture de la demande. Escalade des points bloquants aux managers. 2. Montée en compétences Capitalisation sur les sujets traités pour accroître progressivement l’autonomie du prestataire et spécifier un run correctif Objectif moyen terme : capacité à traiter un maximum de demandes en autonomie. 3. Communication et reporting Mise à jour des tableaux de bord de suivi des demandes (DOIt et autres) Communication interne régulière (hebdomadaire) sur l’activité du périmètre MCO. Propositions d’amélioration continue sur le traitement ou l’organisation des demandes. Compétences fonctionnelles : Capacité à prioriser, décider rapidement et gérer les urgences. Connaissance et gestion du mode projet Capacité d’analyse et de reformulation des besoins. Excellente communication orale et écrite (relation avec demandeurs, équipes techniques). Rigueur, autonomie, sens de l’organisation. > Rigueur dans le diagnostic, la traçabilité et la documentation des corrections. Compétences techniques souhaitées (selon périmètre de la Data Factory) : Notions générales en gestion de données (ETL, data visualisation, requêtes SQL, extraction de données, outil de data visualisation etc.). Bonne maîtrise d’Excel et d’outils de reporting. Expérience dans la gestion de tickets ou d’un outil de gestion des demandes (ex : Jira, ServiceNow…). Bonne connaissance des bases de données (SQL, Oracle, PostgreSQL…). Connaissance des tests unitaires et d’intégration Capacité à analyser du code existant et à comprendre une architecture logicielle. Démarrage souhaité : ASAP Durée estimée de la mission : Mission longue Temps de présence : Temps plein Télétravail : Présence sur site 2 à 3 jours / semaine

Mission freelance
Chef de projet : Piloter Coordination flux ingestion DATA
📢 Mission freelance – Chef de Projet / Coordinateur Ingestion Data (H/F) 📍 Localisation : Île-de-France (92) 📅 Démarrage : ASAP 📆 Durée : 3 ans 💰 TJM max : 550 € / jour 🎯 Expérience requise : 4 à 10 ans 🏢 Contexte : Rejoignez le pôle Produits/Projets Data pour piloter des flux d’ingestion et d’exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Vous serez l’interface entre les équipes techniques et métiers dans un environnement Cloud Azure. 📌 Vos missions : - Coordonner les projets d’ingestion de données (internes / externes) vers la plateforme Data - Piloter l’exposition des données vers les partenaires (internes / externes) - Garantir la qualité, traçabilité et conformité des flux - Collaborer avec les équipes tech (Data Engineers, Archis, DevOps) et métiers (PO, PM) - Produire et maintenir des tableaux de bord de suivi de flux - Assurer le respect des délais, coûts, qualité - Participer à l’amélioration continue des processus d’ingestion 🛠️ Compétences techniques : - Azure Data Factory – Confirmé (impératif) - Modélisation de données – Confirmé (impératif) - Databricks – Junior (important) - Méthodo Agile / Scrum – Junior (important) - Connaissances : Data Lake, APIs, batch & streaming, documentation de flux - Notions de gouvernance : qualité, catalogage, sécurité, RGPD - Une expérience dans le retail est un vrai plus 🤝 Profil & soft skills recherchés : 🤝 Leadership collaboratif & capacité à fédérer 🗣️ Excellente communication & vulgarisation technique 📌 Rigueur, autonomie, priorisation, gestion multi-projets 🎯 Orientation valeur & résultats 🔍 Curiosité et proactivité : force de proposition attendue 📩 Intéressé(e) ou une personne à recommander ? Contactez-moi en MP ! 🔔 Ne manquez aucune opportunité en suivant Suricate iT : 👉
Mission freelance
Data Engineer Confirmé – Environnement Azure / Microsoft BI
Nous recherchons un Data Engineer freelance pour une mission stratégique au sein d’un grand groupe international, dans un environnement cloud & big data à fort volume. Vos responsabilités : Concevoir, développer, tester et maintenir des composants Big Data & BI dans un environnement Microsoft / Azure Garantir la qualité, la performance et la fiabilité des applications de reporting Collaborer avec les chefs de projets et les équipes techniques pour assurer la cohérence des solutions Documenter les solutions et contribuer à l’amélioration continue
Offre d'emploi
Ingénieur Développeur DATA (H/F)
Contexte de la mission - Dans le cadre d'un projet de migration stratégique d'un acteur majeur du secteur de l'épargne, vous rejoindrez l'équipe IT pour renforcer le pôle Data. L'objectif : accompagner le basculement d'une solution partenaire vers un nouveau système d'information cible, tout en maintenant les flux et reportings existants. - Vous intervenez sur la migration des données, la maintenance opérationnelle des traitements existants, et prenez part aux ateliers fonctionnels. Vos responsabilités - Assurer le bon fonctionnement des flux de données existants (traitements d'intégration et reportings) - Participer aux ateliers fonctionnels sur l'architecture data, la qualité des données, les gros volumes - Contribuer aux ateliers de migration et aux travaux techniques de bascule - Être un acteur transverse entre les équipes techniques et fonctionnelles Compétences techniques attendues - Azure Data Factory / SSIS - niveau expert - SQL Server - niveau expert - Power BI - niveau expert - Expérience solide en migration de données - Connaissances en traitement de gros volumes et en qualité de la donnée

Mission freelance
Data Engineer DBT SNOWFLAKE AZURE
Expertise Technique : Solide maîtrise de l’architectureSnowflake architecture, incluant data sharing, partitioning, clustering,et materialized views. Expérience avancée avec DBT pour les transformations de données et la gestion des workflows. Compétences confirmées sur les services Azure : Data Factory, Data Lake, Synapse et Functions. Ingénierie de Données : Maîtrise de SQL, Python ou autres langages pertinents. Excellente compréhension des concepts de modélisation de données (schéma en étoile, normalisation). Pratique avérée dans la mise en place de pipelines ETL/ELT et d’outils d’intégration de données.

Offre d'emploi
Intégrateur DevOps Azure - SI Industrie H/F
Contexte de la mission : Viveris accompagne dans le cadre d'activité standard de développement, un de nos clients, un grand compte dans le secteur de l'Industrie. Par conséquent nous somme à la recherche d'un intégrateur DevOps Azure pour renforcer l'équipe EAI (Entreprise Application Integration). Vous collaborerez étroitement avec les équipes de développement, d'exploitation et de DevOps pour concevoir, développer et maintenir des solutions d'intégration robustes et performantes.Vous rejoindrez une équipe à taille humaine d'une dizaine de personnes. Responsabilités : Participer à la conception et au développement de solutions d'intégration d'applications ; Développer et maintenir des Logic Apps et des Azure Functions pour répondre aux besoins spécifiques des projets ; Utiliser Azure Data Factory (ADF) pour créer et gérer des flux de données complexes ; Assurer la qualité et la performance des solutions développées ; Collaborer avec les équipes projet pour comprendre les exigences et proposer des solutions techniques adaptées.
Mission freelance
Expert Azure Data - Asset Management & Cloud Transformation
We have a current opportunity for a Azure Data Factory Expert on a contract basis. The position will be based in Paris. For further information about this position please apply. Vous intervenez en tant qu' expert Azure Data Factory pour accompagner la transformation de l'entreprise : injection, stockage, traitement et analyse des données via les modules Azure (ADF, Synapse, Data Lake Gen2, Blob Storage, SQL Database, Analysis Services). Une expertise en automatisation des tests et en analyse de données assistée par IA serait un plus. Vous serez force de proposition pour faire évoluer le DataHub existant, en intégrant les données issues de la solution cible, tout en répondant aux exigences métier (qualité de la donnée, time to market, facilité d'intégration via SQL, API, cubes…). Vous collaborerez avec les équipes IT et Business Analyst dans un environnement Agile , en coordination avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Senior Data Engineer Snowflake
Contexte de la mission En tant que Data Engineer, vous jouerez un rôle important dans la construction et le déploiement de notre Data Warehouse (DWH) et DataMarts, qui font partie intégrante de la mise en œuvre réussie de projets financiers, de notre outil EPM Board ou d'outils dédiés à l'audit financier. Vous travaillerez en étroite collaboration avec des équipes inter fonctionnelles afin d'assurer l'intégration et la transformation transparentes des données. Objectifs et livrables Responsabilités : Concevoir, construire et maintenir des Data Warehouse et DataMarts évolutifs basés sur des données financières. Vous êtes en charge de l'élaboration et de l'optimisation des requêtes SQL complexes et des procédures stockées dans Snowflake Vous travaillez avec des données SAP, vous comprenez les structures des tables et vous assurez un mappage et une transformation des données exacts. Utiliser Azure Data Factory pour la construction des données et l'orchestration du pipeline. Collaborer avec les équipes DevOps pour mettre en œuvre des pipelines CI/CD à l'aide d'Azure DevOps. Assurer la qualité et l'intégrité des données tout au long du processus ELT.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- código de descuento Tҽɱυ [ACW784957] descuento 30% para nuevos usuarios en 2025
- 30% Tҽɱυ Gutscheincode ["^"ACW785957"^"] & 10% Rabatt - September2025
- Code promo Tҽɱυ ^^[ACW784957] 30% de remise en Septembre 2025
- Reconversion professionnelle cyber
- Déclaration de Malt et rectification abusive de l'URSSAF