Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory
Votre recherche renvoie 56 résultats.
Mission freelance
Mission Freelance – Expert BI / Data Analyst
EterniTech
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SSIS
6 mois
Nantes, Pays de la Loire
Mission Freelance – Expert BI / Data Analyst Secteur : Services aux entreprises – Ressources Humaines Lieu : Nantes (habitation obligatoire à Nantes) Démarrage : ASAP Télétravail : 2 jours/semaine Langue : Anglais courant apprécié Description de la mission : En tant qu’Expert(e) BI Entreprise, vous interviendrez au sein de la DSI d’une entreprise du secteur Recrutement et Intérim pour gérer les besoins métiers et piloter les projets d’ingénierie DATA Vous serez en charge de : 1. BI Entreprise (Finance, AdV, Comptabilité, RH, Recrutement, Services généraux, Commerce) : Intégration des données et création de mesures Conception d’architectures décisionnelles complètes Élaboration de reporting, tableaux de bord et modèles sémantiques Documentation et maintien en condition opérationnelle Optimisation des livrables existants 2. BI Opérationnelle Client (ponctuel) : Analyse des KPI des centres de relation clients (téléphonie, ticketing, etc.)
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Recrutement CDI – Data Engineers (CDI) | GCP / AWS / Azure
Hexateam
Publiée le
AWS Glue
Azure Data Factory
Google Cloud Platform (GCP)
Paris, France
Recrutement – Data Engineers (CDI) | GCP / AWS / Azure Dans le cadre de nos ambitions de croissance pour l’année 2026 , nous renforçons activement nos équipes Data afin d’accompagner le développement de projets stratégiques auprès de nos clients grands comptes. Cette dynamique nous conduit à recruter plusieurs Data Engineers en CDI , intervenant sur des environnements cloud modernes et à forte volumétrie de données. Nous focalisons aujourd’hui nos efforts sur le recrutement de consultants correspondant au profil type suivant : Data Engineer disposant de 3 à 7 ans d’expérience , avec une expertise sur GCP, AWS ou Azure . Le candidat devra maîtriser les fondamentaux du Data Engineering : conception et mise en œuvre de pipelines de données, ingestion et transformation des données, modélisation, optimisation des performances, ainsi que les langages SQL et Python . Une capacité à intervenir sur des environnements complexes et à forte volumétrie est attendue, tout comme une aisance dans les échanges avec les équipes métiers et IT.
Mission freelance
Azure Data Intégration Analyst - 93 - English speaker
Montreal Associates
Publiée le
Azure Data Factory
Data analysis
Microsoft Power BI
12 mois
500-550 €
Aubervilliers, Île-de-France
Azure Data Integration Analyst - 93 - Anglais fluide 📍 93 | 🏢 3 jours sur site 🗓 ASAP | ⏳ 12 mois renouvelables Pour un grand groupe international , nous recherchons un ingénieur Data Integration , pour renforcer une équipe Global HR , dans un environnement full Microsoft Azure / MSBI . 🎯 Contexte & Mission Vous intervenez sur des flux de données RH globaux, hébergés et traités dans un écosystème Azure : Recueil et analyse des besoins métiers (nouveaux flux, évolutions, revues de design global) Cadrage fonctionnel et coordination des réalisations data jusqu’au Go Live Garantie de la cohérence entre besoins métiers et implémentation technique Interaction étroite avec les équipes Data, IT Architecture et HR global Exploitation et restitution de la donnée via Power BI 📩 Mission freelance uniquement – présence sur site indispensable. Profils très expérimentés recherchés. #Freelance #ConsultantSI #DataIntegration #Azure #MSBI #PowerBI
Mission freelance
Ingénieur Data / BI
Comet
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
DEVOPS & App INTEGRATION FACTORY
Codezys
Publiée le
Administration système
Azure
Azure Data Factory
24 mois
40k-50k €
340-420 €
Hauts-de-Seine, France
Localisation et organisation Site situé dans le 92 avec 1 jour sur site et 4 jours en télétravail par semaine. Intégré à la Direction Infrastructure Technique de la DSI. Rattaché au responsable de l’équipe « DEVOPS & App INTEGRATION FACTORY ». Rôle principal Garant de l’intégration applicative, tant technique que fonctionnelle, dans le respect de l’architecture et de la sécurité du groupe. Production de la documentation technique en lien avec les architectes et l’exploitation. Développement des pratiques DevOps. Interventions en expertise sur incidents complexes (N3). Valeur ajoutée Assemblage des composants logiciels et infrastructure selon les plans d’urbanisme, architecture et sécurité. Connaissance de l’état de l’art technique pour une intégration optimale. Amélioration de la performance, disponibilité, supervision et évolutivité du SI. Documentation et référencement technique des applications. Maîtrise des architectures IaaS, PaaS, SaaS et On-Premise. Fondamentaux du poste Leadership et compétences en collaboration et communication. Développement des compétences techniques et rédactionnelles. Activités principales Coordination de l’infrastructure pour la création de nouveaux environnements (recette, pré-production, production). Support à l’équipe projet lors des phases techniques. Définition des solutions techniques en lien avec les équipes applicatives, architectes et urbanistes. Participation à la sélection des intégrateurs lors des appels d’offres. Rédaction de documents techniques pour la construction et le maintien opérationnel. Mise en place d’environnements applicatifs, développement Infra-As-Code (HCL Terraform) et gestion de prestataires externes. Installation d’applications, création de VMs, ouverture de flux, implémentation d’intergiciels et interfaces inter-applicatives. Support à la recette, mise en production, et mise en place de la supervision applicative. Gestion des besoins/demandes, relai avec les équipes techniques et optimisation des processus d’intégration. Performance et amélioration continue Pilotage du catalogue des services d’intégration applicative. Optimisation des processus d’intégration et déploiement. Veille technologique et participation aux audits de sécurité. Démarche d’amélioration continue et capitalisation (retours d’expérience, modes). Gestion des incidents et conformité Contribution à la résolution d’incidents de production nécessitant une expertise technique. Respect des responsabilités selon le modèle de delivery SI (matrices RACI).
Mission freelance
ML Platform Engineer Data - Azure(Niort)
Cherry Pick
Publiée le
Azure AI
Azure Data Factory
Azure Synapse
12 mois
550-600 €
Niort, Nouvelle-Aquitaine
La plateforme vise à industrialiser les usages Data et Machine Learning et à accompagner les directions métiers dans leurs expérimentations et produits data science. Le Platform Engineer intervient sur deux axes majeurs : le déploiement de l’infrastructure as code sur le cloud Azure le développement et l’industrialisation de pipelines CI/CD pour les usages Data Science Missions de l’équipe plateforme Assurer le maintien en condition opérationnelle , l’ évolutivité et la maîtrise technique de la plateforme Azure. Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et produits industriels Fournir un support fonctionnel et technique aux équipes métiers
Mission freelance
Cloud Network Expert (Azure / AWS)
Codezys
Publiée le
AWS CloudFormation
Azure
Azure Data Factory
6 mois
Paris, France
Contexte : Transformation digitale / Organisation dirigée par la technologie – Passage au Cloud Environnement international – Maîtrise de l’anglais professionnel requise Séniorité : 7 à 10+ années d’expérience 2) Objectifs & responsabilités principales Conception & déploiement Cloud Network Concevoir, déployer et maintenir des réseaux virtuels Azure & AWS selon une architecture Hub & Spoke Mettre en œuvre des architectures réseau cloud robustes, industrielles et évolutives Assurer la disponibilité et la performance des réseaux pour les applications Support & troubleshooting Supporter et diagnostiquer les incidents liés aux réseaux cloud (VPN, connectivité, performance) Garantir un niveau élevé de service et de disponibilité des environnements Azure/AWS Documentation & standardisation Produire la documentation technique : low-level design (LLD), configurations, plans de migration, procédures opérationnelles (RUN) Maintenir et enrichir en continu les référentiels techniques et documentations Collaboration & accompagnement projets Collaborer transverse avec les équipes internes (sécurité, infrastructure, projets) Recueillir les besoins, accompagner les déploiements et garantir la scalabilité, la sécurité et la conformité Participer à l’industrialisation via des templates et bonnes pratiques réseau Capacité, performance & résilience Contribuer à la planification de la capacité (capacity planning) Participer au tuning de la performance et à la définition de stratégies de résilience Mettre en œuvre les roadmaps d’upgrade, de patching, ainsi que les plans de PRA / Disaster Recovery Sécurité Cloud (rôle clé) Assurer un haut niveau de posture de sécurité des réseaux cloud publics Concevoir et optimiser des architectures réseau sécurisées selon les besoins Collaborer avec les parties prenantes pour réduire les risques et renforcer la sécurité 3) Livrables attendus Designs d’architecture réseau cloud (Hub & Spoke, connectivité hybride) Low Level Design (LLD) et documents d’implémentation Plans de migration réseau et documents de transition Procédures opérationnelles (RUN / exploitation) Templates d’architecture et standards réseau Roadmaps pour upgrades, patching, et plans de PRA / DR Scripts et modules d’automatisation (Terraform, Python, API)
Mission freelance
Senior Data Analyst
Phaidon London- Glocomms
Publiée le
Azure Data Factory
Business Analyst
Dataiku
6 mois
400-550 €
Paris, France
1. Outils de suivi des risques Développer des visualisations pour le suivi des risques. Créer et maintenir des bases de données fiables. Créer des tableaux de bord dans *Power BI**. Documenter les outils et les transmettre à l’équipe. 2. Analyse métier Quantifier les risques et identifier les leviers d’action. Présenter et défendre les analyses lors des discussions métiers. Traiter les demandes ponctuelles des unités opérationnelles. 3. Gestion de projet et collaboration Gérer les projets avec les clients internes (analyse des besoins, intégration, livraison). Collaborer avec les autres profils de données et la communauté Data Citizens de CAL&F.
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Mission freelance
Data Engineer Senior - Data Warehouse
Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Mission freelance
Architecte Data – Power BI / MDM
Hexagone Digitale
Publiée le
Architecture
Azure Data Factory
Data Lake
6 mois
550-650 €
Guyancourt, Île-de-France
Dans le cadre de sa transformation data, un grand groupe international d’ingénierie renforce sa Data Factory et sa plateforme data Azure. L’objectif est de structurer l’exploitation des données à l’échelle du groupe en s’appuyant sur des architectures Data Lake , une organisation Bronze / Silver / Gold et des principes Data Mesh . La mission s’inscrit dans un environnement multi-métiers avec de forts enjeux de pilotage, qualité et gouvernance des données . Mission L’Architecte Data interviendra sur la conception et l’évolution de la plateforme data, le développement des usages décisionnels et la structuration des données de référence. À ce titre, il/elle sera en charge de : Concevoir et faire évoluer l’architecture data (Data Lake, Data Warehouse) Modéliser les données et documenter les architectures techniques et fonctionnelles Développer des tableaux de bord décisionnels sous Power BI Mettre en œuvre des modèles analytiques (SSAS / Azure Analysis Services) Contribuer à la mise en place du MDM et aux démarches de qualité des données Accompagner les équipes métiers dans l’expression de leurs besoins et les usages data Compétences clés Power BI (expertise confirmée) et DAX avancé SQL Server / Azure SQL / Synapse Analytics Azure Data Factory Architectures Data Lake et Bronze / Silver / Gold Bonnes connaissances des concepts MDM et Data Quality Environnement Microsoft Azure
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Offre d'emploi
Expert Data & Cloud Azure (H/F)
Amiltone
Publiée le
Azure
Cloud
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Mission freelance
Data Engineer / Analyste Azure (MSBI) :
Cherry Pick
Publiée le
Azure
MSBI
SQL
12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Offre d'emploi
Ingénieur Data - Média
Deodis
Publiée le
Apache Spark
Azure DevOps
Databricks
3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
56 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois