Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory
Votre recherche renvoie 56 résultats.
Offre premium
Offre d'emploi
Data Engineer Python / Azure / Ops
VISIAN
Publiée le
Azure
Azure Data Factory
Python
2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)
ALLEGIS GROUP
Publiée le
Azure Data Factory
Microsoft Fabric
6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Mission freelance
Data Engineer Azure
Cherry Pick
Publiée le
Azure
Azure Data Factory
Python
12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Proxy Product Owner Data - Build
Celexio
Publiée le
Azure Data Factory
PowerBI
Snowflake
3 mois
400-500 €
Hauts-de-Seine, France
Bonjour à tous, Je recherche un Proxy Product Owner expérimenté pour accélérer la phase de Build du datalake de la BU cybersécurité. Responsabilités clés : Participer aux cérémonies Agiles et épauler le Product Owner (PO) dans la gestion de l'équipe. Enrichissement du backlog : ajouter des informations dans les tickets Jira concernant les spécifications d'intégration de données, les sources de données requises pour la construction des KPI, les règles de transformation et les critères d'acceptation. Mener les tests de recette (UAT) aux côtés des parties prenantes cybersécurité dans Snowflake et PowerBI. Analyser les sources de données requises pour construire les KPI. Effectuer des analyses techniques et optimiser la logique de calcul des KPI. Concevoir les modèles de données dans Snowflake et PowerBI. Surveiller et revoir l'orchestration et la planification des sources de données. Construire et affiner les modèles de données Power BI. Contribuer à la documentation fonctionnelle. Gérer et piloter le backlog de BUILD .
Mission freelance
Proxy Product Owner Data - Run
Celexio
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
3 mois
400-500 €
Hauts-de-Seine, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Proxy Product Owner expérimenté pour stabiliser la phase de RUN du datalake de la BU - cybersécurité Responsabilités clés : Structurer et accompagner une transition fluide du Build vers le RUN des activités du projet. S'approprier et gérer le backlog d'incidents ServiceNow. Proposer un arbitrage des tickets de RUN dans ServiceNow en fonction des risques et de l'impact métier. Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement et communiquer auprès des utilisateurs. Produire des SOP (Procédures Opérationnelles Standard) pour les incidents récurrents afin de permettre à l'équipe de RUN externe de gérer les opérations courantes. Cela implique la création de procédures d'investigation, la fourniture d'extraits de code utiles utilisés par les développeurs, et de procédures de remédiation. Mettre en place le monitoring et les alertes sur les sources de données du datalake pour garantir la fraîcheur, la qualité et la disponibilité des données. Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Contribuer à la formation et au support des utilisateurs, tant sur les rapports PBI que sur le modèle de données (self-BI).
Mission freelance
Tech Lead DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Data Analyst/Ingénieur BI
Codezys
Publiée le
Azure
Azure Data Factory
40k-47k €
Nantes, Pays de la Loire
Urgent Type de prestation : expert BI/data analyst Lieu de la mission : NANTES / Le consultant doit obligatoirement habiter à NANTES Télétravail : 2j/s Anglais courant est un + Description et livrables de la prestation En tant qu’Expert(e) BI Entreprise au sein de la DSI de ManpowerGroup (Filiale EXPERIS), vous serez au cœur de l’action. Votre mission ? Prendre en charge les nouveaux besoins de nos interlocuteurs métiers et intervenir sur toutes les phases d’un projet d’ingénierie DATA. Vos responsabilités : • Solution Complète BI Entreprise : Vous serez le référent(e) sur nos solutions BI pour les métiers Finance, AdV, Comptabilité, RH, Recrutement, Services généraux et Commerce. Imaginez les opportunités d’optimisation, de reporting et de modélisation que vous pourrez explorer ! • L’intégration des données et la création de mesures • La conception d’architectures décisionnelles complètes • L’élaboration d’états (reporting), tableaux de bord (dashboard) et modèles sémantiques • La documentation • Le maintien en condition opérationnelle de tout l’existant • L’optimisation constante de nos livrables • Solution Complète BI Opérationnel Client : Ponctuellement, vous plongerez dans notre BI Opérationnel Client, analysant les KPI des centres de relation clients, de la téléphonie au ticketing.
Mission freelance
Platform Reliability Engineer SRE & DevOps
Codezys
Publiée le
Azure Data Factory
Azure DevOps Services
Datadog
12 mois
390-500 €
Versailles, Île-de-France
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
Mission freelance
Data engineer
Comet
Publiée le
Azure Data Factory
Databricks
Scala
12 mois
400-560 €
Île-de-France, France
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Mission Freelance – Analytics Engineer / Data Engineer (H/F)
SKILLWISE
Publiée le
Azure Data Factory
Databricks
Scala
3 mois
100-550 €
Paris, France
Nous recherchons un freelance Analytics Engineer / Data Engineer pour intervenir sur un projet Data transverse d’envergure , au sein d’un grand groupe français du secteur médias & digital . Le projet vise à centraliser, harmoniser et fiabiliser les données de diffusion publicitaire digitale (impressions, chiffre d’affaires, performance, etc.) afin de fournir un reporting unifié et fiable selon différentes dimensions métiers (canaux de vente, équipes commerciales, annonceurs, origines des revenus…). Au sein d’une équipe Data expérimentée, vous interviendrez sur les missions suivantes : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Spark SQL Maintenir et faire évoluer des pipelines de traitement en Scala (part marginale) Développer et maintenir des indicateurs de qualité de données (KPI data) Participer au refactoring du code existant afin d’améliorer performance et maintenabilité (réécriture en DBT ) Garantir la qualité du code et le respect des standards de développement Mettre en place des tests unitaires et contribuer à la fiabilité des traitements Participer au monitoring des solutions Data Digital Produire les livrables attendus : code source, documentation et indicateurs qualité
Mission freelance
Consultant BI – Azure Data Factory & Power BI
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
1 an
400-500 €
Paris, France
Dans le cadre de la modernisation de sa plateforme décisionnelle, notre client recherche un Consultant BI pour concevoir, déployer et maintenir des solutions de reporting et de data integration basées sur Azure Data Factory et Power BI . Mission : Le consultant interviendra sur toute la chaîne BI : ingestion, transformation, modélisation et restitution. Il participera à la structuration du datawarehouse, à l’industrialisation des flux via Azure Data Factory et à la création de tableaux de bord Power BI pour les directions métiers. Responsabilités principales : Développement et maintenance des pipelines Azure Data Factory Modélisation des données (datawarehouse, datamarts) Création et optimisation de rapports Power BI Mise en place des bonnes pratiques de performance, sécurité et gouvernance Support et évolutions des solutions BI en production Interaction avec les équipes métiers et IT Profil recherché : Consultant BI confirmé Expérience sur Azure Data Factory et Power BI Maîtrise des environnements de production Capacité à comprendre les besoins métiers et à les traduire en indicateurs Environnement : Azure, Azure Data Factory, Power BI, SQL, Datawarehouse, Reporting, Cloud
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Mission freelance
Architecte DATA - Paris
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
450-500 €
Paris, France
Recherche d'un architecte Data expérimenté pour renforcer la maîtrise technique d’un projet DataCloud. Contexte : Un interne partira le 1er avril 2026, nécessitant son remplacement pour assurer la continuité du projet. Mission : Analyser les besoins et usages en données des différentes unités métier de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Participer à la conception de l’architecture de la plateforme DataCloud. Contribuer à l’amélioration de l’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle continue de la plateforme. Garantir la sécurité des accès et de l’ensemble de la plateforme. Définir et mettre en place une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités : Participer aux décisions de design technique (Design Authority). Contribuer aux travaux du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment pour la construction et la maintenance du socle technique (infrastructure, FinOps, habilitations, conformité, CI/CD). Contribuer à l’automatisation des déploiements et à la gestion du cycle de vie de la plateforme. Surveiller le comportement et la performance de la plateforme. Participer à la résolution des incidents opérationnels. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires clients : Localisation idéale : Dijon, Châlons-en-Champagne, Paris, Nantes ou Limoges. Expérience requise : minimum 5 ans dans le domaine de la Data. Budget prestataire : TJM de 500€, à négocier selon profil. Début souhaité : dès que possible, en veillant à effectuer un transfert de compétences avec le précédent avant le 1er avril 2026. Profil recherché : Un architecte opérationnel, capable de réaliser concrètement les actions, avec une forte implication technique. Les soft skills (esprit d’équipe, autonomie, sens de la communication) sont également essentiels pour réussir cette mission.
Mission freelance
Data Engineer Senior Azure / Snowflake
CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
Azure DevOps
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
56 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois