Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory

Votre recherche renvoie 75 résultats.
Freelance

Mission freelance
Data architect H/F

HAYS France
Publiée le

6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro, et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Reporting Risques : IRRBB, Liquidité, Trading, Contrepartie. Sources de données à intégrer : rapports Cognos, Standard & Poor's, Bloomberg, Fonds de pension, Liquidité intrajournalière. Compétences techniques : Azure Synapse Analytics, Azure Data Factory, SQL/ELT, Power BI, Purview, CI/CD. Tâches principales Définir, détailler et documenter l'architecture cible Risk Définir la liste et les caractéristiques des dataflows à mettre en œuvre Concevoir le modèle de données requis pour le reporting risques (IRRBB, Liquidité, etc.) afin de faciliter l'intégration dans WKFS RiskPro Définir les règles de transformation (haut niveau) Garantir l'application des standards Groupe (sécurité, gestion des données, etc.)
CDI

Offre d'emploi
Urbaniste SI H/F

FED SAS
Publiée le

55k-60k €
Versailles, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Versailles un Urbaniste SI H/F dans le cadre d'un CDI. Sous la responsabilité du DSI, l'urbaniste SI propose, gouverne et optimise le système d'information à travers une vision technologique, d'interopérabilité, d'urbanisation et d'engagement de service du système d'information. Son ambition primaire est de garantir l'agilité, la maintenabilité, la disponibilité, la performance, la sécurité et la scalabilité du SI en fonction des enjeux du Groupe. Il aura cette capacité à fournir ces différentes visions sous différents angles (court terme, long terme, cout de possession, obsolescence, valeur métier…) Il travaillera en étroite collaboration avec l'architecte fonctionnelle et l'ensemble des équipes SI pour fournir les différentes trajectoires attendues, accompagner les projets (SI et métier) et mener à bien son activité. L'urbaniste SI aura les missions et les responsabilités suivantes : Architecture technique : Concevoir et maintenir l'architecture technique globale du SI. Définir les standards et les référentiels technologiques à utiliser dans l'entreprise. Assurer la cohérence et l'interopérabilité des différentes composantes techniques du SI. - Optimisation du SI : Analyser et optimiser les performances du SI. Proposer des solutions pour améliorer la scalabilité et la résilience du système (yc obsolescence). Évaluer et intégrer de nouvelles technologies pour renforcer les capacités du SI . Optimiser le cout de possession du SI en gouvernant et en challengeant les différents contrats. S'assurer de posséder un SI autonome et indépendant (dépendances, compétences et technologies - Gestion des évolutions technologiques : Effectuer une veille technologique constante pour identifier les innovations pertinentes. Proposer des scénarios d'évolution technologiques. Évaluer l'impact des nouvelles technologies sur l'architecture existante. Gérer les risques liés aux technologies et applications techniques. - Collaboration et communication : Travailler en étroite collaboration avec les équipes d'exploitation et de développement. Être le garant des choix technologiques en animant une démarche de douane. Communiquer efficacement sur les choix d'architecture technique auprès des parties prenante. Communiquer et porter l'éveil de la DSI sur les technologies émergentes - Sécurité et conformité : Collaborer avec les équipes de sécurité pour garantir la robustesse de l'architecture. Veiller à la conformité de l'infrastructure avec les normes et réglementations en vigueur. Mettre en place des mécanismes de protection des données et de continuité d'activité. Piloter l'engagement du système d'information - Environnement Microsoft: Windows 2016 à 2022, Windows 11, Active Directory, DNS, DHCP, WSUS, DFS, SFTP, Office 365 - AzureAD, Exchange, Sharepoint, Teams etc. - Environnement Linux : RedHat Infrastructure : Virtualisation (VMWare, VSAN, Dell VxRail), Supervision (Centreon), Ordonnancement (VTOM), Sauvegarde (Dell IDPA/Avamar), Technologies applicatives : PHP, Oracle, Azure Data Factory, PowerBI, Drupal Progiciels majeurs : SalesForce, SAP, FCC
Freelance

Mission freelance
Data Engineer Azure Python

Cherry Pick
Publiée le
Azure
Python
SQL

12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Freelance

Mission freelance
Data Engineer / Analyste Azure (MSBI) :

Cherry Pick
Publiée le
Azure
MSBI
SQL

12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
CDI

Offre d'emploi
Responsable Data Microsoft

Eversa
Publiée le
DAX
Microsoft Analysis Services (SSAS)
Microsoft SSIS

40k-60k €
Île-de-France, France
Description du poste EVERSA recherche un(e) Consultant(e) Data Microsoft pour intervenir sur des projets de Business Intelligence et de reporting décisionnel . Vous interviendrez auprès de nos clients pour concevoir, développer et structurer des solutions BI performantes, en lien étroit avec les équipes métiers et IT. Le poste est basé à Région Parisienne , Qualifications Concevoir et développer des tableaux de bord Power BI interactifs et performants Participer à l’ intégration, la transformation et l’industrialisation des données (ETL / ELT) Modéliser les données (DWH, datamarts) dans une logique décisionnelle Intervenir sur des environnements Azure Data : Azure Synapse Analytics et Azure Data Factory Travailler en collaboration avec les équipes métiers pour comprendre les besoins et proposer des indicateurs pertinents Contribuer aux bonnes pratiques BI et à l’amélioration continue des solutions existantes
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Bonjour, Pour le compte de l’un de nos clients, acteur majeur du secteur du luxe, nous recherchons un Data Architect afin d’intervenir sur une mission stratégique autour de la structuration, gouvernance et valorisation des données . 📍 Informations clés Localisation : Paris (présence sur site requise) TJM max : 1200 € Démarrage : ASAP Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez sur la mise en place d’une architecture data moderne et scalable basée sur Azure Fabric , avec un fort enjeu autour de la gouvernance, de la qualité des données et de leur valorisation auprès des métiers. 🎯 Responsabilités principales 🔹 Architecture & Data Platform Concevoir et déployer des solutions data end-to-end (Lakehouse, Data Warehouse, modèles sémantiques) Structurer les couches de données ( Bronze / Silver / Gold ) Garantir la scalabilité, la performance et la robustesse de la plateforme 🔹 Data Engineering & Modélisation Concevoir et implémenter des pipelines ETL / ELT Définir les règles de transformation, de gestion des données incrémentales et des dimensions Optimiser les performances des requêtes et du stockage Développer des scripts Python (PySpark) et des requêtes SQL avancées 🔹 Gouvernance & Qualité des données Définir et mettre en œuvre les frameworks de gouvernance (traçabilité, métadonnées, qualité) Implémenter les mécanismes de contrôle qualité et gestion des erreurs Mettre en place les politiques de sécurité et d’accès ( RBAC, RLS ) 🔹 CI/CD & Industrialisation Mettre en place des pipelines CI/CD pour les produits data Gérer les référentiels Git, stratégies de versioning et déploiements Garantir la traçabilité et l’audit des évolutions 🔹 Data Mapping & KPI Assurer la cartographie des flux de données de bout en bout (E2E) Définir les règles métier et indicateurs KPI en lien avec les enjeux business Construire les dictionnaires de données et glossaires métier 🔹 Documentation & bonnes pratiques Définir les standards d’architecture et de développement Documenter les processus, runbooks, guidelines et décisions d’architecture (ADR) Accompagner les équipes et faciliter l’onboarding 🛠️ Environnement technique Cloud & Data Platform : Microsoft Azure, Azure Fabric Data Engineering : PySpark, SQL, Azure Data Factory, dbt CI/CD & DevOps : GitHub, Git CLI, Azure DevOps Pipelines, GitHub Actions BI & Data Viz : Power BI (RLS) Gouvernance : Azure AD / Entra ID, Purview Documentation : Confluence, Visio / Lucidchart 👤 Profil recherché Data Architect avec 7 ans d’expérience minimum Forte expertise sur les environnements Azure Data (Fabric / Data Platform) Solide expérience en architecture data, gouvernance et modélisation Excellente maîtrise de SQL et Python (PySpark) Expérience en industrialisation, CI/CD et gestion de plateformes data Très bonnes capacités de communication, structuration et vision transverse
Freelance

Mission freelance
Profil Data Azure (modernisation applicative)

Signe +
Publiée le
ETL (Extract-transform-load)

12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Freelance

Mission freelance
Développeur / data engineer

AVALIANCE
Publiée le
Azure
CI/CD
Microsoft Fabric

2 ans
400-550 €
Belgique
Contexte de la mission Le data developer/engineer recherché rejoindra l’équipe Factory Data utilisant les technologies data Azure : Tâches principales • Développer les flux d’ingestion via Fabric Data Factory (et compréhension de Azure Data Factory) ; • Développer les flux de transformation de données via Fabric Factory Notebook ; • Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; • Contribuer à la modélisation du Lake House ; • Établir le Design technique, implémentation de l’architecture médaillon (argent & or) dans Microsoft Fabric ; • Établir le plan de tests unitaires (automatisables) de la solution ; • Suivre/exécuter les tests unitaires ; • Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; • Rédiger la technique de documentation ; • Contribuer à l’amélioration continue (guidelines de développement) ; • Contribuer à la maintenance & résolution des incidents (production).
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
CDI

Offre d'emploi
Consultant·e Data Engineer – Senior / Confirmé·e

█ █ █ █ █ █ █
Publiée le
CI/CD
Python
SQL

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Proxy PO RUN - Snowflake + Power BI

FF
Publiée le
Microsoft Power BI
Snowflake

1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
75 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous