Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory à Paris

Votre recherche renvoie 33 résultats.
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
Software Engineer Expert

Codezys
Publiée le
Automatisation
Azure
Azure Data Factory

6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Freelance

Mission freelance
Architecte DATA - Paris

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
450-500 €
Paris, France
Recherche d'un architecte Data expérimenté pour renforcer la maîtrise technique d’un projet DataCloud. Contexte : Un interne partira le 1er avril 2026, nécessitant son remplacement pour assurer la continuité du projet. Mission : Analyser les besoins et usages en données des différentes unités métier de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Participer à la conception de l’architecture de la plateforme DataCloud. Contribuer à l’amélioration de l’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle continue de la plateforme. Garantir la sécurité des accès et de l’ensemble de la plateforme. Définir et mettre en place une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités : Participer aux décisions de design technique (Design Authority). Contribuer aux travaux du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment pour la construction et la maintenance du socle technique (infrastructure, FinOps, habilitations, conformité, CI/CD). Contribuer à l’automatisation des déploiements et à la gestion du cycle de vie de la plateforme. Surveiller le comportement et la performance de la plateforme. Participer à la résolution des incidents opérationnels. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires clients : Localisation idéale : Dijon, Châlons-en-Champagne, Paris, Nantes ou Limoges. Expérience requise : minimum 5 ans dans le domaine de la Data. Budget prestataire : TJM de 500€, à négocier selon profil. Début souhaité : dès que possible, en veillant à effectuer un transfert de compétences avec le précédent avant le 1er avril 2026. Profil recherché : Un architecte opérationnel, capable de réaliser concrètement les actions, avec une forte implication technique. Les soft skills (esprit d’équipe, autonomie, sens de la communication) sont également essentiels pour réussir cette mission.
Freelance

Mission freelance
Infrastructure Engineer Expert

Codezys
Publiée le
Apache Tomcat
Axway
Azure

12 mois
Paris, France
Groupe d'une société d'assurance et de services financiers est une entreprise spécialisée en informatique fournissant des services à ses entités opérant dans le secteur bancaire et des assurances. Elle développe et exploite des solutions métier transversales à l'échelle internationale. Travaillant pour différentes entités du groupe, cette organisation dispose d'un champ d'action mondial avec des bureaux dans plusieurs pays. Ingénieur Infrastructure Expert - Service de Transfert de Fichiers Services : Gestion des systèmes, bases de données et réseaux. Maintenance et support applicatif. Gestion des processus IPC. Gestion de projets. Qualité de service (QoS) et gouvernance. Soutien à l'infrastructure informatique pour les équipes métier et développement. Support à la production et prestation de services IT. Soutien au développement et à la maintenance des applications métier. Objectifs et livrables Plateformes de transfert de fichiers transversales gérées. Installation, mises à jour et maintenance des plateformes. Surveillance de la production et résolution des incidents techniques. Administration des transferts de données internes et externes, en lien avec divers partenaires. Support aux clients pour la mise en œuvre des transferts, avec assistance dans la résolution des incidents applicatifs. Soutien au transfert de fichiers en production, avec priorisation des activités. Construction de scripts et suivi des exécutions de transferts de fichiers. Surveillance des applications et reporting. Analyse et préparation de documentation précise pour la production. Soutien à la gestion des incidents, des problèmes et des changements en environnement d'entreprise, en apportant un support de 3e niveau. Amélioration et extension de la stabilité et des performances des systèmes opérationnels. Création et optimisation des guides opérationnels, des instructions d'implémentation et de la documentation nécessaire. Mise en œuvre de demandes de travaux standard (selon des normes internes et l'utilisation d'une plateforme de gestion des services). Résolution des incidents dans les domaines techniques concernées. Développement de scripts pour automatisation et traitements par lots, en collaboration étroite avec les équipes de développement. Création de scripts conformément aux normes et procédures internes. Soutien et suivi des services sur les serveurs en production. Rédaction technique de la documentation conformément aux réglementations internes.
Freelance
CDI

Offre d'emploi
Consultant MSBI

UCASE CONSULTING
Publiée le
ADFS
PowerBI
SQL

3 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre du renforcement de son pôle data, notre client dans le secteur de l'immobilier français, acteur majeur de la transformation urbaine bas carbone, recherche un Consultant Microsoft BI confirmé . Vous interviendrez au sein de la DSI sur des projets data stratégiques, notamment autour du MDM Marketing / RFE , avec un fort enjeu de structuration et de fiabilisation des données. Missions principales Développer et optimiser des bases de données SQL Server Concevoir et maintenir des scripts SQL / procédures stockées Développer des pipelines Azure Data Factory Participer à la mise en place des bonnes pratiques Data (CI/CD, DevOps, Data Quality) Proposer des axes d’ optimisation des performances Rédiger la documentation technique et participer aux recettes Gérer le code source ( Azure DevOps / Git ) Préparer les mises en production et les livrables ass Environnement technique : Base de données : SQL Server ETL / Data : Azure Data Factory DevOps : Azure DevOps, CI/CD Versionning : Git / TFS
Freelance
CDI

Offre d'emploi
DATA ANALYST AZURE / POWER BI

UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Data Analyst Azure / Power BI : ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production. FORMATION, PROFIL ET EXPERIENCE : · Expérience significative dans le domaine de trois années d’expérience · Connaissance approfondie de Azure Data Factory · Connaissance approfondie des bases de données relationnelles et du langage SQL · Connaissance de TFS / Git (ou à minima autre gestionnaire de code source) · Expérience en déploiement continu CI/CD (Azure Devops)
Freelance

Mission freelance
Cloud Network Expert (Azure / AWS)

Codezys
Publiée le
AWS CloudFormation
Azure
Azure Data Factory

6 mois
Paris, France
Contexte : Transformation digitale / Organisation dirigée par la technologie – Passage au Cloud Environnement international – Maîtrise de l’anglais professionnel requise Séniorité : 7 à 10+ années d’expérience 2) Objectifs & responsabilités principales Conception & déploiement Cloud Network Concevoir, déployer et maintenir des réseaux virtuels Azure & AWS selon une architecture Hub & Spoke Mettre en œuvre des architectures réseau cloud robustes, industrielles et évolutives Assurer la disponibilité et la performance des réseaux pour les applications Support & troubleshooting Supporter et diagnostiquer les incidents liés aux réseaux cloud (VPN, connectivité, performance) Garantir un niveau élevé de service et de disponibilité des environnements Azure/AWS Documentation & standardisation Produire la documentation technique : low-level design (LLD), configurations, plans de migration, procédures opérationnelles (RUN) Maintenir et enrichir en continu les référentiels techniques et documentations Collaboration & accompagnement projets Collaborer transverse avec les équipes internes (sécurité, infrastructure, projets) Recueillir les besoins, accompagner les déploiements et garantir la scalabilité, la sécurité et la conformité Participer à l’industrialisation via des templates et bonnes pratiques réseau Capacité, performance & résilience Contribuer à la planification de la capacité (capacity planning) Participer au tuning de la performance et à la définition de stratégies de résilience Mettre en œuvre les roadmaps d’upgrade, de patching, ainsi que les plans de PRA / Disaster Recovery Sécurité Cloud (rôle clé) Assurer un haut niveau de posture de sécurité des réseaux cloud publics Concevoir et optimiser des architectures réseau sécurisées selon les besoins Collaborer avec les parties prenantes pour réduire les risques et renforcer la sécurité 3) Livrables attendus Designs d’architecture réseau cloud (Hub & Spoke, connectivité hybride) Low Level Design (LLD) et documents d’implémentation Plans de migration réseau et documents de transition Procédures opérationnelles (RUN / exploitation) Templates d’architecture et standards réseau Roadmaps pour upgrades, patching, et plans de PRA / DR Scripts et modules d’automatisation (Terraform, Python, API)
Freelance

Mission freelance
Senior Platform Engineer (CaaS)

Codezys
Publiée le
Ansible
AWS CloudFormation
Azure

12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI
Freelance

Offre d'emploi
Architecte Data Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Freelance

Mission freelance
Data Engineer Azure Python

Cherry Pick
Publiée le
Azure
Python
SQL

12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Freelance

Mission freelance
Data Engineer / Analyste Azure (MSBI) :

Cherry Pick
Publiée le
Azure
MSBI
SQL

12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Bonjour, Pour le compte de l’un de nos clients, acteur majeur du secteur du luxe, nous recherchons un Data Architect afin d’intervenir sur une mission stratégique autour de la structuration, gouvernance et valorisation des données . 📍 Informations clés Localisation : Paris (présence sur site requise) TJM max : 1200 € Démarrage : ASAP Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez sur la mise en place d’une architecture data moderne et scalable basée sur Azure Fabric , avec un fort enjeu autour de la gouvernance, de la qualité des données et de leur valorisation auprès des métiers. 🎯 Responsabilités principales 🔹 Architecture & Data Platform Concevoir et déployer des solutions data end-to-end (Lakehouse, Data Warehouse, modèles sémantiques) Structurer les couches de données ( Bronze / Silver / Gold ) Garantir la scalabilité, la performance et la robustesse de la plateforme 🔹 Data Engineering & Modélisation Concevoir et implémenter des pipelines ETL / ELT Définir les règles de transformation, de gestion des données incrémentales et des dimensions Optimiser les performances des requêtes et du stockage Développer des scripts Python (PySpark) et des requêtes SQL avancées 🔹 Gouvernance & Qualité des données Définir et mettre en œuvre les frameworks de gouvernance (traçabilité, métadonnées, qualité) Implémenter les mécanismes de contrôle qualité et gestion des erreurs Mettre en place les politiques de sécurité et d’accès ( RBAC, RLS ) 🔹 CI/CD & Industrialisation Mettre en place des pipelines CI/CD pour les produits data Gérer les référentiels Git, stratégies de versioning et déploiements Garantir la traçabilité et l’audit des évolutions 🔹 Data Mapping & KPI Assurer la cartographie des flux de données de bout en bout (E2E) Définir les règles métier et indicateurs KPI en lien avec les enjeux business Construire les dictionnaires de données et glossaires métier 🔹 Documentation & bonnes pratiques Définir les standards d’architecture et de développement Documenter les processus, runbooks, guidelines et décisions d’architecture (ADR) Accompagner les équipes et faciliter l’onboarding 🛠️ Environnement technique Cloud & Data Platform : Microsoft Azure, Azure Fabric Data Engineering : PySpark, SQL, Azure Data Factory, dbt CI/CD & DevOps : GitHub, Git CLI, Azure DevOps Pipelines, GitHub Actions BI & Data Viz : Power BI (RLS) Gouvernance : Azure AD / Entra ID, Purview Documentation : Confluence, Visio / Lucidchart 👤 Profil recherché Data Architect avec 7 ans d’expérience minimum Forte expertise sur les environnements Azure Data (Fabric / Data Platform) Solide expérience en architecture data, gouvernance et modélisation Excellente maîtrise de SQL et Python (PySpark) Expérience en industrialisation, CI/CD et gestion de plateformes data Très bonnes capacités de communication, structuration et vision transverse
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
33 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous