Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Synapse à Paris
Votre recherche renvoie 7 résultats.
Offre d'emploi
Expert Data Référentiels
Management Square
Publiée le
API
Azure DevOps
Azure Synapse
1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Mission freelance
Architecte DATA - Paris
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
450-500 €
Paris, France
Recherche d'un architecte Data expérimenté pour renforcer la maîtrise technique d’un projet DataCloud. Contexte : Un interne partira le 1er avril 2026, nécessitant son remplacement pour assurer la continuité du projet. Mission : Analyser les besoins et usages en données des différentes unités métier de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Participer à la conception de l’architecture de la plateforme DataCloud. Contribuer à l’amélioration de l’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle continue de la plateforme. Garantir la sécurité des accès et de l’ensemble de la plateforme. Définir et mettre en place une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités : Participer aux décisions de design technique (Design Authority). Contribuer aux travaux du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment pour la construction et la maintenance du socle technique (infrastructure, FinOps, habilitations, conformité, CI/CD). Contribuer à l’automatisation des déploiements et à la gestion du cycle de vie de la plateforme. Surveiller le comportement et la performance de la plateforme. Participer à la résolution des incidents opérationnels. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires clients : Localisation idéale : Dijon, Châlons-en-Champagne, Paris, Nantes ou Limoges. Expérience requise : minimum 5 ans dans le domaine de la Data. Budget prestataire : TJM de 500€, à négocier selon profil. Début souhaité : dès que possible, en veillant à effectuer un transfert de compétences avec le précédent avant le 1er avril 2026. Profil recherché : Un architecte opérationnel, capable de réaliser concrètement les actions, avec une forte implication technique. Les soft skills (esprit d’équipe, autonomie, sens de la communication) sont également essentiels pour réussir cette mission.
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Mission freelance
Cloud Network Expert (Azure / AWS)
Codezys
Publiée le
AWS CloudFormation
Azure
Azure Data Factory
6 mois
Paris, France
Contexte : Transformation digitale / Organisation dirigée par la technologie – Passage au Cloud Environnement international – Maîtrise de l’anglais professionnel requise Séniorité : 7 à 10+ années d’expérience 2) Objectifs & responsabilités principales Conception & déploiement Cloud Network Concevoir, déployer et maintenir des réseaux virtuels Azure & AWS selon une architecture Hub & Spoke Mettre en œuvre des architectures réseau cloud robustes, industrielles et évolutives Assurer la disponibilité et la performance des réseaux pour les applications Support & troubleshooting Supporter et diagnostiquer les incidents liés aux réseaux cloud (VPN, connectivité, performance) Garantir un niveau élevé de service et de disponibilité des environnements Azure/AWS Documentation & standardisation Produire la documentation technique : low-level design (LLD), configurations, plans de migration, procédures opérationnelles (RUN) Maintenir et enrichir en continu les référentiels techniques et documentations Collaboration & accompagnement projets Collaborer transverse avec les équipes internes (sécurité, infrastructure, projets) Recueillir les besoins, accompagner les déploiements et garantir la scalabilité, la sécurité et la conformité Participer à l’industrialisation via des templates et bonnes pratiques réseau Capacité, performance & résilience Contribuer à la planification de la capacité (capacity planning) Participer au tuning de la performance et à la définition de stratégies de résilience Mettre en œuvre les roadmaps d’upgrade, de patching, ainsi que les plans de PRA / Disaster Recovery Sécurité Cloud (rôle clé) Assurer un haut niveau de posture de sécurité des réseaux cloud publics Concevoir et optimiser des architectures réseau sécurisées selon les besoins Collaborer avec les parties prenantes pour réduire les risques et renforcer la sécurité 3) Livrables attendus Designs d’architecture réseau cloud (Hub & Spoke, connectivité hybride) Low Level Design (LLD) et documents d’implémentation Plans de migration réseau et documents de transition Procédures opérationnelles (RUN / exploitation) Templates d’architecture et standards réseau Roadmaps pour upgrades, patching, et plans de PRA / DR Scripts et modules d’automatisation (Terraform, Python, API)
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Mission freelance
AI Data Engineer (Microsoft Fabric & Azure) (h/f)
emagine Consulting SARL
Publiée le
6 mois
550-650 €
75001, Paris, Île-de-France
Vous êtes un ingénieur de données IA expérimenté et possédez une expertise pratique approfondie de Microsoft Fabric et de l'ingénierie de données Azure moderne ? emagine vous offre l'opportunité de participer au développement, à l'optimisation et à la mise à l'échelle de pipelines de données et d'architectures lakehouse qui permettent la mise en œuvre d'initiatives avancées en matière d'analyse et d'IA au sein d'une équipe internationale. Are you an experienced AI Data Engineer with deep hands‑on expertise in Microsoft Fabric and modern Azure data engineering? emagine has an opportunity for you to support the development, optimisation, and scaling of data pipelines and lakehouse architectures that enable advanced analytics and AI initiatives across a global team. Skills & Experience 10+ years’ experience as a Data Engineer, AI Engineer, or similar role. Strong hands‑on experience with Microsoft Fabric (Lakehouse, Data Engineering, Data Factory, Data Pipelines). Deep expertise across Azure Data Services: Azure Data Factory Azure Databricks / Spark Azure Synapse Analytics (SQL Pools) Azure Storage / ADLS Gen2 Azure Functions Azure Machine Learning Proficiency in Python and SQL for data processing and transformation. Strong experience building lakehouse architectures and Delta Lake pipelines. Knowledge of modern DevOps/MLOps practices including testing, version control, and automated deployment. Familiarity with governance solutions such as Azure Purview or Fabric governance. Key Tasks & Deliverables You will play a pivotal role in designing and running data engineering capabilities that enable analytics, AI, and ML use cases. Responsibilities include: Data Engineering & Architecture Design, build, and maintain scalable data pipelines on Microsoft Fabric (Data Factory, Dataflows, Lakehouse, Warehouse, OneLake). Develop ingestion, transformation, and orchestration workflows using Azure Data Factory, Azure Databricks, Azure Synapse, and Azure Functions. Implement and optimize Delta Lake architectures for both structured and unstructured datasets. Build reusable, production-grade data products supporting analytics, ML, and AI workloads. AI & Advanced Analytics Integration Collaborate with Data Scientists and ML Engineers to operationalize models via Azure Machine Learning, Fabric Data Science, or Databricks. Prepare feature‑engineered datasets for machine learning workloads. Implement MLOps workflows including automated deployments, model monitoring, and pipeline observability. Governance, Quality & Security Implement data quality, observability, monitoring, and lineage frameworks using Fabric and Azure Purview. Ensure compliance with governance, privacy, and security standards. Manage CI/CD pipelines and version‑controlled data code via Azure DevOps or GitHub. Collaboration & Stakeholder Engagement Work closely with business analysts, product owners, and domain experts to define data requirements and deliver high‑value solutions. Maintain documentation of data models, sources, pipelines, and best practices. Provide technical leadership and mentoring across the engineering team. Why join this project? You’ll be joining a collaborative, enabling environment that values innovation while giving you autonomy to architect modern data solutions at scale. Apply with your latest CV or reach out to Brendan to find out more.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois