Trouvez votre prochaine offre d’emploi ou de mission freelance Azure

Ce qu’il faut savoir sur Azure

Azure est la plateforme de cloud computing de Microsoft offrant une large gamme de services pour créer, déployer et gérer des applications. Sa scalabilité et sa flexibilité le rendent adapté aux entreprises de toutes tailles.

Votre recherche renvoie 1 340 résultats.
Freelance

Mission freelance
Développeur Python devops AWS AZURE Anglais 480 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-480 €
Île-de-France, France
Développeur Python devops AWS AZURE Anglais 480 e par jour Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 480 e par jour
Freelance

Mission freelance
Ingénierie Mécanique (Expert Data Center) H/F

ALLEGIS GROUP
Publiée le
Azure
Data Center

6 mois
Issy-les-Moulineaux, Île-de-France
Renforcer une culture de sécurité, de sûreté et de conformité dans tous les aspects des activités du datacenter. Comprendre la conception et le fonctionnement de vos datacenters. Travailler aux côtés de professionnels de l’industrie dans les domaines des technologies de l’information (IT) et des environnements critiques (CE) pour soutenir les opérations sur site 24/7/365 des datacenters et des infrastructures mécaniques. Être responsable des audits post-incident et des analyses RCA (Root Cause Analysis) de l’infrastructure mécanique. Identifier, évaluer et proposer des plans de mitigation/résolution pour les risques opérationnels. Superviser, planifier et développer de nouvelles procédures d’exploitation d’urgence (EOP), méthodes opératoires (MOP) et procédures d’exploitation standard (SOP), ou mettre à jour celles existantes. Agir en tant qu’autorité technique pour les opérations sur site des systèmes mécaniques à grande échelle (tels que les systèmes de refroidissement, de lutte contre l’incendie, de carburant) et des systèmes de contrôle/monitoring (BAS), ainsi que pour les conceptions et projets associés. Guider, superviser et soutenir divers types de maintenance (prévue, prédictive, corrective) et réparations en suivant les méthodes opératoires (MOP) et procédures standard (SOP).
CDD
CDI

Offre d'emploi
Data Engineer confirmé H/F

SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI

12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Freelance

Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Freelance

Mission freelance
Ingénieur Production Applicative – Marchés Financiers

VISIAN
Publiée le
Azure
DevOps
Docker

1 an
400-560 €
Île-de-France, France
Contexte Au sein de la DSI d’un grand acteur bancaire international, vous intégrerez une équipe en charge de la production applicative sur des systèmes critiques liés aux activités de marchés financiers. Vous interviendrez dans un environnement exigeant, orienté haute disponibilité, automatisation et pratiques DevOps modernes. 🎯 Missions principales🔧 Exploitation & Résilience Assurer la stabilité, la disponibilité et la sécurité des applications en production Gérer les incidents, analyser les causes racines et coordonner les correctifs Participer aux astreintes Améliorer les dispositifs de monitoring et d’alerting 🚀 Support Projets & Environnements Provisionner et administrer des environnements Linux et Windows Gérer les déploiements et accompagner les équipes de développement Concevoir et optimiser des architectures on-premise et cloud ⚙️ Automatisation & Plateforme Développer des scripts d’automatisation (Python, Shell, PowerShell) Mettre en place et maintenir des pipelines CI/CD Contribuer à l’industrialisation et à la plateforme de delivery
Freelance
CDI

Offre d'emploi
Développeur C# - Finance (H/F)

STORM GROUP
Publiée le
Azure
C#
Python

3 jours
50k-60k €
450-550 €
Île-de-France, France
Vous allez intégrer une équipe à l'intersection des mondes fonctionnel et technique, ayant pour mission de développer et sécuriser des projets informatiques tactiques (citizen) tout en respectant les normes de développement et de sécurité IT. L'objectif principal de l'équipe sera de : Développer de nouvelles fonctionnalités au sein de notre framework en C# Avalon. Assurer le support de la chaîne de production quotidienne et le lien avec l'infra a porto (Portugal). Mettre l'outil aux normes requises et le déployer dans un environnement de production. Suivre le projet en mode Agile, en collaboration directe avec les métiers et l'équipe de production applicative.
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
Freelance

Mission freelance
Ingénieur Systèmes & Réseaux (Linux)

HAYS France
Publiée le
Ansible
Automatisation
AWS Cloud

3 ans
Schiltigheim, Grand Est
Notre client, acteur reconnu de la protection sociale spécialisé dans la gestion de contrats d’assurance, d’épargne et de prévoyance, s’appuie sur des équipes pluridisciplinaires pour délivrer des services fiables, performants et en amélioration continue. Dans ce contexte, il recherche un Ingénieur Systèmes & Réseaux pour intervenir en régie au sein de l’équipe technique. Missions principales : Concevoir et mettre en œuvre des architectures Linux/RedHat Assurer le MCO niveau 2/3 Automatiser les déploiements et opérations (Ansible, Bash/Python) Participer aux choix technologiques et analyses d’impact Appliquer les remédiations de sécurité Gérer et résoudre les incidents complexes Compétences techniques recherchées : Linux / RedHat Architecture systèmes, virtualisation et réseau Automatisation (Ansible, scripting) Sécurité & firewalling (Palo Alto, Stormshield…) Gestion de projet technique Cloud hybride (Azure, AWS, environnements privés)
Freelance

Mission freelance
Administrateur Bases de Données PostgreSQL Expert (Infra / Cloud)

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
DevOps

12 mois
Paris, France
Contexte de la mission Une grande organisation internationale opérant dans un environnement critique et fortement digitalisé investit massivement dans la modernisation de son système d’information, avec un accent particulier sur l’infrastructure et le cloud first (Azure / AWS). Dans le cadre d’un remplacement et d’un renforcement des équipes, elle recherche un Administrateur de Bases de Données PostgreSQL Expert afin d’intervenir au sein d’une équipe DBA transverse, en lien étroit avec les équipes infrastructure, plateformes et développement applicatif. L’environnement est hybride : On-Premise, Cloud Azure et Cloud AWS, avec des exigences élevées en disponibilité, sécurité et automatisation. 2. Objectifs de la prestation Le consultant interviendra sur l’ensemble du cycle de vie des bases de données PostgreSQL : Architecture et design des solutions bases de données Build et mise en production Maintien en condition opérationnelle (MCO) Optimisation des performances Sécurité, supervision et résilience des environnements Il jouera un rôle de référent PostgreSQL et contribuera activement à la démarche DevOps DBA . 3. Périmètre fonctionnel et technique3.1 Administration & exploitation Administration N3 des environnements PostgreSQL (IaaS et PaaS) Installation, configuration, sécurisation et mises à jour PostgreSQL Sauvegarde, restauration et PRA (pg_dump, pg_basebackup, pgBackRest…) Optimisation des performances (requêtes, index, plans d’exécution) Gestion des extensions PostgreSQL (PostGIS, pg_stat_statements, etc.) Supervision et monitoring des bases 3.2 Automatisation & Cloud Automatisation des déploiements et opérations via Ansible, Git, scripting Intégration avec les outils cloud : Infrastructure as Code (Bicep) Supervision et logs (Azure Monitor, Log Analytics) Contribution à la mise en place de dashboards techniques (Grafana) 3.3 Collaboration & support Support technique de niveau avancé Assistance aux équipes de développement et d’infrastructure Rédaction de documentation technique (HLD / LLD, procédures) Participation aux projets en méthodologie agile Interface technique avec des équipes internationales 4. Environnement technique PostgreSQL (production critique) Cloud : Azure & AWS OS : Linux / Unix (Red Hat, Debian…) Infrastructure virtualisée Supervision : Grafana, Prometheus, Zabbix (ou équivalent) Automatisation & DevOps : Ansible, Git, scripting Bash / Python / PowerShell 5. Compétences requises5.1 Compétences techniques clés PostgreSQL expert (plus de 10 ans d’expérience attendue) Administration avancée PostgreSQL en environnement cloud Azure PostgreSQL Flexible Server AWS RDS PostgreSQL Sécurité des bases de données (rôles, chiffrement, audit) Automatisation et Infrastructure as Code Supervision et observabilité 5.2 Certifications Microsoft Certified: Azure Database Administrator Associate (DP-300) – obligatoire 5.3 Compétences générales Excellente capacité d’analyse et de résolution de problèmes complexes Forte rigueur technique et documentaire Capacité de synthèse et de communication Gestion des priorités et résistance au stress Anglais professionnel niveau B2 minimum (oral et écrit) 6. Modalités de la mission Démarrage souhaité : 16/03/2026 Fin de mission initiale : 12/03/2027 Durée : 1 an, renouvelable jusqu’à 3 ans maximum Temps de travail : Temps plein Astreintes : 1 semaine sur 2 ou 3, après période d’adaptation Télétravail : Tous les lundis et mardis Un vendredi sur deux 7. Localisation France : région parisienne (site principal) Belgique : déplacements réguliers à prévoir (Bruxelles) 8. Livrables attendus Time tracking mensuel Rapports d’activité (hebdomadaire / mensuel) Tableaux de bord techniques Documentation d’architecture (HLD / LLD) Procédures d’exploitation Spécifications techniques Documentation PRA et sécurité Contributions aux référentiels techniques internes
Freelance

Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F

Comet
Publiée le
Azure
Bloomberg
IA

128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps / SRE H/F

Le Groupe SYD
Publiée le
Ansible
Azure
Dynatrace

12 mois
42k-50k €
450-500 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps / SRE H/F 📍 Lieu : Niort (79) 🏠 Télétravail : 2 jours / semaine maximum (présence onsite 3j/semaine obligatoire) 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur mutualiste engagé dans l’évolution et la modernisation de son système d’information. Dans un contexte DevSecOps et multicloud (Openshift, Azure, Scaleway), tu interviens au cœur d’équipes agiles pour faire évoluer les outils, optimiser les pratiques et soutenir l’industrialisation des environnements. Tu auras pour missions de : Mettre à disposition et faire évoluer les outils DevOps / SRE dans un contexte DevSecOps. Administrer et superviser les solutions hébergées sur Openshift, Kubernetes et les clouds Azure / Scaleway. Accompagner les squads sur les dimensions performance, robustesse, sécurité, fiabilité tout au long du cycle de vie des produits SI. Contribuer à la mise à disposition des environnements et à l’industrialisation des pipelines CI/CD. Automatiser, industrialiser et fiabiliser les déploiements dans une logique DevOps. Garantir l’exploitabilité et l’observabilité des produits (supervision, traces, métriques). Participer au capacity planning et à la gestion des impacts techniques en production. Contribuer à l’amélioration continue des environnements et pratiques techniques. 🧰 Stack technique : Déploiement & Cloud : Kubernetes, Openshift, Helm, Azure, Scaleway, Pulumi, Terraform Observabilité : Dynatrace, Grafana, Prometheus, Kibana CI/CD : Github, Jenkins, Ansible Testing & Performance : JMeter, Postman, Gatling Connaissances attendues : hébergement applicatif en conteneur (Openshift/Kubernetes), cloud (Azure/Scaleway), bonnes pratiques DevOps & SRE, gestion de configuration Bonus apprécié : appétence développement Java et IA (MLflow)
Freelance

Mission freelance
Chef de Projet Transverse

DEVIK CONSULTING
Publiée le
Active Directory
Azure
Firewall

1 an
550-700 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Chef de Projet Transverse Workplace (CTO) pour piloter et coordonner plusieurs projets stratégiques liés à l’infrastructure, au cloud et aux environnements utilisateurs, en assurant la continuité des initiatives déjà engagées. Tâches principales Cadrer les projets : recueillir les besoins, organiser des ateliers, formaliser les objectifs, définir le périmètre, les livrables et les priorités. Construire et suivre la roadmap projet : planning, jalons, ressources nécessaires, dépendances, plan de charge. Coordonner les équipes techniques (Workplace, Cloud, Réseau, Sécurité, IAM, partenaires externes) et assurer l’alignement transversal. Piloter l’exécution opérationnelle : suivi des actions, animation des comités, gestion des points bloquants et arbitrages. Assurer la gestion des risques : identifier les risques techniques/sécurité/organisationnels, proposer des plans de mitigation et suivre leur résolution. Suivre le budget et le reporting : assurer un reporting régulier auprès du management CTO sur l’avancement, les KPIs, les alertes et les décisions à prendre. Garantir la conformité : s’assurer que les projets respectent les standards d’architecture, les règles de sécurité et les cadres de gouvernance client. Documenter les procédures, choix techniques, processus de migration et plans de déploiement. Accompagner le changement : support à la mise en production, coordination des phases de test, formation et adoption utilisateurs. Projets concernés Modernisation de l’architecture Azure (Landing Zone, firewall, tiering model) Déploiement de Windows 365 pour les utilisateurs internes Mise en place d’un VDI Windows 365 pour les partenaires Transformation IAM partenaires (AD / Entra ID / RBAC / accès conditionnels) Lieu : Paris
Freelance
CDI

Offre d'emploi
Storage DevOps

Codezys
Publiée le
autonomie
Azure
CI/CD

6 mois
Paris, France
Dans le cadre de son nouveau programme de transformation cloud, l’organisation a décidé avec ses entités de moderniser l’ensemble des infrastructures encore hébergées dans les datacenters régionaux, afin de prendre en charge des charges de travail non éligibles au Cloud Public. Objectifs et livrables 1. Gestion des pipelines CI/CD : Conception et mise en œuvre : Créer et maintenir des pipelines CI/CD pour automatiser la construction, les tests et le déploiement des partages de stockage. Optimisation : Améliorer en continu l’efficacité et la fiabilité des pipelines. 2. Infrastructure as Code (IaC) : Automation : Utiliser des outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le biais de code. Scalabilité : Assurer une montée en charge efficace de l’infrastructure pour répondre à la demande. 3. Monitoring et journalisation : Mise en place : Déployer des outils de surveillance pour suivre la performance des systèmes. Analyse : Analyser les logs afin d’identifier et de résoudre proactivement les problèmes. 4. Sécurité : Meilleures pratiques : Intégrer des mesures de sécurité et des vérifications de conformité dans les pipelines CI/CD. Gestion des incidents : Élaborer et maintenir des plans de réponse aux incidents. 5. Collaboration : Équipes transverses : Collaborer étroitement avec les équipes de développement, assurance qualité et opérations pour assurer un flux de travail fluide. Communication : Faciliter la communication entre les équipes afin de résoudre rapidement les problématiques. Documentation : Rédiger des plans de tests, des procédures et des documents de transfert pour permettre l’automatisation et assurer la transmission des connaissances aux experts et à l’équipe Q&A. Compétences et expériences requises Connaissance des systèmes de stockage est un plus. Une certification Cloud DevOps est un avantage. Maîtrise des plateformes cloud telles qu'AWS ou Azure, indispensable. Expérience confirmée en environnement IT (gestion d’incidents, rotation 24/7, organisation matinale, assurance qualité). Compétences en scripting et automatisation avec Python, Ansible, Terraform. Expérience avec Docker appréciée. Documentation : Maintenir une documentation claire et complète, comprenant procédures, processus, supports de formation et plans de test.
Freelance

Mission freelance
Data Engineer (H/F) - 63

Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Freelance

Mission freelance
Analytics Engineer – Data & BI

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Freelance

Mission freelance
Architecte Solutions/ Teach Lead Snowflake/Snowpark (Bancaire)

Nicholson SAS
Publiée le
Apache Spark
Azure
CI/CD

6 mois
460 €
Fontenay-sous-Bois, Île-de-France
Cette mission d’envergure au sein du pilier RPBI de mon client bancaire dans le Val de Marne vise à transformer l'architecture data du groupe. En tant qu’ Architecte Solutions / Tech Lead , vous piloterez la migration stratégique de l'écosystème Hadoop vers Snowflake/Snowpark . Le rôle combine vision architecturale et leadership technique au sein d’un environnement Agile. Vos responsabilités incluent la définition des standards de développement, l'optimisation des pipelines de données via Snowpark/Scala et l'encadrement des Feature Teams. Dans un contexte Cloud Azure , vous garantirez la robustesse des solutions en appliquant les principes de Clean Code et de CI/CD. Points clés : Expertise : Snowflake, Snowpark, Scala et migration Hadoop (Cloudera). Profil : +7 ans d'expérience, capacité de vulgarisation et leadership. Durée : Longue visibilité (jusqu’en sept. 2028). Rythme : Hybride (2 jours sur site). C'est une opportunité rare de structurer la gouvernance data d'une grande banque internationale.

Les métiers et les missions en freelance pour Azure

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise Azure pour automatiser et gérer les déploiements d'applications Cloud, en garantissant leur disponibilité, leur scalabilité et leur sécurité.

Architecte Cloud

L’architecte Cloud conçoit des solutions d'infrastructure basées sur Azure, en intégrant des services Cloud sécurisés et évolutifs adaptés aux besoins spécifiques des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise Azure pour superviser les environnements Cloud, en optimisant leur performance et en garantissant leur fiabilité à travers les différents services de la plateforme.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux utilise Azure pour configurer et sécuriser les environnements Cloud tout en assurant leur intégration avec les réseaux d'entreprise.

1340 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous