Trouvez votre prochaine offre d’emploi ou de mission freelance Azure à Paris

Ce qu’il faut savoir sur Azure

Azure est la plateforme de cloud computing de Microsoft offrant une large gamme de services pour créer, déployer et gérer des applications. Sa scalabilité et sa flexibilité le rendent adapté aux entreprises de toutes tailles.

Votre recherche renvoie 227 résultats.
Freelance
CDI
CDD

Offre d'emploi
DevOps & SRE Engineer (H/F)

RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud

1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Freelance

Mission freelance
Chef de Projet Transverse

DEVIK CONSULTING
Publiée le
Active Directory
Azure
Firewall

1 an
550-700 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Chef de Projet Transverse Workplace (CTO) pour piloter et coordonner plusieurs projets stratégiques liés à l’infrastructure, au cloud et aux environnements utilisateurs, en assurant la continuité des initiatives déjà engagées. Tâches principales Cadrer les projets : recueillir les besoins, organiser des ateliers, formaliser les objectifs, définir le périmètre, les livrables et les priorités. Construire et suivre la roadmap projet : planning, jalons, ressources nécessaires, dépendances, plan de charge. Coordonner les équipes techniques (Workplace, Cloud, Réseau, Sécurité, IAM, partenaires externes) et assurer l’alignement transversal. Piloter l’exécution opérationnelle : suivi des actions, animation des comités, gestion des points bloquants et arbitrages. Assurer la gestion des risques : identifier les risques techniques/sécurité/organisationnels, proposer des plans de mitigation et suivre leur résolution. Suivre le budget et le reporting : assurer un reporting régulier auprès du management CTO sur l’avancement, les KPIs, les alertes et les décisions à prendre. Garantir la conformité : s’assurer que les projets respectent les standards d’architecture, les règles de sécurité et les cadres de gouvernance client. Documenter les procédures, choix techniques, processus de migration et plans de déploiement. Accompagner le changement : support à la mise en production, coordination des phases de test, formation et adoption utilisateurs. Projets concernés Modernisation de l’architecture Azure (Landing Zone, firewall, tiering model) Déploiement de Windows 365 pour les utilisateurs internes Mise en place d’un VDI Windows 365 pour les partenaires Transformation IAM partenaires (AD / Entra ID / RBAC / accès conditionnels) Lieu : Paris
Freelance
CDI

Offre d'emploi
SOC Expert (Incident Response / Detection Engineering / SOAR)

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
Bash

12 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son dispositif de cybersécurité, un acteur majeur du secteur financier recherche un SOC Expert afin de renforcer les capacités de détection, d’investigation et d’automatisation de son Security Operations Center. L’objectif est d’améliorer la posture de sécurité globale, réduire les délais de détection et de remédiation (MTTD / MTTR), diminuer les faux positifs et renforcer la couverture des menaces. La mission s’inscrit dans un environnement international avec des infrastructures hybrides (on-premise et cloud). Objectifs de la mission Le consultant interviendra sur quatre axes principaux : Incident Response & Case Management Gestion complète des incidents de sécurité (analyse, qualification, remédiation) Coordination des actions de containment, eradication et recovery Documentation rigoureuse dans l’outil de gestion des incidents Traitement des demandes sécurité remontées par les utilisateurs Amélioration continue des playbooks d’intervention SOC Tooling & Platform Operations Administration des outils SOC : SIEM SOAR Outils de vulnérabilité / compliance Mise à jour des plateformes Tests de performance et health checks Déploiement des évolutions de configuration Detection Engineering Intégration de nouvelles sources de logs dans le SIEM Création et tuning de règles de détection avancées Réduction des faux positifs Mise en place de dashboards de suivi Mapping des détections vers le framework MITRE ATT&CK Automatisation (SOAR) Conception de playbooks dynamiques Automatisation des réponses : Isolation endpoint Blocage IP Désactivation comptes Scans post-incident Intégration cross-tools
CDI

Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)

ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Freelance

Mission freelance
Architecte DATA - Paris

SKILL EXPERT
Publiée le
Azure
Big Data
CI/CD

1 an
520-540 €
Paris, France
Mission : Analyser les besoins et usages en données des différents métiers de l’entreprise. Recommander des solutions de stockage et gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme, Contribuer à l’observabilité de la plateforme, Implémenter la plateforme et les outillages associés, Assurer le maintien en condition opérationnelle de la plateforme, Assurer la sécurité des accès et de la plateforme, Mettre en place une stratégie de monitoring des coûts et d'optimisation des ressources Azure
Freelance

Mission freelance
Infrastructure Engineer Expert

Codezys
Publiée le
Apache Tomcat
Axway
Azure

12 mois
Paris, France
Groupe d'une société d'assurance et de services financiers est une entreprise spécialisée en informatique fournissant des services à ses entités opérant dans le secteur bancaire et des assurances. Elle développe et exploite des solutions métier transversales à l'échelle internationale. Travaillant pour différentes entités du groupe, cette organisation dispose d'un champ d'action mondial avec des bureaux dans plusieurs pays. Ingénieur Infrastructure Expert - Service de Transfert de Fichiers Services : Gestion des systèmes, bases de données et réseaux. Maintenance et support applicatif. Gestion des processus IPC. Gestion de projets. Qualité de service (QoS) et gouvernance. Soutien à l'infrastructure informatique pour les équipes métier et développement. Support à la production et prestation de services IT. Soutien au développement et à la maintenance des applications métier. Objectifs et livrables Plateformes de transfert de fichiers transversales gérées. Installation, mises à jour et maintenance des plateformes. Surveillance de la production et résolution des incidents techniques. Administration des transferts de données internes et externes, en lien avec divers partenaires. Support aux clients pour la mise en œuvre des transferts, avec assistance dans la résolution des incidents applicatifs. Soutien au transfert de fichiers en production, avec priorisation des activités. Construction de scripts et suivi des exécutions de transferts de fichiers. Surveillance des applications et reporting. Analyse et préparation de documentation précise pour la production. Soutien à la gestion des incidents, des problèmes et des changements en environnement d'entreprise, en apportant un support de 3e niveau. Amélioration et extension de la stabilité et des performances des systèmes opérationnels. Création et optimisation des guides opérationnels, des instructions d'implémentation et de la documentation nécessaire. Mise en œuvre de demandes de travaux standard (selon des normes internes et l'utilisation d'une plateforme de gestion des services). Résolution des incidents dans les domaines techniques concernées. Développement de scripts pour automatisation et traitements par lots, en collaboration étroite avec les équipes de développement. Création de scripts conformément aux normes et procédures internes. Soutien et suivi des services sur les serveurs en production. Rédaction technique de la documentation conformément aux réglementations internes.
Freelance

Mission freelance
Network Operation Manager H/F

KOLABS Group
Publiée le
Azure
Cisco
Fortinet

1 an
Paris, France
Nous recherchons pour le compte de notre client un Network Operation Manager afin de renforcer son équipe. Le poste a pour mission d’appliquer des contrôles opérationnels stricts afin d’assurer une performance cohérente des processus techniques et une gouvernance de qualité sur la gestion des tickets, la liaison incidents– changements et la gestion des flux de travail multi-clients. Le poste implique un rôle actif dans l’évaluation des dispositifs internes, la proposition d’améliorations et d’initiatives innovantes pour optimiser les opérations techniques et améliorer la performance globale des services. 💼 Missions : Établir et maintenir des standards de contrôle pour le traitement des tickets techniques, incluant des revues périodiques pour vérifier l’exactitude du contenu et la conformité des workflows établis Surveiller les tendances des tickets et signaler toute incohérence, lacune ou déviation dans les processus Identifier les corrélations entre causes et tickets et mettre en œuvre des améliorations sur le cycle de vie des tickets Garantir la liaison correcte entre incidents et changements, assurer la traçabilité complète et initier des actions correctives si nécessaire Collaborer avec les équipes engineering, opérations et gestion des changements pour réduire les problèmes récurrents et améliorer les pratiques de liaison Définir les responsabilités à chaque point de contrôle technique et renforcer les pratiques de gouvernance Évaluer les systèmes et workflows internes, identifier les inefficacités et proposer des améliorations conformes aux meilleures pratiques techniques Encourager l’adoption d’outils modernes, de tableaux de bord et d’indicateurs pour améliorer la visibilité sur la performance Standardiser les processus techniques entre différents clients pour assurer cohérence, fiabilité et efficacité Identifier les processus variés et les standardiser en cadres évolutifs tout en respectant les exigences spécifiques des clients Proposer des initiatives d’automatisation et d’amélioration continue pour optimiser la qualité globale des opérations
Freelance

Mission freelance
Expertise DataViz et DataScience

Codezys
Publiée le
Azure
CI/CD
Data science

12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Freelance
CDI

Offre d'emploi
Ingénieur IA (H/F)

Codezys
Publiée le
API
Azure
Deep Learning

12 mois
Paris, France
Dans le cadre d’un renforcement urgent de notre équipe dédiée à l'intelligence artificielle, nous lançons une procédure de recrutement suite à une erreur précédente qui a conduit à l’absence de livraison sur la mission attendue. Nous recherchons dès à présent un(e) Ingénieur(e) IA opérationnel(le) immédiatement, capable de produire rapidement des résultats concrets, des livrables exploitables et des solutions immédiates. Missions principales En tant qu’Ingénieur(e) IA, votre objectif sera de concevoir, développer et déployer des solutions IA performantes, en mettant l’accent sur l’efficacité et l’impact. Développer et mettre en production des modèles IA / ML (NLP, vision, prédiction, classification, selon les besoins) Concevoir des pipelines de traitement des données et entraîner des modèles Optimiser les performances en termes d’exactitude, de latence et de coût Industrialiser les solutions : effectuer des tests, assurer le monitoring, gérer le versioning et appliquer les pratiques MLOps Participer à la définition des cas d’usage en collaboration avec les équipes métier et produit Assurer une livraison rapide de POC (Proof of Concept), MVP (Minimum Viable Product) et de la mise en production Rédiger la documentation, transmettre les compétences et assurer le suivi des avancées
Freelance

Mission freelance
Concepteur-Développeur Sénior H/F

Insitoo Freelances
Publiée le
Azure Kubernetes Service (AKS)
Java
PostgreSQL

2 ans
500-540 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Concepteur-Développeur Sénior H/F à Paris, France. Contexte : Les missions attendues par le Concepteur-Développeur Sénior H/F : - Comprendre la demande du client et participer à l’analyse des exigences SI - S’approprier les spécifications fonctionnelles détaillées qui seront fournies par l’équipe MOA - Comprendre les données manipulées à assembler pour construire le service attendu pour la couche de transformation au format SFERA - Produire les documents techniques (Spécifications techniques détaillées, Dossier de Programmation). - Être à l’aise avec les outils de tests (Postman et ou Soap UI) pour la partie qualification des webs services - Contribuer à la conception technique des web services - Développer les web services prévus pour fournir des vues assemblées de données issues des gisements de données de l’entreprise. - Connaissances demandées : Environnement : Linux, serveurs applicatif Sprinboot Packaging des versions : Ansible, Jenkins, Docker et Kubernetes Développement de la solution : Java 17 o Base de données : PostgreSQL Mise en intégration et PROD, expériences en micro-service
Freelance

Mission freelance
Senior Platform Engineer (CaaS)

Codezys
Publiée le
Ansible
AWS CloudFormation
Azure

12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Offre premium
CDI
Freelance

Offre d'emploi
Expert Bases de Données (Cassandra)

Lùkla
Publiée le
Ansible
Azure
Cassandra

3 ans
44k-70k €
400-700 €
Paris, France
Une maison de luxe internationale recherche un Expert Bases de Données afin de renforcer l’animation et l’expertise du domaine Databases au sein de ses équipes. Le poste s’inscrit dans un contexte de croissance des environnements relationnels et NoSQL, avec une présence internationale et des équipes réparties sur plusieurs continents. Le consultant contribuera à garantir la performance, la disponibilité et la sécurité des systèmes de bases de données critiques pour les applications de l’entreprise. Le consultant aura pour principales responsabilités : Administration & Maintenance Installer, configurer et mettre à jour les bases de données relationnelles (PostgreSQL, MySQL, MariaDB) et NoSQL (Cassandra). Assurer la maintenance préventive et corrective des systèmes. Optimisation des Performances Optimiser les requêtes, gérer les index et concevoir des schémas pour assurer une latence minimale. Garantir la performance des bases de données pour des charges applicatives importantes. Haute Disponibilité & Reprise après Sinistre Concevoir et mettre en œuvre des solutions de clustering, de réplication et de sauvegarde robustes. Modélisation & Support Développement Collaborer avec les équipes de développement pour choisir la base de données adaptée à chaque cas d’usage. Participer à l’audit et à la révision de la documentation existante. Sécurité & Conformité Implémenter des contrôles d’accès basés sur les rôles (RBAC), le chiffrement des données et la journalisation des audits. Rédiger une documentation claire et complète des systèmes de bases de données.
Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.

Les métiers et les missions en freelance pour Azure

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise Azure pour automatiser et gérer les déploiements d'applications Cloud, en garantissant leur disponibilité, leur scalabilité et leur sécurité.

Architecte Cloud

L’architecte Cloud conçoit des solutions d'infrastructure basées sur Azure, en intégrant des services Cloud sécurisés et évolutifs adaptés aux besoins spécifiques des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise Azure pour superviser les environnements Cloud, en optimisant leur performance et en garantissant leur fiabilité à travers les différents services de la plateforme.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux utilise Azure pour configurer et sécuriser les environnements Cloud tout en assurant leur intégration avec les réseaux d'entreprise.

227 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous