L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 778 résultats.
Offre d'emploi
Développeur sénior Azure/.net, C#
R&S TELECOM
Publiée le
.NET
Azure
C#
1 an
Orly, Île-de-France
La mission : · Développer les fonctionnalités demandées par l'équipe projet · Proposer des solutions techniques adaptés aux besoins métiers · Développer les évolutions souhaitées dans les technologies demandées dans la prestation .NET, C# · Valider le fonctionnement des développements réalisés (tests unitaires et d'intégration) · Mettre à jour les éléments du backlog en fonction des réalisations faites et de l'état d’avancement. · Archiver les codes réalisés dans Azure DevOps (répertoire GIT) · Effectuer de l’assistance à la partie tests fonctionnels · Maîtrise des process de CD/CI par environnement et stratégie de versioning du code · Développer les interfaces API spécialisées avec IZBERG en micro-services pour 3 parties de l'applicatif B2B (lien avec les partenaires et IZBERG) et B2C (lien avec les clients et IZBERG) et webbook · Mise en place d'un système de queuing pour la gestion asynchrone des interactions OMS/PSP · Développement de bibliothèques partagées pour la gestion transverse des erreurs et des logs applicatifs · Maîtrise des patterns OAUTH, OpenID Connect · Strategie de test de couverture de code
Offre d'emploi
Ingénieur DevOps Azure - Lille (H/F)
STORM GROUP
Publiée le
Azure DevOps
Bash
CI/CD
3 ans
40k-45k €
330-350 €
Lille, Hauts-de-France
Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Nantes, Pays de la Loire
Contexte de la mission Améliorer l'industrialisation, la sécurisation et la supervision des plateformes d'échanges : KAFKA, APIGEE, Bucket GCP, SFTP. Travailler sur la résilience d'APIGEE/KAFKA/SFTP ainsi que les sujets de migration KAFKA (Move 2Paris) et sur les sujets autour de l'IA avec APIGEE (MCP Server), autre plateforme Google Kafka. Un nouveau périmètre à intégrer dans l'équipe Scripts, code Terraform pour ci/cd, Procédures explicatives Astreintes et Intervention à prevoir Objectifs et livrables lCoud Provider Public (idéalement GCP) Scripting (Shell, Python) Terraform, Git , Argo, Kubernetes, Ansible KAFKA, APIGEE, Bucket GCP, SFTP, Cloudflare
Offre d'emploi
DevOps Engineer Cloud / Ingénieur DevOps Cloud
VISIAN
Publiée le
Cloud
GED (Gestion Électronique des Documents)
1 an
40k-45k €
400-550 €
Île-de-France, France
Descriptif du poste Dans le cadre d'une approche Agile / DevOps, au sein de l'équipe Application Production Support en lien avec le Domaine IT4Entreprise de la DSI, la prestation requise doit apporter le support technique au projet de migration de la GED vers le Cloud. La maîtrise des installations en environnement Cloud As Code est requise. Compétence Terraform indispensable. Référent du déploiement technique, une forte autonomie est attendue avec capacité à organiser toutes les tâches nécessaires et en suivre l'avancement global y compris celles d'autres contributeurs techniques et tâches de leadership. La connaissance de produits de GED serait un plus. Relais et garant de la Production tout au long du cycle des produits. Responsabilités principales Contribution dans les projets Cloud et dans la prise en compte des exigences de production : participation dans la définition des solutions techniques, veille de la stabilité des environnements techniques (Production / hors Production) via le monitoring et la supervision des solutions techniques. Responsable de la coordination des actions des autres équipes de la Production sur les tâches projets mais aussi responsable de la coordination et du suivi des actions lors des incidents, de mobiliser les personnes nécessaires à leurs résolutions, rédiger les comptes-rendus. Participation aux réunions de l'équipe projet et est partie prenante des activités et des décisions collectives (évaluation de la complexité, des risques, etc.) tout au long du projet. Bonnes pratiques de production applicative en collaboration avec les Service Reliability Engineer (SRE) et Application Production Support (APS) et les partage largement. Relation étroite avec la Cloud Core Team afin de s'acculturer de la mise en place du Cloud et des Ways of Working notamment pour les pipelines de livraison. Suivi de la mise en place à chaque fois des solutions les plus automatisées possible pour le provisionnement et le déploiement afin de limiter au maximum les tâches manuelles. Suivi de la MCO, des évolutions des applications, des middlewares et des services de son périmètre de responsabilité. Définition et conception des solutions Participation à la définition de la solution technique. Anticipation des problématiques de conformité. Intégration des exigences de la Production et d'infrastructure. Suivi de l'ajout des exigences d'infrastructures dans le backlog Produit ainsi que les user stories techniques jugées nécessaires. Support des équipes de développement. Implémentation des user stories techniques. Montée en compétence et bonnes pratiques Suivi de la montée en compétence de l'équipe sur les bonnes pratiques de production applicative. Sensibilisation et propagation des bonnes pratiques. Formation et accompagnement des membres dans l'adoption des outils. Formations internes à passer avant de travailler sur le Cloud : Cloud 101 – les bases Cloud OPS Bronze – niveau intermédiaire Gestion des ressources et déploiement Suivi et mise à disposition des ressources de Production et d'infrastructure en facilitant le déploiement des solutions. Mettre à disposition de l'équipe les services et ressources de Production en mobilisant les bonnes expertises et en utilisant les solutions d'automatisation. Facilitation du déploiement des solutions en utilisant les pipelines d'automatisation. Vérification de l'exploitabilité des environnements techniques. Contribution aux revues de sécurité. Identification des points de blocage d'exploitation et proposer des plans d'actions.
Offre d'emploi
DevOps
Etixway
Publiée le
AWS Cloud
Azure
Docker
40k-55k €
Île-de-France, France
Et si vous pouviez transformer des infrastructures complexes en systèmes fluides et performants ? Chez ETIXWAY, vous intervenez au coeur des projets de transformation digitale de nos clients. Vous travaillez aux côtés d'équipes techniques et métiers pour concevoir, automatiser et sécuriser des plateformes d'exploitation à grande échelle. Votre quotidien consiste à concevoir des solutions d'automatisation, fluidifier les déploiements et garantir la fiabilité des environnements Cloud. Vous intervenez dès les phases de conception jusqu'à la mise en production, dans un environnement collaboratif et exigeant. Vos missions principales couvrent un large périmètre de responsabilités : - Concevoir et maintenir des pipelines d'intégration et de déploiement continus. - Automatiser la création, la configuration et la mise à jour des serveurs. - Préparer et approvisionner les environnements de tests et de production. - Déployer et mettre en service les produits dans des environnements Cloud sécurisés. - Surveiller et contrôler les performances des applications et infrastructures. - Gérer les containers et orchestrateurs (Kubernetes, Docker, etc.). - Intégrer et sécuriser les infrastructures Cloud (AWS, Azure, GCP). Vous travaillez en lien étroit avec les équipes projet, les architectes et les développeurs afin de garantir la cohérence des solutions et la continuité des services. L'objectif : offrir des solutions fiables, automatisées et évolutives adaptées aux besoins des clients.
Mission freelance
Cloud DevOps – API Management Platform
ESENCA
Publiée le
Argo CD
Azure
Github
1 an
Lille, Hauts-de-France
Attention : mission dans la région lilloise, avec une présence sur site obligatoire, partielle mais régulière. Objectif global Assurer le pilotage et l’évolution d’une plateforme d’API Management à grande échelle, en garantissant performance, disponibilité, sécurité et une expérience développeur optimale. Contrainte forte du projet Connaissance d’un provider d’API Management, idéalement Kong. Description du poste Vous rejoignez une équipe produit en charge d’une plateforme d’API Management combinant des API Gateways et un portail développeur. Cette plateforme permet aux utilisateurs de consommer des API existantes ou d’en exposer de nouvelles, dans un contexte international et multi-environnements. La plateforme héberge plusieurs centaines d’API et supporte des milliards d’appels par semaine. Elle est déployée dans des environnements cloud conteneurisés, multi-tenants et multi-clusters. En tant que Cloud DevOps, vous intervenez sur l’ensemble du cycle de vie de la plateforme, du build au run, dans un environnement technique exigeant. Missions principales Déployer et opérer un portail développeur et des API Gateways dans le cloud Participer à l’industrialisation des déploiements et à l’amélioration continue des pipelines CI/CD Mettre en place et maintenir le monitoring, l’alerting et le respect des SLO Contribuer aux chantiers techniques : intégration d’API Management, service mesh, DRP, FinOps Diagnostiquer et résoudre des incidents dans des environnements complexes à forte charge Participer aux activités de run : support, maintien en conditions opérationnelles et amélioration de l’existant Collaborer avec des équipes internationales dans un contexte distribué Compétences techniques requises Infrastructure & DevOps : Terraform, ArgoCD, Shell, Python Cloud & Conteneurisation : GCP, Azure, Kubernetes, Helm, Aiven Outils & plateformes : GitHub, GitHub Actions, Vault, Artifactory, Jira API Management : Kong ou solution équivalente Observabilité & Run : Datadog, PagerDuty Bonnes connaissances en architecture, systèmes, réseaux et sécurité Compétences linguistiques Anglais professionnel impératif
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Développeur API - Expert Python / FastAPI
Codezys
Publiée le
Angular
API
Azure
12 mois
Paris, France
Principales missions Collaborer avec les équipes d'infrastructure en tant qu' expert en développement Python et FastAPI , pour concevoir, développer, et déployer des APIs de gestion des infrastructures. Participer à la migration vers des solutions cibles API et mettre en œuvre des mesures pour garantir la stabilité et la performance des services. Intégrer des outils DEVOPS tels que XLR, Jenkins, Bitbucket et Artifactory dans le processus de développement. Réaliser des tests unitaires et de non-régression pour assurer la qualité et la fiabilité des APIs développées. Contribuer à l' amélioration continue des pratiques de développement, notamment en matière de performance et de disponibilité. Ce que nous attendons de vous Nous recherchons des experts passionnés disposant d'une solide expérience en développement Python et FastAPI . La connaissance d'outils tel qu' Ansible et Angular sera considérée comme un plus. La maîtrise des concepts CI/CD et une sensibilité à la sécurité des développements sont essentielles. Vous devrez faire preuve d' adaptabilité et d' esprit collaboratif pour travailler efficacement avec diverses équipes. Une expertise approfondie en tests (unitaires, non-régression) et une approche orientée résultats seront fondamentales. Enfin, votre capacité à communiquer et à transmettre vos connaissances sera cruciale pour aider nos équipes à atteindre leur autonomie dans le développement d'APIs. Objectifs et livrables Réaliser des APIs permettant d'accéder aux services internes, tout en respectant les exigences de performance et de sécurité . Définir les nouvelles APIs en collaboration avec les équipes métiers et d'architecture . Développer et maintenir des APIs utilisant des technologies telles que Java, Maven, RAML, Anypoint . Créer les tests unitaires et d' intégration associés à chaque API. Déployer les APIs sur différents environnements , en assurant leur fiabilité et leur conformité aux normes en vigueur.
Offre d'emploi
DevOps Azure H/F
OBJECTWARE
Publiée le
Azure
Niort, Nouvelle-Aquitaine
Vous interviendrez sur l’ensemble du cycle de vie des produits SI, en lien étroit avec les concepteurs et développeurs. Intégrer les enjeux d’exploitabilité, de performance et de supervision dès les phases d’idéation Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité Contribuer à la mise à disposition et au maintien des environnements (conteneurisés, cloud) Automatiser et industrialiser les déploiements dans une logique DevOps / CI-CD Garantir l’exploitabilité et l’observabilité des produits (monitoring, alerting, dashboards) Participer au capacity planning et à l’amélioration continue des produits Être garant de la complétude du dossier d’exploitabilité Environnement technique : - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana, ... - Hébergement application : Azure, Kubernetes... - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins... - Testing-Performance : Jmeter, Postman, Gatling...
Offre d'emploi
Développeur Power Platform
R&S TELECOM
Publiée le
Azure
Microsoft Fabric
Power Apps
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : L'objectif est de développer une solution interne stratégique pour renforcer les capacités de l'équipe commerciale. Cette solution doit fournir des outils et des insights basés sur les données, afin de favoriser une croissance commerciale plus efficace. Pour cela, un développeur spécialisé en Power Platform (Power Apps, Power Automate, Microsoft Fabric) est recherché pour concevoir, intégrer et optimiser des solutions avancées, performantes et sécurisées, adaptées aux enjeux de l'entreprise. Tâches à réaliser : Concevoir et développer des applications Power Apps Canvas et Model-Driven avancées, en utilisant Power Fx et en assurant leur responsivité. Intégrer la solution avec Microsoft Fabric, notamment en connectant efficacement OneLake, Lakehouses, et Data Warehouses via SQL endpoints. Concevoir et implémenter des workflows complexes avec Power Automate, incluant une gestion avancée des erreurs, des branchements parallèles, et des architectures parent-enfant. Modéliser et gérer les données dans Dataverse, en assurant la sécurité, la configuration des variables d’environnement, et l’alignement avec l’architecture Medallion. Développer des composants UI personnalisés en utilisant TypeScript/JavaScript via le Framework PCF. Créer et intégrer des connecteurs personnalisés pour envelopper des API RESTful et assurer l’intégration avec des systèmes externes ou des services Azure. Gérer le déploiement et la synchronisation des environnements en utilisant Azure DevOps ou GitHub, en automatisant les processus de CI/CD. Optimiser les performances des applications et workflows, notamment en résolvant les limites de délégation et en améliorant la gestion des requêtes sur de grands datasets. Mettre en œuvre des mesures de sécurité d’entreprise, telles que la sécurité au niveau des lignes (RLS), les politiques DLP, et l’authentification via Entra ID. Concevoir des interfaces utilisateur intuitives, performantes et accessibles, conformes aux standards WCAG.
Offre d'emploi
Ingénieur DevOps / Expert Technique Cloud
VISIAN
Publiée le
Openshift
Terraform
1 an
40k-45k €
400-600 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation technique pour une installation/migration/support/automatisation sur nos applications au sein du Technology Office du Groupe Phase d'étude Accompagnement et orientation des différents intervenants (CDP, l'architecture et la sécurité) en apportant son expertise sur les technologies utilisées, comprendre les résultats de scan de sécurité sur les diverses vulnérabilités. Contribuer/Comprendre un schéma d'architecture afin d'être force de proposition. Notions de Sécurité: scan Xray, Sysdig, Tanium Connaissance des diverses techno: Nginx, Drupal PHP, Apache Tomcat, Java. Phase d'implémentation Contribution à la mise en œuvre du projet technique sur les environnements de production et non production. Réalisation des tests et validation des environnements avant de donner la main aux Etudes. Mise en place Pipeline CI/CD via les toolschains du groupe. Agile/Organiser car plusieurs projets à gérer en même temps. Gestion des espaces Devops avec les CI/CD, GitLabCI, Digital AI, Jenkins, ArgosCD, IBM CLOUD (PaaS/IaaS), Kubernetes (pods, déploiements, cronjob, etc...), Openshift, CHART HELM, Docker, HVAULT (pour les gestion des secrets, certificats, authentification). Notion databases en mode asservice (PostgreSQL, Oracle, SQL Server et MongoDB).
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)
Codezys
Publiée le
Apigee
Google Cloud Platform (GCP)
Kubernetes
12 mois
Nantes, Pays de la Loire
Expérience Expérience approfondie dans l'optimisation et l'industrialisation de plateformes d'échange telles que KAFKA, APIGEE, Bucket GCP et SFTP, avec un souci constant de sécurisation et de supervision. Capacité à anticiper et intervenir rapidement pour renforcer la résilience de solutions telles qu'APIGEE, KAFKA et SFTP, garantissant leur disponibilité et leur performance optimale. Participation active à des projets de migration, notamment la transition de KAFKA dans le cadre du projet Move 2Paris, afin d'assurer une continuité de service et une modernisation des infrastructures. Implication dans des initiatives liées à l'intelligence artificielle, en utilisant APIGEE (notamment le MCP Server) et d'autres plateformes Google Kafka pour le développement et l'intégration de solutions innovantes. Expérience confirmée en gestion d'incidents et en astreinte, garantissant une prise en charge efficace et rapide des problématiques techniques sur ces plateformes critiques.
Mission freelance
Ingénieur de Production cloud
MLMCONSEIL
Publiée le
Ansible
DevOps
Grafana
1 an
100-490 €
Rouen, Normandie
Pour le besoin de notre client, nous sommes à la recherche d'un un profil ingénieur de production CLOUD expérimenté Profil demandé : SysOps, intégrateur CLOUD ou DevOps Construction des environnements (Terraform) sur un cluster OpenStack Déploiement automatisé des outils (Ansible) Mise en place de pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki) Échanges réguliers avec les développeurs des applications ... ... ... ... ... ... ...
Mission freelance
[SCH] Consultant DevOps Azure / Appétence FinOps - 1222
ISUPPLIER
Publiée le
10 mois
350-380 €
La Garenne-Colombes, Île-de-France
Dans le cadre d’un projet stratégique international, notre client lance la création d’un nouveau Centre de Services (CDS) au Mexique, avec un périmètre couvrant la région LATAM. La mission s’inscrit dans la réalisation d’un Business Case (BCase) et nécessite un Consultant DevOps Azure capable d’adresser à la fois les enjeux techniques, financiers (FinOps) et organisationnels, dans un contexte multiculturel et international. Missions principales : Contribuer à la réalisation du Business Case (BCase) pour le périmètre LATAM Participer à la création et au cadrage du CDS au Mexique Concevoir, déployer et exploiter des solutions sur Microsoft Azure Intervenir sur les sujets DevOps, Cloud et gouvernance Apporter une appétence FinOps (optimisation des coûts, pilotage, recommandations) S’interfacer avec des interlocuteurs variés : Équipes techniques Équipes business Management de haut niveau (CISO, DAF, directions) Participer aux échanges internationaux en français, anglais et espagnol Contribuer à l’amélioration continue des pratiques Cloud & DevOps Profil attendu : Consultant DevOps Azure confirmé Forte capacité de communication et excellente posture client À l’aise dans des environnements internationaux et multiculturels Capacité à dialoguer avec des profils techniques, business et exécutifs Sensibilité forte aux enjeux FinOps Autonomie, maturité et crédibilité professionnelle
Mission freelance
Ingénieur Plateforme DevOps / Ops sur Saint Denis
EterniTech
Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)
1 an
Saint-Denis, Île-de-France
Description du besoin : Secteur du client : Assurance Poste : Ingénieur plateforme devops / ops TT : 2j/s Démarrage : 20/02/2026 jusqu'au 31/12/2026 renouvelable Séniorité : 10 ans (en azure) Anglais conversationnelle Localisation : Saint-Denis Contexte & Objectifs : Je recherche pour l'un de mes clients dans le secteur des assurances un Ingénieur plateforme DevoOps / Ops sur Saint Denis pour le renforcement de l’équipe opérationnelle et pour accompagner les projets de transformation de l’infrastructure. L’objectif principal est la mise en œuvre et le maintien d’une plateforme Terraform et l’automatisation des déploiements sur Azure. La mission combine Run (70%) et Build (30%), dans un environnement critique B2C / marchande sensible à la disponibilité et à la sécurité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
778 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois