Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 531 résultats.
Freelance

Mission freelance
AI Native Software Engineer

Mindquest
Publiée le
AWS Cloud
CI/CD
Docker

3 mois
420-480 €
Neuilly-sur-Seine, Île-de-France
Accompagner l’innovation d’usage en tant qu’AI-Native Software Engineer Coacher les équipes techniques sur l’intégration de l’IA générative dans les pratiques de développement Favoriser la montée en compétence des équipes via des outils d’IA (ex. assistants de code, automatisation) Développer et maintenir des applications fullstack performantes intégrant des assistants IA Automatiser les tâches de développement (tests, CI/CD, monitoring) afin d’améliorer la productivité Travailler sur des architectures modernes (APIs, cloud PaaS/IaaS) Garantir la qualité, la sécurité et la conformité des projets pilotes Collaborer étroitement avec les équipes produit, design et architecture Accompagner les équipes de la conception technique jusqu’au monitoring en production
Freelance

Mission freelance
Expert AWS

CONCRETIO SERVICES
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
400-550 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes techniques, nous recherchons un Ingénieur d’Études et Développement Cloud / DevOps pour intervenir sur des projets à forte valeur ajoutée, en environnement Cloud et DevOps, de l’intégration à la production. Vous interviendrez aussi bien sur les aspects techniques que fonctionnels , en lien étroit avec les équipes projets, les développeurs et les équipes opérationnelles. Vos missions Ingénierie & Développement Concevoir des solutions techniques adaptées aux besoins métiers Paramétrer, développer et qualifier des solutions applicatives Analyser les traitements et réaliser des études détaillées ou études d’impact Rédiger les dossiers de conception générale et détaillée DevOps & Cloud Continuer et améliorer les actions d’automatisation et de fiabilisation Définir et maintenir des modules Terraform Mettre en œuvre des pipelines CI/CD Participer au déploiement des applications jusqu’en production Intervenir sur les environnements d’intégration, de recette et de production Run & Support Assurer le support technique de niveau 3 auprès des équipes de développement Analyser, diagnostiquer et éradiquer les incidents Participer à la gestion de la production / run (astreintes possibles) Transverse Réaliser des revues de code Assurer une veille technologique continue Réaliser des présentations techniques Rédiger des dossiers techniques, avis techniques et feuilles de route à destination des chefs de projet et des équipes opérationnelles 🛠️ Expertise attendue Indispensable Expertise confirmée en Terraform (conception et gestion de modules) Très bonne maîtrise du Cloud AWS et GCP Expérience significative en CI/CD : GitLab CI, Jenkins, Ansible, AWX… Développement et scripting en Python Bonne connaissance de Kubernetes Atouts supplémentaires Culture DevOps et bonnes pratiques d’industrialisation Capacité à travailler sur des environnements complexes et critiques
Freelance

Mission freelance
Expert PAM / DevSecOps

ESENCA
Publiée le
DevSecOps
Gestion des accès privilégiés (PAM)

1 an
Lille, Hauts-de-France
Intitulé du poste Expert PAM / DevSecOps Objectif global Piloter la conception et la mise en place d’une nouvelle solution de gestion des accès à privilèges (PAM) dans un contexte international multi-BU, en cohérence avec une stratégie Zero Trust. Contexte Dans un environnement hybride complexe (datacenters on-premise et Cloud GCP / Azure), la mission vise à renforcer la sécurisation des accès critiques. Une nouvelle solution PAM est à implémenter, avec intégration ou remplacement des outils existants selon leur pertinence. Missions principales Architecture & Design Définir, avec le Tech Lead, l’architecture PAM cible couvrant les environnements on-premise et cloud Garantir une visibilité et une gouvernance unifiées des accès à privilèges Déploiement & Intégration Déployer la solution PAM sur des environnements hybrides et multi-cloud Configurer les coffres-forts, connecteurs et accès sécurisés (GCP, Azure, comptes de service, accès break-glass) Piloter l’onboarding des comptes à hauts privilèges (Domain Admin, Cloud Admin, Root) Gestion des secrets & automatisation Mettre en œuvre des solutions de Secrets Management pour les applications et pipelines CI/CD Éliminer les secrets codés en dur via l’automatisation et les API REST Politiques de sécurité Définir et appliquer les règles de rotation des mots de passe Généraliser l’authentification multi-facteurs (MFA) Appliquer strictement le principe du moindre privilège Audit & Gouvernance Mettre en place la journalisation et l’enregistrement des sessions Répondre aux exigences de conformité et aux besoins des équipes SOC Contribuer à la détection et à la gestion des incidents liés aux accès critiques Environnement technique Solutions PAM du marché (ex : CyberArk, Wallix, BeyondTrust) CNAPP Protocoles : SSH, RDP Standards d’authentification : SAML, OAuth2, OIDC Automatisation via API REST Cloud : GCP, Azure Compétences requises PAM : Expert (impératif) CNAPP : Expert (impératif) Solide expertise en cybersécurité des environnements hybrides et cloud Langues Anglais professionnel (impératif)
Freelance
CDI

Offre d'emploi
DevOps Infra réseaux - expert Kubernetes - Toulon

OCTOGONE
Publiée le
Administration linux
Kubernetes

6 mois
23k-51k €
280-410 €
Toulon, Provence-Alpes-Côte d'Azur
Le poste s’inscrit au cœur des enjeux de containerisation, orchestration Kubernetes, automatisation CI/CD et pratiques GitOps , avec une forte collaboration entre les équipes développement, DevOps et produit Conception & Architecture Concevoir et mettre en œuvre des architectures cloud native robustes et scalables Participer aux choix techniques autour de Kubernetes, GitLab CI/CD et des outils cloud native Développement & Containerisation Développer et maintenir des applications containerisées , principalement en Go Mettre en place la containerisation et le packaging des services (Docker, Helm…) Garantir la qualité, la performance et la maintenabilité du code CI/CD & GitOps Collaborer étroitement avec les équipes DevOps pour intégrer et améliorer les pipelines CI/CD GitLab Participer à la mise en œuvre et à l’évolution des pratiques GitOps Contribuer à l’automatisation des déploiements et des opérations Ingénierie de plateforme & collaboration Concevoir et faire évoluer des solutions d’ingénierie de plateforme répondant aux besoins métiers Travailler en collaboration avec des équipes transverses (développeurs, DevOps, produit) Intervenir sur les phases de conception, construction et exploitation des services
Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
CDI

Offre d'emploi
DevOps / SecOps Engineer (H/F)

BLOOMAYS
Publiée le
Architecture
AWS Cloud
CI/CD

70k-75k €
Arcueil, Île-de-France
🌍 À propos de l’entreprise Nous sommes une scale-up technologique internationale, acteur de référence dans les solutions d’automatisation et de robotique pour la logistique et l’industrie. Nos produits sont déployés à grande échelle dans des environnements critiques, avec de fortes exigences en matière de fiabilité, sécurité et performance. Dans un contexte de croissance et d’industrialisation de nos plateformes, nous renforçons notre socle cloud et recherchons un(e) DevOps / SecOps Engineer pour prendre une responsabilité transverse sur l’infrastructure et les plateformes de déploiement. 🎯 Votre mission En tant que DevOps / SecOps Engineer, vous serez responsable de la conception, de l’exploitation et de l’amélioration continue de notre infrastructure cloud et de nos pipelines de déploiement. Vous interviendrez sur l’ensemble du cycle de vie des plateformes, depuis les environnements de tooling et de développement jusqu’à la production, avec une approche security by design et une forte culture de la fiabilité. 🛠️ Vos responsabilités Cloud & Infrastructure Concevoir, déployer et maintenir l’architecture cloud (AWS) Être propriétaire de l’infrastructure de bout en bout (tooling, sandbox, production) Garantir la scalabilité, la résilience, la performance et la maîtrise des coûts Mettre en œuvre et maintenir l’Infrastructure as Code (Terraform) CI/CD & Platform Engineering Concevoir et standardiser les pipelines CI/CD Automatiser les processus de build, test, release et déploiement Accompagner les équipes de développement sur les stratégies de déploiement Fiabilité & Observabilité Superviser les environnements de production (monitoring, alerting, incidents) Améliorer l’observabilité (logs, métriques, alertes) Gérer les mises à jour régulières, correctifs de sécurité et remédiation des CVE Sécurité & SecOps Intégrer la sécurité par design dans l’infrastructure et les pipelines Gérer les accès, identités et secrets (IAM, Auth0, principes de moindre privilège) Contribuer aux audits de sécurité, à la gestion des risques et à la conformité Documentation & Structuration Produire et maintenir la documentation d’architecture cloud Formaliser les processus opérationnels et politiques de sécurité Contribuer aux plans de continuité et de reprise d’activité (PRA / DRP) Collaboration Travailler au quotidien avec des équipes pluridisciplinaires (web, data, embarqué/robotique) Intervenir ponctuellement sur du scripting ou de l’automatisation Être un référent technique DevOps / Cloud au sein de l’organisation
Freelance

Mission freelance
DevOps Azure Confirmé / Senior (H/F)

Atlas Connect
Publiée le
Azure

12 mois
France
Nous recherchons des ingénieurs DevOps Azure confirmés à seniors pour accompagner nos clients sur des projets cloud à forte valeur ajoutée. Vous interviendrez sur des environnements Microsoft Azure modernes, au sein d’équipes agiles, avec un fort enjeu d’automatisation, de fiabilité et de sécurité des plateformes. Vos missions pourront inclure : Conception, déploiement et exploitation d’architectures Azure performantes et sécurisées Mise en place et optimisation des pipelines CI/CD Automatisation des infrastructures via Infrastructure as Code Participation aux décisions d’architecture cloud et DevOps Collaboration avec les équipes Développement, Cloud, Sécurité et Data Amélioration continue des pratiques DevOps et de la qualité de service
CDI
Freelance

Offre d'emploi
DevOps

AIS
Publiée le
DevOps

1 mois
40k-45k €
225-450 €
France
🎯 MISSIONS : En prestation chez l'un de nos clients grands comptes, vos missions seront de : 1) Conception Faire une analyse d'impact et identifier les risques Recueillir le besoin et étudier les solutions Faire des préconisations pour optimiser les automatisations (choix de solutions) Réaliser des maquettes de solutions Définir les indicateurs de performance pertinents. Mettre en œuvre les règles de sécurité informatique Être garant de la qualité des intégrations et des montées de version des applications 2) Création des automatisations et mise en oeuvre (création de serveurs, déploiement d'une infra, intégration d'applications) Définir un plan de tests automatisé Gérer l'intégration des tests automatisés Valider et suivre la préparation des environnements de tests et de pré-production Gérer le stockage des données Gérer les containers Créer des automatisations à l'aide de scripts Créer des automatisations à l'aide d'une plateforme Automatiser la création de serveurs Automatiser le déploiement d'une infrastructure dans le Cloud Automatiser la mise en production des applications Automatiser les mises à jour des applications Mettre en œuvre les solutions d'automatisation et de déploiement en continu Connaître plusieurs systèmes d'exploitation 3) Maintien en conditions opérationnelles Corriger les dysfonctionnements des automatisations remontés lors de la phase de déploiement Opérer des changements tout en garantissant la continuité de l'exploitation informatique et l'intégrité des données Assurer la stabilité des environnements Assurer un support de niveau 3 Rédiger et mettre à jour les procédures et les consignes d'exploitation Technos : CI/CD, Ansible, Docker, Terraform, Jenkins, Red Hat, Java... Il s'agit d'un contexte international, l'anglais est donc requis. PROCESS DE RECRUTEMENT : 1 entretien RH, 1 entretien technique. On en discute ?
Freelance

Mission freelance
Network Ops Engineer sénior

HAYS France
Publiée le
DevOps
Google Cloud Platform (GCP)
Network

3 ans
100-510 €
Lille, Hauts-de-France
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Freelance

Mission freelance
AI Agent Developer (Microsoft Copilot)

emagine Consulting SARL
Publiée le
Microsoft Copilot Studio
AI
Azure

3 ans
Île-de-France, France
Compétences attendues : Expérience avérée dans la conception, le déploiement et l’exploitation de plusieurs agents IA en environnement grand compte , incluant la gouvernance, la gestion des environnements, la sécurité et le cycle de vie des solutions. Expertise approfondie de Microsoft Copilot Studio pour la conception de bout en bout d’agents IA : sujets, flux, plugins, grounding, déclencheurs et orchestration conversationnelle, ainsi que le déploiement sur différents canaux. Expérience pratique avec les agents intégrés de M365 Copilot , M365 Copilot Agent Builder et les agents SharePoint , avec la capacité de les personnaliser, les étendre et les intégrer dans des contextes d’entreprise. Maîtrise de la conception d’expériences conversationnelles via le canvas Copilot Studio : logique multi-tours, variables, cartes adaptatives et gestion du contexte. Expertise en intégration avec les systèmes d’entreprise via PowerApps, Power Automate, Microsoft Graph API, API REST et connecteurs personnalisés . Solide expérience avec Dataverse : conception des schémas de données, gestion des environnements, packaging des solutions et gouvernance ALM. Capacité à implémenter des comportements avancés d’agents à l’aide de plugins Copilot , de plugins personnalisés en C# et de la logique Power Fx . Bonne compréhension des services Azure (Azure OpenAI Service, Azure Functions, Cognitive Services, API Management) afin d’étendre ou d’augmenter les capacités des agents IA. Forte maîtrise des principes de Responsible AI , du prompt engineering , des techniques de récupération d’information (RAG) et des modèles de déploiement sécurisé de l’IA générative en entreprise. Expérience dans la supervision, l’analyse et l’optimisation des agents à l’aide d’outils analytiques, de la télémétrie, des retours utilisateurs et d’améliorations itératives. Connaissance approfondie de la sécurité en environnement entreprise : gestion des identités (Azure AD), contrôle d’accès basé sur les rôles, protection des données, séparation des environnements et conformité réglementaire. Familiarité avec les pipelines CI/CD et ALM pour Copilot Studio et Dataverse (GitHub ou Azure DevOps). Capacité à collaborer étroitement avec les équipes métiers afin de traduire les besoins fonctionnels en solutions IA robustes et évolutives.
CDD
CDI

Offre d'emploi
Data Engineer confirmé H/F

SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI

12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Freelance
CDI

Offre d'emploi
Consultant DevOps IaC

KLETA
Publiée le
Ansible
Terraform

3 ans
Paris, France
Dans le cadre d’un programme de transformation DevOps, nous recherchons un Consultant DevOps Automation pour structurer et automatiser l’ensemble du cycle de delivery des infrastructures et applications. Vous analyserez les pratiques existantes et proposerez une trajectoire cible basée sur l’Infrastructure as Code, l’automatisation des configurations et l’orchestration des déploiements. Vous guiderez la mise en place de solutions utilisant Terraform, Ansible, Helm ou équivalent, et travaillerez à la standardisation des environnements (dev, staging, prod). Vous serez responsable de la fiabilisation des pipelines CI/CD, de l’intégration de contrôles automatisés (tests, scans de sécurité, validation de conformité) et de la mise en place de mécanismes de rollback. Vous collaborerez étroitement avec les équipes Cloud, DevOps et SRE pour améliorer la résilience, la traçabilité et la reproductibilité des déploiements. Vous aurez également un rôle clé dans l’accompagnement des équipes techniques, l’animation d’ateliers et la diffusion des bonnes pratiques d’automatisation et de delivery continu.
CDI

Offre d'emploi
Administrateur·trice SGBD Oracle Exadata

Blue Soft
Publiée le

55k-70k €
Paris, France
Pour le compte de l'un de nos clients , nous recherchons un·e Administrateur·trice base de données ! En tant que Administrateur·trice base de données, vous intégrerez une équipe de mise en oeuvre technique SGBD Open. Cette équipe a en charge la fourniture et maintien en condition opérationnelle des moteurs et instances de base de données sur monde Open. Vos missions seront : - Mise en oeuvre technique des SGBD Oracle/ Exadata /Exadata Cloud Customer - Mise en place des procédures d'exploitation des bases de données (surveillance, sauvegarde), patch management, audits - Migration de bases Oracle vers Exadata/Exadata Cloud Customer - Support N3 - Industrialisation des procédures, validations des nouvelles versions produits - Gestion de la relation avec les éditeurs Environnement technique : - Bases de Données Oracle / Exadata/Exadata Cloud Customer - Automatisation via Scripting UNIX, Perl, Python et SQL - Dataguard, ASM et RAC Anglais indispensable ! Astreintes et HNO possibles.
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
CDI

Offre d'emploi
Site Reliability Engineer (F-H)

INFOGENE
Publiée le

35k-40k €
Lille, Hauts-de-France
En tant que Site Reliability Engineer (SRE) Transverse , vous intervenez sur la fiabilisation, l’exploitation et l’optimisation de plateformes, dans un environnement cloud-native à fort enjeu de production . Votre rôle est central dans le Run et le MCO des services, la gestion des incidents et l’amélioration continue de la fiabilité, avec une utilisation avancée des outils de monitoring et d’observabilité , notamment Datadog , ainsi qu’une forte culture de l’ automatisation . Vous intervenez sur l’ensemble du cycle de vie des services en production, de la mise en exploitation à l’amélioration de la résilience et de la performance, avec une attention particulière portée à la disponibilité, la stabilité, la traçabilité et la réduction du toil , dans un contexte cloud GCP / Kubernetes , CI/CD (GitHub) .
CDI

Offre d'emploi
Architecte Réseau F/H - Rennes

Experis France
Publiée le

37k-47k €
Rennes, Bretagne
Architecte Réseau F/H - Rennes - Rennes Notre client, acteur majeur des solutions de communications unifiées pour les entreprises, met à disposition des équipes techniques un écosystème complet permettant l'accès à distance aux équipements des clients afin d'assurer la continuité de fonctionnement de leurs services. Dans ce cadre, vous interviendrez sur un projet stratégique visant la migration des composants DCaaS Preprod/Prod des offres Teaming / Connect Pro, depuis le cloud Cloud Avenue (OB) vers le cloud SoIaas (OF). Les composants DCaaS incluent le back, le front ainsi que divers modules fonctionnels. Vous travaillerez au sein d'une équipe internationale en binôme avec un Architecte Technique IT. 🧩 Missions Vous interviendrez sur l'ensemble des phases du projet, notamment : 🛠 Spécifications & préparation Rédiger la spécification technique pour l'équipe SoIaas : création du tenant, création des VM (plus de 100 VM). Monter en compétences sur l'onboarding SoIaas. ⚙️ Déploiement technique Déployer et configurer les clusters Galera (MariaDB) et RabbitMQ. Déployer et configurer les composants nginx. 📦 Migration & flux Préparer la migration des données. Saisir les demandes d'ouverture de flux dans les outils internes : 140 flux à ouvrir (70 en Preprod / 70 en Prod). 🧪 Tests et validation Contribuer aux tests, à l'acceptance, et à la définition du dataset de la nouvelle plateforme. Mettre à jour les tests automatiques. Définir le dataset pour la migration. 📘 Documentation Apporter votre support à l'architecte INNOV pour la mise à jour du DAT (document existant pour la Prod + matrice des flux pour la Preprod).
531 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous