L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 133 résultats.
Offre d'emploi
AI Engineer
Publiée le
AWS Cloud
Docker
FastAPI
1 an
40k-55k €
400-600 €
Île-de-France, France
Télétravail partiel
Vous êtes passionné(e) par l’innovation et les défis techniques ? Vous avez une solide expérience en Machine Learning et en industrialisation de modèles ? Cette opportunité est faite pour vous ! 🔍 Vos missions : ✅ Concevoir, entraîner et déployer des modèles d’IA performants ✅ Optimiser leur intégration dans nos systèmes ✅ Développer des solutions scalables en Python ✅ Assurer la mise en production et le déploiement ✅ Collaborer avec les équipes Data Science et développement En termes de compétences, sont notamment attendus une maîtrise de : Infrastructure cloud Produits Docker Python et des librairies Machine et Deep Learning (Pytorch, TensorFlow, Fastai, ...) FastAPI Grands Modèles de Langage (LLM) Expérience en création d'outils IA
Offre d'emploi
ingénieur système
Publiée le
Ansible
Cloud
Elasticsearch
12 mois
40k-61k €
400-610 €
Paris, France
Réaliser l’ingénierie autour des services managés de notre infrastructure (récolte du besoin, création, automatisation) Architecturer et opérer une infrastructure SI avec du SDN, OpenStack, Ceph et Firewall Monitorer et s’assurer du bon fonctionnement de l’infrastructure Assurer le maintien en condition opérationnelle de l’infrastructure, aussi bien matériellement que logiciellement Participer à l’effort des réponses d’incidents et de retours d’expérience Nous avons en particulier comme projet à court terme : Migration de notre Système d’Information historique sur notre Cloud Privé Openstack Création, automatisation et maintien des services managés internes (PostgreSQL as a Service, Elasticsearch as a Service, RabbitMQ, Redis, …) Transformation de nos systèmes de monitoring vers de nouvelles solutions (de Munin à Prometheus en cluster) Voir moins Profil recherché Ces missions nécessitent de savoir travailler en équipe, d’apprécier la résolution de problématiques complexes, ainsi que des connaissances basiques en réseau au sein de l’univers des télécoms. Vous évoluerez sur les technologies suivantes : Linux, OpenStack, Docker, Ceph, Ansible, Terraform, Consul, Packer, Nomad, Gitlab (+CI), Prometheus. Compétences nécessaires : Cloud (Privé ou public : AWS, GCP, Azure, OVH) Compréhension du fonctionnement des services managés (PostgreSQL, Elasticsearch, Redis, RabbitMQ,…) Infra as Code : Terraform Ansible (configuration management) Grafana / Prometheus pour l’observabilité Vous possédez idéalement des notions sur : conteneurs type Docker, Intégration continue (CI) /Déploiement continu (CD) et de service discovery. Un bon niveau d’Anglais technique est nécessaire pour appréhender l’environnement technique, échanger efficacement avec nos fournisseurs et collègues et répondre à nos clients internationaux.
Offre d'emploi
PIXIE - Mission -Freelance - Tech Lead - Réseau - ENV. Multi Cloud - LONG TERME - LILLE
Publiée le
BGP (Border Gateway Protocol)
Cloud
Open Shortest Path First (OSPF)
3 ans
Nord, France
Télétravail partiel
Bonjour Pour l’un de mes clients je recherche un Tech Lead Réseau Mission Tech Lead Réseau Contexte BU Cloud Platform Engineering en forte croissance environ 170 personnes Objectif simplifier et standardiser les outils IT et renforcer la collaboration Equipe Equipe Core Network avec une double compétence réseau et DevOps Travail sur l’automatisation la fiabilité et la sécurité en environnement hybride et multi cloud Rôle Référent technique réseau Définition de la roadmap avec le PO Choix des architectures et accompagnement de l’équipe Garantie de la qualité des livrables automatisation IaC CI CD sécurité by design Pilotage des déploiements et des projets de transformation Reporting clair auprès du management Environnement technique Backbone BGP OSPF Juniper IPAM Netbox Infoblox Cloud AWS GCP DirectConnect Interconnect VPN IPSEC SSL ZTNA DNS Route53 CloudDNS VPC Security Groups PrivateLink Transit Gateway Shared VPC Egress Fortinet Squid Profil 7 à 8 ans d’expérience réseau avec un rôle de référent ou Tech Lead Très bonne maîtrise AWS et ou GCP certification attendue Automatisation Python Terraform CI CD Leadership esprit d’équipe méthodes agiles Anglais professionnel Si vous êtes intéressé et que votre profil correspond merci de m’envoyer votre CV à jour Je reviens vers vous rapidement pour échanger
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
Ansible
AWS Cloud
Azure
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer
Publiée le
Apache Kafka
AWS Cloud
Azure
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Mission freelance
Architecte DevOps SRE
Publiée le
Ansible
AWS Cloud
CI/CD
1 an
400-550 €
Ille-et-Vilaine, France
Nous recherchons pour l'un de nos clients, un(e) Architecte DevOps SRE pour faire évoluer l'infrastructure, les pratiques et les outils en place, tout en garantissant la fiabilité, la scalabilité et la performance des systèmes de production. Vous aurez pour mission principale de mettre en œuvre une architecture DevOps performante et durable, tout en renforçant la culture SRE au sein de l'organisation. Vous interviendrez sur l’ensemble des phases de la transformation et travaillera en étroite collaboration avec les équipes internes (Développement, Infrastructure, Sécurité, etc.) A ce titre, vos principales tâches seront les suivantes : 1. Analyse et diagnostic : Évaluer l’existant en termes de pratiques DevOps, d’infrastructure et d’automatisation. Identifier les leviers d’amélioration et définir une feuille de route pour la transformation du modèle opérationnel. 2. Architecture et mise en place des pratiques DevOps : Concevoir et implémenter une architecture DevOps adaptée aux besoins du client. Automatiser les processus de livraison et de déploiement via des outils CI/CD. Intégrer les pratiques d’infrastructure as code (IaC) et de gestion de la configuration (ex : Terraform, Ansible). Optimiser la gestion des pipelines et le versioning des applications. 3. Mise en place de la culture SRE : Définir des métriques et des SLAs pour garantir la disponibilité et la performance des services. Développer et automatiser des stratégies de monitoring, de gestion des incidents et de gestion des performances (observabilité, alerting, logs centralisés). Mettre en œuvre des stratégies de résilience des systèmes et des tests de charge. Accompagner les équipes internes dans la mise en œuvre des pratiques SRE pour la gestion proactive des incidents et des pannes. 4. Amélioration continue : Concevoir des processus d’amélioration continue pour optimiser la gestion des opérations, la collaboration entre les équipes de développement et d’infrastructure. Piloter les actions de remédiation post-mortem pour éviter la récurrence des incidents. Sensibiliser les équipes à l’importance de la culture DevOps et SRE. 5. Accompagnement et transfert de compétences : Former et accompagner les équipes internes sur les bonnes pratiques DevOps et SRE. Créer des documents techniques et des guides pratiques pour assurer l’autonomie des équipes dans la gestion des processus DevOps et SRE. Assurer un suivi régulier de l’évolution des pratiques et des outils
Offre d'emploi
EXPERT CNAPP / CWPP
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
50k-70k €
500-600 €
Paris, France
🎯 Missions principales : - Piloter et réaliser le déploiement des agents de sécurité CWPP sur les environnements conteneurisés (Kubernetes, Docker…) et VM, en garantissant leur intégration et leur fonctionnement optimal. - Participer à la mise en œuvre et à l’amélioration continue de la plateforme de sécurité cloud, en tenant compte des besoins métiers et des risques identifiés. - Assurer la gestion et la supervision des solutions CWPP, avec un focus particulier sur la protection des workloads dans un environnement multicloud (Azure,GCP, AWS, Alibaba Cloud etc...). - Collaborer étroitement avec les équipes cloud, sécurité et opérations pour assurer la conformité et la robustesse des protections mises en place. - Participer à des activités de project management : planification, suivi des déploiements, gestion des risques et coordination avec les parties prenantes. - Rédiger la documentation technique, les procédures et les guides d’utilisation, tout en animant des formations ou ateliers internes si besoin. - Rester à la pointe des évolutions technologiques dans le domaine CWPP et proposer des améliorations pour renforcer la posture sécurité cloud.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Ingénieur SysOps (H/F)
Publiée le
Ansible
AWS Cloud
Azure
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tu es comme un poisson dans l’eau dans l’environnement Linux et tu es convaincu que l’automatisation est LA solution pour une meilleure productivité ? C’est le projet idéal pour toi ! Rejoins notre équipe en tant qu’ Ingénieur SysOps . 🚀 Ton challenge si tu l’acceptes : Assurer la disponibilité et la fiabilité de l’infrastructure Gérer les incidents et demandes de niveau 2 et 3 Automatiser les processus pour assurer la répétabilité et la qualité Développer et garantir la pérennité des processus d’intégration et de déploiement Participer activement aux projets d’amélioration continue Accompagner la mise en place de nouvelles solutions
Offre d'emploi
NV - Expert NSX-T ACI
Publiée le
Cisco ACI
Cloud
Data Center
3 mois
Paris, France
Télétravail partiel
Bonjour Je recherche un expert sur NSX-T et Cisco ACI. L'expert réseau et cloud confirmé (8+ ans) doit etre capable de piloter des projets d’architecture et de transformation à l’international. Le profil doit maîtriser NSX-T, ACI, l’automatisation (Terraform, Ansible, Python) ainsi que connaitre les environnements cloud (AWS, Azure ou GCP). Compétences obligatoires : Vmware NSX-T Cisco ACI Expériences Data Center Connaissances cloud Bon niveau d'anglais PARLE et ECRIT Démarrage : asap Lieu: Paris avec 2 jours de télétravail par semaine Durée : 3 mois renouvelable Pour tout intéret, merci de m'envoyer votre cv à jour. NV
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Offre d'emploi
Lead Full Stack Developer & DevOps
Publiée le
CI/CD
Cloud
DevOps
2 ans
40k-77k €
400-550 €
Nanterre, Île-de-France
Télétravail partiel
Vous intégrerez une équipe dynamique en charge des pratiques de développement , du DevOps , du Cloud et du Numérique Responsable . L’objectif est de renforcer l’équipe avec plusieurs profils DevOps à forte dominante applicative , capables d’intervenir sur l’ensemble du cycle de vie logiciel — du développement à la mise en production — dans un environnement agile et collaboratif. Votre rôle : En tant qu’ Ingénieur DevOps Applicatif , vous participerez à la mise en œuvre et à l’industrialisation des solutions de développement et de déploiement. Vous serez le garant de la qualité, de la performance et de la fiabilité des environnements applicatifs, tout en contribuant à l’évolution des pratiques DevOps au sein de l’équipe. Vous interviendrez sur : Le développement applicatif en Java ; La mise en place et l’automatisation des pipelines CI/CD (GitLab CI, Jenkins, Azure DevOps...) ; Le déploiement et la gestion d’environnements Cloud (Azure, AWS ou GCP) ; L’ automatisation des infrastructures (Docker, Kubernetes, Terraform) ; Le monitoring et l’observabilité (ELK, Prometheus, Grafana) ; La promotion des bonnes pratiques DevOps (Infrastructure as Code, automatisation, tests, qualité de code).
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Mission freelance
Techlead DevOps AWS
Publiée le
AWS Cloud
36 mois
400-580 €
Île-de-France, France
Télétravail partiel
La mission dans les grandes lignes consiste à : Automatiser et orchestrer la livraison Cloud pour accélérer les déploiements. Simplifier les processus et assurer une traçabilité totale des opérations. Réduire les délais de livraison (Lead Time) grâce à l’automatisation et l’orchestration du déploiement Cloud Donner une visibilité complète et un suivi continu des résultats. 2 - La finalité attendue autour de l’automatisation : Déploiement de patterns d’architectures Cloud (objectif projet) Modification de ressources Cloud existantes (objectif projet et Run) Automatisation de la quality Assurance ArgoCD AWS GCP Terraform/ Enterprise GitLab / GitLab-CI Python Kubernetes (EKS/GKE) Ansible AAP Expertise sur les Pipeline CI CD (gitlab-ci, ansible, AWX, Jenkins etc.), langage python Maitrise des outils de déploiement automatisés Expérience sur des outils comme S3 (ECS, StorageGrid, Minio, ELK)
Offre d'emploi
Release Manager – Cloud eCommerce Platform
Publiée le
Gestion de projet
Méthode Agile
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience: 6ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Release Manager Spécialités technologiques : eCommerce, Gestion de projet Compétences Technologies et Outils JIRA AWS Jenkins GCP confluence GIT CI/CD Azure DevOps Langues Anglais (Natif / bilingue) MISSIONS Le Responsable des Mises en Production (Release Manager) est le pivot de la livraison de code sur une plateforme d'e-commerce complexe, alimentée par de multiples équipes produit aux calendriers échelonnés. Sa mission principale est d'assurer que les changements provenant des différentes squads sont intégrés, testés et déployés de manière fiable et dans les délais, afin de minimiser l'impact client et de maximiser la stabilité de la plateforme. Le Release Manager est responsable d'établir la gouvernance des mises en production, de gérer les dépendances et les risques, et d'être le point de communication central pour le statut des livraisons auprès de toutes les parties prenantes (ingénierie, produit, QA, opérations et métier). Responsabilités Clés 1. Planification et Calendrier des Mises en Production Détenir et maintenir le calendrier des mises en production (majeures, mineures, patches, correctifs urgents), aligné sur les feuilles de route produit et les contraintes opérationnelles/marketing. 2. Coordination et Orchestration Coordonner avec l'Ingénierie, la QA, le DevOps et le SRE pour assurer la préparation des environnements, pipelines et données de test. 3. Gouvernance et Qualité Définir et faire respecter les critères d'entrée/sortie pour les mises en production. Assurer la conformité avec les contrôles du cycle de vie du développement logiciel (SDLC), la gestion du changement 4. Gestion des Risques et Préparation aux Incidents 5. Communication et Gestion des Parties Prenantes Présider les réunions de préparation au lancement et les revues post-implémentation, capturant les actions d'amélioration continue. 6. Amélioration des Processus et Automatisation Collaborer avec l'équipe DevOps pour optimiser les pipelines CI/CD et améliorer la fiabilité et la vitesse du déploiement. Suivre les métriques de mise en production (taux d'échec de changement, temps de cycle, etc.). 7. Gestion des Environnements et de la Configuration Superviser les flux de promotion à travers les environnements (Dev, QA, Staging, Pré-Prod, Prod). Coordonner les plans de migration des données et de versioning des schémas avec des stratégies de déploiement 8. Conformité, Sécurité et Observabilité Activités Quotidiennes Types - Synchronisations quotidiennes avec les équipes produit pour suivre la préparation et les bloqueurs. - Curation du release train et séquençage des fusions - Validation des résultats de test et approbation des étapes de qualité - Animation des réunions de préparation au lancement et des décisions Go/No-Go - Coordination des déploiements avec le DevOps/SRE Expertise souhaitée Expérience et Compétences Techniques Requises Nous recherchons un professionnel possédant plus de 5 années d'expérience dans des fonctions clés comme la Gestion des Mises en Production, le DevOps, l'Ingénierie de Build/Release, ou des rôles équivalents sur des plateformes numériques à fort trafic. Expertise Technique et Outils : - Expérience indispensable en coordination de livraisons sur de multiples équipes produit Agiles aux calendriers échelonnés. - Maîtrise des pipelines CI/CD, des stratégies de branching - Familiarité avec les outils de gestion de projet et de code tels que Jira, Confluence, GitHub/GitLab/Bitbucket, Jenkins/GitHub Actions/Azure DevOps, et Artifactory/Nexus - Connaissance des plateformes Cloud (AWS/Azure/GCP) et des méthodes de déploiement modernes (Kubernetes, serverless, conteneurisation). - Maîtrise des pratiques QA (tests automatisés, régression, performance, sécurité) et des systèmes de validation des livraisons - Expertise dans la mise en œuvre de bascules de fonctionnalités des pratiques SRE (métriques), et des déploiements - Expérience avec la gestion de la rétrocompatibilité, ainsi que la migration et le versioning des données dans les architectures de microservices - Exposition à la Gestion du changement ITIL et aux cadres d'audit/conformité (PCI DSS, RGPD) - Expérience en e-commerce (catalogue, paiement, prix, recherche, personnalisation) et compréhension des contraintes liées aux événements de pic (soldes, fêtes) Compétences Transversales - Gestion de Projet Agile - Gestion des Releases - Communication - Anglais : Bilingue
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Calcul de l'indemnité de la rupture conventionnelle
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
133 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois