Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 130 résultats.
Freelance

Mission freelance
Lead dev (js/go/python)

ESENCA
Publiée le
Go (langage)
Google Cloud Platform (GCP)

1 an
400-450 €
Lille, Hauts-de-France

Lead développeur senior avec forte appétence DevOps Dans le cadre du développement et du maintien des solutions mise à disposition des développeurs du groupe, l’équipe Delivery Experience recherche un lead développeur. L’usine logicielle est utilisée par plus de 3000 développeurs. L’équipe est composée de plus de 10 personnes, profils tech, développeurs ou experts techniques. Nous recherchons un profil ayant l'habitude de mettre en place des toolchains hautement critiques pour les développeurs et en mesure de développer les intégrations nécessaires à base d'API : - mise en place golden stack : Go, Python, Java ... - enforcement de workflow de build Une astreinte rémunérée est également demandée pour assurer le support 24/7 de l’équipe. Activités autour de la Delivery Experience : - Développement et maintien des produits de la Delivery Experience (Software Delivery Toolchain) - Collaboration en sous groupes au sein de l’équipe - Agilité de développement - Support aux développeurs de niveau 1 - Capacité à s’adapter

Freelance
CDI

Offre d'emploi
Devops Senior KAFKA (H/F)

WINSIDE Technology
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

2 ans
48k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

CDI

Offre d'emploi
Data engineer H/F

OPEN GROUPE
Publiée le
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

CDI

Offre d'emploi
Développeur FullStack sénior

Inventiv IT
Publiée le
Architecture
AWS Cloud
DevOps

45k-60k €
Paris, France

Rejoignez la Digital Factory d'INVENTIV IT , une équipe pluridisciplinaire et dynamique , pour intervenir sur des projets clients stratégiques (70% de développement From Scratch et 30% de TMA). Vous serez un pilier technique, essentiel à la conception et à la livraison de solutions logicielles complètes dans un contexte Agile (Scrumban) . 🎯 Votre Rôle et Vos Missions En tant que Développeur Full Stack Senior, vous êtes responsable de la conception et de l'implémentation de la chaîne applicative, du front-end au back-end, dans une logique de qualité et de performance continue. Conception & Architecture : Participer au cadrage et à la conception des projets (majoritairement From Scratch ). Mettre en œuvre des architectures modernes et résilientes : Microservices, Architecture Hexagonale, Event Driven/Serverless . Être force de proposition sur les choix techniques et architecturaux (Back-end Java/Spring Boot et Front-end React/NextJs ). Développement & Qualité : Développer des API REST robustes et des composants Front-end performants, principalement avec React et NextJs . Garantir la qualité du code par l'implémentation de tests (JUnit, Mockito, Cucumber) et la réalisation de Code Review . Assurer la sécurité des applications ( Sécurité applicative ) et l'observabilité/performance des solutions. DevOps & Industrialisation (CI/CD) : Industrialiser la chaîne de déploiement ( CI/CD ) en utilisant des outils de DevOps (Docker, Kubernetes, Gitlab CI/Github Actions). Mettre en œuvre l'Infrastructure as Code (IaC) (Ansible ou Terraform). Déploiement et gestion des ressources sur AWS et/ou Google Cloud . Leadership & Gestion de Projet : Assumer une posture projet/business forte, collaborer étroitement avec l'équipe et les parties prenantes. Évoluer au sein d'une équipe agile ( Scrumban ) avec des sprint planning de 2 à 3 semaines. Possibilité d'assurer un rôle de Tech Lead ou de mentorat, en fonction de votre expérience ( Leadership technique ). 🛠️ Environnement Technique Back-endJava (Expertise demandée 5/5), Spring Boot (4/5) NodeJS/TypeScript (Expertise demandée 5/5). Front-endReact (5/5), NextJs (Back & Front 4/5). Cloud & OpsAWS (5/5), Azure/Google Cloud , Docker/Kubernetes , CI/CD (GitLab CI, GitHub Actions). ArchitectureMicroservices, Architecture Hexagonale , Event Driven (Kafka, RabbitMQ), Serverless (Firebase). Base de DonnéesPostgreSQL , Modélisation SQL. MéthodesAgile/Scrum , Design Thinking .

Freelance

Mission freelance
Engineering Manager (Infrastructure, Cloud & Réseau)

ESENCA
Publiée le
Automatisation
Azure
CI/CD

3 ans
Lille, Hauts-de-France

🎯 Objectif de la mission Nous recherchons un Engineering Manager expérimenté afin de prendre la responsabilité opérationnelle et stratégique de 3 équipes techniques au sein du département Infrastructure & Core Services. Le manager devra assurer la performance, la fiabilité, la sécurité et l’innovation des plateformes réseau et cloud de l’entreprise, tout en accompagnant la transformation vers des architectures hybrides et automatisées. 🚀 Périmètre et responsabilités principales Management & Leadership Encadrer et développer 3 équipes pluridisciplinaires (ingénierie réseau, cloud, sécurité, automation). Définir les objectifs, suivre la performance et accompagner la montée en compétences des ingénieurs. Instaurer une culture de collaboration, d’innovation et de delivery orientée impact. Stratégie & Architecture Piloter l’évolution des infrastructures réseau et cloud (hybride, on-premise & public cloud). Définir les roadmaps technologiques en lien avec les enjeux business et sécurité. Anticiper les besoins de scalabilité, résilience et performance. Delivery & Opérations Garantir la disponibilité et la robustesse des services critiques (infrastructures backbone, datacenters, plateformes cloud). Superviser la résolution des incidents majeurs et l’amélioration continue des processus d’exploitation. Mettre en place des outils et méthodes d’automatisation (IaC, CI/CD, Python/Go). Sécurité & Compliance S’assurer du respect des standards de sécurité (Zero Trust, segmentation réseau, auditabilité). Travailler en lien avec les équipes SecOps pour renforcer la défense des infrastructures critiques. Collaboration transverse Interagir avec les équipes produit, développement et sécurité pour aligner les besoins techniques avec les objectifs business. Présenter régulièrement les avancées, risques et recommandations à la direction. 🛠️ Compétences et expérience recherchées Expérience confirmée (10+ ans) en ingénierie réseau, cloud et infrastructure dans des environnements critiques et internationaux. Solide background en management d’équipes techniques (3 équipes / 15-30 personnes). Maîtrise des environnements cloud majeurs (Azure, GCP, AWS) et des architectures hybrides. Excellente compréhension des réseaux (BGP, OSPF, MPLS, datacenter fabrics) et des firewalls de nouvelle génération. Expérience dans l’ automatisation et l’industrialisation (Terraform, Ansible, Python, APIs). Capacité à piloter des transformations organisationnelles (migration vers le cloud, adoption DevOps/SRE). Leadership fort, orientation résultats, communication claire auprès de la direction et des équipes. 📍 Localisation & Modalités Mission basée dans le Nord (présence sur site requise 2 jours par semaine). Démarrage : ASAP.

Freelance
CDI

Offre d'emploi
Product Owner Technique / DevOps (F/H)

CELAD
Publiée le
DevOps

12 mois
48k-54k €
500-550 €
Paris, France

Nous recherchons un P roduct Owner Technique r xpérimenté pour rejoindre l’un de nos clients du secteur bancaire, au sein de son service Production Data Métiers. Votre rôle sera clé dans le pilotage de la backlog de la production applicative , la coordination des équipes techniques , et la garantie de la qualité et de la fiabilité des solutions déployées en production dans un environnement Cloud moderne (GCP / Azure). Vos missions principales: Recueillir et challenger les besoins des utilisateurs et les traduire en actions concrètes pour les équipes techniques. Piloter et prioriser le backlog produit en lien avec les capacités et les objectifs de l’équipe. Préparer et animer les rituels agiles en collaboration avec le Scrum Master. Garantir la vision produit et la qualité des livrables à chaque sprint. Travailler en étroite collaboration avec les équipes UX, techniques et métiers. Définir et planifier les releases / versions produit . Élaborer et affiner les user stories (incluant critères d’acceptation) et comprendre les technical stories et defect stories . Participer activement aux réunions agiles et faciliter la communication entre toutes les parties prenantes. Animer la conduite du changement et coordonner les phases de tests utilisateurs. Contribuer à l’amélioration continue des produits et des process de production applicative. Compétences techniques requises Solide expérience en environnement de production applicative (MCO, administration, architecture technique). Expertise DevOps confirmée. Maîtrise des environnements Cloud GCP et/ou Azure (Compute Engine, Kubernetes Engine, Cloud Storage, BigQuery, Composer, etc.). Bonne connaissance des outils de supervision et d’exploitation . Bonne culture ITIL (gestion des incidents, problèmes, changements, escalades…). Maîtrise des méthodes agiles (Scrum, Kanban…) et des rituels associés. 🇬🇧 Anglais professionnel impératif .

Freelance

Mission freelance
Mission Freelance – CloudOps Engineer – Paris (hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)

3 mois
400-600 €
Paris, France

🎯 Mission Freelance – CloudOps Engineer – Paris (hybride) Pour le compte d’un grand groupe international, nous recherchons un·e CloudOps Engineer pour rejoindre une équipe cloud d’environ 170 personnes. Objectif : simplifier les outils techniques du groupe et automatiser les infrastructures. 🎯 Objectifs de la mission : Administrer et optimiser les environnements GCP (prioritaire) et AWS Fournir des services cloud “clé en main” pour les équipes IT Automatiser les déploiements via l’ Infrastructure as Code Améliorer la sécurité, la fiabilité et les bonnes pratiques Travailler avec les équipes sécurité, produit et run Accompagner la transformation cloud à grande échelle 🔧 Stack technique : Cloud : GCP, AWS – certification pro demandée (ex : GCP Architect Pro, AWS Solutions Architect Pro) Outils : Terraform, Python, Bash, Curl, APIs Méthodes : DevOps, scripting, automatisation, IaC Environnements : Linux, CI/CD, sécurité cloud, monitoring Langue : anglais B2 minimum 🧠 Compétences attendues : Python : confirmé / expert CloudOps / GCP / AWS : confirmé à expert Terraform (IBM) : confirmé IAM Cloud / Cloud Native : confirmé ✅ Profil recherché : 3 à 5 ans d’expérience cloud Bonne maîtrise des architectures distribuées À l’aise sur le run (1 semaine par mois) et le support utilisateurs Autonome, communicant, pédagogue 📍 Lieu : Paris (hybride) 📅 Démarrage : ASAP 💰 TJM : selon profil 📨 Intéressé·e ? Merci de postuler votre CV à jour

CDI

Offre d'emploi
Ingénieur DevOps Confirmé / Senior – Expert Infrastructure & Cloud (H/F)

IS CONSEIL
Publiée le
Ansible
Azure
CI/CD

35k-45k €
France

Description du poste : Nous recherchons un Ingénieur DevOps Confirmé / Senior ayant une solide expérience en infrastructure et Cloud , capable d’intervenir sur des environnements complexes et critiques. Le profil idéal maîtrisera les environnements Cloud, la conteneurisation, l’automatisation, ainsi que les outils de CI/CD. Il devra être force de proposition, autonome, et capable d’évoluer dans un contexte international avec des enjeux techniques forts. Modalités : Recrutement sur profil : Tunisie, Maroc, Madagascar, Sénégal, Île Maurice. Mobilité France requise .

CDI

Offre d'emploi
Ingénieur Cloud / DevOps Senior (H/F)

SYNERGY PARTNERS
Publiée le
Ansible
Argo CD
Artifactory

Villejuif, Île-de-France

Synergy Partners recherche un Ingénieur Cloud / DevOps Senior pour intervenir sur un environnement Cloud public GCP à fort enjeu, avec un volet multi-cloud où AWS sera un vrai atout. Vous intégrerez une équipe agile, orientée industrialisation, automatisation et observabilité . Compétences techniques attendues Cloud natif Google Cloud Platform ( GCP ) – expertise indispensable Amazon Web Services ( AWS ) – un vrai plus GitOps Infrastructure as Code : Terraform , Kubernetes Config Connector (KCC) DevOps Docker , Kubernetes Gitlab , Flux , ArgoCD , Kustomize , Helm Ansible , Jenkins , Sonarqube , Artifactory , Vault Observabilité Dynatrace Gestion des logs et des alertes Gestion de la remédiation

CDI

Offre d'emploi
Ingénieur Cloud / DevOps (F/H)

Experis France
Publiée le

45k-55k €
75001, Paris, Île-de-France

En tant qu' Ingénieur Cloud / DevOps , vous interviendrez sur des projets stratégiques autour de l' infrastructure Cloud , de l' automatisation et de la containerisation . Vous serez amené(e) à : Concevoir, déployer et maintenir des infrastructures Cloud : Azure , AWS , GCP Mettre en œuvre des architectures Infrastructure as Code via Terraform , Pulumi ou CloudFormation Gérer des clusters Kubernetes pour le déploiement d'applications containerisées Développer et maintenir des pipelines CI/CD avec GitLab CI , GitHub Actions , Azure DevOps , Jenkins Assurer la supervision, la gestion des logs et l'alerting avec Prometheus , Grafana , ELK/EFK , Datadog Garantir la sécurité , la scalabilité et la résilience des plateformes Collaborer avec les équipes de développement pour diffuser les bonnes pratiques DevOps Rédiger et maintenir la documentation technique Cloud Maîtrise d'au moins un fournisseur : Azure , AWS , GCP Connaissance des services managés : compute, base de données, stockage, réseau, sécurité Infrastructure as Code Très bonne maîtrise de Terraform ou équivalent ( Pulumi , CloudFormation ) Conteneurisation / Orchestration Expérience confirmée avec Docker et Kubernetes Connaissance d'outils comme Rancher , EKS , AKS , GKE , Helm CI/CD Mise en place de pipelines avec GitLab CI , Jenkins , Azure DevOps , etc. Observabilité & Monitoring Maîtrise d'outils comme Prometheus , Grafana , ELK/EFK , Datadog Certification Cloud (AWS, Azure, GCP) Maîtrise de langages de scripting : Bash , Python , Shell Expérience avec des approches GitOps

CDI

Offre d'emploi
Ingénieur DevOps confirmé (H/F)

SCALIAN DS
Publiée le
DevOps

40k-45k €
Toulouse, Occitanie

Offre d’emploi : Ingénieur Python / DevOps – Migration Applicative (H/F) Lieu : Toulouse – accès facile en transports en commun Télétravail : 2 jours par semaine Contrat : CDI Salaire : jusqu’à 45K€ selon séniorité Démarrage : ASAP Expérience requise : minimum 5 ans en environnement Python/DevOps À propos du poste Nous recrutons un Ingénieur Python / DevOps confirmé (H/F) pour rejoindre notre centre de services en ingénierie système . Votre mission principale sera de développer et automatiser la migration des applications Doors vers Polarion , dans un environnement hybride Windows/Linux . Vous serez amené à travailler à la fois sur le scripting Python (Windows, ETL, transformation de données) et sur l’ automatisation des déploiements (Ansible/Linux) . Vos missions Développer des scripts Python pour la migration applicative et la manipulation/transformation de données via des librairies ETL Automatiser les déploiements et configurations avec Ansible (Linux) Assurer le maintien en conditions opérationnelles (MCO) de la chaîne logicielle Garantir la sécurité et la fiabilité des environnements applicatifs Contribuer à l’ amélioration continue des pratiques DevOps Répartition des activités : 75% scripting Python (Windows / ETL / migration applicative) 25% déploiement et automatisation (Linux / Ansible) Environnement technique Langages & automatisation : Python (Windows), Ansible (Linux), PowerShell ETL & data scripting : librairies de manipulation et transformation de données CI/CD & SCM : GitLab Outils métiers : Doors, Polarion Cloud & infra : GCP, Azure

Freelance

Mission freelance
DevOps Full Montpellier Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform/ma

WorldWide People
Publiée le
DevOps

6 mois
370-400 €
Montpellier, Occitanie

DevOps Full Montpellier Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform, ARM, Bicep, Ansible Compétences techniques clés : Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform, ARM, Bicep, Ansible Docker, Kubernetes, Helm Azure (App Services, AKS, Key Vault, Storage), AWS ou GCP (selon contexte) PowerShell, Bash, YAML Prometheus, Grafana, ELK, Azure Monitor Gestion des secrets, scans de vulnérabilité, durcissement d’images ASAP Responsabilités principales : Concevoir, maintenir et optimiser les pipelines CI/CD. Automatiser le déploiement des applications et des infrastructures (IaC). Assurer la supervision, l’observabilité et la gestion des incidents. Travailler avec les équipes de développement pour améliorer les performances et la fiabilité. Sécuriser les environnements (droits, secrets, configurations). Compétences techniques clés : Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform, ARM, Bicep, Ansible Docker, Kubernetes, Helm Azure (App Services, AKS, Key Vault, Storage), AWS ou GCP (selon contexte) PowerShell, Bash, YAML Prometheus, Grafana, ELK, Azure Monitor Gestion des secrets, scans de vulnérabilité, durcissement d’images

CDI

Offre d'emploi
DevOps

ALTEN
Publiée le
DevOps

31k-46k €
Lille, Hauts-de-France

🏢 ALTEN , leader européen de l’Ingénierie et du Conseil en Technologies, accompagne les plus grands acteurs des secteurs de l’ industrie , du numérique et des services dans leurs projets de transformation digitale et d’innovation technologique. Avec plus de 54 000 collaborateurs dans le monde, ALTEN vous offre un cadre stimulant pour évoluer sur des projets à forte valeur ajoutée. 🎯 Vos missions Dans le cadre du développement de notre pôle Cloud & DevOps , nous recherchons un Ingénieur DevOps Confirmé pour intervenir sur des projets d’intégration continue, d'automatisation et de migration vers le cloud chez nos clients grands comptes. Vous serez notamment chargé(e) de : Concevoir, mettre en place et maintenir les pipelines CI/CD Automatiser les déploiements d'applications et les opérations d'infrastructure Collaborer avec les équipes de développement, QA et sécurité pour intégrer les bonnes pratiques DevSecOps Gérer les environnements de développement, de test et de production (infrastructure as code) Assurer le monitoring, le logging et la gestion des incidents Contribuer à l’amélioration continue de la performance et de la résilience des systèmes 🛠️ Stack technique (selon projet) CI/CD : GitLab CI, Jenkins, GitHub Actions Infrastructure as Code : Terraform, Ansible, Pulumi Containers & Orchestration : Docker, Kubernetes, Helm Cloud : AWS, Azure ou GCP Monitoring & Logs : Prometheus, Grafana, ELK, Datadog Outils : Git, Linux, Vault, SonarQube, Nexus, ArgoCD

Freelance

Mission freelance
Product Owner – Plateforme Data

KEONI CONSULTING
Publiée le
DevOps

18 mois
100-580 €
Paris, France

CONTEXTE Le département Data IA (DaIA) a la charge de mettre à disposition des métiers un socle technologique transverse - La plateforme de Donnée - Une Plateforme de données gouvernées et disponibles c'est-à-dire de qualité, documentée, ayant une traçabilité, dont les accès sont gérés finement, cataloguées et monitorées. Nous recherchons une prestation de Product Owner expérimenté pour superviser le développement et la mise en œuvre de notre plateforme data. Le candidat idéal aura une solide expérience en gestion de projet dans le domaine de la data, avec une compréhension approfondie des technologies cloud et big data. Le candidat sera en étroite collaboration avec les équipes technique et métier du projet et les parties prenantes de l'entreprise. MISSIONS Superviser tous les aspects de vie du produit, y compris la planification, la gouvernance, l'allocation des ressources, le suivi du progrès et la communication avec les parties prenantes. • Définir la feuille de route du projet, le périmètre et le calendrier des livraisons en accord avec les parties prenantes. Veiller au bon déroulement des projets, au respect des délais et des budgets. • Planification du Maintien en Condition Opértionnel de la plateforme et les processus opérationnels pour l’ingéniérie de la fiabilité des sites (SRE). • Collaboration avec l’équipe technique : ingénieurs, développeurs, analystes data et les autres membres de l'équipe pour assurer une exécution fluide du projet et participer aux rituels agiles des équipes. • Définir et suivre les indicateurs de performance clés (KPIs) pour évaluer la charge, capacité des équipes et le suivi des livraisons pour les différentes équipes. • Identifier les risques et mettre en place des plans de contingence pour minimiser l'impact sur le projet. • Identifier et mettre en œuvre des actions d’amélioration continue (processus, outils, pratiques) et mettre en place et gérer une base de connaissances de projets pour capitaliser sur les leçons apprises et favoriser le partage des meilleures pratiques. • Fournir des mises à jour régulières sur l'état du projet aux parties prenantes et à la direction et assurer la mise en place et le déroulement des réunions de suivi. • Fournir une formation et un soutien aux utilisateurs finaux sur les meilleures pratiques en matière de gestion des données. Expertises demandées pour la réalisation de la prestation : 8 ans d'expérience en Product Ownership, dans le domaine de la data ou du digital et des nouvelles technologies • Utilisation de Jira et Confluence : MAITRISE • Utilisation des méthodologies Agiles (SCUM, Kanban, Lean) : MATRISE • Connaissance des process ITIL : CONNAISANCE • Connaissance de l’environnement Cloud GCP (une certification est un plus) : CONNAISANCE • Excellentes compétences en gestion de projet, y compris la planification, l'organisation, la gestion du temps et la résolution de problèmes : CONFIRME • Excellentes compétences en gestion de produits, suivi et roadmap : MAITRISE • Excellentes compétences en communication écrite et verbale en français et en anglais, et savoir discuter dans des situations tendues : MAITRISE • Excellente compétence dans l’animation de communauté d’utilisateurs. : MAITRISE • Autonomie et capacité à gérer plusieurs tâches et équipes métier simultanément : MAITRISE • Une expérience préalable de gestion de projet avec des équipes DevOps (DevOps/ GitOps /FinOps/SecOps) : CONFIRME • Une expérience dans le milieu de media est exigée : CONFIRME

130 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous