Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 206 résultats.
Freelance

Mission freelance
INGENIEUR DE PRODUCTION VTOM sénior H/F

Cheops Technology
Publiée le
Apache
AWS Cloud
CFT (Cross File Transfer)

1 an
400-450 €
Saint-Denis, Île-de-France
Nous recherchons pour un de nos clients un ingénieur VTOM H/F: Intégrer et déployer en méthode AGILE les évolutions de la ligne de Service Ordonnancement (VTOM). Préparer la mise en exploitation des évolutions ou d’une évolution d’application dans un système d’information tout en s’attachant à vérifier que les applications insérées dans le système d’information fonctionnent conformément aux attentes techniques et métiers, et que les procédures d’exploitation sont conformes aux standards établis. Gérer la relation avec les Clients et Projets Applicatifs en vue de garantir et améliorer la qualité des services de production et d’améliorer globalement les services de la ligne de Service ordonnancement Assure la maintenance et l’évolution des plateformes VTOM. •Créer/maintenir les scripts nécessaires pour l’ordonnancement. •Créer et encapsuler des scripts fonctionnelles •Paramétrer les jobs VTOM •Préparer la télédistribution en production •Maintenir en condition opérationnelle des chaines d’ordonnancements et des plateformes. •Accompagner les solutions métiers pour la rédaction de leur plan d’ordonnancement. •Assister et conseiller les équipes projets sur les différentes solutions pour leur ordonnancement applicatif. •Participer à la définition des architectures techniques •Définir / supprimer / modifier les plans d’ordonnancement •Maintenir les documentations •Participer à la conception des feuilles de route techniques des plateformes Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, SpluNK
Freelance
CDI

Offre d'emploi
Ingénieur Kubernetes (H/F)

QODEXIA
Publiée le
Ansible
AWS Cloud
Confluence

10 jours
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de l’équipe Container Engineering chez l’un de nos clients grand compte, nous recherchons un Ingénieur Kubernetes confirmé. ⚠ La maîtrise de Kubernetes est obligatoire. Merci de postuler uniquement si vous disposez d’une expérience significative et opérationnelle sur Kubernetes en environnement de production. Compétences requises : Excellente maîtrise de Kubernetes ( impératif ) Outils CI/CD : GitLab, Nexus, Artifactory Automatisation : Terraform, Ansible, scripting Outils de productisation : JIRA, Confluence Environnements Linux : RedHat, Ubuntu Connaissances en développement Compétences AWS appréciées
Freelance

Mission freelance
Cloud Ops Engineer

Celexio
Publiée le
AWS Cloud
CI/CD
Datadog

3 mois
400-550 €
Paris, France
Présentation de la mission En tant que Cloud OPS Engineer Senior, vous rejoignez un groupe leader de la Tech Parisienne. Votre mission est au cœur de la stratégie Data : vous assurez la robustesse, l'évolution et la maintenance de l'infrastructure supportant les outils d'analyse de marché. Vous intervenez dans un contexte de passation fluide (binôme avec le titulaire sortant) pour garantir la continuité opérationnelle tout en apportant votre expertise sur les chantiers de modernisation. Responsabilités Architecture & Build : Construire et maintenir une infrastructure scalable pour supporter les flux de données critiques du groupe. Maintenance & Modernisation : Assurer le run de la stack actuelle tout en intervenant sur la stack legacy pour optimiser les performances. Hybridation Cloud : Piloter le transfert de services et le "debug" sur un reliquat d'infrastructure GCP (mission de "spéléologie" technique ponctuelle). Automatisation & Observabilité : Garantir la fluidité des déploiements et la visibilité de l'état de santé des services via des dashboards avancés.
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Freelance
CDI
CDD

Offre d'emploi
Architecte Kafka

LEVUP
Publiée le
Apache Kafka
AWS Cloud

12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
CDI
CDD
Freelance

Offre d'emploi
Ingénieur Systèmes & Cloud – Automatisation / Build & Run (H/F)

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Azure Active Directory
Windows Server

3 ans
Villeneuve-d'Ascq, Hauts-de-France
Dans le cadre d’une mission longue durée, nous recherchons un Ingénieur Systèmes & Cloud pour intervenir chez l’un de nos clients stratégiques. 📌 Répartition des activités : 80% Build (projets, modernisation, automatisation) 20% Run (maintien en conditions opérationnelles) 🚀 Vos missions 🔧 Administration & Exploitation Administration et évolution des environnements Microsoft Windows Server , Active Directory , Entra ID (Azure AD) Support N3 sur les infrastructures serveurs Gestion et optimisation des environnements VMware (vSphere, vCenter) ☁️ Cloud & Transformation Participation à la migration et à l’exploitation d’environnements Cloud publics et privés Mise en œuvre de solutions Infrastructure as Code (IaC) : Terraform, Packer, Ansible, PowerShell Contribution aux projets de transformation IT : sécurité, automatisation, modernisation Veille technologique et recommandations sur les bonnes pratiques Cloud & Systèmes
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Freelance

Mission freelance
Cloud Network & Automation Engineer AWS

Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux

3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Freelance

Mission freelance
Expert Cybersécurité & DevSecOps GenAI – Azure / M365

Comet
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
650-750 €
Paris, France
Dans le cadre du renforcement de son expertise cybersécurité autour des environnements Cloud, Data et Intelligence Artificielle , une grande organisation recherche un Expert Cybersécurité & DevSecOps GenAI pour intervenir sur des sujets stratégiques à fort enjeu. Vous intégrerez une communauté d’experts en charge de la sécurisation des usages GenAI (IA générative) et interviendrez en support des centres de compétences, des équipes projets et des entités métiers, en France comme à l’international. Votre rôle consistera à accompagner la sécurisation des plateformes Microsoft Azure & Microsoft 365 (Copilot, Azure Cognitive Services, Fabric, Power Platform, Azure ML), depuis la définition des architectures jusqu’au déploiement opérationnel des contrôles de sécurité. Vous participerez à la production de livrables sécurité structurants (dossiers de sécurité, analyses de risques, blueprints, recommandations d’architecture), à la revue de code , et à l’intégration de la sécurité dans les pipelines DevSecOps . La mission s’inscrit dans un environnement Agile , anglophone, avec une forte exigence de qualité, de rigueur et de capacité à interagir avec des équipes techniques et métiers de haut niveau.
Freelance
CDI
CDD

Offre d'emploi
Développeur FullStack (React JS / Spring Boot) - DevOps

bdevit
Publiée le
Ansible
AWS Cloud
CI/CD

36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement des équipes projets au sein des plateformes IT d'une banque de renom, vous interviendrez en tant que Développeur FullStack (React JS/SpringBoot) avec une forte sensibilité DevOps afin de contribuer au développement et à l’industrialisation d’applications bancaires critiques. Missions Principales : Participer à la conception technique et au développement d’applications web en architecture microservices ; Développer des interfaces utilisateurs modernes et performantes avec React JS (JavaScript / TypeScript) ; Concevoir et développer des APIs REST sécurisées en Spring Boot ; Assurer la qualité du code (tests unitaires, tests d’intégration, code review, clean code) ; Intégrer les applications dans les chaînes CI/CD existantes ; Conteneuriser les applications via Docker et gérer leur déploiement sous Kubernetes ; Contribuer à l’automatisation des environnements via Terraform et/ou Ansible ; Participer aux phases de recette, mise en production et support applicatif (N2/N3) ; Garantir le respect des normes de sécurité et des exigences réglementaires bancaires ; Collaborer avec les équipes DevOps, Architecture, Sécurité et Production.
Freelance

Mission freelance
Ingénieur Cloud AWS Confirmé

Signe +
Publiée le
AWS Cloud
Docker
Kubernetes

6 mois
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Ingénieur Cloud AWS Confirmé. En tant qu’ Ingénieur Cloud AWS Confirmé , vous jouerez un rôle clé dans la conception, le déploiement et l’optimisation d’architectures AWS sécurisées et performantes. Vos responsabilités : Concevoir et déployer des environnements AWS (ECS, Lambda, Kinesis, OpenSearch…). Automatiser et industrialiser via Terraform et pipelines CI/CD (GitLab CI, Jenkins). Garantir la sécurité et la conformité Application des bonnes pratiques AWS (Well Architected Framework). Gestion avancée des identités et accès (IAM, rôles, politiques). Mise en place de solutions de protection (AWS WAF, Shield, GuardDuty). Intégration des systèmes d’authentification (SSO, SAML). Collaborer avec des experts AWS pour faire évoluer les architectures et partager les bonnes pratiques.
Freelance
CDI
CDD

Offre d'emploi
Developpeur Full stack ReactJS /JVM- senior

KEONI CONSULTING
Publiée le
AWS Cloud
Datadog
Java

18 mois
20k-60k €
100-500 €
Paris, France
Contexte Nous recherchons un développeur fullstack senior sur un produit critique qui accompagne les conseillers clients dans les parcours après-vente (consultation, annulation, échange, etc.) et s’inscrit dans un écosystème applicatif complexe, composé de plus de 30 équipes organisées par produits et domaines. La mission s’inscrit dans un contexte de développement de nouvelles fonctionnalités, d’amélioration continue et d’évolution des pratiques de déploiement et de qualité logicielle. MISSIONS La mission suppose une intégration au sein d’une équipe agile pluridisciplinaire d’environ une petite dizaine de personnes (PO, QA, développeurs, DevOps), en charge du développement et de l’évolution du produit. Le développeur fullstack interviendra sur l’ensemble des couches applicatives : - Frontend (ReactJS), - Backend sur stack JVM (Java / Kotlin, Spring), - Chaîne CI/CD et déploiement sur environnement cloud AWS. Il devra maîtriser les bonnes pratiques de développement frontend et backend, ainsi que les principes de qualité logicielle, de tests automatisés, de livraison continue et d’exploitabilité en production. Une capacité à être rapidement autonome et à collaborer efficacement dans un environnement multi-équipes est attendue. Environnement technique : - Langages : Java (≥ 21), Kotlin, JavaScript - Frameworks : Spring / Spring Boot (backend), ReactJS (frontend) - Architecture & services : APIs REST, microservices, serverless - Cloud & Serverless : AWS (Lambda Node.js & JVM, API Gateway, S3) - Données : MongoDB, DynamoDB - Build & scripting : Gradle, Bash - CI/CD : GitLab CI, AWS - Monitoring : Datadog - Infrastructure as Code : Terraform Livrables La mission : • Développer et faire évoluer les fonctionnalités du backoffice en lien avec les besoins des équipes de relation client. • Contribuer à l’évolution des services backend de distribution. • Participer à la migration des composants applicatifs vers les nouveaux standards techniques et organisationnels (monorepo, continuous delivery). • Garantir la qualité des livrables sur l’ensemble du cycle : cadrage, développement, tests automatisés, validation. • Participer activement à l’intégration continue et aux déploiements automatisés. • Collaborer avec les autres équipes produit et techniques afin d’assurer la cohérence fonctionnelle et technique au sein de l’écosystème (30+ équipes). • Veiller à la qualité et à l’exploitabilité du produit en production. • S’impliquer dans la vie de l’équipe agile et partager son expertise avec les autres membres. Compétences Compétences techniques attendues : - Backend : Java 21 (Kotlin apprécié), Spring, Git. - Frontend : Typescript, ReactJS. - Expérience sur des environnements cloud, idéalement AWS. - Maîtrise des pratiques CI/CD, tests automatisés et qualité logicielle. - Bonne compréhension des problématiques de production et d’exploitabilité. Compétences fonctionnelles et comportementales : - Forte appétence produit et métier, capacité à comprendre les enjeux fonctionnels. - Expérience significative en développement avec une posture de référent technique ou de soutien aux autres développeurs. - Esprit collaboratif, proactif et autonome. - Capacité à communiquer efficacement dans un environnement multi-équipes.
CDI
Freelance

Offre d'emploi
Ingénieur Cloud DevOps F/H Montpellier

Deodis
Publiée le
AWS Cloud
DevOps
Docker

12 mois
55k-62k €
520-580 €
Montpellier, Occitanie
Nous recherche pour le compte d'un client un Ingénieur Cloud DevOps Senior orienté Data capable de concevoir, d’implémenter et d’administrer une infrastructure Cloud hybride. Missions : Piloter la conception technique, la mise en oeuvre et l’optimisation de la plateforme Cloud pour permettre une bonne exploitabilité. Accompagner les ingénieurs Cloud dans l’implémentation de la solution choisie Développer et maintenir l’infrastructure as code (IaC) avec Terraform/Terragrunt Automatiser et maintenir les pipelines CI/CD des projets Cloud (GitLab) Etre garant de la qualité du code de l’équipe (peer programming, revue de code, ...) Collaborer avec les équipes applicatives, infrastructure et DevOps pour définir et implémenter les bonnes pratiques GROUPE. En collaboration avec l’architecte du projet, assurer la conformité et la sécurité GROUPE des architectures cloud (authentification, gestion des secrets, réseau, ...) Documenter les procédures d’implémentation, d’utilisation et d’exploitation. Mettre en place des solutions d’alerting et de monitoring avancées (Prometheus, Grafana, ELK, Google Cloud Observability) Support et RUN : Assurer le maintien en conditions opérationnelles en mode GitOps.
CDI

Offre d'emploi
Ingénieur DEVOPS

KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
AWS Cloud
Azure

Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Freelance

Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-500 €
Île-de-France, France
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
206 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous