Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 173 résultats.
Freelance

Mission freelance
[MDO] Responsable Back-End

Publiée le
HTML
Node.js
TypeScript

6 mois
510-560 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Contexte : La mission vise à renforcer l’équipe de développement pour un projet e-commerce headless. L’objectif est de concevoir et maintenir des services back-end performants et des interfaces front-end modernes, tout en appliquant les bonnes pratiques de développement et en participant à l’amélioration des pipelines CI/CD. Missions principales : Développement Back-end : créer et maintenir des services en Node.js et Fastify , optimisés pour la performance et la scalabilité. Développement Front-end : concevoir des interfaces utilisateurs en React avec Next.js , en maîtrisant HTML5 et CSS3 . Approche API-first / Headless : contribuer à l’architecture e-commerce headless et à l’intégration des APIs. Qualité logicielle : mettre en place tests unitaires, linting, documentation, revue de code et intégration continue. Développement en TypeScript pour assurer la fiabilité du code. Participation à l’amélioration des pipelines CI/CD , en collaboration avec les équipes DevOps. Collaboration agile : travailler étroitement avec les équipes produit, UX, front-end et back-end dans un environnement agile. Tests end-to-end : connaissance de Playwright appréciée pour renforcer la qualité logicielle.
Freelance

Mission freelance
AI-Native Software Engineer

Publiée le
AWS Cloud
IA Générative
Python

36 mois
540-550 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un AI-Native Software Engineer. Missions: Positionner comme un coach des équipes tech en place en apportant une expertise en GenAI Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Collaborer étroitement avec les équipes produit, design et architecture Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production. Profil • 7 ans d’expérience en développement Fullstack • Excellente maîtrise de Java/Spring Boot et de framework Front moderne (React) • Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes) • Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, Terraform) • Esprit pragmatique, orienté delivery rapide et clean code • Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude, Code, LLM, Framework IA) pour identifier les véritables opportunités d’amélioration. Passionné par les sujets d’IA (traditionnelle et générative) et veille continue sur le sujet • Excellente communication (écrite et orale) et capacité à travailler en équipe. • Pédagogie et capacité à convaincre. • Autonomie et proactivité : capacité à travailler sur plusieurs projets en même temps
CDI
Freelance

Offre d'emploi
Ingénieur Support et Production Applicative

Publiée le
Ansible
Plan de reprise d'activité (PRA)

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Description du poste Les applications, en environnement Windows (70%) et Unix (Linux/Solaris), sont à base de Weblogic, Tomcat, JBoss et de SGBD Oracle, Microsoft SQL Server, PostgreSQL et MySQL. L'automatisation est effectuée grâce aux outils d'ordonnancement Dollar Universe et Autosys. Le suivi de la production est effectué via les outils de monitoring Dynatrace et ITRS Geneos. Dans le cadre des évolutions de l'activité, la mission proposée contribue principalement aux différents projets liés à la digitalisation et l'industrialisation de la production (DevOps, Ansible, ELK, Jenkins, etc...) en tenant compte des contraintes liées à la sécurité.
CDI
CDD

Offre d'emploi
DevOps Engineer Lead Expert

Publiée le
Java
JSON
Python

18 mois
20k-40k €
Paris, France
Télétravail partiel
CONTEXTE : Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud, IA generative, Devops, Transformation digitale Méthodes / Normes TDD Soft skills Leadership Force de proposition Dans le cadre d’une transformation digitale d’envergure internationale, l’organisation développe et opère une plateforme de gestion de contenus de nouvelle génération, basée sur le cloud et intégralement alignée avec les standards groupe en matière d’architecture, sécurité, conformité et résilience. MISSIONS Cette plateforme, propriétaire et stratégique, vise à remplacer des solutions historiques et à fournir des services IT standardisés à l’ensemble des entités du groupe, dans une logique de performance, d’industrialisation et d’innovation continue. Missions principales Développement & outillage - Maintenir, auditer et faire évoluer les outils cœur développés en Python - Refactoriser et stabiliser des scripts existants dans une logique de qualité, performance et maintenabilité - Développer de nouveaux modules traduisant des règles métier en workflows techniques automatisés - Garantir un code propre, testé, documenté et conforme aux standards (PEP8) Innovation & prototypage - Concevoir et piloter des sprints d’innovation courts et ciblés - Prototyper de nouveaux services (ex. : IA générative, tagging automatique, recherche sémantique, contrôle qualité de contenus) - Challenger les besoins métiers, évaluer la faisabilité technique et proposer des trajectoires de mise en production DevOps & industrialisation - Contribuer aux pipelines CI/CD et aux déploiements automatisés - Participer à la mise en œuvre de l’infrastructure as code (Terraform, CloudFormation) - Intervenir sur des environnements cloud et conteneurisés (AWS, Kubernetes, OpenShift) Leadership & bonnes pratiques - Réaliser des revues de code et diffuser les bonnes pratiques d’ingénierie logicielle - Accompagner et mentorer les développeurs sur le TDD, le DevOps et l’architecture propre - Être force de proposition sur les choix techniques et les standards d’équipe Expertise souhaitée Expérience - Environ 10 ans d’expérience en développement Python et ingénierie logicielle - Expérience significative sur des applications data-intensives ou orientées contenus - Positionnement attendu : expert technique / lead, autonome et structurant Compétences techniques - Langages : Python (expert), Bash, Git ; Java et JavaScript (React ou Vue) appréciés - Data & IA : Pandas, regex, parsing JSON/XML, prompt engineering - Bases de données : NoSQL (MongoDB, MarkLogic), graphes, RDF/SPARQL - Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, Kubernetes, OpenShift, Artifactory - Qualité & tests : Pytest, BDD (Behave/Cucumber), Selenium, revues de code, outils de sécurité (SonarQube, Snyk)
Freelance

Mission freelance
Développeur PHP Magento HTML5 F/H

Publiée le
API Platform
Docker
Gitlab

3 mois
250-480 €
Massy, Île-de-France
Télétravail partiel
● Maîtriser le langage de programmation PHP et le framework Magento, notamment pour le développement back-end des applications web. ● Connaissance API Platform ● Connaissance de Docker ● Connaissance de Gitlab ● Connaissance de Sonar ● Connaissance des outils JIRA, Confl uence ● Expériences signifi catives avec des architectures microservices et event-driven. ● Expériences avec les bases de données relationnelles et/ou orientée document. ● Maîtrise de CI/CD (intégration et livraison continues), idéalement avec les outils Jenkins, GitLab CI ou équivalents, et les bonnes pratiques de pipeline de déploiement. ● Familier avec le versionning, notamment Git. ● Compréhension et usage des principes de craftsmanship. ● Contribuer à l'amélioration de la qualité du produit (Test coverage, Sonar, SOLID, YAGNI…) ● Participer à toutes les phases du cycle de développement logiciel, de la conception en passant par la mise en production et le run. ● Excellentes aptitudes à la collaboration et au travail en équipe. ● Participation active aux décisions d'équipe avec des contributions constructives. ● Capacité à respecter les délais tout en maintenant des standards élevés. ● Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog…) ● Excellente communication écrite et orale : Bonne communication écrite et orale en français pour des interactions fluides avec le métier. ● Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. ● Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. ● Capacité à respecter les délais tout en maintenant des standards élevés. ● Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs.
Freelance

Mission freelance
[FBO] Ingénieur Cloud AWS / GCP - Guyancourt - 1201

Publiée le

5 mois
300-545 €
Guyancourt, Île-de-France
Télétravail partiel
La mission de support et d'expertise se déroulera principalement sur le site avec 2 jours de télétravail/semaine. Assurer le support technique niveau 3 des infrastructures Cloud AWS et GCP ; Réaliser les demandes de change en production ; Réaliser les demandes de demande de droit ; Réaliser et ou mettre à jour les documentations des opérations de RUN ; Réaliser les corrections des vulnérabilités en production ; Réaliser les corrections de l’obsolescence en production ; Suivre l’activité avec les équipes internationales de RUN ; Réaliser la montée en compétence des équipes international de RUN ; La maitrise de l’anglais oral et écrit est nécessaire, aussi amenés à rédiger des dossiers en anglais à destination des équipes France et Internationale. En tant qu’Ingénieur RUN, les missions principales seront de : Assurer le support niveau 3 ; Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; Rédiger ou participer à la rédaction des dossiers de process support, post mortem générale et/ou détaillée ; L'expertise attendue : • Expertise et expérience significative sur Terraform. • Expertise sur le Cloud AWS et GCP. • Maitrise des outils de déploiement automatisés • Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python • Connaissance sur les technologies kubernetes
CDI

Offre d'emploi
Administrateur Bases de Données Oracle F/H

Publiée le

35k-47k €
Nantes, Pays de la Loire
Administrateur Bases de Données Oracle F/H - Nantes Administrateur Bases de Données Oracle F/H 📍 Localisation : Nantes 📅 Démarrage : Dès que possible Contexte & Description de la mission Nous recherchons un Administrateur Bases de Données Oracle (équivalent DBA) disposant d'une forte sensibilité Systèmes et DevOps. Vous interviendrez au sein d'équipes proches du développement pour assurer la disponibilité, la performance et la sécurité des environnements Oracle, tout en intégrant des pratiques d'automatisation et d'industrialisation. Votre rôle combinera administration traditionnelle des bases de données et approche DevOps (CI/CD, automatisation, observabilité) afin de garantir des services de données fiables, évolutifs et sécurisés. Vos principales missions Automatiser le provisioning, la configuration, le patching, les sauvegardes et la restauration des bases Oracle (scripts, outils d'orchestration). Intégrer les évolutions des bases dans les pipelines CI/CD et accompagner les déploiements automatisés (schémas, migrations). Mettre en place et maintenir la supervision et l'alerting (Prometheus, Grafana) pour la santé, la capacité et la performance des bases. Optimiser les performances et les requêtes SQL en collaboration avec les équipes de développement. Concevoir et administrer des solutions haute disponibilité et PRA (Data Guard, RAC, ASM, RMAN). Rédiger et maintenir des runbooks, exécuter des contrôles automatisés. Appliquer les bonnes pratiques de sécurité, gestion des accès, audit et conformité.
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
CDI

Offre d'emploi
Développeur JAVA VUE JS H/F

Publiée le
Java
Vue.js

50k-55k €
Rennes, Bretagne
Missions : Définir et analyser les besoins du client, Rédiger les spécifications techniques, Développer et optimiser les applications, La participation à la validation des développements livrés (réalisation de tests unitaires, revue de code) Environnement technique : Front : JS, GDS, CSS3, HTML5, JSON, VueJS Back : Java (8 à 21), SpringBoot, SpringBatch, Micronaut, JPA, Oracle, RabbitMQ, Kafka Test : PlayWright, Cucumber DevOps : GitLab CI, Maven, Sonar, Openshift, Docker, Tekton Outils : GitLab, IntelliJ, JIRA/Confluence, GitHub Copilot
CDI

Offre d'emploi
Administrateur Bases de Données Oracle F/H

Publiée le

35k-46k €
Niort, Nouvelle-Aquitaine
Administrateur Bases de Données Oracle F/H - Niort Administrateur Bases de Données Oracle F/H 📍 Localisation : Niort 📅 Démarrage : Dès que possible Contexte & Description de la mission Nous recherchons un Administrateur Bases de Données Oracle (équivalent DBA) disposant d'une forte sensibilité Systèmes et DevOps. Vous interviendrez au sein d'équipes proches du développement pour assurer la disponibilité, la performance et la sécurité des environnements Oracle, tout en intégrant des pratiques d'automatisation et d'industrialisation. Votre rôle combinera administration traditionnelle des bases de données et approche DevOps (CI/CD, automatisation, observabilité) afin de garantir des services de données fiables, évolutifs et sécurisés. Vos principales missions Automatiser le provisioning, la configuration, le patching, les sauvegardes et la restauration des bases Oracle (scripts, outils d'orchestration). Intégrer les évolutions des bases dans les pipelines CI/CD et accompagner les déploiements automatisés (schémas, migrations). Mettre en place et maintenir la supervision et l'alerting (Prometheus, Grafana) pour la santé, la capacité et la performance des bases. Optimiser les performances et les requêtes SQL en collaboration avec les équipes de développement. Concevoir et administrer des solutions haute disponibilité et PRA (Data Guard, RAC, ASM, RMAN). Rédiger et maintenir des runbooks, exécuter des contrôles automatisés. Appliquer les bonnes pratiques de sécurité, gestion des accès, audit et conformité.
CDI
Freelance

Offre d'emploi
DevOps Openstack / Kubernetes

Publiée le
Administration linux
Ansible
OpenStack

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
SquareOne renforce actuellement ses équipes dans le cadre d’un projet d’envergure à long terme. Dans ce contexte, l’entreprise intègre un ingénieur DevOps spécialisé en intégration cloud. Ce renfort s’inscrit dans une dynamique de croissance et d'engagement sur des missions techniques à forte valeur ajoutée. Le profil recherché interviendra sur des sujets complexes liés à l’évolution d’une infrastructure cloud existante, avec un focus particulier sur la modernisation, l’automatisation et l’ajout de nouveaux services. L’environnement de travail est composé d’une équipe technique d’environ quinze personnes, aux compétences mixtes internes et externes, opérant en mode collaboratif, aussi bien à distance qu’en présentiel. Ce poste s’adresse à un expert disposant d’une maîtrise solide d’OpenStack et d’une expérience significative dans l’administration Linux, le tout dans un contexte d’infrastructure cloud mature.
Freelance

Mission freelance
DevOps - IA / Agentique & LLM

Publiée le
DevOps
Large Language Model (LLM)

36 mois
550-650 €
Montreuil, Île-de-France
Télétravail partiel
Offre de mission – Ingénierie infra & IA au sein d’un AI Innovation Lab Contexte et objectif de la mission Au cœur d’un AI Innovation Lab appartenant à un grand groupe bancaire international multi‑entités, la mission consiste à concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d’infrastructures IT. L’objectif est de fournir des aides intelligentes à la production, de faciliter la supervision, l’automatisation et la résolution proactive d’incidents. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales / Tâches 1. Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). 2. Automatiser la collecte, la pré‑traitance et l’exploitation des datasets d’infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur des modèles de langage (LLM). 3. Développer et intégrer les pipelines de déploiement d’agents IA en collaboration avec les data‑scientists et les ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). 4. Implémenter des scripts et outils en Python, Bash, Go pour l’automatisation des tâches d’infrastructure, l’orchestration et le monitoring. 5. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : approches DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. 6. Produire la documentation technique des POC et rédiger les spécifications d’industrialisation à destination des équipes produit. 7. Assurer une veille technologique continue sur les évolutions des architectures agentiques, des LLM et de l’automatisation d’infrastructure. Profil recherché Compétences techniques clés - Systèmes d’exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). - Cloud & Infrastructure as Code (IaC) : connaissance des principaux cloud publics (AWS, Azure, GCP) et des outils IaC (Terraform, Pulumi, CloudFormation). - Conteneurisation & orchestration : Docker, Kubernetes, Helm. - CI/CD : Jenkins, GitLab CI, ArgoCD. - Automation de configuration : Ansible, Puppet, Chef. - Langages : Python (niveau expert), Bash, Go (appréciés). - Monitoring & logging : Prometheus, Grafana, ELK Stack. - Sécurité & conformité : pratiques DevSecOps, gestion des vulnérabilités (SonarQube, Snyk, Aqua Security), conformité RGPD. Soft skills & langues - Passion pour les technologies émergentes, curiosité et esprit d’initiative pour expérimenter et résoudre des défis complexes. - Forte capacité d’analyse, rigueur dans la documentation et le codage. - Aptitude au travail collaboratif dans des équipes pluridisciplinaires et internationales. - Autonomie, adaptabilité à des environnements dynamiques et aux méthodes agiles (Scrum, Kanban). - Excellente communication en anglais (écrit & oral) pour échanger avec des experts internationaux.
Freelance
CDD

Offre d'emploi
Ingénieur Big Data Production - Cloudera / Kafka (H/F)

Publiée le
Apache Kafka
Cloudera
Production

1 an
65k-70k €
450-500 €
Gironde, France
Télétravail partiel
Il s’agit d’un poste d’ingénierie d’exploitation Data senior , orienté support N2/N3, performance et fiabilité , et non d’un rôle projet, Data Engineering ou DevOps cloud généraliste. VOS MISSION PRINCIPALES Le poste est fortement hands-on , centré sur l’exploitation avancée de la plateforme Data : Assurer le support N2/N3 d’une plateforme Big Data Cloudera en production Diagnostiquer et résoudre des incidents critiques complexes (performance, disponibilité, latence) Garantir la stabilité et la performance des clusters Hadoop / Spark Administrer et optimiser Kafka : performance, gestion des offsets, scalabilité, haute disponibilité, sécurité Superviser et optimiser les composants annexes (dont Elasticsearch ) Réaliser le tuning, le dimensionnement et l’optimisation des ressources Automatiser les opérations récurrentes : scripts Shell et Python, industrialisation via Ansible, pipelines CI/CD orientés exploitation Participer à l’ évolution de l’architecture Data en lien avec les architectes Documenter, transmettre et accompagner les équipes N1 / N2 Être point de contact technique avec l’ éditeur Cloudera en cas d’escalade
Freelance
CDI
CDD

Offre d'emploi
DevOps engineer (KAFKA)

Publiée le
Apache Kafka
Azure DevOps
DevOps

3 ans
Luxembourg
Télétravail partiel
Relocalisation au Luxembourg ou à la frontière entre la France et le Luxembourg requise, car il s’agit d’un rôle hybride et non en télétravail complet. Notre client renforce une équipe DevOps responsable des environnements Windows, Unix et Azure. Le poste implique la gestion des opérations, l’automatisation et la sécurité pour des applications critiques. Responsabilités : Administrer et améliorer Apache Kafka : RBAC, architecture, gouvernance des topics/ACL, intégration des applications et accompagnement des membres de l’équipe. Gérer Tomcat/Apache et optimiser les configurations. Assurer la gestion complète des certificats SSL (CSR, chaînes de certificats, renouvellements). Automatiser les processus avec Ansible et appliquer les bonnes pratiques Git. Mettre en œuvre les processus ITIL (Incident, Changement, Problème), maintenir la documentation et garantir une communication claire. Fournir un support de niveau 2/3 et participer aux astreintes. Qualifications et compétences : Apache Kafka : RBAC, architecture, intégration, mentoring. Tomcat / Apache : Configuration et optimisation. Gestion SSL : Certificats, CSR, renouvellements. Ansible : Automatisation et CI/CD. Git : Maîtrise des bases du contrôle de version. ITIL : Processus Incident, Changement, Problème. Atouts supplémentaires : IBM WebSphere (WAS), Red Hat JBoss EAP, IIS, VTOM, Nexus, IFS, expérience avec Red Hat sur Power Systems.
Freelance

Mission freelance
Développeur Python /devops - Paris ou Orleans

Publiée le
Python

6 mois
400-420 £GB
Paris, France
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Freelance

Mission freelance
Expert Kubernetes / OPENSHIFT - mission long terme Projets IAC et conteneurs

Publiée le
IAC
Kubernetes
Openshift

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche pour un de ses clients grands comptes un Expert Kubernetes et mise en place de chaines CI/CD, dans le cadre de projets de conteneurisation OnPremise et IAC. La mission sur le périmètre KUBERNETES comporte deux volets principaux : • Accompagnement à l'installation et configuration des clusters • Aide à l'administration et maintenance des clusters La chaîne CI/CD sera composée des éléments ci-dessous : • Gitlab (repository + pipelines + runners) • Hashicorp Vault • Artifactory • Kaniko • Trivy • Grype • Syft • Checkov • Kubernetes • ArgoCd Description de la mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Administration/ Maintien en condition opérationnel des clusters Openshift - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Participer à l'alimentation de la roadmap technique et à l'élaboration des normes d'exploitation.
2173 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous