Trouvez votre prochaine offre d’emploi ou de mission freelance Docker à Paris

Ce qu’il faut savoir sur Docker

Docker est une plateforme open-source conçue pour automatiser le déploiement, la gestion et l'exécution d'applications dans des conteneurs légers et isolés. Ces conteneurs permettent aux développeurs de regrouper une application avec ses dépendances (bibliothèques, configurations) pour garantir son bon fonctionnement, quel que soit l'environnement d'exécution. Docker est largement utilisé pour accélérer les cycles de développement, simplifier la gestion des infrastructures et faciliter la scalabilité des systèmes. Compatible avec Windows, macOS et Linux, il s'intègre avec des outils de CI/CD et des plateformes cloud pour une gestion optimisée des applications modernes.

Votre recherche renvoie 31 résultats.
Freelance

Mission freelance
Développeur(se) Fullstack Java / Angular - Transformation digitale - IDF (H/F)

EASY PARTNER
Publiée le
Agile Scrum
Angular
Docker

6 mois
400-480 €
75000, Paris, Île-de-France

Contexte Dans le cadre d’un projet stratégique au sein d’une DSI, nous recherchons un(e) Développeur(se) Fullstack Java / Angular confirmé(e) (4 à 10 ans d’expérience). L’objectif est de renforcer une équipe dynamique sur un projet applicatif nécessitant des compétences solides en Java 17+ / Spring Boot , Angular et environnements CI/CD. Missions principales Analyser, paramétrer et développer des composants applicatifs conformément aux normes internes. Contribuer à la conception technique à partir des spécifications fonctionnelles. Réaliser les développements attendus et assurer la qualité via des tests unitaires (Mockito, SonarQube). Documenter les applications et interfaces développées. Collaborer en mode Agile (Scrum) avec les UX Designers et les autres membres de l’équipe. Participer aux phases de recette, d’intégration et aux revues de code croisées. Contribuer aux évolutions et à la maintenance corrective. Compétences techniques attendues Java 17+ / Spring Boot – Expert – impératif SQL / NoSQL – Expert – impératif SonarQube, Mockito – Expert – impératif CI/CD (GitLab, Docker, Kubernetes) – Confirmé – impératif Angular / PrimeNG – Confirmé – important Agile / Scrum, collaboration avec UX Designers – Confirmé – souhaitable 🌍 Compétences linguistiques Français courant – impératif

CDI
Freelance

Offre d'emploi
DevOps / Administration et MCO de la production

VISIAN
Publiée le
Ansible
Bash
Control-M

1 an
40k-47k €
200-390 €
Paris, France

Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.

Freelance

Mission freelance
Ingénieur Cybersécurité Vulnérabilité

Groupe Aptenia
Publiée le
Cybersécurité
DevOps
Docker

2 ans
300-450 €
Paris, France

🚨 URGENT Je suis à la recherche d’un Ingénieur Cybersécurité Vulnérabilité 🚨 📍 Localisation : Paris 🚀 Démarrage : ASAP ✒️ Contrat : Freelance Mission Long Terme 💻 Télétravail partiel 1. Profil recherché ✅ Ingénieur Cybersécurité ayant travaillé sur de la vulnérabilité ✅ Cybersécurité de Containers ✅ Mission Run & Build ✅ Mission d'implémentation d'un outil de container 🔨 Compétences : ✅ Très bonne connaissance des environnements Docker / Kubernetes ✅ Maîtrise d’un outil de container security (AquaSec ou équivalent) ✅ Connaissance du Cloud DevOps

Freelance

Mission freelance
Développeur Fullstack Angular / PHP (Symfony ou Zend) Expérimenté H/F

CBC CONSULT
Publiée le
Angular
Docker
Javascript

1 an
390-400 €
Paris, France

📍 Lieu : 100% Télétravail 🏭 Secteurs stratégiques : Editeur Logiciel 🕒 Durée : 1 an (renouvelable) 📅 Démarrage : ASAP 🧠 Séniorité attendue : 5 ans minimum 🌍 Environnement international – Anglais Obligatoire 🏢 Contexte de la mission : CBC Consult recrute pour le compte de son client basé, un(e) développeur(se) Fullstack Angular / PHP (Symfony ou Zend) Expérimenté(e) pour renforcer l'équipe technique. As part of our international Software Development team, you will contribute to the development of our Innovation Saas Solutions. We develop and license software for innovation management. With our software, we enable companies and their innovation departments to involve employees , customers and external experts in their innovation processes. This allows to specifically address a large amount of people in a short period of time. We already have a very comprehensive standard product, where the corporate identity can be adapted to the customer. Our customers can use just one feature or the entire range of features and thus synergies. 🎯 Vos missions principales : Your responsibilities You will work closely with cross-functional teams to deliver high-quality software solutions that align with business goals. Maintain, enhance, and ensure the scalability and performance of our innovation platforms. Develop and implement new features and functionalities based on user requirements and business needs. Collaborate with cross-functional teams including product managers, designers, and other developers to ensure seamless integration and functionality. Write clean, efficient, and well-documented code following industry best practices. Conduct code reviews and contribute to team knowledge sharing. Perform troubleshooting and debugging to ensure the stability and reliability of applications. Stay up-to-date with emerging technologies and best practices to suggest and implement improvements.

CDI
Freelance

Offre d'emploi
Développeur IA (H/F)

CITECH
Publiée le
Copilot
Docker
Python

6 mois
50k-60k €
400-550 €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur IA (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. Leur DSI est sur la structuration de leur stratégie IA via la mise en place d’un portail IA interne destiné à 1000 collaborateurs et prestataires. Cette initiative est portée par l’équipe Valorisation des Données et Innovation et l’objectif est de fournir un point d’accès unifié, sécurisé et évolutif aux assistants IA, à la formation, aux connaissances métiers, et à une marketplace d’agents IA personnalisables. 👉 Vous aurez les missions suivantes : 👈 🔸 Concevoir et développer le front-end du portail IA (accès aux assistants, modules de formation, FAQ). 🔸 Développer des bases de connaissances (RAG) à partir de documents internes et de logiciels tiers (Jira, Confluence, Itop…). 🔸 Créer des chatbots exploitant ces bases, en assurant une gestion fine des droits d’accès. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel de façon sécurisée. 🔸 Enrichir la marketplace d’assistants préconfigurés. 🔸 Fournir un support technique et fonctionnel aux utilisateurs et alimenter la FAQ. 🔸 Déployer les agents IA dans Microsoft 365 ou via Copilot, avec une exposition via API ou autres mécanismes d’intégration. 🔸 Participer activement à l’intégration continue (CI/CD) et au respect des normes de gouvernance technique.

Freelance

Mission freelance
Deux Ingénieurs senior et expert Cloud & DevOps Microsoft Azure et AWS

Octopus Group
Publiée le
AWS Cloud
Azure DevOps
CI/CD

3 mois
600-750 €
Paris, France

Besoin d'assistance de deux ingénieurs Cloud & DevOps : 1 senior 6 à 10 ans d'expérience et un expert de plus de 10 ans qui interviendront dans un environnement multicloud s'appuyant principalement sur Microsoft Azure et AWS. La prestation s'effectuera en interaction avec les équipes Cloud & Intégration, les architectes, les équipes sécurité, les développeurs et les opérations, dans le cadre d'une mission visant à industrialiser, automatiser et fiabiliser les plateformes cloud et les services associés. Agilité & rapidité : accélérer les cycles de développement et de déploiement via des chaînes CI/CD intégrées. Fiabilité & standardisation : garantir des déploiements maîtrisés, reproductibles et alignés avec les standards du multi-cloud. Sécurité & conformité : intégrer des mécanismes de sécurité dès les phases de build et de déploiement (scans, gestion des secrets, durcissement). Optimisation des ressources cloud : assurer le suivi et l'efficience des ressources via une approche FinOps. Observabilité & résilience : mettre en œuvre des outils de monitoring, logging et alerting pour anticiper les incidents et améliorer le MTTD/MTTR.

Freelance

Mission freelance
Designer Bastion Wallix - Finance - Paris - H/F

EASY PARTNER
Publiée le
Ansible
Bash
DevOps

1 an
400-600 €
Paris, France

Rejoignez une entreprise leader dans le secteur financier, spécialisé dans le trading quantitatif et la gestion d'actifs basée en France. Face aux exigences croissantes en matière de sécurité dans un contexte numérique en constante évolution, nous avons décidé de renforcer notre département IT en intégrant un expert DevSecOps. Vous intégrerez une équipe dynamique dédiée à la mise en place et à l'optimisation d'outils d'infrastructure sécuritaire, composées de professionnels passionnés par l'innovation technologique. En raison de la complexité croissante de nos systèmes et de la nécessité d'assurer la sécurité des données, ce poste de DevSecOps Expert s'avère cruciale. - Missions principales : - Concevoir et déployer une infrastructure de bastion wallix en tant que passerelle sécurisée entre nos différents environnements. - Accompagner les utilisateurs à la conduite du changement - Missions annexes : - Collaborer avec les équipes IT pour garantir le respect des normes de sécurité. - Former les utilisateurs internes sur les pratiques de sécurité et les nouveaux outils déployés. Stack technique Compétences techniques requises : - Expertise en Bastion (exemple : Wallix) - Excellentes connaissances en Linux - Gestion de configuration via Ansible, Puppet - Automatisation CI/CD avec Jenkins - Développement et scripting en Bash et Python - Utilisation de conteneurs (Docker) - Version control avec Git

Freelance

Mission freelance
Développeur fullstack java vue.js

Freelance.com
Publiée le
Apache Kafka
Confluence
Docker

1 an
400-450 €
Paris, France

Notre client, acteur majeur du secteur des télécommunications, recherche un profil Développeur JAVA Fullstack pour intervenir sur les applications dans le cadre de la roadmap projet. Mission Cadrage technique des évolutions sur la plateforme de vente Évaluation des charges (en jours de développement) pour chaque évolution/projet Développement des évolutions à partir des JIRA spécifiés Réalisation des tests unitaires Déploiement des applicatifs sur les environnements IPP1 et/ou IPP2 Correction des anomalies remontées par les équipes de recette

Freelance

Mission freelance
Ingénieur DevOps

Lawrence Harvey (LHI group limited)
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
650-700 €
Paris, France

Mission / Freelance / France / Paris / Ingénieur DevOps / Cloud / AWS / Kubernetes / Docker / Terraform / Anglais / Mission Longue Localisation : Paris (2 à 3j/semaine sur site) Démarrage : ASAP Durée : longue mission, 6 mois renouvelables Nous recherchons un Ingénieur DevOps expérimenté pour intervenir sur un programme stratégique international. Vos missions : Accompagner les équipes projets dans la migration d’infrastructures on-premise vers le Cloud (AWS principalement). Mettre en place et optimiser les pipelines CI/CD (Jenkins, CircleCI, TeamCity, Octopus…). Déployer et administrer des plateformes Kubernetes (EKS) et gérer les environnements Docker. Participer aux activités FinOps (optimisation des coûts Cloud). Développer des outils internes (Python, Bash, Terraform, Ansible) pour automatiser les déploiements et l’administration. Contribuer au monitoring et à l’observabilité (Grafana, Prometheus, Datadog, ELK). Collaborer avec les équipes produit et développement dans un contexte Agile/Scrum. Profil recherché : 5+ années d’expérience en environnement DevOps et Cloud. Excellente maîtrise de AWS, Kubernetes (EKS), Docker, Terraform. Expérience en CI/CD (Jenkins, CircleCI, GitLab CI…). Solides compétences en scripting (Python, Bash, PowerShell). Connaissance des pratiques FinOps et de la sécurité Cloud. Certifications AWS ou Kubernetes fortement appréciées. Anglais professionnel courant (collaboration internationale). Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy).

Freelance

Mission freelance
DevOps Cloud Azure Sénior

Cherry Pick
Publiée le
Azure
Docker
Git

6 mois
580-630 €
Paris, France

Dans le cadre du renforcement de ses équipes Cloud, notre client recherche un DevOps Azure Senior . Le profil devra être capable d’intervenir de manière autonome sur la conception, le build, l’automatisation et l’exploitation de solutions cloud containerisées dans un environnement Microsoft Azure . L’objectif est de garantir la fiabilité, la sécurité et la performance des services tout en accélérant les cycles de déploiement via une approche DevOps et Infrastructure as Code. Missions Prendre en charge les intégrations et livraisons continue (CI/CD) des packages applicatifs ; Gérer les révisions et historisation des modifications afin de faciliter l'examen et la récupération du code ; Participer à la mise en place de l’IAC (Infrastructure As Code) sur l ’ensemble des briques techniques ; Superviser les performances et d’intégrité du périmètre applicatif et infrastructure ; Coordonner les tests de charge et/ou de non-régression pour identifier les éventuelles anomalies ; S’assurer de la disponibilité des environnements par le biais d’éléments d’infrastructure (HA, Load Balancing, …) ; Veiller à la mise en place de contrôles de sécurité sur le code ou l’infrastructure. Livrables attendus Scripts d’automatisation Schémas techniques Documentations fonctionnelles Procès-verbaux de release

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance
CDD

Offre d'emploi
Développeur Web Service - Fullstack Java

SysCatalyst
Publiée le
Bootstrap
CSS
Docker

1 an
40k-45k €
400 €
Paris, France

Dans le cadre de cette mission, l'intervention se déroulera dans la squad Trade Operation, qui est centrée sur le progiciel FBTI qui gère les activités Back Office Trade Finance. Autour de ce progiciel, il y a des développements spécifiques Java, Angular-React, PLSQL, ainsi que des outils de paramétrages (EAI ITX, modules de courriers FBTI…). Nous recherchons un Développeur confirmé pour s’intégrer à nos squads FBTI. Rôle & responsabilités En tant que Développeur Fullstack Jav le consultant interviendra sur les activités suivantes : Concevoir et développer des solutions via le software craftmanship (test driven development, fail fast, continuous delivery, méthode agile etc.) ; Challenger les besoins et rédiger les scénarios en collaboration avec les Business Analysts et participer aux estimations poker planning ; Assurer le support de production et maintenir l'opérabilité des environnements de tests Participer à l’amélioration continue (technique, organisation et processus) maintenance en condition opérationnelle des environnements de tests. Informations pratiques Type de contrat : Freelance (portage possible) Localisation : Région parisienne (hybride possible selon contexte) Durée de mission :12 mois renouvelables Démarrage : ASAP

Freelance

Mission freelance
DataOps Platform Engineer

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

24 mois
580-630 €
Paris, France

Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Freelance

Mission freelance
ingénieur DEVOPS AWS

EterniTech
Publiée le
Ansible
AWS Cloud
Azure DevOps

6 mois
Paris, France

📢 Offre de mission – Ingénieur DevOps AWS 🕒 Démarrage : ASAP 💼 Durée : Mission longue Nous recherchons actuellement un Ingénieur DevOps AWS pour l’un de nos clients dans le cadre d’un nouveau projet d’envergure. ✅ Vos missions : Participer à la mise en place et à l’optimisation d’infrastructures cloud AWS Automatiser les déploiements (CI/CD, Infrastructure as Code) Assurer la supervision, la fiabilité et la sécurité des environnements Collaborer étroitement avec les équipes de développement et d’exploitation Participer à la veille technologique et à l’amélioration continue des processus DevOps 🎯 Profil recherché : Expérience significative en environnement DevOps AWS Maîtrise d’outils comme Terraform, Ansible, Docker, Kubernetes, Jenkins, etc. Bonne compréhension des enjeux de sécurité, performance et scalabilité Esprit collaboratif, autonomie, capacité d’adaptation ➕ Les petits plus : Certifications AWS Expérience en environnement agile Expérience multi-cloud ou sur d'autres outils DevOps

Freelance

Mission freelance
Développeur Data – MCO DataLake

AGH CONSULTING
Publiée le
Ansible
Apache Hive
Apache Spark

6 mois
400-550 €
Paris, France

Une grande entreprise du secteur de l’énergie recherche un(e) Développeur(se) Data confirmé(e) pour assurer le maintien en conditions opérationnelles (MCO) de son DataLake en production. Le DataLake est alimenté par une quinzaine de sources différentes et repose sur une stack technique moderne basée sur Hadoop (distribution TDP) . Vous rejoindrez une petite équipe autonome (2 devs) fonctionnant en mode agile, en lien avec les équipes DevOps, TDP, exploitation et les métiers.

Les métiers et les missions en freelance pour Docker

Ingénieur·e devops (Cloud)

L'Ingénieur·e DevOps (Cloud) utilise Docker pour automatiser le déploiement d'applications, créer des conteneurs et gérer des infrastructures cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux maîtrise Docker pour la gestion des environnements de développement et de production via des conteneurs, facilitant la gestion des infrastructures systèmes et réseaux.

Développeur·euse fullstack

Le/ La Développeur·euse fullstack utilise Docker pour créer des environnements de développement, tester des applications et gérer le déploiement d'applications dans des conteneurs.

Ingénieur·e de production

L'Ingénieur·e de production utilise Docker pour déployer et gérer les applications en production, en optimisant l'efficacité des processus et des ressources.

31 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous