Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 150 résultats.
CDI
Freelance

Offre d'emploi
Développeur Java/ DevOps (H/F)

Publiée le
Java
Kubernetes
Terraform

1 an
Paris, France
Télétravail partiel
Localisation : Paris Centre Secteur : Banque Disponibilité : ASAP Expérience requise : 5 à 7 ans Contexte du poste Dans le cadre du renforcement de ses équipes IT, un acteur majeur du secteur bancaire recherche un Développeur Java / DevOps confirmé . Le poste s’inscrit dans un environnement exigeant, à forts enjeux métiers et techniques, avec une attente particulière sur la capacité à jouer un rôle de référent technique (“sachant”) auprès des équipes. Missions principales Concevoir, développer et maintenir des applications backend en Java Participer activement à la mise en place et à l’amélioration des pipelines CI/CD Contribuer aux pratiques DevOps et à l’automatisation des déploiements Gérer et faire évoluer l’infrastructure via Terraform Déployer et opérer des applications conteneurisées sous Kubernetes Accompagner les équipes de développement et d’exploitation en tant que référent technique Participer aux échanges avec les équipes transverses (sécurité, infrastructure, architecture) Compétences techniques requises Développement : Java DevOps : Azure DevOps, CI/CD Infrastructure as Code : Terraform Conteneurisation & orchestration : Kubernetes Profil recherché Expérience professionnelle de 5 à 7 ans sur un poste similaire Profil confirmé , capable de prendre des décisions techniques et de guider les équipes Excellentes capacités de communication et de pédagogie À l’aise dans des environnements complexes et réglementés (secteur bancaire) Autonomie, rigueur et sens des responsabilités
Freelance
CDI

Offre d'emploi
Ingénieur Cloud (AWS/GCP)

Publiée le
Ansible
AWS Cloud
Cloud

1 an
50k-55k €
400-500 €
Île-de-France, France
Télétravail partiel
Ingénieur RUN Cloud AWS / GCP Dans le cadre d’une mission de support et d’expertise, vous interviendrez principalement sur site (3 jours sur site, 2 jours de télétravail par semaine) afin d’assurer le RUN des infrastructures Cloud. Vous assurerez le support technique de niveau 3 sur des environnements Cloud AWS et GCP, en prenant en charge l’analyse, le diagnostic et la résolution des incidents en production. Vous serez également responsable de la gestion des changements, des demandes de droits, de la correction des vulnérabilités et du traitement de l’obsolescence. Vous participerez à la rédaction et à la mise à jour des documentations RUN, des procédures de support et des rapports de post-mortem. Vous travaillerez en étroite collaboration avec des équipes internationales, en anglais, et contribuerez à la montée en compétence des équipes RUN. L’expertise attendue porte sur Terraform, les environnements Cloud AWS et GCP, les outils de déploiement automatisés et les pipelines CI/CD (GitLab CI, Ansible, AWX, Jenkins), ainsi qu’une bonne maîtrise de Python et des technologies Kubernetes. La maîtrise de l’anglais oral et écrit est indispensable.
CDI

Offre d'emploi
Ingénieur DevOps – Intégration et automatisation H/F

Publiée le
Administration linux
Ansible
Gitlab

45k-55k €
Bezons, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur DevOps – Intégration et automatisation H/F basé à Bezons (95). 🎯 Missions principales: Au sein des équipes techniques, vous interviendrez sur la conception, l’industrialisation et l’exploitation des solutions de supervision et de reporting : Concevoir, développer et maintenir des dashboards Grafana avancés pour le suivi d’indicateurs techniques et métiers. Collecter, modéliser et exploiter les métriques via Prometheus (exporters, règles d’alerting, requêtes PromQL). Développer des scripts Python pour automatiser le traitement des données, alimenter les dashboards et générer des rapports. Contribuer à l’industrialisation et à la standardisation des reportings existants. Réaliser des scripts d’automatisation en Bash, CMD ou PowerShell. Intégrer et centraliser différentes sources de données : API, bases SQL, métriques et logs. Travailler en étroite collaboration avec les équipes exploitation, sécurité et réseau afin de garantir la fiabilité, la performance et la conformité des solutions. Participer à la veille technologique autour de la supervision, de l’observabilité et de l’automatisation. 🧠 Compétences techniques requises Grafana : dashboards avancés, variables, templating, alerting. Prometheus : configuration, exporters, règles d’alerting, PromQL. Python : scripting, appels API REST, manipulation de données (Pandas, JSON, CSV). Ansible : automatisation des déploiements, configuration et exécution de playbooks. Linux : administration de base, scripting Shell / Bash. SQL : requêtes, extraction et filtrage de données. Windows scripting : CMD / PowerShell (usage ponctuel). GitLab : gestion de versions, pipelines CI/CD, intégration et automatisation.
Freelance

Mission freelance
INGENIEUR MLOps

Publiée le
Ansible
Apache Airflow
Cloud

3 ans
Lille, Hauts-de-France
Télétravail partiel
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Freelance

Mission freelance
Administrateur Cybersécurité SOAR

Publiée le
Ansible
Cortex XSOAR

6 mois
210-400 €
Montpellier, Occitanie
Bonjour, Je suis à la recherche Administrateur Cybersécurité SOAR : Missions principales : Ø Participer au choix, à la conception et au déploiement de la solution SOAR (ex : , Cortex XSOAR, Splunk Phantom, D3 Security). Ø Assurer l’intégration technique avec les outils de sécurité (SIEM, EDR, Threat Intelligence, pare-feux, IAM, etc.). Ø Garantir la haute disponibilité, la résilience et l’évolution technique de la plateforme. Ø Développer et maintenir des playbooks pour les cas d’usage sécurité (triage, enrichissement, confinement). Ø Coordonner les actions entre les outils pour réduire les délais de détection et de réponse. Ø Mesurer et optimiser le taux d’automatisation et l’efficacité des playbooks. Ø Explorer l’intégration de capacités IA (Machine Learning, LLM) pour la classification des alertes et la chasse aux menaces. Ø Appliquer les pratiques CI/CD et Infrastructure as Code pour la gestion des playbooks et connecteurs (Git, GitLab, tests automatisés).
Freelance

Mission freelance
Ingénieur Cloud GCP & DevOps – Support et Évolution Infrastructure

Publiée le
Ansible
CI/CD
Cloud

6 mois
Brest, Bretagne
Au sein d'un environnement bancaire, vous assurerez le Maintien en Conditions Opérationnelles de l'infrastructure Google Cloud Platform. Votre rôle consistera à gérer les incidents et le support technique (Niveau 2/3) via ServiceNow et Jira, avec pour objectif la résolution efficace des tickets. Vous apporterez votre expertise technique sur les environnements Linux et réseaux pour le diagnostic, tout en accompagnant les utilisateurs via chat et email. Vous prendrez également en charge des opérations clés comme le déploiement d'instances (Wordpress as a Service), la configuration Datahub et la gestion IAM, en veillant constamment à la qualité de service et à la sécurité. Côté projets, vous participerez à l'évolution de l'infrastructure en appliquant les principes de l'Infrastructure as Code. À l'aide de Terraform et Ansible, vous déploierez et maintiendrez les services de la Landing Zone GCP. L'automatisation (Python) sera au cœur de votre activité pour enrichir le catalogue de services vers une offre "As a Service". Vous intégrerez également une dimension FinOps à vos missions, en configurant le monitoring budgétaire et en suivant l'obsolescence des ressources, en lien étroit avec les équipes externes.
Offre premium
Freelance

Mission freelance
Développeur Backend Python (H/F)

Publiée le
Back-end
Développement
Python

1 an
400-520 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Dans le cadre du renforcement de son pôle tech, notre client recherche un·e Développeur·se Backend Python pour concevoir et faire évoluer des solutions backend au service de cas d’usage Machine Learning / Data (exposition de modèles, pipelines de prédiction, services temps réel). L’environnement GCP est un atout apprécié. Missions Concevoir, développer et maintenir des APIs backend (REST/GraphQL) en Python pour servir des modèles ML (batch & temps réel). Industrialiser le cycle de vie des modèles : packaging, versioning, déploiement, monitoring de performances (latence, throughput, dérive). Travailler avec les data/ML engineers pour intégrer pipelines (pré/post-traitement, features stores, orchestrations). Mettre en place des tests (unitaires, intégration, contract tests), CI/CD et revues de code. Optimiser la scalabilité , la résilience et la sécurité des services (observabilité, logging, alerting, SLO/SLI). Contribuer aux bonnes pratiques d’architecture (12‑factor, clean architecture, domain-driven design selon contexte). Documenter, outiller et mentorer ponctuellement des développeurs moins expérimentés. Environnement technique Langage : Python 3.x Frameworks : FastAPI / Flask / Django (selon besoin), Pydantic APIs & Protocoles : REST, OpenAPI/Swagger, GraphQL (bonus), gRPC (bonus) ML serving (selon projets) : BentoML / MLflow Model Serving / TorchServe / TF Serving Data/ML : Pandas, NumPy ; intégration avec pipelines existants (Airflow / Prefect / Dagster – bonus) Conteneurisation & orchestration : Docker, Kubernetes CI/CD : GitHub Actions / GitLab CI / Cloud Build Observabilité : Prometheus/Grafana, OpenTelemetry, ELK/EFK Base de données : PostgreSQL, Redis ; éventuellement BigQuery (selon usage) Cloud (bonus apprécié) : GCP (GKE, Cloud Run, Cloud Functions, Pub/Sub, Cloud Build, Artifact Registry, Secret Manager) Profil recherché 4 ans minimum d’expérience en développement backend Python en production. Solide maîtrise des APIs , des tests et des patterns d’architecture backend. Expérience concrète d’ exposition/industrialisation de modèles ML (batch ou temps réel). Maîtrise de Docker et bonne compréhension de Kubernetes (déploiements, health checks, autoscaling). Culture DevOps : CI/CD , qualité de code, observabilité, sécurité applicative de base (authN/authZ, secrets). GCP : expérience ou appétence forte (un plus apprécié).
CDI

Offre d'emploi
Testeur QA (Web et Mobile) F/H

Publiée le
Agile Scrum
Appium
Application mobile

Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client dans le secteur bancaire, basé en Ile de France, un(e) Testeur(se) QA spécialisé(e) en API Web et Mobile. Missions : Analyse des exigences et rédaction des plans de test (techniques, fonctionnels, métiers). Conception et exécution de tests manuels sur les nouvelles fonctionnalités ou les régressions. Développement de scripts de tests automatisés (UI, API, intégration, performance). Intégration des tests dans les pipelines CI/CD pour garantir des livraisons fréquentes et fiables. Suivi des anomalies et collaboration avec les développeurs pour leur résolution. Participation aux cérémonies Agile (daily, sprint planning, review, rétrospective). Contribution à la stratégie de test de la squad et à la documentation qualité. Veille technologique sur les outils et pratiques QA.
Freelance

Mission freelance
DevOps Engineer (+ FinOps) – Profil Intermédiaire / Senior – Mission longue

Publiée le
AWS Cloud
DevOps
Terraform

6 mois
Île-de-France, France
Démarrage : ASAP Durée : 5 à 8 mois, mission de conseil / freelance / portage salarial Rythme : 3 jours sur site / 2 jours en télétravail Expérience : Intermédiaire / Senior Type de mission : Prestation Contexte de la mission Dans le cadre d’un programme stratégique de mise en œuvre d’une Nouvelle Plateforme Digitale (nouveau site e-commerce, nouveaux flux, nouvel ETL), au sein d’un grand acteur du Retail, nous recherchons un DevOps Engineer expérimenté , avec une sensibilité FinOps , pour encadrer une équipe de 4 DevOps . Vous interviendrez dans un contexte à forts enjeux techniques et business, en lien étroit avec les équipes IT, Digital, QA et Métiers. Missions principales 1. Pilotage et leadership DevOps Vous animerez et coordonnerez l’équipe DevOps. Le consultant attendu est un leader opérationnel , capable de : Réaliser, Challenger, Documenter, Montrer l’exemple sur le terrain. 2. CI/CD & automatisation Intégrer et qualifier les chaînes CI/CD Créer, maintenir, améliorer et documenter les pipelines de déploiement automatique Mettre en place et maintenir les tests automatisés (site et application web responsive) en collaboration avec l’équipe QA Automatiser les tâches via scripting 3. Cloud, FinOps & exploitation Étudier, préparer et budgétiser l’utilisation des infrastructures et services cloud AWS et Azure Optimiser les coûts et l’utilisation des ressources cloud (FinOps) Assurer le support technique aux équipes transverses (développeurs, QA, production, autres équipes) Debug, résolution d’incidents et optimisation des environnements AWS 4. Monitoring & observabilité Mettre en place le monitoring et l’observabilité Créer des dashboards Mettre en œuvre l’ouverture automatique de tickets et l’alerting
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)

Publiée le
Architecture ARM
Azure
Azure DevOps

6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Freelance

Mission freelance
Architecte technique Python Orleans (3 jours TT)

Publiée le
Architecture
Java
Python

6 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Architecte technique Python Orleans (3 jours TT)Orleans (3 jours TT) La mission est à réaliser sur Orleans avec 3 jours de TT / semaine. 2026 sera une année transformante avec l'intégration, en standard, de nouvelles technologies. Le python doit faire partie de ces technologies et doit apporter un avoir une qualité, une résilience, l'observabilité et une performance du même niveau que les autres standards comme le java. Objectifs : · Choisir les bons outils (API, exposition), · Produire un diagramme de choix pour cadrer les usages, · Standardiser les pratiques, · Embarquer l'ensemble des équipes, · Ajout des fonctionnalités nécessaires pour une mise en production d'un développement python Enjeux : · Être au rendez-vous pour accompagner le groupe dans sa transformation · Poser les bases pour réaliser des développements IA · Apporter plus de souplesse sur le choix du socle technique La mission est à réaliser sur Orleans avec 3 jours de TT / semaine.
Freelance
CDI

Offre d'emploi
DevOps Azure

Publiée le
Ansible
Azure
Terraform

3 ans
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons une expertise en développement DevOps sur la plateforme Azure pour améliorer notre infrastructure cloud. Notre objectif est de mettre en œuvre des solutions d'automatisation et de gestion de l'infrastructure en tant que code (IAC) en utilisant des outils tels que Terraform et Ansible. Nous souhaitons optimiser nos processus de déploiement et de gestion des ressources cloud pour garantir une efficacité et une scalabilité accrues. L'expertise en méthodologie agile sera essentielle pour s'assurer que nos projets sont livrés dans les délais et répondent aux exigences de qualité. Nous visons à renforcer notre capacité à gérer des environnements cloud complexes tout en maintenant une flexibilité opérationnelle. La collaboration avec nos équipes internes sera cruciale pour le succès de ce projet. Nous avons pour objectif de renforcer notre infrastructure cloud et d'améliorer nos processus DevOps. Mettre en œuvre des solutions d'automatisation avec Terraform et Ansible. Optimiser les processus de déploiement sur Azure. Améliorer la gestion des ressources cloud pour une meilleure scalabilité. Intégrer des pratiques agiles pour une livraison efficace des projets. Collaborer étroitement avec les équipes internes pour assurer le succès du projet.
Freelance

Mission freelance
Architecte Kubernetes OpenShift - Expert

Publiée le
Administration réseaux
Apache
Apache Kafka

12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre du renforcement d’une équipe SRE / Plateforme Cloud au sein d’un environnement complexe et critique, nous recherchons un Expert Cloud DevOps / Architecte Kubernetes & OpenShift . Le consultant interviendra sur la conception, l’industrialisation et la sécurisation de plateformes cloud natives, orientées microservices, data et haute disponibilité . Missions principales Architecture & Design Définir et valider l’architecture Cloud & Kubernetes en tant que Design Authority Élaborer les HLD (High Level Design) et LLD (Low Level Design) Concevoir l’architecture centrale et les standards de la plateforme Participer aux choix technologiques et aux roadmaps techniques Cloud & Conteneurisation Déployer et maintenir des clusters Kubernetes (AKS, EKS, OpenShift, Rancher) Expertise Red Hat OpenShift Mise en œuvre de plateformes cloud sur Azure (AKS) et AWS (EKS) Gestion des environnements hybrides / on-premise et data centers virtualisés DevOps & Automatisation Mise en place des pipelines CI/CD Automatisation des déploiements et de l’infrastructure (IaC) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Sécurité & Réseau Sécurisation des plateformes Kubernetes et Cloud Gestion des secrets et identités ( HashiCorp Vault ) Architecture réseau, segmentation, politiques de sécurité Conformité, durcissement et bonnes pratiques sécurité cloud Data & Streaming Conception et intégration de Data Platforms Mise en œuvre de solutions de streaming et de data flow : Apache Kafka Apache NiFi Intégration avec des workloads data, IA et ML ( TensorFlow ) Microservices & Observabilité Architecture et exploitation d’architectures microservices Supervision, monitoring et gestion de la performance Haute disponibilité et résilience des plateformes FinOps Pilotage des coûts Cloud Optimisation des ressources et mise en place de bonnes pratiques FinOps
CDI

Offre d'emploi
Product Owner MS Business Central - Client final - Orléans

Publiée le

50k-60k €
Orléans, Centre-Val de Loire
Product Owner MS Business Central - CDI - Client final - Orléans Nous recrutons aujourd'hui en CDI un Consultant fonctionnel spécialisé sur l'ERP MS Dynamics Business Central. En intégrant cette structure à taille humaine, vous interviendrez sur les différentes phases projet en étant responsable de : - Recueillir les besoins métiers et proposer des solutions adaptées - Animer des ateliers - Paramétrer les modules - Gérer les phases de recette - Administrer la solution - Former les utilisateurs - Être dans une démarche d'amélioration continue et d'optimisation des processus Il s'agit d'une excellente opportunité de rejoindre une équipe dynamique et de suivre en interne l'évolution d'un SI dans la durée. Cette structure propose un cadre de travail familial avec 1 jour de télétravail par semaine.
Freelance

Mission freelance
Ingénieur / Architecte DevOps – Audit Docker & Scénarios de Migration (H/F)

Publiée le
Docker
Docker swarm
Kubernetes

3 mois
400-600 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur / Architecte DevOps sénior pour accompagner un client dans l’audit complet de son environnement CI/CD existant, construit sur Docker / Docker Swarm et utilisant des certificats autosignés arrivant prochainement à expiration. La mission consiste à : Réaliser l’analyse de l’existant Proposer les possibilités de mitigation Étudier les impacts d’une éventuelle migration vers Kubernetes on-premise , ou vers des solutions cloud hautement sécurisées (type S3NS ou Blue) Fournir des scénarios incluant les aspects techniques, financiers (build & run), charges et délais Produire des présentations vulgarisées destinées au top management Participer à des soutenances orales Intervenir dans un environnement technique complexe composé de systèmes Windows, Linux, AIX, CI/CD Docker, Kubernetes, GitLab, GitHub, Ansible, outils de supervision (Prometheus, Grafana, Zabbix), middleware (Weblogic, ActiveMQ, Kafka), bases de données variées, etc. La mission s’effectue principalement sur site, avec possibilité de télétravail deux jours par semaine. Durée estimée : 2 à 3 mois , prolongeable pour la mise en œuvre des recommandations.
Freelance

Mission freelance
Data Engineer GCP

Publiée le
BigQuery
Collibra
Python

12 mois
480-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de la plateforme Data, vous interviendrez sur la qualité, la gouvernance et l’industrialisation des données . Vos missions principales Concevoir et mettre en œuvre des contrôles de qualité des données (Dataplex Universal Catalog) Industrialiser les contrôles via Terraform / Terragrunt Définir et produire des indicateurs de qualité des données Intégrer ces indicateurs dans le data catalog Collibra Construire et maintenir des pipelines data robustes et scalables Participer à la gouvernance des données et aux rituels de l’équipe Mettre en place et maintenir les infrastructures data et CI/CD Garantir la sécurité, la stabilité et l’évolutivité des environnements Contribuer à la documentation et à la veille technologique
2150 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous