Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 91 résultats.
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Google Cloud Platform (GCP)
Helm

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
Freelance

Mission freelance
Ingénieur Ops Linux (H/F) - anglais courant - vmware

Publiée le
Administration linux
Python
Réseau de stockage SAN

3 ans
400-700 €
Paris, France
Télétravail partiel
ingénieur Linux VMware Stockage Paris Remote partiel Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) MCO de notre parc de stockage entreprise (SAN + NAS) MCO sur notre parc de virtualisation vmware Déploiement de serveurs ou vm Linux Notre environnement technique: Plusieurs datacenters en Europe, en Asie et en Amérique Une infrastructure composée de plusieurs milliers de serveurs (CentOS, RedHat) Une importante infrastructure VMware vSphere Solutions de stockage Entreprise (Dell, EMC, Purestorage, …) d’une superficie totale de plusieurs PB Plusieurs clusters de calcul haute performance (Slurm) Puppet, Ansible, Docker, Git Python, Bash Nagios, Grafana, Prometheus ~ 10 ans d’expérience
Freelance

Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)

Publiée le
Azure
Python

1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
[LFR] DBA post gre SQL, Expérimenté à Paris - 1104

Publiée le

10 mois
450-590 €
Paris, France
Contexte Pour accroître sa compétitivité et poursuivre son développement dans les meilleures conditions, l’entreprise investit de manière importante dans son système d’information, notamment dans son infrastructure qui est considérée comme clé dans la transformation vers le digital et l’agilité nécessaire à son développement. Objet de la prestation La prestation se fera au sein des Database Administrators du département Infrastructure. Les administrateurs de bases de données ont pour principales activités d’assurer l’architecture, le build et le maintien en condition opérationnelle des bases de données. Ils accompagnent les équipes de développement et d’infrastructure dans l’optimisation, la mise à niveau et la résilience des environnements de leur périmètre. Au-delà de son rôle de DBA, il travaille en collaboration avec les autres équipes « Transversal Governance & Production Excellence » sur le build des projets et services et pour le suivi de certains services. Dans le cadre d’un remplacement et d’un contexte cloud first (Azure/AWS), les DBA ont besoin de renfort afin de travailler sur le design des solutions on-premises et cloud. La prestation se fera donc au sein de l’équipe DBA avec une priorité sur l’accompagnement des projets des équipes de développement. Il devra, après une période d’adaptation, participer aux astreintes. Il aura un rôle de contact privilégié avec les équipes basées en Belgique et devra prévoir des déplacements réguliers sur Bruxelles. Responsabilités : · Travailler en environnement de haute disponibilité · Travailler sur des environnements virtuels · Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS · Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. · S’intégrer aux process agiles des équipes de développement de son périmètre. · Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes · Être impliqué dans l'étude concernant l'avenir des actifs infra. · Contribuer à la transformation de l'infrastructure informatique chez l'entreprise, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). · Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Les points clés auquel le candidat doit répondre à minima · Référent PostgreSQL · Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) · Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA · Automatisation des déploiements et des opérations via Ansible, Git, scripting · Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor · Participation à la mise en place de dashboards techniques (Grafana) · Contribution au support, à la documentation, et à la démarche DevOps DBA · Expérience sur du réseau Azure ? 4 ans · Expérience sur du réseau AWS ? 2 ans · Astreinte 1 semaine/2 ou 3 · Niveau d'anglais B2 minimum obligatoire · Télétravail : tous les lundi et mardi, un vendredi sur 2 · Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate Profil recherché : · Expérience solide en tant que DBA PostgreSQL en environnement de production · Maîtrise des outils d’automatisation (Ansible, Git, scripts Shell ou Python) · Expérience avec PostgreSQL sur Azure (Flexible Server, PaaS, supervision Azure Monitor) · Esprit DevOps, rigueur dans l’automatisation et la documentation · Environnement technique moderne (cloud Azure, infra as code, supervision centralisée), équipe solide et projets à fort impact Les principales activités sont : · Étudier des solutions techniques pour améliorer ou mettre en place des services d'infrastructures · Comparez plusieurs scénarios et faires des recommandations · Rédiger des documentations techniques (documents de conception HLD et LLD) · Contribuer à la construction des solutions d'infrastructure · Conseiller, proposer et valider l'infrastructure à instancier dans les projets métiers · Déployer les infrastructures proposées avec les Delivery Center applicatifs · Transmettre les besoins des Delivery Center Applicatifs aux experts des périmètres concernés Compétences techniques : 1. PostgreSQL : Maîtrise de l’installation, configuration, mise à jour et sécurisation de PostgreSQL Séniorité : Avancé | Obligatoire : Oui 2. PostgreSQL : Optimisation des performances (analyse des plans d’exécution, tuning des requêtes, indexation) Séniorité : Avancé | Obligatoire : Oui 3. PostgreSQL : Sauvegarde et restauration (pg_dump, pg_basebackup, pgbackrest, etc.) Séniorité : Avancé | Obligatoire : Oui 4. PostgreSQL : Gestion des extensions (PostGIS, pg_stat_statements, etc.) Séniorité : Avancé | Obligatoire : Oui 5. Scripting (Bash, Python, PowerShell) pour automatiser les tâches Séniorité : Avancé | Obligatoire : Oui 6. Connaissance des systèmes Linux/Unix (Red Hat, Debian, etc.) Séniorité : Avancé | Obligatoire : Oui 7. Surveillance avec des outils comme Zabbix, Prometheus, Grafana, ou OEM Séniorité : Avancé | Obligatoire : Oui 8. Sécurité des bases de données (gestion des rôles, audit, chiffrement) Séniorité : Avancé | Obligatoire : Oui 9. Expérience avec les environnements cloud (AWS RDS, Azure Database) Séniorité : Avancé | Obligatoire : Oui 10. Azure databases PaaS services Séniorité : Avancé | Obligatoire : Oui 11. AWS databases PaaS services Séniorité : Avancé | Obligatoire : Non 12. Microsoft Certified: Azure Database Administrator Associate Séniorité : Oui | Obligatoire : Oui Type de projet (support / maintenance / implementation /…) : Deploiement d’infra Type de prestation (Client / Hybrid / Remote) : Hybrid (2,5J TT) Les astreintes (HNO, etc.) : oui La possibilité de renouvellement (oui/non) : Oui
Freelance

Mission freelance
Support & Coaching OpenStack

Publiée le
Ansible
CI/CD
OpenStack

6 mois
500-650 €
Vitrolles, Provence-Alpes-Côte d'Azur
Télétravail partiel
Objectif de la mission : Contribuer activement à la définition et à l'implémentation de la roadmap OpenStack. Assurer le support opérationnel (incidents + astreintes). Accompagner la montée en compétence des équipes internes sur OpenStack Responsabilités principales : Support opérationnel Prendre en charge les incidents N3 (diagnostic et résolution) Garantir le respect des SLA et la continuité de service Assurer les astreintes selon le planning défini Build Participer activement à la définition des orientations techniques des plateformes OpenStack. Présenter, la trajectoire technologique OpenStack dans les ADR (Architecture Design Review). Contribuer à la définition et à l'implémentation de la roadmap OpenStack. Prendre en charge le patch management, les upgrades et évolutions planifiées. Prendre en charge la montée en charge de la plateforme Montée en compétence des équipes internes Construire un plan de formation Animer des sessions techniques Assurer un coaching opérationnel Compétences requises : Expertise OpenStack (Nova, Neutron, Cinder, Keystone, Ceph) Troubleshooting avancé et gestion des incidents critiques Automatisation (Ansible, Terraform), CI/CD Observabilité (Prometheus, Grafana) Capacité pédagogique (formation, coaching) Disponibilité pour astreintes Livrables attendus : Roadmap technique validée Complétion quotidienne des tickets traités dans le cadre du Run et du Build PV de réception des actions opérées sur les plateformes à rattacher si nécessaire à chaque changement Documentation des évolutions techniques pour chaque nouvelle release Référencement technique systématique des sources et documentations associées dans le référentiel d'équipe Plan de formation + sessions réalisées Backlog d’amélioration priorisé
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Freelance
CDI

Offre d'emploi
DevOps Infrastructure – Spécialisation Agentic AI & LLM (H/F)

Publiée le
AI
Ansible
AWS Cloud

3 ans
61k-67k €
530-640 €
Île-de-France, France
Télétravail partiel
Nous recrutons un profil DevOps expérimenté pour intervenir sur des environnements innovants autour des agents autonomes (Agentic AI) et des modèles de langage (LLM). Vous participerez à la conception, au déploiement et à l’expérimentation de POC avancés visant à améliorer la supervision, l’automatisation et la résolution proactive d’incidents au sein d’infrastructures complexes. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation. Missions Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker, intégrés à des pipelines CI/CD (Jenkins, GitLab CI, ArgoCD). Automatiser la collecte, la préparation et l’exploitation de datasets d’infrastructure (logs, CMDB, monitoring) pour alimenter des agents IA basés sur LLM. Développer et intégrer des pipelines de déploiement d’agents IA (LangChain, AutoGen, équivalents). Mettre en place des scripts/tools d’automatisation (Python, Bash, Go) pour l’orchestration et le monitoring. Garantir la sécurité des développements et déploiements (DevSecOps, SAST/DAST, gestion des accès, RGPD). Produire la documentation technique et les livrables nécessaires à une future industrialisation. Assurer une veille active sur les évolutions LLM, architectures agentiques et outils d’automatisation. Compétences techniques requises Systèmes & Réseau Maîtrise avancée Linux/Unix Solides bases réseaux (TCP/IP, HTTP, DNS, VPN) Cloud & IaC AWS, Azure ou GCP Terraform, Pulumi ou CloudFormation Conteneurisation & Orchestration Docker, Kubernetes, Helm CI/CD Jenkins, GitLab CI, ArgoCD Automation / Config Management Ansible, Puppet, Chef Langages Python (niveau avancé) Bash, Go (appréciés) Monitoring & Logging Prometheus, Grafana, ELK Stack Sécurité / DevSecOps SAST/DAST (SonarQube, Snyk, Aqua Security) Conformité RGPD
CDI
Freelance

Offre d'emploi
DevOps/SysOps/LLM/RAG

Publiée le
DevOps
Large Language Model (LLM)
RAG

3 ans
47k-97k €
400-800 €
Île-de-France, France
Périmètre DevOps & SysOps 1. Automatisation & Déploiement Mise en place d’un pipeline CI/CD complet : build, tests, déploiements et releases. Déploiement automatisé de l’API backend et de tous les modules associés. Gestion de l’infrastructure pour garantir une mise en production fiable et répétable. 2. Supervision & Observabilité Mise en œuvre de la surveillance des composants LLM et IA générative (logs, métriques, alertes). Monitoring et reporting des KPIs de performance, d’usage et de qualité. 3. Sécurité & Conformité Configuration et gestion de l’authentification, autorisation et gestion des accès. Respect des exigences sécurité du Groupe BNP et des règles d’accessibilité RGAA . Mise en place de la gestion et rotation des secrets, tokens et credentials. 4. Exploitation & Résilience Rédaction de la documentation technique d’exploitation et d’intégration. Mise en place et automatisation des procédures de sauvegarde et restauration (données, contextes, historiques). Gestion de la scalabilité : montée en charge, load-balancing, optimisation des performances. Définition et application de la politique de gestion des incidents, astreintes et SLA. Expertises fonctionnelles et techniques : Compétences requises Compétences techniques essentielles (synthèse) 1. Cloud & Infrastructure Maîtrise d’un cloud (AWS, Azure, GCP) Infrastructure as Code : Terraform, Ansible Architectures scalables et haute disponibilité 2. Conteneurs & Orchestration Docker Kubernetes / OpenShift (déploiement, scaling, secrets, monitoring) 3. CI/CD & Automatisation Pipelines GitLab CI, GitHub Actions, Jenkins Automatisation build/test/deploy Sécurisation des pipelines 4. Observabilité Logs : ELK, Splunk Monitoring : Prometheus, Grafana, Datadog Suivi spécifique LLM/IA : performance, coûts, dérives 5. Sécurité Authentification/autorisation (OAuth2, OIDC, SAML) Gestion des secrets (Vault, KMS) Sécurité API et conformité RGAA 6. Backend & APIs Compréhension des APIs REST/GraphQL Connaissance de base en Python / Node.js / Java Microservices 7. Bases de données PostgreSQL, MongoDB, Redis Backup/restore, stockage objet 8. Exploitation & Incidents Runbooks, SLA, ITIL Tableaux de bord et KPIs d’usage/performance 9. IA Générative (bonus fortement recommandé) Appels API LLM Gestion des prompts et contextes Notions de RAG et sécurité IA
CDI

Offre d'emploi
Expert.e Middleware en CDI

Publiée le
Automatisation
CI/CD
DevOps

56k-65k €
Île-de-France, France
Télétravail partiel
Vous interviendrez sur des environnements Windows et Unix, intégrant des technologies WebLogic, Tomcat et Oracle. Vous serez chargé.e d’assurer la stabilité, la performance et la sécurisation des applications. Votre rôle Mise en place et évolution des infrastructures · Mettre en place et valider les évolutions applicatives et infrastructurelles · Assurer le suivi des projets business et infrastructure en collaboration avec les équipes Développement, Business Analyse, Support Fonctionnel et Infrastructure · Valider les évolutions applicatives, de sécurité et d’infrastructure avant leur mise en production · Gérer le risque opérationnel lié aux changements applicatifs et infrastructurels Administration et exploitation des plateformes · Assurer la supervision et la maintenance des serveurs WebLogic et Tomcat · Suivre les performances et optimiser les JVM pour garantir un fonctionnement optimal · Surveiller et gérer les jobs batch Autosys, et analyser les erreurs Analyse et résolution des incidents · Diagnostiquer les erreurs Java et analyser les logs applicatifs/middleware · Escalader et collaborer avec les équipes de développement et support pour résoudre les incidents critiques · Mettre en place et suivre les plans d’actions pour éviter la réapparition des problèmes Optimisation des performances et monitoring Analyser les sources de ralentissement et proposer des optimisations Mettre en place et améliorer le monitoring via Dynatrace, Grafana, Prometheus et ELK Réduire les temps de réponse des applications en optimisant la JVM et l’architecture applicative Sécurisation des environnements Configurer et gérer les certificats SSL/TLS sur WebLogic et Tomcat Appliquer les patches de sécurité et maintenir les JVM à jour pour réduire les vulnérabilités Contrôler les bibliothèques Java utilisées afin d’identifier et corriger les failles de sécurité Automatisation et CI/CD Automatiser les assistances récurrentes et implémenter des outils facilitant le support et l’évolution des applications Déployer les applications via Jenkins, Ansible Intégrer des tests de charge pour garantir la scalabilité des applications Support aux équipes de développement et exploitation Assurer le debugging des problèmes en préproduction et production Accompagner les développeurs sur les bonnes pratiques de développement Java Valider les livrables avant leur mise en production Participation aux opérations exceptionnelles et astreintes Assurer la rotation des astreintes 24/7 Participer aux opérations exceptionnelles le week-end (tests DRP/PRA, mises en production, migrations infrastructure) Assurer le support technique des applications sur une organisation répartie entre Paris, Mumbai et Montréal, avec des horaires décalés sur Paris (10h-19h ou 9h-18h) Documentation et amélioration continue Documenter les processus applicatifs et rédiger les procédures d’exploitation Contribuer à l’évolution de l’architecture applicative pour améliorer la qualité de service
Freelance
CDI

Offre d'emploi
Architecte Cloud / DevOps OpenStack Sénior -(H/F)

Publiée le
Automatisation
CI/CD
Docker

1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons un Ingénieur Cloud / DevOps expérimenté pour rejoindre une équipe en charge de la conception, du déploiement et de l’exploitation de plateformes Cloud privées basées sur OpenStack. Ce poste stratégique s’inscrit au cœur des infrastructures Cloud d’un grand groupe français. Vous interviendrez sur le build (design, déploiement, automatisation) et le run (exploitation, optimisation, sécurité) dans un environnement hautement technologique. MISSIONS PRINCIPALES : BUILD – Architecture & Automatisation : Concevoir, déployer et faire évoluer les infrastructures Cloud OpenStack. Participer à la définition des architectures techniques (HLD/LLD). Mettre en œuvre une approche Infrastructure as Code (Terraform, Ansible). Automatiser les déploiements via CI/CD (GitLab CI, Jenkins, ArgoCD…). Intégrer les bonnes pratiques DevOps et sécurité dans les pipelines. Rédiger et maintenir la documentation technique. RUN – Exploitation & Maintien en Condition Opérationnelle : Administrer et superviser les plateformes OpenStack (compute, storage, réseau). Gérer les environnements datacenter : hardware, urbanisation, capacité, obsolescence. Assurer le support de niveau 3/4 sur les incidents complexes (hardware, cloud, stockage). Analyser les métriques et optimiser la supervision (Prometheus, Grafana, ELK…). Intégrer et appliquer les exigences de sécurité (IAM, patching, durcissement, audits).
CDI
Freelance

Offre d'emploi
Ingénieur Linux / MongoDB / Ansible / OpenShift - (H/F)

Publiée le
Ansible
Middleware
Mongodb

6 mois
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Au sein d’un service en charge de la gestion et de l’industrialisation de bases de données NoSQL (MongoDB), vous rejoindrez une équipe fullstack qui administre des environnements complexes en production, depuis la création des machines virtuelles jusqu’à la configuration des middlewares. L’objectif de la mission est de piloter la migration d’une infrastructure existante sur OpenStack vers une nouvelle plateforme basée sur OpenShift. Ce projet implique de moderniser l’offre MongoDB, renforcer la sécurité, et industrialiser les déploiements dans un environnement fortement automatisé. MISSIONS PRINCIPALES : Participer à la migration des infrastructures OpenStack vers OpenShift. Maintenir les environnements de production Linux et NoSQL au meilleur niveau de sécurité (patchs, gestion des vulnérabilités, conformité, tests d’intrusion). Assurer le Maintien en Conditions Opérationnelles (MCO) sur deux plateformes coexistantes (OpenStack / OpenShift). Automatiser les déploiements et la configuration via Ansible, Git et outils associés (AWX, Artifactory, Vault…). Gérer les outils d’observabilité et d’alerting : Prometheus, Grafana, Filebeat, Metricbeat, Sensu, Dynatrace… Participer à la conception et à l’évolution des architectures techniques (sécurité, résilience, performance).
Freelance

Mission freelance
SRE/Ops Kubernetes & Cloud Privé

Publiée le
Argo CD
Cloud privé
Kubernetes

12 mois
550-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement stable, automatisé et performant pour la mise à disposition d’environnements de développement, le déploiement de modèles, et leur supervision en production. Dans ce cadre, l’équipe recherche un profil SRE / Ops expérimenté pour renforcer la fiabilité, la supervision et l’automatisation de la plateforme, en interaction directe avec les équipes de développement, d’architecture et d’infrastructure. Missions principales: En tant que Site Reliability Engineer / Ops , vous interviendrez au cœur de la plateforme et participerez à son évolution technique. Vos responsabilités clés : Administration et exploitation Gérer et maintenir les clusters Kubernetes on-premise Superviser les déploiements des applications et services de la plateforme Garantir la stabilité, la performance et la disponibilité des environnements Automatisation et industrialisation Développer et maintenir les pipelines d’automatisation via Terraform , ArgoCD et Argo Workflows Contribuer à la mise en œuvre et à l’amélioration des processus CI/CD Participer à la conception d’une infrastructure fiable, scalable et résiliente Supervision et observabilité Mettre en place et administrer les outils de monitoring et de logging (Prometheus, Grafana, Kibana) Créer des tableaux de bord pour suivre les performances et anticiper les dérives (drift, charge, erreurs) Participer aux actions d’amélioration continue (tests de charge, alerting, performance tuning) Support et collaboration Travailler en proximité avec les développeurs (Python, Go) pour optimiser les déploiements et intégrations Être le point de contact technique sur les sujets d’infrastructure et de fiabilité Contribuer à la définition des bonnes pratiques DevOps et SRE
CDI

Offre d'emploi
Lead Architecte - F/H

Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Lead Architecte au sein de nos équipes pour l'un de nos clients. Le contexte ? Le Lead Architecte sera responsable de la conception globale de la nouvelle plateforme PORTAL et orchestrera l'ensemble des aspects architecturaux de cette transformation : infrastructure, container, sécurité, réseau. Il garantira la cohérence technique et la qualité de l'architecture cible tout en assurant l'alignement avec les contraintes fortes réglementaires du secteur bancaire. Vos missions ? Conception et Architecture - Définir l'architecture globale de la plateforme PORTAL en cohérence avec la stratégie IT du groupe - Concevoir le système d'ingénierie complet incluant les pipelines CI/CD, les outils de monitoring et de déploiement - Élaborer les standards et patterns architecturaux pour les applications containerisées - S'assure d'une cohérence avec la stratégie de migration des applications existantes vers OpenShift (impact minimal sur la chaine de CD) Documentation et Gouvernance - Produire et maintenir la documentation technique de référence de la plateforme - Créer les guides d'architecture et les bonnes pratiques pour les équipes de développement - Établir les processus de validation architecturale et les critères de qualité - Assurer la traçabilité des décisions architecturales Coordination avec les Streams Architecture - Collaborer étroitement avec les équipes architecture réseau pour définir les flux et la topologie - Travailler avec l'équipe sécurité pour intégrer les exigences de sécurité dès la conception - Assurer la cohérence avec l'architecture d'entreprise et les standards du groupe - Participer aux comités d'architecture et présenter les orientations techniques Leadership Technique - Encadrer et mentorer les architectes techniques de l'équipe - Animer les ateliers d'architecture et les revues de conception - Être le référent technique PORTAL pour l'ensemble de l'organisation - Contribuer à la montée en compétences des équipes sur les technologies containerisées Livrables attendus - Plateforme : Red Hat OpenShift 4.x - Orchestration : Kubernetes - CI/CD : GitLab CI, Jenkins, ArgoCD - Monitoring : Prometheus, Grafana, ELK Stack - Sécurité : Vault, Keycloack - Infrastructure : Cisco, stockage SAN - Réseau : F5, Cisco, solutions SDN
CDI
Freelance

Offre d'emploi
Lead Full Stack Developer & DevOps

Publiée le
CI/CD
Cloud
DevOps

2 ans
40k-77k €
400-550 €
Nanterre, Île-de-France
Télétravail partiel
Vous intégrerez une équipe dynamique en charge des pratiques de développement , du DevOps , du Cloud et du Numérique Responsable . L’objectif est de renforcer l’équipe avec plusieurs profils DevOps à forte dominante applicative , capables d’intervenir sur l’ensemble du cycle de vie logiciel — du développement à la mise en production — dans un environnement agile et collaboratif. Votre rôle : En tant qu’ Ingénieur DevOps Applicatif , vous participerez à la mise en œuvre et à l’industrialisation des solutions de développement et de déploiement. Vous serez le garant de la qualité, de la performance et de la fiabilité des environnements applicatifs, tout en contribuant à l’évolution des pratiques DevOps au sein de l’équipe. Vous interviendrez sur : Le développement applicatif en Java ; La mise en place et l’automatisation des pipelines CI/CD (GitLab CI, Jenkins, Azure DevOps...) ; Le déploiement et la gestion d’environnements Cloud (Azure, AWS ou GCP) ; L’ automatisation des infrastructures (Docker, Kubernetes, Terraform) ; Le monitoring et l’observabilité (ELK, Prometheus, Grafana) ; La promotion des bonnes pratiques DevOps (Infrastructure as Code, automatisation, tests, qualité de code).
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Freelance
CDD

Offre d'emploi
Ingénieur de Production Kubernetes (H/F)

Publiée le
AWS Cloud
DevOps
Kubernetes

1 an
65k-70k €
400-460 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : La supervision et l’exploitation des clusters Kubernetes (on-prem ou OpenShift). L’ industrialisation des déploiements via CI/CD, GitOps et Infrastructure as Code. L’ amélioration continue des performances, de la sécurité et de la traçabilité. La gestion du MCO / RUN : diagnostics, résolution d’incidents, capacity planning. La collaboration étroite avec les équipes DevOps, sécurité et applicatives. VOTRE MISSION : Gérer et maintenir les clusters Kubernetes en production (Kubernetes natif ou OpenShift). Automatiser les déploiements applicatifs avec Helm, ArgoCD, Jenkins ou GitLab CI/CD. Superviser les environnements via Prometheus, Grafana, ELK/EFK, Dynatrace ou équivalents. Assurer la sécurité des environnements conteneurisés : secrets management, durcissement, audit et conformité. Participer aux changements et mises en production dans le cadre ITIL (CAB, incidents, problèmes). Contribuer aux projets de migration et de modernisation des infrastructures vers Kubernetes. Développer des scripts d’automatisation (Bash, Python, Ansible, Terraform). Documenter les procédures et diffuser les bonnes pratiques auprès des équipes projet.
91 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous