L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 126 résultats.
Offre d'emploi
Développeur Python/React
Publiée le
API
AWS Cloud
Azure
3 ans
40k-45k €
400-550 €
La Défense, Île-de-France
Télétravail partiel
Le Global Market Analysis est le centre d’expertise métier en charge de l’analyse fondamentale et de la recherche économique sur les marchés de l’énergie. Pour soutenir les activités de conseil et de support au trading, l’équipe s’appuie sur plusieurs applications d’aide à la décision. Au sein du Delivery Center GMA, feature team IT dédiée à l’EC GMA, vous interviendrez en tant que concepteur / développeur confirmé pour assurer la conception et le développement d’outils d’aide à la décision, la collecte, l’ingestion, le traitement et la transformation des données issues des marchés de l’énergie, ainsi que leur restitution aux utilisateurs. Vous gérerez le cycle complet de développement, l’infrastructure et les mises en production (pratiques DevOps) tout en assurant la maintenance corrective et évolutive des applications existantes et le support technique auprès des utilisateurs. Votre rôle impliquera également d’optimiser les performances et les coûts des systèmes, de participer à l’amélioration continue des process et d’accompagner les évolutions demandées par le métier dans les meilleurs délais.
Mission freelance
Architecte DevOps SRE
Publiée le
Ansible
AWS Cloud
CI/CD
1 an
400-550 €
Ille-et-Vilaine, France
Nous recherchons pour l'un de nos clients, un(e) Architecte DevOps SRE pour faire évoluer l'infrastructure, les pratiques et les outils en place, tout en garantissant la fiabilité, la scalabilité et la performance des systèmes de production. Vous aurez pour mission principale de mettre en œuvre une architecture DevOps performante et durable, tout en renforçant la culture SRE au sein de l'organisation. Vous interviendrez sur l’ensemble des phases de la transformation et travaillera en étroite collaboration avec les équipes internes (Développement, Infrastructure, Sécurité, etc.) A ce titre, vos principales tâches seront les suivantes : 1. Analyse et diagnostic : Évaluer l’existant en termes de pratiques DevOps, d’infrastructure et d’automatisation. Identifier les leviers d’amélioration et définir une feuille de route pour la transformation du modèle opérationnel. 2. Architecture et mise en place des pratiques DevOps : Concevoir et implémenter une architecture DevOps adaptée aux besoins du client. Automatiser les processus de livraison et de déploiement via des outils CI/CD. Intégrer les pratiques d’infrastructure as code (IaC) et de gestion de la configuration (ex : Terraform, Ansible). Optimiser la gestion des pipelines et le versioning des applications. 3. Mise en place de la culture SRE : Définir des métriques et des SLAs pour garantir la disponibilité et la performance des services. Développer et automatiser des stratégies de monitoring, de gestion des incidents et de gestion des performances (observabilité, alerting, logs centralisés). Mettre en œuvre des stratégies de résilience des systèmes et des tests de charge. Accompagner les équipes internes dans la mise en œuvre des pratiques SRE pour la gestion proactive des incidents et des pannes. 4. Amélioration continue : Concevoir des processus d’amélioration continue pour optimiser la gestion des opérations, la collaboration entre les équipes de développement et d’infrastructure. Piloter les actions de remédiation post-mortem pour éviter la récurrence des incidents. Sensibiliser les équipes à l’importance de la culture DevOps et SRE. 5. Accompagnement et transfert de compétences : Former et accompagner les équipes internes sur les bonnes pratiques DevOps et SRE. Créer des documents techniques et des guides pratiques pour assurer l’autonomie des équipes dans la gestion des processus DevOps et SRE. Assurer un suivi régulier de l’évolution des pratiques et des outils
Offre d'emploi
EXPERT CNAPP / CWPP
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
50k-70k €
500-600 €
Paris, France
🎯 Missions principales : - Piloter et réaliser le déploiement des agents de sécurité CWPP sur les environnements conteneurisés (Kubernetes, Docker…) et VM, en garantissant leur intégration et leur fonctionnement optimal. - Participer à la mise en œuvre et à l’amélioration continue de la plateforme de sécurité cloud, en tenant compte des besoins métiers et des risques identifiés. - Assurer la gestion et la supervision des solutions CWPP, avec un focus particulier sur la protection des workloads dans un environnement multicloud (Azure,GCP, AWS, Alibaba Cloud etc...). - Collaborer étroitement avec les équipes cloud, sécurité et opérations pour assurer la conformité et la robustesse des protections mises en place. - Participer à des activités de project management : planification, suivi des déploiements, gestion des risques et coordination avec les parties prenantes. - Rédiger la documentation technique, les procédures et les guides d’utilisation, tout en animant des formations ou ateliers internes si besoin. - Rester à la pointe des évolutions technologiques dans le domaine CWPP et proposer des améliorations pour renforcer la posture sécurité cloud.
Offre d'emploi
Ingénieur DevOps IA
Publiée le
Linux
Python
1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
Mission freelance
Intégrateur API Plateforme d’Échanges / API Manager
Publiée le
Active Directory Domain Services (AD DS)
Ansible
Apache Kafka
12 mois
550-590 €
Île-de-France, France
Télétravail partiel
Fiche de poste – Intégrateur Plateforme d’Échanges / API Manager Intitulé du poste Intégrateur API / API Manager (intégration inter-applicative) Niveau : Confirmé + Équipe Produit : Middleware / Plateforme d’échanges Méthodologie : Agile / SAFe (sprints de 2 semaines, PI de 3 mois) Environnement hybride : On Premises / Cloud AWS Contexte de la mission Nous recherchons un profil d’ Intégrateur Plateforme d’échanges / API Manager pour renforcer une équipe produit en charge du middleware et des solutions d’intégration inter-applicatives. L’équipe développe et maintient une offre de type PaaS interne , permettant aux équipes de développement d’utiliser en autonomie : une plateforme d’échanges basée sur WSO2 API Manager 4.2, Boomi et RabbitMQ ; des solutions de monitoring et d’observabilité telles que Logstash, OpenSearch, Prometheus et Grafana. Les outils sont déployés en environnement hybride et doivent être utilisables en self-service par les équipes produit. Missions principales : Participer activement aux cérémonies agiles (daily, sprint review, PI planning) et contribuer à l’instruction des features et user stories liées à la plateforme d’échanges. Participer aux évolutions de la plateforme : intégration de nouveaux outils, ajout de fonctionnalités ou optimisation des composants existants. Maintenir et diffuser les bonnes pratiques et patterns d’intégration inter-applicative. Accompagner les équipes produit dans la prise en main et l’utilisation en autonomie de la plateforme d’échanges. Assister les équipes dans l’instruction et la réalisation des processus d’échanges (Boomi, API WSO2, files RabbitMQ). Accompagner la conception et le prototypage d’API REST, en conformité avec le standard OpenAPI 3.0. Traiter les demandes récurrentes liées à la plateforme (droits d’accès, ouvertures de flux, paramétrages techniques, etc.). Participer au support sur incident, à l’analyse et à la résolution de bugs sur la plateforme et les échanges inter-applicatifs. Contribuer à la mise à jour et à l’amélioration continue de la documentation technique et fonctionnelle. Assurer une veille technologique sur les sujets d’intégration, d’API management et de monitoring.
Mission freelance
POT8706 - Un Data Engineer NoSQL sur Nanterre
Publiée le
Nosql
6 mois
100-550 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Data Engineer NoSQL sur Nanterre Contexte et rôle Renforcement d’un pôle d’expertise technique autour des bases de données NoSQL. L’expert contribuera à la conception, l’industrialisation et l’exploitation de plateformes NoSQL, en environnement conteneurisé et cloud hybride Compétences techniques requises Maîtrise ElasticSearch (ELK Stack), configuration, optimisation et monitoring Expertise bases de données Graph (Cypher, RDF, LPG) Connaissance PostgreSQL / Oracle appréciée Maîtrise Docker, Kubernetes, OpenShift, Linux RedHat Bon niveau en scripting Shell, SQL/PLSQL Compréhension des environnements AWS / GCP Connaissance des outils DevOps (GitLab, Jenkins) Bonnes notions de Big Data, datavisualisation et virtualisation de données Bonne capacité de rédaction technique en français Soft skills Autonomie, rigueur, sens du résultat Capacité à communiquer et formaliser Force de proposition et leadership technique Livrables attendus Études techniques, POC et recommandations d’architecture Guides techniques, souches conteneurisées, scripts de déploiement Rapports d’audit et documentation de capitalisation.
Offre d'emploi
Ingénieur Cloud/DevOps H/F
Publiée le
46k-60k €
75001, Paris, Île-de-France
Ingénieur Cloud/DevOps H/F - Paris Experis recherche des Ingénieurs Cloud/DevOps (H/F) pour différents clients grands comptes en Île-de-France. Vos missions: Participer à la conception, la mise en œuvre et la gestion des infrastructures Cloud (AWS ou Azure) Automatiser le déploiement et la configuration des environnements via Ansible/Terraform Administrer et orchestrer des clusters Kubernetes (EKS, AKS…) Implémenter les CI/CD (GitLab CI, Azure DevOps, Jenkins…) Assurer la fiabilité, la sécurité et la scalabilité des plateformes Cloud Collaborer avec les équipes de développement, sécurité et réseau
Mission freelance
Architecte reseau système cloud
Publiée le
Ansible
AWS Cloud
Azure
1 an
580-630 €
Malakoff, Île-de-France
Télétravail partiel
Un architecte hybride est un professionnel qui combine des compétences de plusieurs domaines pour concevoir et gérer des systèmes intégrés. Cela peut inclure des compétences en architecture cloud, réseau, et systèmes traditionnels sur site. L'architecte hybride développe des solutions qui tirent parti des avantages des environnements multi-cloud et sur site, optimisant la flexibilité, l'évolutivité, et la sécurité. Il joue un rôle clé dans la transition vers des infrastructures modernes, assurant une intégration fluide entre les différents environnements technologiques de l'entreprise. • Conception d’architectures multi-cloud ou hybrides • Intégration des environnements on-premise avec Azure/AWS/GCP • Automatisation des déploiements (IaC) • Gestion des flux, identités, sécurité • Virtualisation (VMware, Hyper-V), Kubernetes, Terraform • Cloud : Azure, AWS, GCP • Réseaux hybrides, SSO, sécurité cloud Enjeux : Flexibilité, sécurité, coûts maîtrisés Azure Arc, AWS Outposts, Ansible
Mission freelance
Expert/Lead Kubernetes - Tanzu (TKG)
Publiée le
Argo CD
IAC
Kubernetes
12 mois
600 €
Paris, France
Télétravail partiel
Un grand groupe recherche un Tech Lead Kubernetes expérimenté , spécialisé dans l’administration et l’évolution de clusters Kubernetes en environnements On-Premises et Cloud public , afin de renforcer l’exploitation et la fiabilisation de ses plateformes critiques. Le poste s'articule autour de deux périmètres : Une plateforme interne basée sur Tanzu Kubernetes Grid (TKG) intégrée à une infrastructure VMware. Des clusters Amazon EKS utilisés pour les applications cloud du groupe, notamment les workloads data. Missions principales : 1. Administration & exploitation des clusters Kubernetes Assurer la disponibilité, la maintenance et les évolutions des environnements TKG (On-Prem) et EKS (AWS) . Garantir la résilience , la sécurité , la performance et la stabilité de l’ensemble des plateformes. Traiter et analyser les incidents complexes, fournir un support expert et accompagner leur résolution. Maintenir à jour les procédures opérationnelles, les documentations de reprise après incident et les guides d’exploitation. 2. Évolution des infrastructures et modernisation Préparer et piloter la migration vers TKG 2.x intégré à une nouvelle version de la stack VMware. Organiser la reprise et la gestion progressive des clusters EKS opérés par d’autres équipes. Participer à la définition et à la consolidation du socle Kubernetes commun destiné aux applications critiques. Automatiser le déploiement complet des environnements Kubernetes dans une logique IaC et GitOps . 3. CI/CD, automatisation & GitOps Intégrer, fiabiliser et optimiser les pipelines CI/CD (ex. Jenkins, ArgoCD…). Mettre en place et maintenir des modules IaC , des pipelines et des bonnes pratiques d’automatisation. Définir et gérer les droits utilisateurs (RBAC) sur les différents clusters. Contribuer à la culture DevOps / GitOps , et promouvoir les bonnes pratiques d’industrialisation. 4. Support, accompagnement & transfert de compétences Accompagner les équipes d’exploitation et de développement dans leur montée en compétences Kubernetes et GitOps. Participer à la rédaction et à l’amélioration continue du référentiel documentaire. Assurer un transfert de connaissances structuré et durable.
Mission freelance
DBA Cassandra Mysql Postgresql
Publiée le
Cassandra
MySQL
6 mois
550-650 €
Saint-Denis, Île-de-France
Télétravail partiel
En tant que DBA de Production spécialisé Cassandra / MySQL / PostgreSQL , vous évoluez dans un environnement moderne, distribué et critique hébergé entièrement sur AWS . Vous êtes responsable de l’exploitation, de la performance et de l’évolution de plusieurs clusters haute disponibilité, tout en participant activement aux projets de modernisation Cloud. Vos missions : Administration / exploitation de clusters Cassandra 4.x (environ 60 nœuds, 10 clusters de production). Administration des environnements MySQL 8.x (réplication avancée, InnoDB Cluster, ou Arbiters AWS). Gestion des clusters PostgreSQL 14/15 en réplication haute disponibilité (Streaming Replication, Patroni, etc.). Supervision avancée : mise en place / optimisation de Prometheus, Grafana, CloudWatch, Alertmanager. Gestion des incidents 24/7 (astreintes), diagnostiques et résolution Niveau 2 & 3. Gestion et automatisation des sauvegardes : pgBackRest, XtraBackup, snapshots AWS, tests de PRA. Rafraîchissement automatisé des environnements hors production (CI/CD, anonymisation, pipelines). Optimisation continue des performances (requêtes, indexation, tuning des clusters, optimisation IO). Documentation technique : normes, procédures, architecture data, runbooks. Projets structurants : Migration complète et modernisation sur AWS : Refonte des architectures Data sur AWS Automatisation via Terraform / Ansible Mise en conformité, durcissement et standardisation des clusters Migration / modernisation des clusters Cassandra 4.x vers des architectures AWS optimisées Contribution aux projets orientés conteneurisation (Docker / Kubernetes sur EKS — bonus). Environnement technique (100% AWS) : AWS Services : EC2, EBS, S3, EKS, IAM, CloudWatch, ALB/NLB, KMS, VPC, Secrets Manager, Backup. OS : Rocky Linux / RedHat 8.x Bases de données : Cassandra 4.x, MySQL 8.x, PostgreSQL 14/15 Écosystème : Elasticsearch 8.x, Kafka/MSK Outils : Terraform, Ansible, GitLab CI/CD, Prometheus, Grafana
Mission freelance
Tech Lead Sénior Solution Lead (550€ MAX)
Publiée le
Méthode Agile
1 an
400-550 €
Île-de-France, France
Télétravail partiel
● Expertise reconnue dans l'écosystème de l'Encaissement Autonome (SCO/Self Check Out), ● incluant la connaissance des contraintes matérielles, logicielles et des solutions du marché. ● Pilotage d’équipe avec réorganisations structurantes. ● Pilotage de projets d’envergure impliquant un déploiement à risque et à grande échelle. ● Pilotage transverse d’équipe et forte capacité à aligner les parties prenantes (Produit, Ops, ● Support, Infrastructure). ● Excellente connaissance des contraintes liées au pilotage d’éditeur et de fournisseurs de solutions d’encaissement / SCO. ● Anglais courant ● Solides connaissances techniques autour de l'intégration d’applications éditeur et capacité à prendre des décisions d’architecture complexes. ● Bonne connaissance sur la mise en place de KPI, de monitoring avancé (Observability) et du suivi de performance d’applications critiques. ● Solide expérience en méthode de delivery Agile (Scrum, Kanban) et outils associés. ● Bonnes connaissances techniques autour de : Test Automation, Performance, Monitoring, CICD (avec des technologies comme Kafka, Kubernetes, etc.). ● Connaissance générale d’architecture des SI incluant une culture Cloud (GCP/Azure/AWS), API Management (Apigee), et Data (Data Lake).
Offre d'emploi
Intégrateur Devops
Publiée le
Ansible
AWS Cloud
Azure
6 mois
Rennes, Bretagne
Télétravail partiel
Nous recherchons actuellement un(e) Intégrateur(rice) Devops pour renforcer notre pôle Développement. Vos missions consisteront à : Administration systèmes : mises à jour et supervision des serveurs linux/Windows et environnements virtualisés. Support applicatif : Analyser et résoudre les incidents liés aux applications métiers. Accompagner les utilisateurs, les équipes projets et les développeurs dans l’identification des problèmes. Participer à l’investigation sur les anomalies fonctionnelles et techniques. Contribuer à la documentation fonctionnelle et technique pour faciliter le support Garantir la haute disponibilité, la performance et la sécurité des environnements. Automatiser les tâches récurrentes (déploiements, configuration, monitoring, gestion des incidents). Mener les actions nécessaires à garantir la sécurité du SI Participer au MCO (gestion proactive des incidents, résolution des problèmes, patchs correctifs,). Planifier et réaliser les montées de version (systèmes, middleware et applicatives). Contribuer à la conception d’architectures résilientes et tolérantes aux pannes. Définir et tester des PRA/PCA (plan de reprise et de continuité d’activité). Collaborer avec les équipes de développement pour intégrer la fiabilité et la maintenabilité dès la conception. Vous êtes curieux, rigoureux et autonome tout en appréciant travailler en équipe.
Mission freelance
Senior JAVA Developpeur (H/F)
Publiée le
Elasticsearch
Microservices
18 mois
500-550 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Mission freelance
Tech Lead Kubernetes
Publiée le
Argo CD
DevOps
Jenkins
1 an
300-500 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour un client un Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques. Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : Administrer et faire évoluer les clusters EKS. Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description : Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) Administrer, maintenir et faire évoluer les environnements TKG et EKS. Garantir la résilience, la sécurité et la disponibilité des plateformes. Fournir un support expert sur les incidents et la performance. Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques. Participer à la définition du socle commun d’hébergement des applications et composants critiques. Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud et en assurer le support. Contribuer à la migration vers TKG 2.x / VCF 9. Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. Assurer la continuité de service et le transfert de connaissances. Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation Renforcer la culture GitOps et DevSecOps au sein des équipes. Support à la conception et automatisation Livrables. Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables.
Mission freelance
Junior JAVA Developpeur (H/F)
Publiée le
PostgreSQL
1 mois
350-400 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
126 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois