L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 350 résultats.
Offre d'emploi
Architecte technique - H/F
ANDEMA
Publiée le
.NET
.NET CORE
Azure
1 an
60k-75k €
450-580 €
Valence, Auvergne-Rhône-Alpes
Nous recrutons un Architecte Technique pour intervenir sur un programme international d’envergure, au sein d’un environnement technique moderne et structuré. 🎯 Vos missions Intégré à une équipe d’architecture expérimentée, vous interviendrez en étroite collaboration avec un Lead Architect sur des sujets à fort enjeu. À ce titre, vous serez amené à : Concevoir et faire évoluer les architectures systèmes Participer aux choix techniques et aux arbitrages d’architecture Accompagner les équipes de développement dans la mise en œuvre Garantir la cohérence technique des solutions Contribuer aux phases d’ avant-vente (analyse, chiffrage, proposition) Produire la documentation d’architecture et assurer sa diffusion ⚙️ Environnement technique Cloud : Azure Conteneurisation : Docker, Kubernetes Architecture : API Management, microservices, systèmes distribués DevOps : CI/CD, outils de versioning Environnements multi-applicatifs complexes 🌍 Environnement Contexte international (collaboration avec équipes offshore) Projets complexes et structurants Interaction avec équipes techniques, métiers et architecture
Mission freelance
Développeur Backend Node.js (Mission Observabilité)
HAYS France
Publiée le
Grafana
Kibana
Kubernetes
3 ans
100-540 £GB
Lille, Hauts-de-France
Objectifs de la mission Définir et déployer une stratégie d’observabilité unifiée Assurer la traçabilité des flux inter‑applicatifs Améliorer la détection, compréhension et résolution des incidents Mettre à disposition des indicateurs de performance exploitables par les équipes Produit, Tech et Ops 🔧 Périmètre technique & responsabilités1. Observabilité & Monitoring Implémentation complète d’ OpenTelemetry (traces, métriques, logs) Corrélation des événements entre micro‑frontends et backend Définition et normalisation des standards de logging Création de dashboards pertinents (performance, erreurs, alerting) Mise en place d’indicateurs clés (SLO/SLI, latence, disponibilité…) 2. Outils & Stack Node.js (expert) Kubernetes (fortement attendu) Grafana (dashboards) Kibana (logs, investigation) OpenTelemetry (instrumentation unifiée) Karma (tests front orientés qualité observable) Environnement CI/CD GitLab ou équivalent 3. CI / Qualité Intégration des contrôles d’observabilité dans les pipelines CI Mise en place de tests automatisés liés à la qualité observable Contribution à la fiabilité globale des déploiements 📦 Livrables attendus Architecture d’observabilité documentée et partagée Instrumentation complète des 3 micro-frontends Dashboards opérationnels (Grafana / Kibana) Guidelines de logging, tracing, corrélation Intégration CI des contrôles observabilité Documentation technique + transfert de compétences 👤 Profil recherché✅ Compétences indispensables Expertise Node.js (vraiment senior) Expérience solide en observabilité distribuée Maîtrise confirmée d’ OpenTelemetry Pratique avancée de Grafana & Kibana Maîtrise Kubernetes (très attendu dans ce contexte) Expérience CI/CD (GitLab idéalement) Connaissance de Karma ou équivalent côté front ✅ Compétences appréciées Expérience sur des architectures micro-frontends Connaissance du secteur e‑commerce Compréhension Produit et capacité à vulgariser Expérience dans de grands environnements distribués (exemples pertinents : Decathlon, Adeo , etc.) 🤝 Soft Skills Forte autonomie, capacité à structurer et documenter Esprit d’analyse, rigueur et synthèse Capacité à collaborer avec des équipes pluridisciplinaires Communication claire, pédagogique et orientée impact Force de proposition sur outils, métriques, bonnes pratiques
Mission freelance
Data Engineer Senior / Lead Data
Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks
6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Offre d'emploi
Data scientist IA générative
CAT-AMANIA
Publiée le
AWS Cloud
IA
Python
1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
Mission freelance
Consultant dbt/Snowflake
CS Group Solutions
Publiée le
Data Mesh
DBT
Snowflake
6 mois
430-450 €
Île-de-France, France
Nous recherchons un Consultant dbt/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
Offre d'emploi
Lead Developer Angular/Node.js
Avanda
Publiée le
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients, leader de son activite, un Lead Developer Angular/Node.js H/F pour piloter techniquement une équipe produit et contribuer activement au développement d'une application en environnement cloud AWS. Ce poste est a pourvoir a Lyon, presence sur site de 3 jours par semaine. En tant que Lead Developer vos principales missions sont les suivantes : Définir et porter la stratégie technique du produit (architecture, choix technologiques, bonnes pratiques) Assurer la cohérence et la qualité des développements via des revues de code régulières Accompagner la montée en compétences des développeurs (pair programming, coding dojo, tech meetings) Être le référent technique pour les décisions structurantes et l'arbitrage avec le Product Owner Contribuer activement au développement des fonctionnalités (BUILD) et à la maintenance applicative (RUN) Rédiger et maintenir la documentation technique (architecture, stratégie de tests, bonnes pratiques) Participer aux cérémonies agiles et assurer le suivi des activités via les outils de ticketing Proposer des améliorations continues et assurer une veille technologique active Requirements Profil : Experience minimum de 2 ans sur un poste de Team Lead / Lead Developer / Tech Lead / Principal Developer Maîtrise du back-end Node.js (v24, TypeORM) Maitrise du front-end Angular (v21, TypeScript) Solide connaissance de AWS (Lambda, ECS, API Gateway, Cognito, S3, Aurora RDS, CloudWatch…) Pratique du DevSecOps : Terraform / Terragrunt, GitLab CI/CD, Docker Expérience en tests et qualité : Playwright, Vitest, Cucumber, SonarQube, Testcontainers Culture du code propre : DDD, TDD, Clean Code, Test Pyramid, Craft
Mission freelance
Consultant AMOA / Authentification /Cloud
CHARLI GROUP
Publiée le
AWS Cloud
oauth2
3 ans
400-550 €
Île-de-France, France
MISSIONS DU POSTE : Vous rejoignez l’équipe « Access » en qualité d’ AMOA /chef de projet Authentification, vous travaillerez sur la brique applicative P@SS permettant l’authentification d’un abonné sur l’application et l’ensemble des sites web en France et à l’international. A ce titre, vos principales missions sont les suivantes : - cadrer les projets avec les différents métiers : écriture des expressions de besoins en collaboration avec les architectes, l’équipe sécurité et les équipes de développement P@SS - définir les cahiers de recette et valider les évolutions - définir les éléments d’exploitation et supervision utiles aux évolutions, - assurer un support/expertise fonctionnel sur les demandes d’information et sur les incidents d’exploitation Les principaux clients sont : - les équipes techniques : application , parcours de souscription, espace client abonné, CRM, backoffice chaîne des droits OTT, VOD, partenaires - les équipes métiers : gestion de projets transverses, sécurité, marketing, commerce, juridique - dans différents territoires : pays européens dont suisse, DROM, pays africains… FORMATION ET EXPERIENCE Expériences professionnelles et compétences requises : - De formation supérieure technique (télécom, SI…), vous avez une expertise en AMOA, ainsi qu’une expérience dans le développement de site web. Une connaissance des environnements techniques du groupe et une expérience IAM serait un plus. - Anglais requis
Mission freelance
Administrateur systèmes Linux & Windows - Sysops
PROPULSE IT
Publiée le
Linux
24 mois
225-450 €
Paris, France
Administrer Windows et Linux - Devops - Sysops Environnement de développement et d'intégration MCO des environnements Linux et Windows Développement de Pipeline Jenkins dans la chaine CICD Support utilisateurs de la DSI Description détaillée Objectifs principaux de la prestation : - Administration des serveurs Linux et Windows des environnements d'intégration et de développement avec une maitrise parfaite des systèmes Linux (Redhat/Centos/Rocky), de VmWare et une bonne connaissance des environnements de type Nutanix/Huawei. - Participation à la mise en place de la chaine CI/CD pour la création de VM et à la création de modules de Run (Jenkins/Ansible/Gitlab). - Traitement des tickets demandes / d'incidents émanant des équipes de développement ou d'intégration applicatives
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Offre d'emploi
Data scientist (H/F)
IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Mission freelance
[MDO] Intégrateur & développement
ISUPPLIER
Publiée le
DevOps
XL Deploy
1 an
400 €
Niort, Nouvelle-Aquitaine
Au sein de l’équipe d’intégration continue, l’intégrateur sera responsable du développement, de l’amélioration et du maintien de la plateforme d’automatisation basée sur XL Deploy (XLD) , XL Release (XLR) , Jenkins , Jira et Artifactory . Il participera à l’évolution de l’usine logicielle, à la conception de plugins, et à la création de pipelines et templates permettant de fluidifier le delivery applicatif. Missions principales 1. Développement & Intégration Développer et maintenir des plugins XL Deploy et XL Release . Concevoir, mettre à jour et optimiser des templates XL Release (bonnes pratiques, industrialisation). Développer et maintenir des Jenkinsfiles pour des pipelines CI/CD complexes. Automatiser les actions répétitives autour des déploiements et releases. 2. Administration & Navigation des outils Naviguer efficacement dans Jira , gérer les workflows, et : Créer / modifier des écrans, Automatiser via ScriptRunner (scripts Groovy). Contribuer au maintien opérationnel de l’usine de déploiement : Nettoyage des déploiements en failed le matin, Nettoyage et rationalisation des templates, Mise à jour de la documentation. 3. Amélioration continue Proposer des améliorations techniques sur la plateforme CI/CD. Participer à l’optimisation des processus DevOps. Assurer une veille sur les outils, les frameworks et les bonnes pratiques. Outils & plateformes XL Deploy / XL Release (obligatoire) : Développement de plugins, Manipulation des templates, Compréhension des pipelines et déploiements. Jenkins : Écriture de Jenkinsfiles (Pipeline as Code), Bonne compréhension des concepts CI/CD. Jira : Configuration avancée, scripting via ScriptRunner (Groovy), Modification d’écrans / workflows. Langages de scripting Groovy (ScriptRunner, Jenkinsfiles) Shell / PowerShell (selon stack interne) Compétences souhaitées (plus) SQL (création de requêtes simples : select, joins basiques…) Java (lecture et compréhension d’un code plugin, corrections simples)
Offre d'emploi
Ingénieur de production devops/Applicative (H/F)
Trust IT
Publiée le
Ansible
DevOps
Kubernetes
1 an
40k-52k €
400-550 €
Île-de-France, France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons à recruter en CDI au sein de notre structure, un Ingénieur de production devops/applicative (H/F), Mission : Garantir la prise en compte des exigences de production dès la phase projet. Participer à la définition de la solution technique en lien avec les équipes projet. Appliquer les standards d’architecture, catalogues de services et bonnes pratiques DevOps. Industrialiser et automatiser les déploiements via la Toolchain. Intégrer les aspects de monitoring, sécurité, résilience, et obsolescence dans les projets. Contribuer à la mise en place des Dashboard Dynatrace. Supporter les équipes de développement dans la sécurisation des livraisons. Compétences techniques recherchées Très bonne connaissance de l’environnement Agile & DevOps (XLR/XLD) Maîtrise de Kubernetes, Terraform, Ansible, CI/CD (Jenkins, GitLab), openshift Expérience dans l’intégration des outils de monitoring : Dynatrace, Prometheus, Grafana. Connaissance des produits standards d’infrastructure et des catalogues de services.
Offre d'emploi
Kubernetes cloud builder, Ingénieur GitOps -REMOTE
KEONI CONSULTING
Publiée le
Gitlab
Kubernetes
Linux
18 mois
20k-60k €
100-500 €
Paris, France
CONTEXTE CaaS‑CNP est un écosystème de clusters Kubernetes hébergés sur des CSP (Azure AKS) et On‑Prem (OpenStack), construit sur Kubernetes open‑source et utilisant des technologies IaC comme Cluster‑API et Flux. Dans le cadre du programme Move2Cloud, l’équipe CaaS‑CNP a pour objectif de délivrer des clusters Kubernetes en tant qu’équipe Platform Engineering, sur plusieurs zones d’hébergement Azure, avec un ensemble de composants logiciels et d’opérateurs. L’orchestration de tous les composants est gérée par Flux (GitOps) et Cluster‑API, avec un packaging complet basé sur Helm. L’équipe CaaS‑CNP intervient sur : La conception des solutions (urbanisation Cloud/Kubernetes, conception GitOps globale, gestion de la sécurité, intégration logicielle et opérateurs) L’implémentation des solutions (Cluster‑API, Flux, intégration logicielle), en mutualisation avec d’autres projets transverses L’exploitation des clusters CaaS‑CNP (production, cycle de vie Kubernetes et composants logiciels) MISSIONS Pour cette mission, vous serez intégré(e) à l’équipe Core CaaS‑CNP, sur les activités BUILD. Nous attendons des compétences en administration Kubernetes, Infra‑as‑Code et GitOps. Une expérience en administration Azure AKS sera appréciée. EXPERTISE TECHNIQUE ET MÉTIER REQUISE Kubernetes cloud builder, Ingénieur GitOps Domaine : Implémentation Autres compétences Anglais : Intermédiaire Orientation client : Nécessaire Certifications : Kubernetes Astreintes / interventions programmées : Non LIVRABLES SLA Design et développement d’intégrations de la stack K8s via Helm, Flux, Cluster‑API Pipelines CI/CD pour le développement de tests automatisés d’infrastructure Documentations techniques et utilisateurs Contribution au build/run de clusters de production (mises à jour, support infra) Contribution aux user stories JIRA, issues GitLab EXPERTISES TECHNIQUES ATTENDUES Administration Kubernetes Infrastructures Cloud (Azure AKS, OpenStack) Cluster‑API Flux (GitOps) GitLab, pipelines CI/CD Helm Observabilité (Prometheus, Alertmanager, Grafana, Loki) Hashicorp Vault Méthodologies Agile
Offre d'emploi
Ingénieur Intégration Systèmes & Réseaux (H/F)
AGH CONSULTING
Publiée le
Administration linux
AWS Cloud
GPRS
38k-40k €
Cergy, Île-de-France
Dans le cadre de projets techniques à forte criticité, nous recherchons un Ingénieur Intégration Systèmes & Réseaux intervenant sur des architectures combinant infrastructure IT, équipements embarqués et communications temps réel. Vous êtes en charge de l’intégration, de la configuration et de la validation complète des plateformes avant leur mise en production et leur déploiement sur site. Missions principales Mise en place des plateformes techniques (serveurs, réseau, équipements embarqués, wifi) Configuration et administration des environnements Linux Paramétrage des flux réseau et vérification des communications inter-systèmes Validation des exigences techniques et fonctionnelles Réalisation des tests d’intégration en usine et sur site Analyse et résolution des anomalies Rédaction des dossiers de validation et documentation technique Reporting régulier sur l’avancement des activités Interaction avec les équipes production, exploitation et sous-systèmes
Mission freelance
chef de projet technique / Cloud /Devops
Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure
6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
Offre d'emploi
Tech Lead IA
OBJECTWARE
Publiée le
Ansible
Dataiku
DevOps
3 ans
40k-80k €
400-600 €
Île-de-France, France
Le Technical Lead IA jouera un rôle structurant pour garantir cohérence technique, industrialisation et excellence DevOps au sein de la plateforme. h3. a. Piloter l’architecture technique de la plateforme • Définir et maintenir l’architecture agentique (Registry, Gateway/MCP, workflows, sécurités, modèles de qualification). • Assurer cohérence, robustesse, maintenabilité et alignement transverse avec les équipes IAP, MTA, Data et SSI. h3. b. Animer et structurer l’équipe de développeurs • Encadrer une équipe de développeurs et instaurer les bonnes pratiques (clean code, revue, qualité, documentation, sécurité). • Organiser les rituels techniques et accompagner la montée en compétence h3. c. Renforcer l’industrialisation, le DevOps et le run • Mettre en œuvre et piloter les environnements Kubernetes, MCP, orchestrateurs et connecteurs. • Définir et opérer la chaîne CI/CD (tests, scans, packaging, déploiements, observabilité). • Implémenter les normes : GOPROD, DORA, sécurité, monitoring Datadog/Grafana, logging distribué. • Garantir scalabilité, résilience, observabilité et conformité SSI. h3. d. Appuyer le delivery et la qualification des agents • Participer aux ateliers techniques, PI Planning, System Demos. • Contribuer au processus de qualification des agents IA (création → test → industrialisation → run). • Accompagner les équipes builders et métiers dans l’intégration en production • Pilotage technique transverse, capacité à fédérer et clarifier les responsabilités. • Maîtrise des architectures orientées agents : Registry, Gateway, MCP, outils associés. h3. DevOps / SRE • Compétences cloud, conteneurs, CI/CD, observabilité, automatisation. • Industrialisation d’environnements critiques, monitoring avancé, optimisation de pipelines. h3. Sécurité & Gouvernance IA • Connaissance approfondie des règles SSI, IA Act, propagation sécurisée des tokens. • Maîtrise AuthN/AuthZ (OIDC/JWT) et doctrines DevSecOps. h3. Communication & Transversalité • Pratique avancée de la documentation structurée (guidelines, playbooks, runbooks). • Excellente communication avec architectes, produits, DevOps, Data, SSI. h3. Infrastructure & Cloud • Kubernetes (on prem & cloud), Helm, RBAC, Secrets Management. • AWS / Azure. • Terraform / Ansible. h3. Orchestration agentique • MCP Servers, Agent Registry, Agent Gateway. • Frameworks agents : Dust, Mistral, Dataiku. h3. DevOps / CI/CD / Observabilité • GitLab CI, Jenkins, Sonar, Artifactory/Nexus. • Docker, optimisation d’images. • Datadog, Grafana, Prometheus, logging distribué. h3. Sécurité • Keycloak, OIDC, JWT. • Scans de sécurité, politiques DevSecOps. h3. Langages & intégration • Python expert (FastAPI, Langgraph, Langchain, Pydantic, asyncio). • Compétences Fullstack (Python, Java, Angular) • YAML / JSON / OpenAPI. • Kafka ou autres bus d’événements
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3350 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois