Trouvez votre prochaine offre d’emploi ou de mission freelance GPU
Votre recherche renvoie 21 résultats.
Offre premium
Mission freelance
Expert VDI & Cloud 3D
REESK DIGITAL SOLUTION
Publiée le
3D
Animation
Architecture
36 mois
600 €
Île-de-France, France
Missions principales: Architecturer et optimiser des infrastructures VDI (Virtual Desktop Infrastructure) pour des environnements 3D (Maya, AutoCAD, Houdini, ZBrush, Unreal Engine, etc.) sous Windows et Linux. Analyser et résoudre les bottlenecks techniques liés aux performances GPU, RAM, et stockage pour des workflows créatifs (rendus, streaming, collaboration à distance). Collaborer avec les partenaires pour industrialiser les solutions et rendre les infrastructures autonomes. Documenter les processus techniques et former les équipes internes. Anticiper la transition vers Linux pour les studios (optimisation RAM, réduction des coûts). Participer à la roadmap pour le déploiement de solutions VDI dans l’industrie (ex : BNP, EDF).
Mission freelance
INGENIEUR IA
ROCKET TALENTS
Publiée le
DevOps
GPU
IA Générative
1 an
400-450 €
Saint-Quentin, Hauts-de-France
Missions : Vous intégrez au sein de l'équipe Service Infrastructure Open Natif et Data du Service Mise en marché des plateformes, et plus précisément dans le pôle Data. Vous serez en charge de la mise à disposition, de la maintenance et de l'évolution d'un ensemble de services liés aux offres autour de l'IA générative et du machine learning du client (LLMaaS, GPUaaS, Dataiku, etc.) À ce titre, les actions attendues sont les suivantes : Assurer le suivi et l'exploitation des plateformes IA pour nos utilisateurs internes. Accompagner la consommation des offres IA au sein du cluster, incluant l’accompagnement pour l'exposition de modèles LLM, la gestion des ressources GPU via Run:AI, et le déploiement de solutions RAG. Accompagner les équipes internes du cluster BPCR sur l'utilisation de ces plateformes, en assurant un support technique et méthodologique adapté à leurs besoins. Créer et mettre à disposition des services automatisés via Python et GitLab-CI pour faciliter l'adoption et l'utilisation des solutions IA. Les qualités pour mener à bien ces missions : Techniques : Bonnes connaissances en data science avec une compréhension des cycles de vie des modèles (entraînement, évaluation, déploiement, monitoring). Bonnes connaissances de Python pour le scripting, l'orchestration d'API REST et l'intégration de modèles. Bonne connaissance des concepts liés à Kubernetes (pods, services, namespaces, déploiements, etc.) et compréhension de son rôle dans l'hébergement et la mise à disposition de charges de travail IA. Compréhension des concepts d'IA générative (fine-tuning, transfer Learning, etc.), des architectures LLM et des patterns RAG. Connaissance des notions liées au GPU (allocation, mémoire, optimisation) et des frameworks de serving de modèles (vLLM, TGI ou équivalent). Bonnes connaissances de l'environnement Linux et des pratiques DevOps/MLOps. Familiarité avec des solutions de recherche vectorielle. Comportementale : Sens du service client Autonomie. Rigueur. Force de proposition. Vulgarisation. Esprit curieux et veille technologique active sur les évolutions de l'IA.
Mission freelance
Ingénieur Infrastructure HPC & IA (Cloud / GPU)
emagine Consulting SARL
Publiée le
Calcul hautes performances (HPC)
Docker
GPU
36 mois
Créteil, Île-de-France
Rattaché à une direction technique spécialisée dans les environnements digitaux avancés, vous intervenez sur la conception, le déploiement et l’optimisation d’infrastructures dédiées aux projets d’intelligence artificielle et de calcul haute performance (HPC). Vous êtes responsable de la gestion d’environnements hybrides combinant infrastructures on-premise (clusters GPU) et cloud public. Vous administrez et optimisez des clusters de calcul intensif, garantissez leur performance et leur disponibilité, et mettez en place des architectures cloud robustes pour supporter des workloads IA/ML à grande échelle. Vous intervenez également sur l’automatisation des déploiements, l’orchestration des traitements et l’industrialisation des environnements via des pratiques d’Infrastructure as Code. En lien étroit avec les équipes Data Science et Machine Learning, vous contribuez à fournir des plateformes fiables, scalables et performantes, tout en assurant le support technique et la résolution d’incidents. Vous participez également à une démarche d’amélioration continue en optimisant les coûts, les performances et la sécurité des infrastructures, tout en assurant une veille technologique active.
Mission freelance
ML Platform Senior DevOps Engineer
ARGANA CONSULTING CORP LLP
Publiée le
AWS Cloud
Cloud
Docker
6 mois
400 €
Paris, France
Nous recherchons un(e) DevOps Engineer Senior pour intervenir au sein d’une équipe ML Platform & ML Lab, dans un environnement technique avancé orienté Machine Learning et infrastructure cloud à grande échelle. 🎯 Votre rôle 🔵 Configuration et gestion de l’infrastructure cloud (Lambda) pour l’accès GPU des équipes ML 🔵 Mise en place de bonnes pratiques FinOps et protection contre les erreurs critiques 🔵 Optimisation des images Docker pour réduire les temps de cold start 🔵 Mise en place et maintien des systèmes de monitoring des entraînements de modèles 🔵 Contribution aux projets ML Platform sur AWS (CI/CD, tooling, infrastructure) 🔵 Automatisation des process et amélioration continue des workflows 🔵 Renforcement de la sécurité (audit, vulnérabilités, gestion des risques) 🚀 Votre impact 🔵 Améliorer la productivité des équipes ML 🔵 Garantir la robustesse et la scalabilité des environnements de training 🔵 Accélérer les workflows via automation et CI/CD 🔵 Renforcer la fiabilité et la sécurité des infrastructures cloud 🛠️ Stack & environnement 🔵 AWS 🔵 Terraform 🔵 Docker (optimisation d’images large scale) 🔵 GitLab CI / Jenkins 🔵 Linux / UNIX 🔵 Monitoring & observability 🔵 Environnement ML / GPU / cloud (Lambda) 📌 Informations complémentaires 🔵 Mission freelance 🔵 Hybride ou remote selon organisation 🔵 Mission longue durée
Offre d'emploi
Product Lead – IaaS GPU & VDI
MGI Consultants
Publiée le
Cloud
1 an
Neuilly-sur-Seine, Île-de-France
Contexte Notre client développe une offre IaaS spécialisée pour les studios 3D / VFX, intégrant des postes de travail virtuels haute performance (VDI GPU), des capacités de rendu GPU/CPU, du stockage haute performance et une console partenaire white-label (modèle B2B2X). L'objectif est de structurer et positionner une offre différenciante face aux hyperscalers, adaptée aux besoins spécifiques des studios créatifs, incluant le cadrage stratégique, la validation produit et la construction de la roadmap à 6–18 mois. Nous recherchons un Product Lead – IaaS GPU & VDI HF A ce titre vos missions sont les suivantes : Dans un premier temps, vous mènerez une phase de Discover y approfondie : - Analyse du Product Requirements Document (PRD). - Interviews des parties prenantes (CTO, équipes engineering, sales, sécurité). - Échanges avec les partenaires (distributeurs, early adopters). - Analyse comparative du marché (hyperscalers et acteurs spécialisés). - Identification des "utilisateurs types" (Admin partenaire, Admin studio, Artiste 3D). Ensuite, vous interviendrez sur la Stratégie & Priorisation : - Formalisation de la vision et des OKRs. - Définition claire du MVP. - Priorisation via les frameworks RICE ou Value/Effort. - Structuration du backlog (épics et user stories critiques). Enfin, vous piloterez la Roadmap & Go-To-Market : - Élaboration de la roadmap visuelle à 6–18 mois. - Recommandations de pricing (usage-based billing). - Proposition de stratégie GTM et pilotage des partenaires. - Présentation synthétique au comité de direction. Environnement technique Vous devrez challenger et dialoguer sur les sujets suivants : architecture multi-tenant, virtualisation/VDI, infrastructure GPU mutualisée, stockage distribué, APIs partenaires, modèles white-label B2B2X et enjeux de sécurité/conformité (RGPD, TPN). Pourquoi rejoindre ce projet ? - Produit stratégique dans un environnement cloud souverain. - Exposition directe à la direction et forte autonomie. - Positionnement sur un marché en forte croissance. - Impact structurant dès la phase de lancement
Mission freelance
Ingénieur Infrastructure Cloud & IA
Izyfree
Publiée le
Administration linux
Clustering
1 an
400-500 €
Île-de-France, France
Exploitation et MCO (Maintien en Condition Opérationnelle) Administrer et maintenir le parc de serveurs sous Linux Ubuntu . Gérer le cycle de vie du cluster Kubernetes (déploiement, mise à l'échelle, haute disponibilité). Assurer la gestion des ressources de calcul : déploiement des pilotes NVIDIA , configuration de CUDA et mise en œuvre du MIG (Multi-Instance GPU) pour optimiser le partage des ressources. Piloter le stockage haute performance et objet (S3, systèmes de fichiers distribués) pour répondre aux besoins de données massives. 2. Automatisation et Méthodes Industrialiser le déploiement de l'infrastructure via Ansible et des scripts (Bash/Python). Gérer les mises à jour critiques (OS, Drivers GPU, Kubernetes) avec un impact minimal sur la production. Appliquer les meilleures pratiques ITIL/ITSM : gestion des incidents, des changements et tenue rigoureuse de la documentation opérationnelle. 3. Observabilité et Performance Maintenir la stack de monitoring ( Prometheus, Grafana ) pour anticiper les pannes. Analyse fine de l'architecture réseau (VLAN, Load Balancing) pour garantir des flux de données fluides entre les nœuds. Optimiser l'ordonnancement des tâches : gestion des quotas, des priorités et de la planification GPU. 4. Support et Amélioration Continue Intervenir en escalade sur les incidents d'infrastructure. Réaliser des analyses post-mortem pour identifier les causes racines et éviter la récurrence des problèmes.
Mission freelance
Expert strategie infra et IA H/F
LeHibou
Publiée le
IA
Infrastructure
1 an
720-750 €
Paris, France
Fiche de poste – Stratège / Analyste Données Infrastructure IA Contexte et objectif de la mission Au sein de la direction Infrastructure & Stratégie IA d’un grand groupe bancaire, ce rôle se situe au croisement de la technique et de la stratégie. La mission consiste à superviser et piloter la valorisation des actifs GPU de l’entreprise, considérés comme coûteux et stratégiques, auprès des directions et du C-Level. Le poste vise à assurer le capacity planning, le forecasting et une communication de haut niveau autour des capacités d’infrastructure IA. Missions principales • Capacity planning & forecasting : piloter l’utilisation des infrastructures GPU et anticiper les besoins futurs • Visualisation & reporting stratégique : construire et maintenir des tableaux de bord avec des outils de suivi de métriques afin de produire une lecture accessible à des interlocuteurs non techniques jusqu’au C-Level • Veille technologique IA : suivre les évolutions des technologies IA et évaluer leur impact sur le déploiement des machines et des plateformes • Présentation & communication : produire des analyses et supports stratégiques à destination des directions, en français et en anglais • Contribution à la stratégie de plateforme : accompagner le développement de la plateforme locale dans le cadre d’une expansion européenne
Offre d'emploi
Data Architecte - LLMOPS
VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning
1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Mission freelance
Consultant Achats IT confirmé
Signe +
Publiée le
FinOps
12 mois
460-790 €
Senlis, Hauts-de-France
Périmètre de l’intervention L’intervention couvre l’ensemble des achats IT , notamment : Logiciels on‑premise et SaaS Licences et maintenance éditeurs Prestations intellectuelles IT Infrastructures & hardware Services cloud et GPU Services associés Le consultant interviendra dans un rôle opérationnel, structurant et transversal , en lien étroit avec les équipes Achats, IT, Juridique, Finance et Métiers . Principales tâches Pilotage des appels d’offres IT (stratégie, CDC, analyse des offres, soutenances) Négociations commerciales et contractuelles avec les fournisseurs IT Sécurisation des contrats en collaboration avec la direction juridique Accompagnement des demandeurs dans l’expression des besoins Mise en place du pilotage de la performance fournisseurs (savings, TCO, risques) Construction de la cartographie des achats IT Déploiement d’une valise documentaire Achats IT (modèles, clausier, outils) Contribution aux démarches SAM, FinOps et à la veille marché
Mission freelance
Data Engineer Azure
STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure
Python
6 mois
320-350 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche d’un Data Engineer Azure : Missions principales : Dans un contexte de développement et d’industrialisation de solutions Data et Machine Learning sur le cloud Azure : Ø Concevoir, développer et industrialiser des pipelines Data et ML robustes et performants Ø Transformer des prototypes Data Science en solutions industrielles exploitables Ø Contribuer aux activités projets et RUN dans un environnement agile Ø Garantir la qualité, la maintenabilité et la performance des solutions développées Ø Conception et développement de pipelines batch sous Azure Databricks Ø Utilisation avancée de : PySpark, Delta Lake, MLflow, Databricks Workflows Ø Optimisation des performances : Partitionnement des données, Gestion mémoire et Exploitation des GPU Ø Mise en œuvre de mécanismes de : Reprise sur erreur, Traçabilité, Monitoring Ø Collaboration étroite avec les Data Scientists pour industrialiser les modèles ML
Mission freelance
Devops / sysops périmètre IA (full remote) H/F
LeHibou
Publiée le
Kubernetes
Red Hat Linux
1 an
570-690 €
Paris, France
Le client est un acteur majeur du secteur bancaire. Notre travail est de mettre en place des plateformes Cloud-Native de Data Science (Domino Datalab) clé-en-main pour l’ensemble des équipes Data du groupe. À ce jour, nous avons 25 gros clients, représentant au total près de 700 Data Scientists utilisant nos plateformes. Actuellement, nous assurons l’installation, le déploiement et le support de 2 typologies de plateformes : Celles installées sur une ferme de GPUs Nvidia, installées sur des machines On-Premises, utilisables par toutes les équipes Data Science qui en font la demande Celles installées sur IBM Cloud Nous développons également des services / produits rattachés à ces plateformes : → Up & Running : Le Model Hub : Catalogue de modèles LLM utilisables dans la banque. L’AI Competency Center : Nous sommes délégués chez des clients du groupe pour sortir de terre des projets IA → En cours (et où votre accompagnement sera très bénéfique !) : Plateforme d’inférence dédiée Notre équipe est passée de 4 à 12 personnes en 2ans et nous passons à 16 cette année. Elle est séparée en 3 « mini-équipes » : Front : Assurent le développement des solutions à offrir as-as-service et l’accompagnement des utilisateurs. Automation : Assurent les déploiements, le devsecops Back : Assurent l’administration des systèmes Une équipe de DevOps pour les outils de plateformes (Vault, SSO etc...) Une équipe de SRE pour les plateformes d’infra Une équipe qui supporte le Datalake (Trino, Spark, et Minio) Notre environnement technique Plateforme de Data Science (Domino Datalab) Cloud native / Kubernetes Centric (Stateful workloads, stockage multi-AZ, GPUs, etc.) Stack Domino DataLab cloud-native dans K8s: Platform: ElasticSearch, MongoDB, RabbitMQ, Redis, PostgreSQL, etc... Environnements de Dev interactifs: (code server, Jupyterlab, Jupyter, etc.) GPUs Nvidia (A100, V100, DGX, Infiniband, etc.) Clusters de compute distribues: (Spark, ray, dask, mpi, etc.) Outils de monitoring AIOps (Prometheus, Grafana, Elastic Stack) Infrastructure: Cloud IBM (possibilité d'ouverture multi-cloud) + Bare Metal Cloud (on premise) + récemment : nous commençons à travailler avec Red Hat OpenShift AI pour le côté IA
Mission freelance
Architecte DevOps / FinOps GCP – Data & IA
Craftman data
Publiée le
DevOps
Google Cloud Platform (GCP)
MLOps
3 mois
590-700 €
Paris, France
Dans le cadre d’un programme stratégique Data & IA, nous recherchons un Architecte DevOps / FinOps avec une forte expertise GCP. Vous interviendrez sur des enjeux structurants autour de la conception et de l’industrialisation d’architectures Data & IA en environnement cloud et hybride. À ce titre, vous serez en charge de : Concevoir et mettre en œuvre des architectures data robustes et scalables Définir les standards d’architecture (Data, IA, DevOps, MLOps, Cloud) Mettre en place des pratiques de gouvernance des modèles (incluant les LLM) Encadrer les enjeux de conformité, risques et éthique liés à l’IA Structurer et diffuser les bonnes pratiques (Data, Cloud, DevOps) Intégrer une approche FinOps dès la conception des architectures Piloter la performance des pipelines data & IA Optimiser les coûts (Cloud, GPU, workloads IA) Contribuer à la mise en place de modèles de refacturation
Mission freelance
Data Engineer - Azure
CONCRETIO SERVICES
Publiée le
Databricks
PySpark
12 mois
300-400 €
Nouvelle-Aquitaine, France
Contexte Rejoignez une équipe agile SAFe pour concevoir et industrialiser des pipelines Data et ML robustes sur un environnement Azure moderne. Vous serez au cœur de la transformation des prototypes data scientists en solutions de production. Vos missions Pipelines Data & ML Développement de pipelines Batch sous Azure Databricks Utilisation avancée de PySpark, Delta Lake, MLFlow, Workflows Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring Collaboration avec les data scientists pour industrialiser leurs modèles Développement logiciel Conception de packages Python robustes et maintenables Respect des standards : qualité de code, tests unitaires, CI/CD, documentation Développement d'APIs via Azure Functions et/ou Azure Container Apps Contribution projet & RUN Participation aux phases projet : faisabilité, architecture, conception, réalisation, MEP Activités d'amélioration continue et participation aux rituels agiles
Mission freelance
[FBO] Product Owner Technique IA
ISUPPLIER
Publiée le
Docker
Large Language Model (LLM)
Openshift
3 ans
Île-de-France, France
Contexte Dans le cadre du développement et de l’industrialisation de services d’IA générative à destination de multiples entités métiers, nous recherchons un profil capable d’assurer l’ ownership technique d’un produit de type RAG as a Service . L’environnement s’inscrit au sein d’une organisation structurée autour d’une équipe d’environ 20 experts , répartis sur plusieurs pôles d’activité : Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office et Client Services . Le contexte technique comprend notamment : plus de 15 plateformes Data Science / MLOps en production , en environnements cloud et on premise ; une base de 600+ utilisateurs Data Scientists ; plusieurs infrastructures, plateformes et services d’ IA générative déjà en production ; un GRID de GPU on premise utilisé pour l’entraînement et l’inférence ; des pratiques établies de DevSecOps, GitOps, MLOps et LLMOps ; un fort niveau d’ automatisation autour des APIs d’infrastructure, des plateformes Kubernetes / OpenShift et des produits. Missions principales En tant que Technical Owner / Product Owner Technique , vous serez responsable de la cohérence technique, de la trajectoire produit et de la bonne exploitation du service. À ce titre, vos principales missions seront les suivantes : contribuer à l’ élaboration technique et fonctionnelle du produit IA qui vous sera confié, en lien étroit avec les équipes de Solutions Engineering pour la veille et l’évolution des usages, ainsi qu’avec les équipes DevSecOps pour son industrialisation ; garantir le respect des exigences de sécurité, conformité et confidentialité , ainsi que l’alignement avec les standards de production IT en matière d’ observabilité, auditabilité, traçabilité et contrôle des accès ; définir et mettre en œuvre les mécanismes techniques de gouvernance permettant aux entités utilisatrices ou à leurs équipes IT d’opérer le produit dans un cadre maîtrisé ; construire, maintenir et enrichir la feuille de route technique du produit afin d’assurer une création de valeur continue, en cohérence avec les besoins des utilisateurs et des métiers ; accompagner au quotidien les utilisateurs, interlocuteurs métiers et équipes IT , et veiller à la bonne adoption des bonnes pratiques d’usage du produit ; superviser les opérations critiques liées aux changements, déploiements et mises à jour, avec une vision de bout en bout des impacts sur les différents services gérés ; organiser et documenter la gestion des incidents , notamment via l’analyse des causes racines, la coordination inter-équipes et l’amélioration continue ; être force de proposition dans l’ optimisation des processus internes et dans l’alignement avec les autres équipes du domaine IA & Data ; représenter la relation technique avec les fournisseurs et partenaires contribuant à l’évolution du produit, qu’il s’agisse d’éditeurs, d’équipes d’industrialisation ou d’équipes d’infrastructure. Environnement technique Le poste s’inscrit dans un environnement technologique riche, comprenant notamment : Docker / Kubernetes / OpenShift frameworks de calcul distribué : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, NeMo environnements de Data Science : Python, Conda, R (optionnel) développement en Python Shell scripting MLflow / Kubeflow outils CI/CD, DevSecOps et GitOps : HashiCorp Vault, GitLab, GitLab CI, Artifactory, ArgoCD, Argo Workflows
Mission freelance
Data Engineer - Niort
Signe +
Publiée le
Azure
CI/CD
Data Lake
6 mois
350 €
Niort, Nouvelle-Aquitaine
Je cherche un profil Data ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d’une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d’erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d’amélioration continue -Participation active aux rituels agiles
Offre d'emploi
Architecte dataops
OBJECTWARE
Publiée le
Agent IA
DevOps
3 ans
Île-de-France, France
🎯 Nous recherchons un(e) Senior DevOps / Platform Engineer (Data & AI) Dans le cadre du développement d’une plateforme Data & IA stratégique, nous recherchons un profil senior DevOps / Cloud Engineer pour renforcer une équipe d’experts. 🏗️ Le projet Plateformes MLOps en production à grande échelle Environnements Cloud & On-Premise Cas d’usage autour de l’ IA générative Infrastructures critiques à forte exigence de disponibilité 🚀 Vos responsabilités Concevoir et maintenir des solutions d’automatisation avancées (IaC, CI/CD, GitOps) Assurer la stabilité et la performance des plateformes Gérer le cycle de vie des environnements (déploiement, release, migration) Participer à l’industrialisation des pratiques DevSecOps / MLOps Collaborer avec des équipes Data, Infra et Produit 🛠️ Environnement technique Kubernetes / Docker / OpenShift Cloud + On-Premise (GPU) Python / Shell GitLab CI, ArgoCD, Ansible, Vault 👤 Profil recherché Expérience confirmée en DevOps / Cloud / Kubernetes Maîtrise des outils d’automatisation et CI/CD Expérience en environnements complexes en production Autonomie, rigueur et esprit d’équipe Anglais professionnel 💡 Les + Environnement technique de pointe Projets Data & IA innovants Équipe experte et culture DevOps forte 👉 Opportunité idéale pour un profil souhaitant évoluer sur des sujets Platform Engineering & IA à grande échelle .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
21 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois