Trouvez votre prochaine offre d’emploi ou de mission freelance GPU à Paris

Votre recherche renvoie 8 résultats.
Freelance

Mission freelance
[FBO] Ingénieur DevOps - Orchestration GPU - Paris - 1264

ISUPPLIER
Publiée le

10 mois
400-475 €
Paris, France
Secteur bancaire. Résumé Compétences techniques requises Orchestration GPU : Expérience avec des solutions d'orchestration GPU (Run.ai, ClearML, Volcano...) Containerisation : Docker, Kubernetes, OpenShift (5+ ans) Infrastructure : OpenShift, infrastructure on-premise, notions AWS/GCP Automatisation : GitLab CI/CD, Jenkins, Kestra est un + Monitoring : Prometheus, Grafana, ELK Stack Scripting : Python, Bash, Go est un + Compétences souhaitées : Expérience avec Run.ai ou KAI Scheduler serait un plus Expérience et intérêt à la gestion de plateforme en production (MCO/MCS) Connaissance des architectures IA/ML et des frameworks (Transformers, TensorFlow, PyTorch) Expérience en environnement bancaire ou secteur régulé Certification Kubernetes (CKA/CKAD) ou Openshift serait un plus Maîtrise des outils Atlassian (Jira, Wiki) Maitrise de l’agilité Soft skills Autonomie et proactivité dans un environnement complexe Capacité à travailler en équipe pluridisciplinaire Excellent relationnel pour accompagner les utilisateurs métier Rigueur et respect des procédures de sécurité Expérience : expérimenté ou + • Les astreintes (HNO, etc…) : oui • La possibilité de renouvellement : Oui • Type de besoin : nouvelle position • Type de projet (support / maintenance / implementation /…) : Implémentation • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
CDI
CDD

Offre d'emploi
Administrateur Infrastructure (Dell / Nvidia / Data Center)

Halian
Publiée le
Administration linux
BMC Remedy
GPU

5 ans
Paris, France
Résumé du poste L’Administrateur Infrastructure est chargé d’assurer la gestion, la surveillance et la maintenance d’une infrastructure composée de serveurs Dell, d’équipements GPU Nvidia et de solutions de refroidissement et d’alimentation en Data Center. Il/Elle veille au bon fonctionnement opérationnel des systèmes, prend en charge la gestion des changements, résout les incidents complexes et accompagne les équipes grâce au transfert de connaissances et aux bonnes pratiques techniques. Responsabilités du poste Administration & Supervision Administrer et surveiller les serveurs Dell PowerEdge (séries R/XE) et l’infrastructure associée (Nvidia, Vertiv). Gérer les demandes utilisateurs et assurer le support quotidien. Analyser les logs et produire des rapports opérationnels réguliers. Gestion des changements et des problèmes Participer aux processus de Change Management : préparation, documentation, suivi et mise en œuvre. Assurer un support post‑déploiement et valider la conformité des changements. Identifier les causes racines des incidents et proposer des actions correctives. Évaluer les risques liés aux changements et formuler des recommandations. Support technique & Connaissance Participer à l’amélioration continue de l’infrastructure. Fournir des sessions de transfert de connaissances pour combler les lacunes techniques du client ou des équipes internes. Proposer des recommandations technologiques adaptées aux besoins. Environnement Data Center Intervenir en Data Center : installation, dépannage, diagnostic matériel. Collaborer avec les équipes énergie et refroidissement. Appliquer les règles de sécurité électrique et environnementale. 3. Profil du candidat Compétences techniques Maîtrise des serveurs Dell PowerEdge (R/XE). Connaissances des architectures GPU : configuration, monitoring, performances, NVLink, Infinity Fabric. Connaissances de base de Nvidia Bright Cluster Manager (BCM). Expérience Linux (Ubuntu) : installation, durcissement, mises à jour, troubleshooting. Compréhension des technologies de refroidissement (CDU, Rear Door Heat Exchanger). Expérience en environnement Data Center de grande envergure. Compétences personnelles Forte capacité d’analyse et de résolution de problèmes. Rigueur, organisation et autonomie. Capacité à travailler dans un environnement technique exigeant. Bonnes compétences de communication et esprit de collaboration. Sens du service et orientation client. Qualifications Certification électrique H0B0 obligatoire pour intervenir en France. Toute certification système, serveur ou Data Center est un plus.
Freelance
CDI

Offre d'emploi
Product Manager IaaS / 3D Studio VDI

R&S TELECOM
Publiée le
3D
GPU
IaaS (Infrastructure-as-a-Service)

12 mois
40k-48k €
400-480 €
Paris, France
Product Manager IaaS / 3D Studio VDI Titre de la Mission : Product Manager – Définition de la Roadmap Produit IaaS pour Studios Créatifs (3D Studio VDI) Contexte & Objectif de la Mission Client développe une offre IaaS (Infrastructure as a Service) dédiée aux studios de création 3D, intégrant des postes de travail virtuels (VDI) haute performance, des capacités de rendu GPU/CPU et une console de gestion « white-label » pour ses partenaires distributeurs. Nous recherchons un Product Manager freelance pour mener une phase de discovery approfondie et définir la roadmap stratégique de ce produit. La mission a pour objectif principal de valider les hypothèses du PRD existant, de prioriser les fonctionnalités fondatrices et de livrer un plan de mise sur le marché concret et aligné avec nos ambitions business. Direct_hit: Livrables Principaux Attendus À l’issue des 3 mois, le/la Product Manager aura fourni : Document de Vision Produit révisé et aligné avec les objectifs stratégiques de Client et les retours terrain. Roadmap Produit priorisée (horizon 6 à 18 mois) avec une définition claire du périmètre MVP. Backlog priorisé et détaillé pour le MVP, incluant les épics et user stories clés pour les modules critiques (Console partenaire, Gestion des tenants, Stockage, VDI). Plan de Go-to-Market (GTM) initial et recommandations pour les pilotes avec partenaires. Présentation synthétique des insights de la phase discovery et des recommandations stratégiques au comité de direction. Search: Phases Clés de la Mission Phase 1 – Discovery & Immersion Analyse du PRD existant et des études marché internes. Interviews des parties prenantes internes (Product, CTO, équipes commerciales, ingénierie, sécurité). Échanges avec les partenaires identifiés (ex : Orio, Progiss) et études des retours early adopters. Analyse de la concurrence (Hyperscalers, acteurs spécialisés) et identification des gaps. Affinage des personas (Admin Partenaire, Admin Studio, Artiste) et de leurs parcours utilisateurs. Phase 2 – Stratégie Produit & Priorisation Formalisation de la vision produit et des objectifs mesurables (OKRs). Priorisation des fonctionnalités à l'aide de frameworks (RICE, Value vs. Effort) en lien avec les contraintes techniques et business. Définition détaillée du scope du MVP et des jalons post-MVP. Rédaction des spécifications fonctionnelles de premier niveau pour les briques critiques. Phase 3 – Roadmap & Recommandations Construction de la roadmap visuelle et argumentée. Élaboration de propositions concrètes pour le modèle de pricing, le GTM et les partenariats. Présentation et alignement avec l'équipe dirigeante. Rédaction du guide de transition pour l'équipe produit interne.
CDI

Offre d'emploi
Ingénieur Infrastructure IA H/F

OUICODING
Publiée le

35k-60k €
Paris, Île-de-France
Vous travaillerez dans le cadre du déploiement et de l'exploitation d'une AI Factory à très grande échelle, reposant sur plusieurs clusters. L'AI Factory s'appuie sur des architectures de stockage haute performance capables d'alimenter efficacement des clusters GPU NVL72, avec des exigences fortes en débit, latence et parallélisme I/O. Vous êtes en charge de l'architecture, de l'optimisation et de l'évolution des infrastructures réseaux, stockage, systèmes et GPU fabrics alimentant des charges IA critiques (training, fine-tuning, inference). L'environnement est international, hautement distribué (Europe, Amérique du Nord, Asie) et orienté performance extrême, faible latence et scalabilité horizontale. Architecture & design de la GPU Fabric : -Concevoir et faire évoluer des architectures réseau haut débit, faible latence, adaptées aux NVL72 et aux workloads IA massivement parallèles -Définir les topologies réseau (leaf-spine, fat-tree, dragonfly le cas échéant) pour : Interconnexion intra-NVL72, Scale-out multi-racks / multi-clusters -Sélectionner et valider les technologies : InfiniBand HDR / NDR, Ethernet Spectrum / RoCEv2, Dimensionner les fabrics pour des usages IA à très grande échelle (NCCL-heavy, all-reduce intensif) -Identifier et lever les goulots d'étranglement réseau, mémoire et CPU/GPU Stockage : -Concevoir des architectures end-to-end data -> réseau -> GPU -Veiller à ce que le storage ne soit pas un goulot d'étranglement pour les workloads IA distribués -Collaborer au design et à l'intégration de solutions de storage haute performance : Systèmes de fichiers parallèles (Lustre, GPFS / Spectrum Scale, BeeGFS), Object storage haute performance -Participer à l'optimisation des I/O data (accès concurrents, cache NVMe, burst buffers) -Assurer la cohérence GPU scheduling / accès data dans Kubernetes Intégration Kubernetes & workloads IA : -Concevoir l'intégration réseau de clusters GPU dans des environnements Kubernetes -Gérer l'exposition et l'isolation des interfaces RDMA : Device Plugin, Network Operator / CNI avancés -Garantir le bon fonctionnement des workloads conteneurisés IA : Training distribué, Jobs MPI / NCCL, Pipelines data / GPU
CDI

Offre d'emploi
Administrateur Systèmes et réseaux H/F

OUICODING
Publiée le

35k-50k €
Paris, Île-de-France
Vous travaillerez dans le cadre du déploiement et de l'exploitation d'une AI Factory à très grande échelle, reposant sur plusieurs clusters. Vous serez en charge de l'architecture, de l'optimisation et de l'évolution des infrastructures réseaux, systèmes et GPU fabrics alimentant des charges IA critiques (training, fine-tuning, inference). L'environnement est international, hautement distribué (Europe, Amérique du Nord, Asie) et orienté performance extrême, faible latence et scalabilité horizontale. Architecture & design de la GPU Fabric : -Concevoir et faire évoluer des architectures réseau haut débit, faible latence, adaptées aux NVL72 et aux workloads IA massivement parallèles -Définir les topologies réseau (leaf-spine, fat-tree, dragonfly le cas échéant) pour : Interconnexion intra-NVL72, Scale-out multi-racks / multi-clusters -Sélectionner et valider les technologies : InfiniBand HDR / NDR, Ethernet Spectrum / RoCEv2, Dimensionner les fabrics pour des usages IA à très grande échelle (NCCL-heavy, all-reduce intensif) Performance, RDMA & communications GPU : -Piloter le développement, l'optimisation et le tuning des communications RDMA -Piles RDMA : libibverbs, rdma-core, NVPeerMemory -Optimisations GPUDirect / GPUDirect-RDMA -Garantir des transferts GPU / GPU et GPU / NIC à très haute performance, sans surcharge CPU -Optimiser les communications collectives : NCCL, MPI / CUDA-aware MPI, Identifier et lever les goulots d'étranglement réseau, mémoire et CPU/GPU. Intégration Kubernetes & workloads IA : -Concevoir l'intégration réseau de clusters GPU dans des environnements Kubernetes -Gérer l'exposition et l'isolation des interfaces RDMA : Device Plugin, Network Operator / CNI avancés -Garantir le bon fonctionnement des workloads conteneurisés IA : Training distribué, Jobs MPI / NCCL, Pipelines data GPU Exploitation, observabilité & troubleshooting : -Mettre en place et exploiter des solutions de monitoring avancé : Latence, bande passante, congestion, erreurs -Outils : Prometheus, Grafana, NetQ, UFM (ou équivalents) -Analyser les performances réseau et GPU fabric en production -Proposer et implémenter : Ajustements MTU, Affinités CPU/GPU, Tuning NIC, switch et firmware -Assurer le support niveau 2/3 sur incidents critiques
Freelance

Mission freelance
Expert DevOps Cloud IA/HPC/AWS

Cherry Pick
Publiée le
AWS Cloud
Docker
Gitlab

12 mois
750-800 €
Paris, France
Notre client recherche un expert DevOps cloud qui sera intégré à une équipe ML Platform de haut niveau (chercheurs et ML Engineers) au sein d'un acteur majeur de la finance. L'objectif est de gérer la puissance de calcul ( GPU/FLOPs ) et d'industrialiser les environnements de recherche. Missions : Ingénierie du Compute & GPU Orchestrer et optimiser la puissance de calcul ( FLOPs ) mise à disposition des chercheurs. Gérer les défis liés à la stack IA sous Docker : optimisation d'images lourdes (plusieurs Go), réduction du Cold Start et configuration avancée des drivers GPU/NVIDIA. Collaborer avec les équipes SRE et Cloud transverses pour la consommation des ressources (environnement avec VPC managé). 2. Architecture Cloud Hybride & FinOps Piloter les outils d'interface permettant de basculer les calculs vers le Cloud public ( AWS ) pour gérer les pics de charge. Instaurer une culture FinOps : monitoring précis de la consommation GPU et optimisation des ressources pour garantir un ROI maximal. 3. Gouvernance et Sécurisation de la donnée Concevoir un circuit de validation automatisé pour l'export sécurisé de données propriétaires. Développer des CI/CD sécurisées capables d'analyser les dépôts de code et de gérer finement les droits d'exposition des données. Créer des environnements "Sandbox" (POC) agiles pour les besoins externes tout en maintenant l'étanchéité des assets critiques. 4. Leadership & Cadrage Technique Apporter une structure "Ops" aux travaux de recherche tout en respectant la flexibilité nécessaire aux chercheurs. Prendre du recul technique pour traiter le legacy et industrialiser les processus.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps Confirmé / Senior (H/F)

QODEXIA
Publiée le
CI/CD
Docker
Jenkins

10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Nous sommes à la recherche d’un Ingénieur DevOps confirmé / senior (Environnement bancaire ) , disposant d’une forte expertise GPU, orchestration, monitoring et plateformes data / IA, pour intervenir dans un environnement bancaire fortement régulé.
Freelance
CDI

Offre d'emploi
Developpeur Python/MLOPS

VISIAN
Publiée le
Apache Airflow
Deep Learning
FastAPI

2 ans
51k-101k €
400-700 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Développeur Python/MLOPS Tâches: Développer et optimiser des API (REST) en Python (FastAPI). Concevoir et maintenir des bases de données (PostgreSQL principalement) pour des requêtes performantes. Collaborer avec les équipes DevOps pour automatiser les déploiements (Docker, CI/CD). Intégrer des tests automatisés (pytest) et participer aux revues de code. Contribuer à l’amélioration continue de l’architecture back-end. Assurer la maintenance de la stack d’outils de l’équipe et notamment : Participer à rendre les algorithme IA compatible d’architecture GPU blackwell Mettre à jour les dépendances de note codebase (python, CUDA) Participer au développement de nos outils de MLOps en général
8 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous