Job position Ingénieur Infrastructure IA H/F
Share this job
Vous travaillerez dans le cadre du déploiement et de l'exploitation d'une AI Factory à très grande échelle, reposant sur plusieurs clusters. L'AI Factory s'appuie sur des architectures de stockage haute performance capables d'alimenter efficacement des clusters GPU NVL72, avec des exigences fortes en débit, latence et parallélisme I/O. Vous êtes en charge de l'architecture, de l'optimisation et de l'évolution des infrastructures réseaux, stockage, systèmes et GPU fabrics alimentant des charges IA critiques (training, fine-tuning, inference). L'environnement est international, hautement distribué (Europe, Amérique du Nord, Asie) et orienté performance extrême, faible latence et scalabilité horizontale.
Architecture & design de la GPU Fabric :
-Concevoir et faire évoluer des architectures réseau haut débit, faible latence, adaptées aux NVL72 et aux workloads IA massivement parallèles
-Définir les topologies réseau (leaf-spine, fat-tree, dragonfly le cas échéant) pour : Interconnexion intra-NVL72, Scale-out multi-racks / multi-clusters
-Sélectionner et valider les technologies : InfiniBand HDR / NDR, Ethernet Spectrum / RoCEv2, Dimensionner les fabrics pour des usages IA à très grande échelle (NCCL-heavy, all-reduce intensif)
-Identifier et lever les goulots d'étranglement réseau, mémoire et CPU/GPU
Stockage :
-Concevoir des architectures end-to-end data -> réseau -> GPU
-Veiller à ce que le storage ne soit pas un goulot d'étranglement pour les workloads IA distribués
-Collaborer au design et à l'intégration de solutions de storage haute performance : Systèmes de fichiers parallèles (Lustre, GPFS / Spectrum Scale, BeeGFS), Object storage haute performance
-Participer à l'optimisation des I/O data (accès concurrents, cache NVMe, burst buffers)
-Assurer la cohérence GPU scheduling / accès data dans Kubernetes
Intégration Kubernetes & workloads IA :
-Concevoir l'intégration réseau de clusters GPU dans des environnements Kubernetes
-Gérer l'exposition et l'isolation des interfaces RDMA : Device Plugin, Network Operator / CNI avancés
-Garantir le bon fonctionnement des workloads conteneurisés IA : Training distribué, Jobs MPI / NCCL, Pipelines data / GPU
Candidate profile
-Formation : ingénieur ou équivalent BAC+5.
-Expérience professionnelle : Minimum 4 ans d'expérience pratique avec les technologies RDMA (GPUDirect, RoCE, InfiniBand) dans des environnements HPC ou IA.
-Solide expérience en architecture réseau HPC / IA / GPU
-Maîtrise avancée de : InfiniBand & RoCEv2, RDMA, GPUDirect, NCCL, Architectures GPU scale-up / scale-out, Appétence marquée pour les architectures de stockage haute performance, Bonne compréhension des enjeux de data locality, parallel I/O et débit massif, Capacité à raisonner performance globale : stockage / réseau / GPU / workload IA
-Bonne connaissance de : Kubernetes en contexte GPU, Linux bas niveau (NUMA, IRQ, CPU pinning)
-Capacité à diagnostiquer des problèmes complexes de performance distribuée
-Langues : français et anglais courants (écrit et oral).
Working environment
Nous recherchons actuellement un(e) Ingénieur(e) Infrastructure IA H/F pour un poste en CDI chez l'un de nos clients qui est un grand acteur de la technologie/électronique.
Apply to this job!
Find your next job from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Ingénieur Infrastructure IA H/F
OUICODING
