Job position LLMOPS (infra)
Share this job
Architecture & Stratégie LLMOpsIl ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.
Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.
Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.
Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.
Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).
Mettre en place des pipelines de mise à jour, de versioning et de rollback.
Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).
Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.
Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.
Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).
Définir les règles de gouvernance modèle/données pour un usage maîtrisé.
Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).
Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).
Accompagner les projets métiers exploitant l’IA générative.
Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.
Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.
Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.
Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.
À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Candidate profile
Architecture & Stratégie LLMOpsIl ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.
Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.
Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.
Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.
Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).
Mettre en place des pipelines de mise à jour, de versioning et de rollback.
Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).
Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.
Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.
Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).
Définir les règles de gouvernance modèle/données pour un usage maîtrisé.
Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).
Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).
Accompagner les projets métiers exploitant l’IA générative.
Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.
Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.
Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.
Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.
À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Working environment
Architecture & Stratégie LLMOpsIl ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.
Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.
Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.
Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.
Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).
Mettre en place des pipelines de mise à jour, de versioning et de rollback.
Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).
Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.
Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.
Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).
Définir les règles de gouvernance modèle/données pour un usage maîtrisé.
Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).
Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).
Accompagner les projets métiers exploitant l’IA générative.
Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.
Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.
Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.
Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.
À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
LLMOPS (infra)
PARTECK INGENIERIE