Le poste LLMOPS (infra)
Partager cette offre
Architecture & Stratégie LLMOpsIl ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.
Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.
Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.
Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.
Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).
Mettre en place des pipelines de mise à jour, de versioning et de rollback.
Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).
Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.
Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.
Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).
Définir les règles de gouvernance modèle/données pour un usage maîtrisé.
Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).
Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).
Accompagner les projets métiers exploitant l’IA générative.
Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.
Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.
Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.
Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.
À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Profil recherché
Architecture & Stratégie LLMOpsIl ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.
Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.
Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.
Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.
Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).
Mettre en place des pipelines de mise à jour, de versioning et de rollback.
Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).
Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.
Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.
Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).
Définir les règles de gouvernance modèle/données pour un usage maîtrisé.
Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).
Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).
Accompagner les projets métiers exploitant l’IA générative.
Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.
Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.
Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.
Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.
À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Environnement de travail
Architecture & Stratégie LLMOpsIl ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.
Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.
Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.
Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.
Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).
Mettre en place des pipelines de mise à jour, de versioning et de rollback.
Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).
Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.
Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.
Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).
Définir les règles de gouvernance modèle/données pour un usage maîtrisé.
Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).
Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).
Accompagner les projets métiers exploitant l’IA générative.
Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.
Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.
Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.
Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.
À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
LLMOPS (infra)
PARTECK INGENIERIE