PARTECK INGENIERIE

Contractor job LLMOPS (infra)

Paris

PARTECK INGENIERIE

Job position

Contractor
As soon as possible
12 months
400-550 €
2 to 5 years experience
Hybrid
Paris, France
Published on 27/11/2025

Share this job

Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.

Architecture & Stratégie LLMOps
  • Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.

  • Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.

Déploiement & Exploitation des modèles
  • Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.

  • Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).

  • Mettre en place des pipelines de mise à jour, de versioning et de rollback.

Observabilité & Performance
  • Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).

  • Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.

Sécurité, conformité & gouvernance
  • Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.

  • Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).

  • Définir les règles de gouvernance modèle/données pour un usage maîtrisé.

Support & Acculturation interne
  • Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).

  • Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).

  • Accompagner les projets métiers exploitant l’IA générative.

Compétences techniques
  • Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.

  • Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.

  • Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.

  • Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.

  • À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU

Candidate profile

Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.

Architecture & Stratégie LLMOps
  • Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.

  • Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.

Déploiement & Exploitation des modèles
  • Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.

  • Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).

  • Mettre en place des pipelines de mise à jour, de versioning et de rollback.

Observabilité & Performance
  • Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).

  • Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.

Sécurité, conformité & gouvernance
  • Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.

  • Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).

  • Définir les règles de gouvernance modèle/données pour un usage maîtrisé.

Support & Acculturation interne
  • Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).

  • Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).

  • Accompagner les projets métiers exploitant l’IA générative.

Compétences techniques
  • Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.

  • Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.

  • Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.

  • Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.

  • À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU

Working environment

Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.

Architecture & Stratégie LLMOps
  • Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.

  • Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.

Déploiement & Exploitation des modèles
  • Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.

  • Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).

  • Mettre en place des pipelines de mise à jour, de versioning et de rollback.

Observabilité & Performance
  • Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).

  • Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.

Sécurité, conformité & gouvernance
  • Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.

  • Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).

  • Définir les règles de gouvernance modèle/données pour un usage maîtrisé.

Support & Acculturation interne
  • Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).

  • Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).

  • Accompagner les projets métiers exploitant l’IA générative.

Compétences techniques
  • Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.

  • Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.

  • Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.

  • Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.

  • À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU

Paris, France
20 - 99 employees
Head hunter
PARTECK Ingénierie (90 personnes) est une SSII crée par des Ingénieurs commerciaux et spécialisée dans la délégation et le recrutement de personnel. Nous avons mis au point des outils qui permettent une prospection et une approche client extrêmement qualitative.

Apply to this job!

Find your next career move from +10,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

LLMOPS (infra)

PARTECK INGENIERIE

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us