PARTECK INGENIERIE

Mission freelance LLMOPS (infra)

Paris

PARTECK INGENIERIE

Le poste

Freelance
Dès que possible
12 mois
400-550 €⁄j
2 à 5 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 27/11/2025

Partager cette offre

Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.

Architecture & Stratégie LLMOps
  • Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.

  • Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.

Déploiement & Exploitation des modèles
  • Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.

  • Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).

  • Mettre en place des pipelines de mise à jour, de versioning et de rollback.

Observabilité & Performance
  • Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).

  • Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.

Sécurité, conformité & gouvernance
  • Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.

  • Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).

  • Définir les règles de gouvernance modèle/données pour un usage maîtrisé.

Support & Acculturation interne
  • Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).

  • Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).

  • Accompagner les projets métiers exploitant l’IA générative.

Compétences techniques
  • Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.

  • Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.

  • Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.

  • Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.

  • À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU

Profil recherché

Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.

Architecture & Stratégie LLMOps
  • Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.

  • Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.

Déploiement & Exploitation des modèles
  • Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.

  • Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).

  • Mettre en place des pipelines de mise à jour, de versioning et de rollback.

Observabilité & Performance
  • Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).

  • Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.

Sécurité, conformité & gouvernance
  • Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.

  • Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).

  • Définir les règles de gouvernance modèle/données pour un usage maîtrisé.

Support & Acculturation interne
  • Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).

  • Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).

  • Accompagner les projets métiers exploitant l’IA générative.

Compétences techniques
  • Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.

  • Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.

  • Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.

  • Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.

  • À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU

Environnement de travail

Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste.
Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM.

Architecture & Stratégie LLMOps
  • Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM.

  • Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant.

Déploiement & Exploitation des modèles
  • Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés.

  • Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence).

  • Mettre en place des pipelines de mise à jour, de versioning et de rollback.

Observabilité & Performance
  • Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence).

  • Garantir des performances stables et optimiser en continu l’inférence et les workflows associés.

Sécurité, conformité & gouvernance
  • Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints.

  • Veiller à la conformité (RGPD, confidentialité, accès, auditabilité).

  • Définir les règles de gouvernance modèle/données pour un usage maîtrisé.

Support & Acculturation interne
  • Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines).

  • Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations).

  • Accompagner les projets métiers exploitant l’IA générative.

Compétences techniques
  • Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité.

  • Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence.

  • Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises.

  • Connaissances avancées en sécurité cloud & data, gestion des accès, compliance.

  • À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU

Paris, France
20 - 99 salariés
Sourcing / chasseur de têtes
PARTECK Ingénierie (90 personnes) est une SSII crée par des Ingénieurs commerciaux et spécialisée dans la délégation et le recrutement de personnel. Nous avons mis au point des outils qui permettent une prospection et une approche client extrêmement qualitative.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +9 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

LLMOPS (infra)

PARTECK INGENIERIE

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous