CAT-AMANIA

Mission freelance Machine Learning Ops

Paris

CAT-AMANIA

Le poste

Freelance
04/01/2026
1 an
400-650 €⁄j
5 à 10 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 13/12/2025

Partager cette offre

Je suis à la recherche pour un de nos clients d'un Machine Learning Ops.

Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée.

 

Expertises requises dans le cadre de la réalisation de la prestation

 

- 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production.

- Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow).

- Maîtrise de SQL pour l'accès et la manipulation des sources de données.

- Pipeline MLOps et Outils :

- Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets.

- Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker.

- Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML).

- Expertise Modèles de Langage (LLM/NLP)

- Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation.

- Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production.

- Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés

- Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop).

 

Compétences souhaitées :

 

- Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo).
- Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware).
- Techniques de Modélisation Avancées :

- Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA).
- Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models).
- Qualité et Assurance IA :

- Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).

Profil recherché

Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée.

 

Expertises requises dans le cadre de la réalisation de la prestation

 

- 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production.

- Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow).

- Maîtrise de SQL pour l'accès et la manipulation des sources de données.

- Pipeline MLOps et Outils :

- Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets.

- Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker.

- Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML).

- Expertise Modèles de Langage (LLM/NLP)

- Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation.

- Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production.

- Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés

- Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop).

 

Compétences souhaitées :

 

- Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo).
- Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware).
- Techniques de Modélisation Avancées :

- Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA).
- Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models).
- Qualité et Assurance IA :

- Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).

Environnement de travail

Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée.

 

Expertises requises dans le cadre de la réalisation de la prestation

 

- 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production.

- Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow).

- Maîtrise de SQL pour l'accès et la manipulation des sources de données.

- Pipeline MLOps et Outils :

- Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets.

- Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker.

- Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML).

- Expertise Modèles de Langage (LLM/NLP)

- Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation.

- Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production.

- Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés

- Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop).

 

Compétences souhaitées :

 

- Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo).
- Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware).
- Techniques de Modélisation Avancées :

- Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA).
- Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models).
- Qualité et Assurance IA :

- Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).

Saint-Herblain, Pays de la Loire
> 1 000 salariés
ESN
Créée en 1999, CAT-AMANIA fait partie des ESN dynamiques et innovantes qui s’appuie sur ses expertises métiers, techniques et méthodologiques pour accompagner ses clients dans leur transformation digitale. Aujourd’hui CAT-AMANIA c’est : 71 millions d’€ de chiffre d’affaires, 950 collaborateurs répartis sur 18 agences en France et à l’international. Construire ensemble pour mieux grandir Portée par ses valeurs de Joie, de Confiance, d’Audace, de Persévérance et de Respect, notre entreprise souhaite les partager avec vous dans la réussite de projets communs. Cat-Amania s'engage à assurer la diversité de ses équipes et à créer un environnement de travail inclusif. Nous accueillons toutes les candidatures sans distinction d'âge, de genre, d'origine, d'orientation sexuelle, de croyance religieuse ou de handicap.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +9 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Machine Learning Ops

CAT-AMANIA

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous