CAT-AMANIA

Contractor job Machine Learning Ops

Paris

CAT-AMANIA

Job position

Contractor
04/01/2026
1 year
400-650 €
5 to 10 years experience
Hybrid
Paris, France
Published on 13/12/2025

Share this job

Je suis à la recherche pour un de nos clients d'un Machine Learning Ops.

Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée.

 

Expertises requises dans le cadre de la réalisation de la prestation

 

- 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production.

- Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow).

- Maîtrise de SQL pour l'accès et la manipulation des sources de données.

- Pipeline MLOps et Outils :

- Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets.

- Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker.

- Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML).

- Expertise Modèles de Langage (LLM/NLP)

- Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation.

- Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production.

- Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés

- Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop).

 

Compétences souhaitées :

 

- Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo).
- Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware).
- Techniques de Modélisation Avancées :

- Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA).
- Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models).
- Qualité et Assurance IA :

- Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).

Candidate profile

Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée.

 

Expertises requises dans le cadre de la réalisation de la prestation

 

- 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production.

- Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow).

- Maîtrise de SQL pour l'accès et la manipulation des sources de données.

- Pipeline MLOps et Outils :

- Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets.

- Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker.

- Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML).

- Expertise Modèles de Langage (LLM/NLP)

- Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation.

- Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production.

- Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés

- Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop).

 

Compétences souhaitées :

 

- Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo).
- Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware).
- Techniques de Modélisation Avancées :

- Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA).
- Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models).
- Qualité et Assurance IA :

- Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).

Working environment

Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée.

 

Expertises requises dans le cadre de la réalisation de la prestation

 

- 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production.

- Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow).

- Maîtrise de SQL pour l'accès et la manipulation des sources de données.

- Pipeline MLOps et Outils :

- Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets.

- Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker.

- Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML).

- Expertise Modèles de Langage (LLM/NLP)

- Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation.

- Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production.

- Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés

- Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop).

 

Compétences souhaitées :

 

- Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo).
- Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware).
- Techniques de Modélisation Avancées :

- Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA).
- Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models).
- Qualité et Assurance IA :

- Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).

Saint-Herblain, Pays de la Loire
> 1000 employees
IT services
Créée en 1999, CAT-AMANIA fait partie des ESN dynamiques et innovantes qui s’appuie sur ses expertises métiers, techniques et méthodologiques pour accompagner ses clients dans leur transformation digitale. Aujourd’hui CAT-AMANIA c’est : 71 millions d’€ de chiffre d’affaires, 950 collaborateurs répartis sur 18 agences en France et à l’international. Construire ensemble pour mieux grandir Portée par ses valeurs de Joie, de Confiance, d’Audace, de Persévérance et de Respect, notre entreprise souhaite les partager avec vous dans la réussite de projets communs. Cat-Amania s'engage à assurer la diversité de ses équipes et à créer un environnement de travail inclusif. Nous accueillons toutes les candidatures sans distinction d'âge, de genre, d'origine, d'orientation sexuelle, de croyance religieuse ou de handicap.

Apply to this job!

Find your next career move from +10,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Machine Learning Ops

CAT-AMANIA

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us