Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 98 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist / ML Engineer IA Générative (Data & IA) -(F/H)

AVA2I
Publiée le
Data science
Docker
IA Générative

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Data Scientist / ML Engineer spécialisé en IA Générative et Agentic AI pour intégrer l’équipe Data & IA . Vous interviendrez sur la conception, l’entraînement et le déploiement de solutions d’IA avancées visant à optimiser des processus métier critiques : analyse de documents, support aux traders, automatisation de workflows, conformité réglementaire et reporting. Missions principales 1. Modélisation & Machine Learning Développer des modèles de Machine Learning avancés en Python pour des cas d’usage bancaires : fraude, scoring, gestion et anticipation des risques. Préparer, nettoyer et transformer des données structurées et non structurées (logs, documents réglementaires, rapports, données métiers). 2. Large Language Models (LLM) Fine-tuning et intégration de LLM industriels (GPT-4/5, LLaMA, Mistral…). Conception et implémentation de pipelines RAG (Retrieval-Augmented Generation) pour un accès contextualisé aux données internes (politiques internes, réglementations, Knowledge Base). Mise en œuvre de prompting avancé et d’architectures adaptées aux besoins CIB . 3. Agentic AI Prototyper et déployer des agents autonomes capables d’interagir avec : APIs internes Workflows Services bancaires (ex. assistant trader, extraction d’informations réglementaires). Orchestration de tâches complexes via des frameworks tels que : LangChain, LangGraph, AutoGPT . 4. Production & Industrialisation Packager et déployer les modèles en production : Docker API REST / GraphQL Environnements cloud privé ou hybride Collaboration avec les équipes MLOps, Cloud et Sécurité pour garantir : Scalabilité Monitoring & observabilité Respect des contraintes réglementaires. 5.Gouvernance & Compliance IA Garantir l’application des règles internes d’ Ethics & Compliance liées à l’IA. Mise en place de tests de : Robustesse Biais Traçabilité et explicabilité des modèles. Profil recherché Formation supérieure en Data Science, IA ou Informatique Solide expérience en Machine Learning et IA Générative Excellente maîtrise de Python Bonne connaissance des environnements bancaires / financiers appréciée Capacité à travailler sur des sujets à forte valeur métier et forte exigence réglementaire
Freelance

Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

1 an
400-550 €
Île-de-France, France
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Freelance
CDI

Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
47k-97k €
330-500 €
Paris, France
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure / Ops

VISIAN
Publiée le
Azure
Azure Data Factory
Python

2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL

1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
CDI
Freelance

Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client

SMILE
Publiée le
Data analysis
Transformation digitale

3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Freelance

Mission freelance
Platform engineer : PYTHON Azure + de 9 ans XP

Codezys
Publiée le
Azure
Azure DevOps Services
Databricks

12 mois
490-550 €
Niort, Nouvelle-Aquitaine
Notre plateforme data science sur Azure est en construction. Le platform engineer a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. Les missions de l'équipe sont : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers Objectifs et livrables La Société devra fournir les prestations suivantes : En tant que platform engineer sur notre plateforme CLAUD.IA. Assurer un rôle de : - concepteur et de développeur de pipelines CI/CD Data et Machine Learning mise en œuvre dans le cycle de vie des produits data science - concepteur et de développeur de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists
CDI
Freelance
CDD

Offre d'emploi
ML Ops

WINSIDE Technology
Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps

12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
CDI

Offre d'emploi
Développement Back-End Python

CAT-AMANIA
Publiée le
PostgreSQL
Python

40k-45k €
Île-de-France, France
Conception, développement et maintenance des applications back-end robustes en Python, tout en intégrant des fonctionnalités liées à l’IA (Machine Learning, API IA, pipelines de données). Cette mission inclut la mise en production de services performants, sécurisés et évolutifs, en collaboration avec les équipes Data Scientist et IA. - Développement des API et des services back-end en Python - Intégration des modèles IA ou des services d’IA (API, microservices) dans les applications - Conception et maintenance des pipelines de données pour l’entraînement et l’inférence - Assurance de la qualité du code (tests unitaires, intégration continue) - Participation à la mise en place de CI/CD et à l’industrialisation des solutions IA - Collaboration avec les Data Scientists pour transformer les prototypes en solutions scalables - Respect des normes de sécurité et de conformité - Programmation orientée objet et des principes SOLID. - Langages : Python (avancée) - Frameworks Back-End : FastAPI (ou équivalent) - Bases de données : PostgreSQL, MongoDB, ElasticSearch - Outils DevOps : Docker, Git, CI/CD - Cloud : Kubernetes - IA / ML : concepts fondamentaux (classification, NLP, vision), et des frameworks comme TensorFlow ou PyTorch - Pratiques MLOps (monitoring, retraining) - Pratiques de DataEngineer (frameworks PANDAS et POLARS)
Freelance

Mission freelance
INGENIEUR MLOps

HAYS France
Publiée le
Ansible
Apache Airflow
Cloud

3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Freelance

Mission freelance
ML Platform Engineer Data - Azure(Niort)

Cherry Pick
Publiée le
Azure AI
Azure Data Factory
Azure Synapse

12 mois
550-600 €
Niort, Nouvelle-Aquitaine
La plateforme vise à industrialiser les usages Data et Machine Learning et à accompagner les directions métiers dans leurs expérimentations et produits data science. Le Platform Engineer intervient sur deux axes majeurs : le déploiement de l’infrastructure as code sur le cloud Azure le développement et l’industrialisation de pipelines CI/CD pour les usages Data Science Missions de l’équipe plateforme Assurer le maintien en condition opérationnelle , l’ évolutivité et la maîtrise technique de la plateforme Azure. Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et produits industriels Fournir un support fonctionnel et technique aux équipes métiers
Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Freelance

Mission freelance
expert moteur de recherche (H/F)

Link Consulting
Publiée le
Elasticsearch

6 mois
500-600 €
Saint-Denis
Notre client du domaine de l’audiovisuel est à la recherche de son futur Expert Moteur de Recherche (H/F) pour son site en Seine-Saint-Denis, en raison du développement et de l’industrialisation de ses solutions de recherche de données au sein de son data lake. Vos missions : Intégré à une équipe data et plateforme technique pluridisciplinaire, vous devrez : \- Étudier, concevoir et développer les traitements de recherche de données dans le lac de données \- Industrialiser l’intégration, le déploiement et l’exploitation des moteurs de recherche, en garantissant leur scalabilité, résilience et haute disponibilité \- Participer aux ateliers de recueil des besoins avec les équipes techniques (data lake) et fonctionnelles (IA, applications web, applications internes) Les compétences techniques Moteurs de recherche : ElasticSearch, Exalead, SolR Solutions de recherche vectorielle et hybride Technologies de stockage et bases de données : Redis, PostgreSQL, MongoDB, ElasticSearch Outils de logs : Graylog Supervision et métriques : Prometheus Visualisation : Grafana Langage : Python Expertise en recherche vectorielle et hybride Maîtrise d’ElasticSearch et des moteurs de recherche Expérience sur les algorithmes de calcul vectoriel Maîtrise des technologies de stockage des données Connaissances Data Scientist et compréhension des enjeux Intelligence Artificielle
CDI

Offre d'emploi
Développeur Full Stack IA (H/F)

Big Apps
Publiée le
Angular
AWS Cloud
Azure

Paris, France
Pour le compte d’un acteur public , nous recherchons un Développeur Full Stack IA afin d’intervenir au sein d’une usine IA interne en forte croissance . Objectif du poste Concevoir et déployer des solutions métiers intelligentes de bout en bout , contribuant directement à la performance de l’action publique, dans un environnement agile et innovant . Au sein d’une équipe pluridisciplinaire (Data Scientists, Data Engineers, Architectes), vous interviendrez sur l’ensemble de la chaîne de valeur : Développement Front-end Interfaces web modernes et responsives (React, Vue.js, Angular) Attention particulière à l’UX/UI et à l’accessibilité Développement Back-end Conception d’API REST / GraphQL (Node.js, Python – FastAPI/Flask, Java) Intégration de micro-services exposant des modèles IA Intégration IA Industrialisation de modèles IA (ML, Deep Learning, GenAI) Connexion à des API IA (OpenAI, Hugging Face…) Architecture & DevOps Déploiement Cloud & on-premise (AWS, GCP, Azure, Outscale) CI/CD, Docker, Kubernetes, Infrastructure as Code Qualité & Sécurité Tests automatisés, monitoring, performance Bonnes pratiques de sécurité (OWASP, IAM, chiffrement) Profil recherché Formation Bac+5 (informatique, développement logiciel ou équivalent) Minimum 3 ans d’expérience en développement Full Stack Solide culture IA / Data / Cloud À l’aise en environnement Agile Autonome, curieux(se), force de proposition
Freelance

Mission freelance
Ingénieur Machine Learning (MLOps)

JobiStart
Publiée le
Machine Learning

3 ans
400-550 €
Paris, France
Vous assurez le pont entre la recherche en Data Science et la mise en production des modèles prédictifs. Votre mission principale consiste à industrialiser les pipelines de Machine Learning pour garantir leur robustesse, leur répétabilité et leur scalabilité. Vous mettez en place des chaînes de CI/CD spécifiques au ML (MLOps) incluant le versioning des données, des modèles et du code. Vous développez des outils de monitoring pour détecter la dérive des données (data drift) et la baisse de performance des modèles en production. Vous travaillez sur l'optimisation des infrastructures de calcul (GPU/CPU), la conteneurisation des modèles (Docker/Kubernetes) et l'exposition via des micro-services performants. Expert technique, vous collaborez avec les Data Scientists pour optimiser les algorithmes et avec les équipes Infra pour garantir une intégration fluide dans l'écosystème Cloud ou On-premise de la banque.
98 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous