Trouvez votre prochaine offre d’emploi ou de mission freelance MLOps

Offre d'emploi
Chef de Projet technique IA/MLOPS
Bonjour, Dans le cadre de ses projets clients Visian est à la recherche d'un Chef de Projet IA/MLOPS Tâches: - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité). Livrables 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia

Offre d'emploi
MLOps Engineer (H/F) (Bordeaux)
Skiils recrute un(e) Data / IA Engineer confirmé(e) (H/F) pour rejoindre le pôle IT Data et mettre ses compétences au service de l’IA chez Peaksys ! Au sein d’une équipe agile et innovante, tu participeras à la mise en place et à l’industrialisation des solutions IA , tout en proposant des architectures techniques performantes et évolutives. En tant que tel(le), ton rôle consistera à : Déployer et automatiser les processus MLOps , garantissant un cycle de vie efficace pour les modèles IA. Mettre en place la plateforme IA et les outils d’aide au développement et de monitoring. Proposer des architectures techniques robustes , en appliquant les principes d’Agilité, d’intégration continue et de déploiement continu, tout en anticipant les besoins de scalabilité. Contribuer à la réduction des coûts dans une démarche FinOps , en optimisant l’usage des ressources cloud et outils IA. Effectuer une veille technologique sur les architectures data et IA pour maintenir l’équipe à la pointe de l’innovation. Ton environnement Tu évolueras au sein d’une équipe Data et IA, agile et collaborative, sur des projets stratégiques liés au développement et à l’industrialisation des modèles IA.

Offre d'emploi
Ingénieur MLOPs DevOps H/F
Nous recherchons un Ingénieur MLOPs DevOps , vous rejoindrez l’équipe en charge du développement et de la mise en production de modèles prédictifs stratégiques pour l’entreprise. Votre rôle consistera à concevoir et maintenir des infrastructures fiables, scalables et sécurisées pour supporter les activités de data science. Vous serez responsable de l’automatisation des déploiements via des pipelines CI/CD, du développement de scripts et d’outils en Python, et de l’orchestration d’applications dans des environnements Kubernetes. Vous travaillerez en étroite collaboration avec les data scientists et data engineers pour industrialiser les workflows de machine learning, faciliter l’expérimentation, le suivi des modèles et optimiser leur déploiement en production. Vos missions incluront : - Concevoir, automatiser et maintenir des pipelines CI/CD pour les applications et modèles. - Développer et maintenir des outils en Python pour l’industrialisation des processus. - Gérer la conteneurisation et l’orchestration avec Kubernetes (obligatoire). - Assurer la sécurité, la supervision et la performance des systèmes en production. - Automatiser la gestion des environnements via Infrastructure as Code (Terraform, Helm). - Accompagner les équipes de data science sur les aspects MLOps (tracking d’expériences, gestion des modèles, monitoring).

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

Offre d'emploi
Architecte DataOps – MLOps & AI
Contexte de la mission L’équipe AI Production Center , rattachée à la division AI & Innovation de l’IT Groupe, assure la conception, l’industrialisation et le support des plateformes Data Science et IA du Groupe. Une équipe de 20 experts organisée en 5 pôles (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). Plus de 15 plateformes de Data Science / MLOps en production (Cloud & On-Premise), utilisées par plus de 600 Data Scientists . Déploiement de plusieurs infrastructures et services d’ IA générative à destination des métiers. Un GPU Grid On-Premise pour les besoins de training et d’inférence. Généralisation des pratiques DevSecOps / GitOps / MLOps / LLMOps . Forte culture de l’ automatisation autour des APIs, infrastructures (Kubernetes / OpenShift) et produits. Missions principales Support & mentoring avancé : accompagner les utilisateurs et les équipes DataLab en support N3 sur les plateformes IA (best practices, coaching, expertise technique). MCO & supervision : garantir la fiabilité, la disponibilité et la performance des plateformes Data Science en production. MLOps & LLMOps : déployer les outils, workflows et bonnes pratiques pour accompagner les clients dans leurs démarches d’industrialisation. Frameworks distribués & GPU : aider les utilisateurs dans l’exploitation des environnements de calcul haute performance et des accélérateurs matériels. Développement & automatisation : contribuer à la conception, la mise en production, l’amélioration continue et le support des services du DataLab : APIs Workflows MLOps Pipelines Dashboards Environnement technique Conteneurisation & orchestration : Docker, Kubernetes, OpenShift Frameworks distribués : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, Nemo Data Science : Python, Conda, R (optionnel) Programmation & automatisation : Python, Shell scripting MLOps : MLFlow, Kubeflow CI/CD & DevSecOps / GitOps : Hashicorp Vault, GitLab, GitLab-CI, Artifactory, ArgoCD, Argo Workflow Environnement de travail Esprit d’équipe et collaboration au cœur du fonctionnement. Curiosité, autonomie, rigueur et recherche de qualité. Sens du service, patience et bienveillance. Partage de connaissances et amélioration continue. Culture de l’ automatisation fortement ancrée. Anglais courant requis (échanges internationaux, documentation en anglais). Matériel au choix : MacOS ou Windows .

Mission freelance
Data Scientist/MLops/IA
Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte). Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 6+ ans d’expérience en Data Science/MLOps
Offre d'emploi
Ingénieur DEVOPS/ MLOPS (AWS) Paris
Mettre en œuvre des outils de test, de développement, d'automatisation et des infrastructures informatiques pour l'équipe ML Platform et ses utilisateurs Outils CI/CD, gestion de la configuration Définir et mettre en place des processus de test, de développement, de publication, de mise à jour et d'assistance dans le cadre des opérations DevOps Favoriser l'amélioration continue en créant des pipelines pour l'intégration, le développement et le déploiement Mettre en œuvre les systèmes de surveillance

Mission freelance
DataOps / MLOps / IA (H/F)
À propos de l’équipe L’équipe : DataOps / Datalab est une équipe de la division AI & Innovation du Groupe. Notre travail est de mettre en place des plateformes Cloud-Native de Data Science / IA (Domino Datalab) clé-en-main pour l’ensemble des équipes Data du groupe. À ce jour, nous avons 15+ plateformes, utilisées par 25 gros clients, soit environ 700 Data Scientists du groupe. Actuellement, nous assurons l’installation, le déploiement et le support de 2 typologies de plateformes : ● Celles installées sur une ferme de GPUs Nvidia, installées sur des machines On-Premises, utilisables par toutes les équipes Data Science qui en font la demande ● Celles installées sur IBM Cloud Nous développons également des services / produits rattachés à ces plateformes : → Up & Running : Le Model Hub : Catalogue de modèles LLM utilisables dans la banque. L’AI Competency Center : Nous sommes délégués chez des clients du groupe pour sortir de terre des projets IA → En cours : Plateforme d’inférence dédiée Mission Nous recherchons un profil type architecte DataOps, MLOps, AI pour participer au design technique, à l'implémentation en production, à l'industrialisation, et au support et à l'amélioration continue des produits et services d'IA pour les métiers et fonctions du groupe Vous travaillerez avec le front sur : ● L’élaboration, la mise en production, l'amélioration continue et le support opérationnel des fonctionnalités à valeur ajoutée autour des produits et services du Datalab : APIs, workflows MLOps, pipelines, dashboards, etc. You build it, you run it! 🙂 ● Participer au maintien en conditions opérationnelles, à la supervision et à la fiabilisation des 15+ plateformes de Data Science de Production du Groupe ● Mettre en place les outils et bonnes pratiques, et accompagner les clients dans les démarches MLOps / LLMOps autour de ces outils. ● Accompagner les utilisateurs dans l'utilisation de frameworks de calcul distribué et/ou d'accélérateurs de calcul hardware (GPU). ● Renforcer les équipes de Support et d'accompagnement N3 du DataLab sur les plateformes et outils d'IA du groupe (best practices, mentoring, etc). Environnement technique de l’équipe Front ● Docker / Kubernetes / OpenShift ● Frameworks de calculs distribues (Spark, Ray, Dask, OpenMPI) ● GPU Computing (CUDA, Rapids, NIMs, Nemo) ● Environnements de Data Science Python, Conda, R (opt.) ● Programmation en python ● Shell scipting ● MLFlow / KubeFlow ● Outils de CI/CD DevSecOps/GitOps : Hashicorp Vault, Gitlab, Gitlab-CI, Artifactory, ArgoCD, Argo Workflow

Mission freelance
Data Scientist
Objectif global :Développer des solutions IA GCP / Software engineering / Python Compétences techniques Machine learning - Expert - Impératif IA generative - Expert - Impératif MLOps/LLMOps - Confirmé - Important Chatbot - Confirmé - Important Connaissances linguistiques: Anglais Courant (Impératif) Description détaillée Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte).

Mission freelance
Tech lead AWS
Expertise Programming et développement de pipelines et de bases de données (Expertise Python et SQL) Gestion de la donnée Sécurité liée à la gestion des données Expertise en services Data sur la Plateforme AWS ( Certifications AWS : Data Analytics, Big Data... ) : S3, HDFS, RDS, Redshift, EMR, Glue... Expertise en solutions Big Data/Analytics : Spark, Hadoop, NoSQL... Expertise en technologies d’intégration de données de type ETL/EAI : Mulesoft... Expertise en chaîne d’automatisation MLOps et CI/CD

Mission freelance
Engineering Manager / Manageur DATA/IA (F/H)
Contexte Dans un contexte de forte croissance des usages numériques et d’accélération de la transformation digitale , les données et l’intelligence artificielle constituent des leviers stratégiques pour améliorer l’expérience client, optimiser les opérations et soutenir l’innovation. La montée en puissance de nos plateformes data, combinée à l’émergence de nouvelles technologies (cloud data platforms, big data, IA générative, MLOps), exige un pilotage technique et organisationnel solide pour garantir la qualité, la robustesse et la scalabilité de nos solutions. Afin d’accompagner cette dynamique, la société souhaite renforcer son organisation en s’appuyant sur un prestataire disposant d’une forte expertise en management et delivery d’équipes Data & IA, capable de piloter l’ensemble du cycle de vie de nos produits data/IA, de soutenir la montée en compétence des équipes, et d’assurer la cohérence technique et opérationnelle de notre écosystème data. Livrables Activités & responsabilités 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. ## Interactions - Avec l’écosystème Tech et Produit : pour le pilotage des équipes et le delivery des projets Data & IA. - Avec les équipes Métier : pour comprendre les besoins et maximiser la valeur business des cas d’usage IA. - Avec les RH / Managers RH : pour le suivi des collaborateurs (formation, évolution, mobilité). Description - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité).

Mission freelance
Data Scientist
Nous cherchons un(e) Data Scientist H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : Concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM , RAG , agents et chatbots . Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de développement : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (RGPD) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.
Offre d'emploi
Référent technique Data Scientist - 6 mois - Lille
Référent technique Data Scientist - 6 mois - Lille Un de nos importants clients recherche un Référent technique Data Scientist pour une mission de 6 mois sur Lille. Descriptif de la mission ci-dessous: Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Votre rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte). Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 6+ ans d’expérience en Data Science/MLOps Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Mission freelance
Machine learning Engineer - Bordeaux
Mission : Au sein de l'équipe CT-IA rattachée au pôle IT Data, vous mettrez vos compétences au service de l'IA chez Peaksys. Vous serez notamment charge de : - Mise à dispo d'outillage d'aide aux développement IA, monitoring… , - Participer au déploiement de la démarche MLOps, - Mise en place de la plateforme IA - Automatisation des process de déploiement autour de l'IA - Proposer des architectures techniques en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Faire une veille technologique autour des architectures data et IA Minimum 5 ans d'expérience requis sur ce poste Compétences techniques requises : - Très bon niveau en software engineering (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en python ou tout autre langage orienté objet. - Bonnes connaissances des langages Python et SQL - Bonnes connaissances en Devops (Docker, Kubernetes, helm, pipelines as code...) - BONUS connaissance du MLops

Offre d'emploi
Data scientist
Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Offre d'emploi
Expert Data Engineer
1. Environnement technique de la Prestation Les produits s'appuient sur les technologies suivantes : - Nifi pour l'ingestion de données ; - Amazon EMR pour les traitements de données ; - Amazon EKS et Mongo dB pour la mise à disposition des données. Les développements seront réalisés sur les environnements de développement, de pré-production et de production mis en place par le client. 2. Expertises techniques attendues Pour réaliser leurs missions dans de bonnes conditions, les intervenants du prestataire devront mettre en œuvre une expertise technique dans les domaines suivants : - Expertise en services Data sur la Plateforme AWS (Certifications AWS : Data Analytics, Big Data…) : S3, HDFS, RDS, Redshift, EMR, Airflow… - Expertise en solutions Big Data/Analytics : Spark, NoSQL… - Expertise en technologies d'intégration de données de type ETL/EAI : Mulesoft.. - Expertise en chaîne d'automatisation MLOps et CI/CD Spark -> 2.x EMR on EKS -> 5.32.0 MWAA -> 2.4.3 (latest) MongoDB enterprise -> 6.06 Opensearch -> 1.2 NIFI -> 1.16.3 NiFi Registry -> 0.8.0 Lieu : Magny les Hameaux
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.