Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
MLOps/MLEngineering
u sein de la tribu Data & IA, la squad DataLab contribue de manière significative à l'ambition stratégique de notre clinet pour devenir une entreprise axée sur l’analytics. Le rôle de la squad Datalab est de piloter la plateforme Domino Datalab permettant aux data scientists des différentes filiales de Cardif en France et à l’internationale (30 pays, une centaine d’utilisateurs) de travailler sur toutes les étapes du cycle de vie d’un modèle d’IA (Design, Training, Evaluation, Deployment Monitoring) et de maintenir en condition opérationnelles tous les use cases IA publiés (environ 100 de modèles en dev, staging et production). Avec le renforcement des ambitions IA dans un cadre d’amélioration continue, la squad Datalab doit répondre aux nouveaux besoins des data scientists et nouveaux usecases IA, tout en renforçant l’automatisation, la sécurisation et l’intégration de notre plateforme au sein du SI. La prestation doit délivrer les expertises suivantes : • Expérience MLOPS • Machine Learning/Deep learning • Très bonne maitrise du langage Python • Expérience dans les méthodes agiles • Excellentes compétences en communication écrite et orale (clarté, synthèse, pédagogie) associées à un excellent esprit d'équipe • Compréhension des concepts informatiques (API, authentification, workflow, données) • Capacité à comprendre les besoins métier et à les traduire en exigences informatiques. • Connaisse de la solution Domino Datalab • Maitrise des outils : GitLab CI/CD, Artifactory, SonarQB, NexusIQ, Fortify • Intégration de composants techniques avec flux de données associés, notamment architecture à 3 niveaux, authentification SAML, services web et HTTPS. • Pipelines de données • Modélisation statistique
Mission freelance
TechLead IA / ML Ops
Pour notre client basés en IDF , nous cherchons un TechLead IA / ML Ops Sénior, Missions principales Pilotage des cas d’usage IA : accompagner les équipes métiers dans le cadrage, traduire leurs besoins en spécifications techniques, challenger les approches proposées par les Data Scientists. Modélisation et industrialisation : garantir la performance, la robustesse, l’explicabilité et la conformité des modèles IA ; assurer leur industrialisation et déploiement. ML Ops & Architecture : définir le cadre ML Ops du groupe (reproductibilité, automatisation, versioning, gouvernance des modèles) ; mettre en place pipelines CI/CD, monitoring et bonnes pratiques de développement. Qualité & conformité : contrôler la traçabilité, la documentation et la conformité (IA Act, RGPD, normes internes). Auditer et valider les modèles avant mise en production.
Mission freelance
Data Engineer
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte Dans le cadre du programme de transformation digitale, l’équipe, basée à Pau, se renforce. Objectif : améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles via des pipelines robustes, de la gouvernance et des cas d’usage innovants en IA / IA Générative. 🛠️ Missions principales Data Engineering : Définir les processus de gestion de données et d’information des outils digitaux. Développer et maintenir des pipelines robustes (ETL temps réel & batch). Automatiser les traitements (Python ou équivalent). Participer à la modélisation et standardisation des données. Qualité & Gouvernance des données : Développer et maintenir des outils de contrôle qualité (dashboards, alerting, audits). Mettre en place le processus de data management pour les données temps réel (WITSML, WellView). Représenter le groupe dans les forums OSDU / WITSML / RTSC. Data Science & IA : Contribuer à l’intégration de solutions IA et IA Générative pour les cas d’usage métier. Expérimenter, customiser et superviser des modèles ou solutions IA. Accompagnement & Support : Support utilisateurs et animation de la conduite du changement. Supervision des tâches administratives liées aux outils digitaux.
Mission freelance
Data Scientist Sénior | Expert Retail (H/F)
Dans le cadre d’une transformation digitale d’envergure au sein d’un grand acteur du retail, la Direction Data & IA renforce ses équipes pour accélérer la mise en œuvre de modèles de Machine Learning à fort impact business. Le consultant interviendra au sein d’une squad Data Science dédiée à la conception, à l’industrialisation et à l’exploitation de modèles de ML appliqués à divers cas d’usage (pricing, prévision, recommandation, fidélisation, supply chain…). Missions principales Concevoir, entraîner et déployer des modèles de Machine Learning adaptés aux besoins métiers (classification, régression, clustering, NLP, etc.) Préparer et qualifier les jeux de données (data cleaning, feature engineering, détection d’anomalies, sélection de variables) Mettre en place et maintenir les pipelines d’industrialisation (MLOps : Airflow, MLflow, Docker, CI/CD) Collaborer étroitement avec les équipes Data Engineering et Produit pour garantir la scalabilité et la performance des modèles Superviser et améliorer les modèles en production (monitoring, retraining, suivi des indicateurs) Documenter et restituer les travaux auprès des parties prenantes techniques et métiers
Mission freelance
[MDO] ML Engineering /IA (Min 8 XP)
Contexte : Dans le cadre du plan stratégique du Groupe BNP Paribas, Growth, Technology, Sustainability le Groupe joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, a été créé le département AI & IT Innovation, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. Le département est composé de six équipes : • L'équipe Innovation Exposition crée et maintient des plateformes d'innovation destinées aux lancements des Proof of Concept (POC) exprimés par les Métiers et les Fonctions. • L'équipe Innovation Factory intervient en support des Métiers et des Fonctions pour accélérer les projets fonctionnels et garantir la bonne gestion et la mutualisation des données. • L'équipe APEX expose les produits autour des solutions collaboratives et assure leur déploiement dans l'ensemble du Groupe. • L’équipe Smart Auto Factory crée et maintient les plateformes nécessaires pour promouvoir et acculturer l'utilisation du RPA, de l’Intelligent Document Processing et du Process Mining tout en maintenant les plates-formes correspondantes. • L’équipe Data Analytics and Management Platforms fournit des plates-formes pour l'analyse, la préparation et la visualisation des données, en soutenant le story-telling et une organisation orientée données. • Le Centre de Compétence en IA (AICC) est chargé de développer et de maintenir les compétences en Intelligence Artificielle. Responsabilités : • Conception et développement des modèles de Machine Learning et Deep Learning adaptés aux besoins métiers. • Mise en place des pipelines d’entraînement et de déploiement robustes et scalables. • Optimisation et industrialisation des modèles en intégrant les meilleures pratiques de MLOps. • Garanti de la qualité, la frugalité et la conformité des modèles développés. • Collaboration avec les équipes de recherche et développement pour intégration des avancées en IA dans les systèmes existants. • Communication et collaboration avec les autres départements et équipes du groupe pour promouvoir l'utilisation de l'IA. Technologies : • Maîtrise des langages et frameworks IA/ML : o Python, Rust, Julia (langages pour IA et performance computationnelle). o Frameworks ML/DL : TensorFlow, PyTorch, Hugging Face Transformers. o Libraries pour le fine-tuning et l’optimisation : PEFT, LoRA, QLoRA, DeepSpeed. • Expérience en NLP et modèles génératifs : o LLMs et agents IA : LLaMA, GPT, Mistral, Mixtral. o Frameworks d’intégration : LangChain, LlamaIndex, Haystack, DSPy. o Orchestration d’agents : CrewAI, AutoGen, AgentGPT. o Recherche d’informations augmentée (RAG) : Elasticsearch, OpenSearch, FAISS, Weaviate. • Compétences en MLOps et industrialisation : o CI/CD pour IA : MLflow, DVC, Kubeflow. o Versioning et déploiement de modèles : ONNX. o Monitoring et observabilité : WhyLabs, Arize AI, Prometheus pour l'IA Vous travaillerez en étroite collaboration avec les équipes Data Science, IT et métiers afin d'industrialiser les solutions d'intelligence artificielle et d'assurer leur performance en production. Missions clés : 1. Conception et entraînemen des modèles IA • Sélection des algorithmes adaptés (ML/DL) • Préparation des données d'entraînement • Optimisation des performances des modèles 2. Mise en production des solutions IA • Intégration des modèles dans des applications ou services • Déployement via des pipelines MLOps (CI/CD, monitoring, versioning) 3. Collaboration avec les équipes métiers et techniques • Comprehension des besoins fonctionnels • Traduction des cas d’usage en solutions IA concrètes 4. Garanti de la qualité et de l’éthique des modèles • Évalution des biais, de la robustesse et de la transparence • Documentation des choix techniques et des limites 5. Veille technologique et amélioration continue • Suivi des évolutions en IA (modèles, frameworks, outils) • Testage de nouvelles approches ou architectures
Mission freelance
95630/Data Scientist en IA Générative Nantes
Data Scientist en IA Générative - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles) - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Mission freelance
Machine Learning Engineer Lead Expert
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code
Mission freelance
Lead Tech MLOps/ IA Générative / Data
Product Owner Technique IA / Machine Learning / GénérativeContexte de la mission Nous recherchons un Product Owner technique pour piloter le développement d’applications de gouvernance des modèles de Machine Learning , ainsi que l’évolution d’une plateforme interne d’IA Générative (LLM Hub) . Ce rôle combine vision produit , leadership technique et collaboration étroite avec des équipes pluridisciplinaires (data, cloud, ML, IA générative). mission de : Structurer et faire évoluer les applications de gouvernance des modèles ML (inventaire, suivi des performances, intégration multi-cloud). Piloter le développement d’une plateforme centralisée de LLMs permettant l’accès à différents modèles (OpenAI, Mistral, Claude, etc.) via Azure et AWS. Définir la roadmap produit , prioriser les évolutions et garantir la cohérence technique et fonctionnelle des produits IA. Périmètres applicatifs1. Applications de gouvernance des modèles ML Objectif : inventorier et suivre les modèles de Machine Learning déployés sur différentes plateformes cloud (Azure ML, Databricks, AWS Sagemaker). Les principales fonctionnalités concernent : L’inventaire automatique des modèles hébergés sur les environnements cloud. La collecte et la restitution des métriques techniques et de performance. L’exposition des données via une API backend et un dashboard frontend en React. 2. Plateforme LLM Hub Objectif : offrir un accès unifié à plusieurs modèles de langage (LLMs) et des outils facilitant l’intégration de l’IA générative dans les applications internes. La plateforme comprend : La centralisation de l’accès aux LLMs via Azure OpenAI, AI Foundry et AWS Bedrock. Le suivi et le reporting de la consommation des modèles, avec une logique d’optimisation des coûts. Le développement de plugins et fonctionnalités clé en main (RAG, Text-to-SQL, WebSearch, chatbot interne, etc.). Le design de futures fonctionnalités : création d’agents, prompts library, guardrails, chatbot low code, packaging d’intégration. Responsabilités principalesVolet Product Owner Identifier et cadrer les besoins des utilisateurs et parties prenantes. Prioriser les sujets et piloter le backlog produit. Définir la vision long terme et les objectifs (OKRs, roadmap). Rédiger et clarifier les besoins fonctionnels pour l’équipe technique. Coordonner les échanges avec les autres PO et le management. Assurer le suivi du budget et des livrables. Volet Technique Participer aux ateliers de conception et aux refinements techniques . Challenger les choix d’architecture et les designs techniques. Garantir la qualité, la sécurité et la résilience des solutions. Assurer une veille technologique continue sur les outils IA, cloud et LLMs. Accompagner les nouveaux arrivants et promouvoir le partage de connaissances.
Mission freelance
Data LLM Engineer
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)
Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).
Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.
Mission freelance
Machine learning Engineer - Bordeaux
Mission : Au sein de l'équipe CT-IA rattachée au pôle IT Data, vous mettrez vos compétences au service de l'IA chez Peaksys. Vous serez notamment charge de : - Mise à dispo d'outillage d'aide aux développement IA, monitoring… , - Participer au déploiement de la démarche MLOps, - Mise en place de la plateforme IA - Automatisation des process de déploiement autour de l'IA - Proposer des architectures techniques en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Faire une veille technologique autour des architectures data et IA Minimum 5 ans d'expérience requis sur ce poste Compétences techniques requises : - Très bon niveau en software engineering (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en python ou tout autre langage orienté objet. - Bonnes connaissances des langages Python et SQL - Bonnes connaissances en Devops (Docker, Kubernetes, helm, pipelines as code...) - BONUS connaissance du MLops
Offre d'emploi
Architecte data / IA (F/H)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.
Mission freelance
Un Data Scientist (Développement,Implémentation Algorithmes IA,Intégration Solutions IA) sur Nantes
Smarteo recherche pour un de ses clients, Un Data Scientist ( Développement, Implémentation d'Algorithmes IA, Intégration Solutions IA ) sur Nantes Description: Nous client nous soumet une prestation de Data Scientist pour intervenir sur les domaines analyse de données, modélisation,Ia Gen prompting et ingénierie data. Au sein d'une équipe agile composée d'une douzaine de personnes le candidat contribuera à la conception et la réalisation de solutions IA. Activités : - Développement et Implémentation d'Algorithmes IA: Concevoir, développer et déployer des modèles de machine learning et d'intelligence artificielle. - Analyse de Données: Explorer et analyser les données pertinentes pour extraire des insights exploitables et améliorer les algorithmes existants. - Intégration des Solutions IA: Collaborer avec les équipes produits pour intégrer les solutions IA dans leurs produits et répondre à leurs besoins spécifiques. - Maintenance des Solutions en Production: Assurer le suivi et l'amélioration continue des solutions IA en production (RUN), incluant la gestion des incidents et la mise à jour des modèles. - Prototypageet Testing: Réaliser des prototypes de nouvelles solutions IA et conduire des tests pour valider leur utilité et leur performance. - Prompting: Réaliser des prompts robustes pour les différents cas d'usage Le candidat devra disposer des compétences adéquates pour réaliser les tâches en autonomie ce qui requiert une expérience Compétences Requises : - Analyse de Données: Expertise en techniques d?analyse et de visualisation de données. - Modélisation et Machine Learning: Compréhension avancée des algorithmes de machine learning et d'intelligence artificielle. - Prompting: Compétence dans la génération et l'optimisation de prompts pour améliorer l'interaction utilisateur et la pertinence des résultats. - Ingénierie Data: Connaissances en gestion de bases de données et manipulation de données en grande quantité. - Langages de Programmation: Maîtrise des langages comme Python, SQL, et des outils comme TensorFlow, PyTorch. - DevOps: Compréhension des pratiques DevOps, incluant l'intégration et la déploiement continu (CI/CD). Machine Learning Operations (ML Ops), Google TensorFlow, Python, SQL, PyTorch,
Offre d'emploi
Data Scientist - IA Générative
Le Groupe voit dans l'arrivée des technologies d'IA Générative une opportunité majeure pour améliorer la productivité et la créativité de ses collaborateurs. Le Groupe a atteint un niveau de maturité sur le sujet qui l'amène à renforcer son dispositif intervenant sur les IA Génératives. Ce renfort doit permettre d'étendre le périmètre du projet à tous les métiers du groupe (maitrise de l'ingéniérie et de la performance) et de lancer les prochaines incubations (agents, graphrag, etc.) Nature de prestation : Le renfort interviendra en tant que Data Scientist pour accompagner les explorations et mise en service de pilote de nouveaux services pour nos directions métier. Le terrain de jeux sera les IA génératives et l'écosystème de technologies autour. Il sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (exploration, incubation, industrialisation, run) Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique
Mission freelance
AI Engineer
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.