Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 113 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer

KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT

1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
CDI
Freelance

Offre d'emploi
Product Owner IA (H/F)

STORM GROUP
Publiée le
IA

3 ans
50k-60k €
500-600 €
Île-de-France, France
Principales missions : • Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Freelance

Mission freelance
DevOps IA

Ness Technologies
Publiée le
API REST
CI/CD
GPU

6 mois
Île-de-France, France
Au sein d’une équipe en charge des plateformes data et IA, vous intervenez sur la mise à disposition, l’exploitation et l’évolution de services liés à l’IA générative et au machine learning. Vous contribuez à l’industrialisation et à l’adoption des solutions IA auprès des utilisateurs internes, dans une logique DevOps / MLOps . Exploitation & Run Assurer le suivi et l’exploitation des plateformes IA Garantir la disponibilité, la performance et la stabilité des services Assurer le support technique auprès des utilisateurs internes Accompagnement & Adoption Accompagner les équipes dans l’usage des offres IA (LLM, GPU, RAG…) Faciliter l’exposition et l’utilisation de modèles IA Apporter un support méthodologique et technique adapté aux besoins métiers Vulgariser les concepts IA auprès des utilisateurs Industrialisation & Automatisation Développer des services automatisés (Python, CI/CD) Mettre en place des pipelines et outils facilitant l’usage des plateformes IA Participer à l’amélioration continue des pratiques DevOps / MLOps Environnement IA & Data Contribuer à la mise en œuvre de solutions autour : LLM (Large Language Models) RAG (Retrieval-Augmented Generation) Gestion des ressources GPU Participer à l’intégration et au déploiement de modèles IA Environnement technique Langages & outils : Python, GitLab CI/CD, API REST Conteneurisation & orchestration : Kubernetes IA / ML : LLM, RAG, fine-tuning, transfer learning Serving modèles : vLLM, TGI (ou équivalent) GPU : allocation, optimisation, gestion des ressources Data : plateformes de data science (ex : Dataiku) Systèmes : Linux Recherche vectorielle : bases vectorielles (type FAISS, Pinecone, etc.)
Freelance
CDI

Offre d'emploi
Data Analyst Sur Le Havre

EterniTech
Publiée le
Elasticsearch
Microsoft Power BI
Qlik

3 mois
Le Havre, Normandie
Je cherche pour un de mes clients un Data Analyst / Data Engineer qui interviendra sur la définition, la mise en place et l’évolution de solutions de gestion de données , en assurant l’ingénierie, l’analyse et la valorisation des données pour répondre aux besoins métiers. Missions principales : Définir, mettre en place et faire évoluer des datalakes et datawarehouses Ingénierie et intégration de données pour le jumeau numérique et l’ IA Développer des modèles de data science adaptés aux besoins métiers Produire des tableaux de bord et valoriser les données via les outils BI ( Qlik, Microsoft Power BI ) Consolider et développer le catalogue de données existant Mettre en œuvre et optimiser des moteurs de recherche et d’indexation avancée ( Elasticsearch – expertise obligatoire ) Activités transverses : Analyser l’existant et conduire des ateliers méthodologiques Préconiser normes et standards technologiques Définir, dimensionner et chiffrer des solutions Mettre en œuvre des pipelines de données et des architectures big data Suivre la mise en œuvre et assister les équipes projet Assurer le transfert de compétences et l’accompagnement méthodologique Rédiger rapports d’études, cahiers des charges techniques et documentations Réaliser des audits et améliorer les processus Effectuer la veille technologique et fournir du conseil stratégique
CDI

Offre d'emploi
Data Scientist (NLP / LLM / Agentique) — Projet IA Télécom

TOP TECH
Publiée le
Agent IA
Large Language Model (LLM)

40k-50k €
France
Dans le cadre d’un programme stratégique d’industrialisation d’une solution IA innovante, un grand acteur des télécommunications renforce ses équipes Data. Suite à la mise en production d’une solution de relation client basée sur de l’IA Speech-to-Speech , le client déploie cette technologie sur plusieurs canaux digitaux à grande échelle. 👉 Nous recherchons plusieurs Data Scientists pour accompagner cette montée en charge. 🎯 Vos missions Vous interviendrez sur deux axes clés : 🔍 1. Monitoring & amélioration continue Suivi des performances des modèles en production Analyse des dérives et optimisation continue Mise en place d’indicateurs de qualité et de fiabilité 🧪 2. TestOps & industrialisation IA Conception d’une Test Case Factory automatisée Génération de scénarios de tests via des approches Data Science Validation des nouvelles versions des modèles IA Mise en place de stratégies de tests robustes pour garantir la qualité en production ✔️ Expérience requise : Expérience en NLP / LLM / Agentique (obligatoire pour profils expérimentés) Bonne compréhension des systèmes IA en production Expérience sur des problématiques liées au traitement du texte 🛠️ Compétences techniques Data Science (Python, ML, DL) NLP (Natural Language Processing) LLM (Large Language Models) Mise en production & monitoring de modèles Expérience en automatisation de tests (idéalement TestOps IA) 📍 Contexte Secteur : Télécommunications Projet : Déploiement à grande échelle d’une solution IA conversationnelle Environnement : Innovant, orienté industrialisation et passage à l’échelle
Freelance

Mission freelance
Data ingénieur / Software ingénieur

SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark

1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Freelance

Mission freelance
[FBO] Product Owner Technique IA

ISUPPLIER
Publiée le
Docker
Large Language Model (LLM)
Openshift

3 ans
Île-de-France, France
Contexte Dans le cadre du développement et de l’industrialisation de services d’IA générative à destination de multiples entités métiers, nous recherchons un profil capable d’assurer l’ ownership technique d’un produit de type RAG as a Service . L’environnement s’inscrit au sein d’une organisation structurée autour d’une équipe d’environ 20 experts , répartis sur plusieurs pôles d’activité : Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office et Client Services . Le contexte technique comprend notamment : plus de 15 plateformes Data Science / MLOps en production , en environnements cloud et on premise ; une base de 600+ utilisateurs Data Scientists ; plusieurs infrastructures, plateformes et services d’ IA générative déjà en production ; un GRID de GPU on premise utilisé pour l’entraînement et l’inférence ; des pratiques établies de DevSecOps, GitOps, MLOps et LLMOps ; un fort niveau d’ automatisation autour des APIs d’infrastructure, des plateformes Kubernetes / OpenShift et des produits. Missions principales En tant que Technical Owner / Product Owner Technique , vous serez responsable de la cohérence technique, de la trajectoire produit et de la bonne exploitation du service. À ce titre, vos principales missions seront les suivantes : contribuer à l’ élaboration technique et fonctionnelle du produit IA qui vous sera confié, en lien étroit avec les équipes de Solutions Engineering pour la veille et l’évolution des usages, ainsi qu’avec les équipes DevSecOps pour son industrialisation ; garantir le respect des exigences de sécurité, conformité et confidentialité , ainsi que l’alignement avec les standards de production IT en matière d’ observabilité, auditabilité, traçabilité et contrôle des accès ; définir et mettre en œuvre les mécanismes techniques de gouvernance permettant aux entités utilisatrices ou à leurs équipes IT d’opérer le produit dans un cadre maîtrisé ; construire, maintenir et enrichir la feuille de route technique du produit afin d’assurer une création de valeur continue, en cohérence avec les besoins des utilisateurs et des métiers ; accompagner au quotidien les utilisateurs, interlocuteurs métiers et équipes IT , et veiller à la bonne adoption des bonnes pratiques d’usage du produit ; superviser les opérations critiques liées aux changements, déploiements et mises à jour, avec une vision de bout en bout des impacts sur les différents services gérés ; organiser et documenter la gestion des incidents , notamment via l’analyse des causes racines, la coordination inter-équipes et l’amélioration continue ; être force de proposition dans l’ optimisation des processus internes et dans l’alignement avec les autres équipes du domaine IA & Data ; représenter la relation technique avec les fournisseurs et partenaires contribuant à l’évolution du produit, qu’il s’agisse d’éditeurs, d’équipes d’industrialisation ou d’équipes d’infrastructure. Environnement technique Le poste s’inscrit dans un environnement technologique riche, comprenant notamment : Docker / Kubernetes / OpenShift frameworks de calcul distribué : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, NeMo environnements de Data Science : Python, Conda, R (optionnel) développement en Python Shell scripting MLflow / Kubeflow outils CI/CD, DevSecOps et GitOps : HashiCorp Vault, GitLab, GitLab CI, Artifactory, ArgoCD, Argo Workflows
CDI

Offre d'emploi
Consultant Data SQL / MSBI

UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS

3 ans
50k-55k €
500-600 €
Paris, France
Bonjour à tous 👋 Dans le cadre d’une mission longue en environnement bancaire, je recherche un consultant Data expérimenté sur SQL / T-SQL / SSIS , pour intervenir sur une mission stratégique. Il aura pour rôle central de consolider, fiabiliser et valoriser les données clients afin de produire des analyses stratégiques et des indicateurs clés pour l’entreprise. Il intervient sur des projets à fort impact : lancement de produits, consolidation financière, analyses de risques, pilotage de l’activité, et contribue directement à la prise de décision. Au cœur de l’écosystème data, il collabore étroitement avec les équipes Data Engineering, Data Science, Architecture, ainsi qu’avec les experts métiers Finance, Risque, Marketing. Il sera en charge de vulgariser ses analyses, comprendre les enjeux business et proposer des solutions adaptées. Livrables attendus : Challenge, cadrage, chiffrage et priorisation des besoins métiers. Exploration, analyse et fouille de données Développement et industrialisation de traitements data. Suivi opérationnel du RUN et amélioration continue. Rédaction et mise à jour de la documentation technique et fonctionnelle.
CDI

Offre d'emploi
Ingénieur(e) R&D Data Scientist expérimenté(e) (F/H)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Architecte - LLMOPS

VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning

1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
CDI
Freelance

Offre d'emploi
Ingénieur AIOps

OBJECTWARE
Publiée le
DevOps
Dynatrace
Elasticsearch

3 ans
49k-99k €
240-700 €
Île-de-France, France
Le prestataire sera le garant de l'intelligence analytique appliquée aux flux opérationnels. Ses responsabilités principales incluent : Conception d'algorithmes de détection d'anomalies : Développement de jobs (Python) permettant l'identification proactive de signaux faibles sur les infrastructures et applications. Corrélation de données multi-sources : Mise en place de logiques de corrélation entre les logs (Elasticsearch) et les métriques de performance/topologies (Dynatrace). Modélisation pour la Root Cause Analysis (RCA) : Structuration des données d'observabilité pour permettre leur exploitation par les LLM (via les frameworks LangChain/LangGraph de l'équipe Core). Réduction du bruit (Noise Reduction) : Optimisation des mécanismes d'alerting par le Machine Learning pour isoler les incidents critiques des faux positifs. Profil recherché – Compétences Techniques : +++ Culture Ops : Bonne compréhension des architectures IT bancaires et des problématiques de haute disponibilité. Expertise Python : Développement de scripts de traitement de données et d'automatisation. Observabilité avancée : Maîtrise de l'écosystème Dynatrace et de la suite Elastic. l'expertise sur d'autres outils d'observabilité sera également étudiée. Data Science / ML : Solides connaissances en algorithmes de détection d'anomalies (Unsupervised Learning, Time Series Analysis). * IA Générative : Compréhension des interactions avec les LLM (Prompt engineering technique et structuration de données pour RAG/Agents).
CDI

Offre d'emploi
Senior Data Scientist / ML Engineer (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Elasticsearch
Git

53k-59k €
Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Senior Finance IT Business Analyst & SAS Developer

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
**Senior Finance IT Business Analyst & SAS Developer (SAS Finance Core - Asset Management)** 📍 Paris ou Bruxelles ou Luxembourg | 🏢 Hybride (le profil peut être basé sur une des ces 3 villes, le client ayant des sites sur place) ⏳ Mission longue (6 à 10 mois renouvelables) Nous recherchons un profil senior hybride Finance / IT pour intervenir sur des outils Finance cœur de l'organisation , dans un environnement Asset Management exigeant. 🎯 Contexte La mission s'inscrit dans un double cadre : Support Business As Usual (BAU) des équipes Finance Contribution à des projets structurants Finance (Target Operating Model, évolutions d'outils) Les systèmes Finance sont basés sur SAS Financial Management et SAS Cost & Profitability Management , utilisés pour les clôtures, calculs de coûts, rentabilité et reporting Finance . ⚠️ Clarification essentielle - merci de lire avant de postuler Dans cette mission, SAS est un système Finance cœur . Ce poste ne concerne PAS la Data Science, la BI, le reporting visuel (Power BI, Tableau, etc.) ni le développement SAS générique. Il ne s'agit pas non plus d'un rôle de Business Analyst purement fonctionnel. 🧩 Responsabilités Support opérationnel des équipes Finance sur les environnements SAS Finance Analyse des processus Finance / Comptabilité et recommandations d'optimisation Recueil des besoins métiers et rédaction de spécifications fonctionnelles et techniques Participation aux phases de design, tests, déploiement et conduite du changement Rôle de point de contact Finance IT au quotidien ✅ Profil recherché Expérience confirmée en Finance / Comptabilité dans l' Asset Management Maîtrise des processus : GL, AP/AR, clôtures, reporting, budget & forecast, coûts, procurement Solide expérience SAS Finance (macros, templates, outils FM / CPM) Expérience sur des projets IT Finance (ERP, comptabilité, reporting Finance) Compréhension des cycles projets ( Agile , Azure DevOps apprécié) Forte autonomie, séniorité, capacité à challenger le métier et l'IT 🌍 Langues Français et Anglais professionnels 🎯 Les profils Data Analyst, BI, Data Scientist ou BA non techniques ne correspondent pas à cette mission.
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Prestation Front-end VueJs – IA (3-7 ans d'exp)

Codezys
Publiée le
Git
Gitlab
Jest

12 mois
450-500 €
Paris, France
Contexte de la mission Un test technique sera requis pour les candidats shortlistés. La prestation, rattachée au département IT, se déroulera au sein d’une équipe multidisciplinaire (développeurs frontend Vue.js, Ruby, Python en data science, QA). L’équipe développe des plateformes de gestion de patrimoine pour plus de 1300 conseillers, en collaboration avec les équipes produit, UX/UI, data science et experts métier. Méthodologie Agile Scrum (sprints de 2 semaines) avec processus CI/CD en amélioration continue. Le groupe financier recourt à trois prestations de développement front-end pour son extension. Objectifs et livrables Développer et maintenir des applications frontend Vue.js 2 et 3 en production. Intervenir sur des projets variés (legacy Vue.js 2, greenfield Vue.js 3) avec approche pragmatique. Concevoir et implémenter des interfaces utilisateur modulaires, performantes et accessibles. Intégrer des interfaces de chatbots et assistants IA utilisant des LLMs. Consommer et intégrer des APIs REST backend. Assurer la qualité du code via des tests et revues. Optimiser performances frontend et expérience utilisateur. Participer aux décisions techniques et challenger les spécifications si nécessaire. Assumer la responsabilité des features déployées ("you build it, you run it"). Contribuer à l'amélioration continue des pratiques de développement. Conditions techniques de la prestation Stack technique : Langages : JavaScript/TypeScript, HTML5, CSS3 Frameworks : Vue.js (2 & 3) Build tools : Vite Gestion d’état : Vuex CSS/UI : Tailwind CSS APIs REST (Ruby on Rails) Intégration IA : chatbots, assistants utilisateur, APIs LLM (Gemini, Claude) DevOps & Infrastructure : Versioning : Git/GitLab CI/CD : GitLab CI, Jenkins Cloud : Heroku, AWS (S3), OVH Conteneurisation : Docker, K8S Monitoring & Qualité : Monitoring : New Relic, Splunk, Gatus, Raygun Qualité : SonarCloud, Lighthouse Tests : Jest, Vitest, Cypress Outils collaboratifs & Méthodologie : Jira, Confluence, Slack, Figma Methodologies : Agile (Scrum/Kanban), GitLab Flow, Code reviews, Clean Code Résultats attendus / Livrables Code & documentation : Code versionné sur GitLab, respectant conventions Vue.js, tests unitaires et E2E, documentation technique. Features & intégrations : Déploiement en production de features fonctionnelles, interfaces IA opérationnelles, gestion proactive des incidents, suivi Jira. Participation active aux code reviews et rituels agiles.
Freelance

Mission freelance
INGENIEUR IA

ROCKET TALENTS
Publiée le
DevOps
GPU
IA Générative

1 an
400-450 €
Saint-Quentin, Hauts-de-France
Missions : Vous intégrez au sein de l'équipe Service Infrastructure Open Natif et Data du Service Mise en marché des plateformes, et plus précisément dans le pôle Data. Vous serez en charge de la mise à disposition, de la maintenance et de l'évolution d'un ensemble de services liés aux offres autour de l'IA générative et du machine learning du client (LLMaaS, GPUaaS, Dataiku, etc.) À ce titre, les actions attendues sont les suivantes : Assurer le suivi et l'exploitation des plateformes IA pour nos utilisateurs internes. Accompagner la consommation des offres IA au sein du cluster, incluant l’accompagnement pour l'exposition de modèles LLM, la gestion des ressources GPU via Run:AI, et le déploiement de solutions RAG. Accompagner les équipes internes du cluster BPCR sur l'utilisation de ces plateformes, en assurant un support technique et méthodologique adapté à leurs besoins. Créer et mettre à disposition des services automatisés via Python et GitLab-CI pour faciliter l'adoption et l'utilisation des solutions IA. Les qualités pour mener à bien ces missions : Techniques : Bonnes connaissances en data science avec une compréhension des cycles de vie des modèles (entraînement, évaluation, déploiement, monitoring). Bonnes connaissances de Python pour le scripting, l'orchestration d'API REST et l'intégration de modèles. Bonne connaissance des concepts liés à Kubernetes (pods, services, namespaces, déploiements, etc.) et compréhension de son rôle dans l'hébergement et la mise à disposition de charges de travail IA. Compréhension des concepts d'IA générative (fine-tuning, transfer Learning, etc.), des architectures LLM et des patterns RAG. Connaissance des notions liées au GPU (allocation, mémoire, optimisation) et des frameworks de serving de modèles (vLLM, TGI ou équivalent). Bonnes connaissances de l'environnement Linux et des pratiques DevOps/MLOps. Familiarité avec des solutions de recherche vectorielle. Comportementale : Sens du service client Autonomie. Rigueur. Force de proposition. Vulgarisation. Esprit curieux et veille technologique active sur les évolutions de l'IA.
113 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous