L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 268 résultats.
Offre d'emploi
Chef de projets DATA F/H
Publiée le
40k-50k €
Niort, Nouvelle-Aquitaine
Chef de projets DATA F/H - Niort Chef de Projet DATA F/H Rejoignez EXPERIS et participez à des projets stratégiques autour de la valorisation de la donnée ! Nous accompagnons nos clients dans leur transformation digitale et nous recherchons un Chef de Projet DATA expérimenté pour piloter et animer des initiatives clés dans le domaine de la Data et de l'IA. Votre rôle Au sein d'une équipe dédiée à la DATA, vous serez un acteur central dans la mise en œuvre d'un nouveau modèle Data. Votre mission : garantir la qualité, la fiabilité et la performance des solutions déployées. Vos principales responsabilités : Piloter l'activité et assurer le management opérationnel d'une équipe composée de 2 pôles. Accompagner les équipes dans la conception et les PO dans la relation métier. Garantir les livrables et la satisfaction des clients internes. Animer des ateliers métiers et des task forces en cas d'incidents. Challenger les solutions techniques et contribuer à la qualification des projets.
Mission freelance
Chef de projet Data et IA
Publiée le
Data management
IA
IA Générative
6 mois
400-500 €
Île-de-France, France
Télétravail partiel
Pour le compte de notre client qui opère dans le secteur bancaire , nous recrutons chef de projet Data et IA (h/f). L'objectif de la prestation est de renforcer l’équipe des chefs de projet du DataLab Groupe pour traiter les projets Data / IA / IA GEN confiés à la Direction Data & IA. Indispensable : Expérience confirmée , des interventions récentes en pilotage de projets Data + IA (non seulement en data) JavaScript / TypeScript Envoyez vos candidatures via la plateforme ou à l'adresse mail Besoin n'est pas ouvert à la sous-traitance.
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Mission freelance
Deep Learning Scientist
Publiée le
IA
2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Contexte L'équipe AI Contrôle Non Destructif travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes les lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. La mission sera d'une durée minimale de 6 mois. Compétences requises Vous avez suivi une formation en Software Engineering, en machine learning, en vision par ordinateur ou dans un domaine similaire. Vous disposez d'au moins 4 ans d'expérience professionnelle en machine learning / deep learning. Vous avez une bonne compréhension des techniques de deep learning et les avez appliquées sur de l'image. Vous avez de bonnes compétences en programmation Python, en particulier pour de la mise en production. En termes de méthodologie de travail, vous avez une expérience en environnement agile, sans pour autant en défendre une application dogmatique. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat. Mission Analyse de données sur un projet d'aide au contrôle industriel : analyse de base de donnée, visualisation des images, identification des facteurs significatif. Développer, entraîner et tester les algorithmes d'IA ou de computer vision qui répondent à des besoins clients précis et spécifiques. Implémenter des briques algorithmiques avec un niveau de qualité élevé (module réutilisable, respect de nos guidelines de code). Participer à des réunions projet pour cadrer le besoin client, présenter les résultats de l'algorithme et expliquer les solutions développées. Rédaction de rapport technique.
Mission freelance
Data Engineer
Publiée le
Big Data
IA
Java
3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Mission freelance
Chef de projet senior Data / Automatisation & IA (H/F)
Publiée le
Automatisation
Business Analyst
Google Workspace
3 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre d’une démarche de transformation digitale au sein d’un environnement e-commerce, nous recherchons un Chef de projet senior Data / Automatisation & IA disposant d’une forte culture Data et Business Analysis . La mission s’inscrit dans une logique d’amélioration continue des processus métiers, avec un focus sur l’automatisation, l’exploitation de la donnée et l’intégration de solutions d’intelligence artificielle au service de la performance opérationnelle. Objectifs de la mission Identifier, cadrer et piloter des opportunités à forte valeur ajoutée autour de l’automatisation et de l’IA Accompagner les métiers dans la définition et la mise en œuvre de solutions data-driven Garantir la cohérence des solutions avec l’écosystème technologique existant Responsabilités principales Identifier et prioriser des opportunités de transformation digitale (automatisation, IA, data) Recueillir, analyser et formaliser les besoins métiers en collaboration avec les parties prenantes Réaliser le cadrage fonctionnel et piloter les projets de bout en bout Coordonner les équipes internes et externes impliquées (métiers, IT, partenaires) Traduire les données en insights actionnables et recommandations stratégiques Concevoir et suivre des cas d’usage concrets autour de l’automatisation et de l’IA Veiller à l’alignement des solutions avec les standards internes et l’écosystème Google Profil recherché Expérience confirmée (7 à 10 ans) en Data Analysis / Business Analysis , avec une évolution vers des rôles de gestion de projets digitaux Forte appétence pour les sujets d’automatisation, d’IA et de transformation des processus métiers Excellente maîtrise de l’écosystème Google : Workspace AppSheet Looker / Looker Studio Solutions IA (Vertex AI, Gemini, Google AI Studio) Solide capacité à cadrer des besoins métiers complexes et piloter des projets transverses Très bonnes compétences en communication et en conduite du changement Esprit analytique, orienté résultats Anglais professionnel requis Modalités Localisation : Massy (91) Télétravail : 2 jours par semaine Démarrage : Début janvier 2026 Durée : 3 mois, renouvelable (jusqu’à 15 renouvellements possibles)
Offre d'emploi
Ingénieur Data analyst tableau
Publiée le
CRM
Microsoft Access
SQL
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Contexte & périmètre Production d’indicateurs de performance à destination des métiers Relation Client et ADV Rôle clé d’accompagnement de l’équipe Data (2 DA internes) Contribution à l’évolution des pratiques, méthodes et à l’intégration de l’IA dans les usages métiers Profil recherché Data Analyst expérimenté / senior Compétences techniques : Tableau BDD / SQL Idéalement Salesforce / CRM (incluant Salesforce Analytics) Capacité à : Accompagner l’équipe sur les nouvelles méthodes et façons de faire Déléguer et piloter une partie des chantiers auprès de deux DA internes Profil communicant, à l’aise avec les métiers Objectifs & livrables Qualification des besoins métiers lors des points de revue Priorisation et planification des sprints (revues bi-mensuelles) Production des indicateurs dans les délais engagés Validation de la conformité des livrables avec les métiers Délégation et supervision de l’avancement de certains chantiers Consolidation et reporting d’avancement (travaux directs et délégués) Accompagnement de l’équipe sur : Méthodologie Nouvelles pratiques Usage de l’IA Suivi de la production et des engagements clients
Mission freelance
Consultant AI MLOps
Publiée le
AWS Cloud
IA
IA Générative
3 mois
Paris, France
Télétravail partiel
Kajenthi@RED Global – Recherche Consultant IA/ MLOPS – Freelance – 3 mois - Paris intramuros – Hybride RED Global recherche un Consultant IA/ MLOPS, avec une casquette de Product Owner et Project Manager , en Freelance, sur Paris et avec un client final. Votre mission sera d’intervenir dans la delivery, la gestion de projets et la structuration des processus IA et MLOPS Détails du poste: Lieux: Paris – Hybride Type de contrat : Freelance – 3 mois Démarrage : ASAP 1 entretien uniquement Stack technique: AWS, Python et CI/CD Profil recherché : Plus de 5 ans d’experience en tant que Consultant IA/ MLOPS Expérience en Data Science et Machine Learning Expérience poussée sur AWS Cloud data et Python Il faudra: Piloter le projet Collaborer avec les Business Partners IT pour structurer, qualifier et prioriser les nouvelles demandes liées à l’IA Assurer l’intégration des activités et pipelines IA dans les processus et outils CI/CD Langues : Maîtrise du français et anglais (obligatoire) Si vous souhaitez recevoir plus d’information sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail au
Offre d'emploi
Ingénieur Infrastructure IA H/F
Publiée le
35k-60k €
Paris, Île-de-France
Télétravail 100%
Vous travaillerez dans le cadre du déploiement et de l'exploitation d'une AI Factory à très grande échelle, reposant sur plusieurs clusters. L'AI Factory s'appuie sur des architectures de stockage haute performance capables d'alimenter efficacement des clusters GPU NVL72, avec des exigences fortes en débit, latence et parallélisme I/O. Vous êtes en charge de l'architecture, de l'optimisation et de l'évolution des infrastructures réseaux, stockage, systèmes et GPU fabrics alimentant des charges IA critiques (training, fine-tuning, inference). L'environnement est international, hautement distribué (Europe, Amérique du Nord, Asie) et orienté performance extrême, faible latence et scalabilité horizontale. Architecture & design de la GPU Fabric : -Concevoir et faire évoluer des architectures réseau haut débit, faible latence, adaptées aux NVL72 et aux workloads IA massivement parallèles -Définir les topologies réseau (leaf-spine, fat-tree, dragonfly le cas échéant) pour : Interconnexion intra-NVL72, Scale-out multi-racks / multi-clusters -Sélectionner et valider les technologies : InfiniBand HDR / NDR, Ethernet Spectrum / RoCEv2, Dimensionner les fabrics pour des usages IA à très grande échelle (NCCL-heavy, all-reduce intensif) -Identifier et lever les goulots d'étranglement réseau, mémoire et CPU/GPU Stockage : -Concevoir des architectures end-to-end data -> réseau -> GPU -Veiller à ce que le storage ne soit pas un goulot d'étranglement pour les workloads IA distribués -Collaborer au design et à l'intégration de solutions de storage haute performance : Systèmes de fichiers parallèles (Lustre, GPFS / Spectrum Scale, BeeGFS), Object storage haute performance -Participer à l'optimisation des I/O data (accès concurrents, cache NVMe, burst buffers) -Assurer la cohérence GPU scheduling / accès data dans Kubernetes Intégration Kubernetes & workloads IA : -Concevoir l'intégration réseau de clusters GPU dans des environnements Kubernetes -Gérer l'exposition et l'isolation des interfaces RDMA : Device Plugin, Network Operator / CNI avancés -Garantir le bon fonctionnement des workloads conteneurisés IA : Training distribué, Jobs MPI / NCCL, Pipelines data / GPU
Offre d'emploi
Senior DATA Project Manager - Anglais courant
Publiée le
RACI
Snowflake
User acceptance testing (UAT)
18 mois
20k-40k €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 10 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Senior Project Manager Spécialités technologiques : Intelligence artificielle, Gestion de projet,Gouvernance des données Le consultant interviendra en tant que Senior Project Manager sur des projets Data, Analytics et Intelligence Artificielle à dimension internationale. Il aura pour mission de piloter des initiatives complexes et transverses, en coordination avec des équipes globales et locales, afin de garantir la livraison de solutions analytiques à forte valeur métier. MISSIONS Les principales responsabilités et livrables attendus sont : 1. Pilotage de programme & support à la gouvernance • Accompagner la livraison du programme via une gestion structurée du backlog et des priorités • Organiser et animer les instances récurrentes du programme en garantissant efficacité, pertinence et limitation du temps de réunion • Préparer les ordres du jour, supports et tableaux visuels ; formaliser les décisions, risques, points bloquants et assurer le suivi des actions • Produire des reportings clairs et synthétiques, maintenir une documentation projet détaillée et des outils de pilotage à jour • Représenter les intérêts auprès des prestataires et fournisseurs 2. Exécution du management de projet • Piloter de bout en bout des projets pays et transverses (ex. : Data Privacy, Data Catalog, définition de processus) • Construire et suivre des plans d’actions alignés sur les délais et le budget, en coordination avec les parties prenantes globales et locales • Assurer une gestion proactive des risques et définir les canaux d’escalade appropriés • Accompagner les équipes locales dans la définition des besoins métiers, la préparation et l’exécution des recettes (UAT), selon leur niveau d’autonomie • Garantir les prérequis avant le lancement des projets : o RACI o Planification des ressources o Définition de la valeur métier o Revue du Statement of Work (SOW) • Piloter les initiatives d’amélioration continue, incluant l’optimisation des processus et la conduite du changement 3. Standards, documentation & amélioration continue • Contribuer à la définition des standards analytiques et opérationnels du programme • Développer et maintenir la documentation du programme (playbooks, descriptions de processus, guides) • Appliquer une démarche d’amélioration continue aux nouveaux processus et pratiques • Définir et valider les phases de tests des processus analytiques • Capitaliser sur les retours d’expérience, les intégrer dans la documentation standard et assurer leur diffusion auprès de toutes les équipes Expertise souhaitée Expertise souhaitée • Plus de 10 ans d’expérience en IT, dont au moins 5 ans sur des projets Data & Analytics • Expérience confirmée dans le pilotage de programmes globaux ou multi-pays • Maîtrise des méthodologies de gestion de projet (Scrum, Lean, Kanban) • Solides compétences en leadership, communication et gestion des parties prenantes, dans des environnements complexes et internationaux • Capacité à entrer dans le détail tout en conservant une vision globale, afin d’assurer une coordination efficace entre les équipes métiers, IT et data • Excellentes capacités d’organisation, de gestion du temps, de priorisation et de résolution de problèmes • Bonne compréhension des concepts d’analytique et d’intelligence artificielle, permettant d’interagir efficacement avec les équipes techniques et métiers • Forte autonomie, rigueur, orientation résultats et aptitude à proposer des solutions pragmatiques • Anglais courant
Mission freelance
Lead Data Platform Snowflake, AWS, GCP
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
PostgreSQL
1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform Snowflake, Aws, Gcp , pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Mission freelance
Data LLM Engineer - (H/F)
Publiée le
Large Language Model (LLM)
Machine Learning
Python
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Mission freelance
Senior Data Scientist IA / LLM
Publiée le
LangChain
Large Language Model (LLM)
Python
12 mois
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
Offre d'emploi
Développeur Full Stack IA (H/F)
Publiée le
Angular
AWS Cloud
Azure
Paris, France
Télétravail partiel
Pour le compte d’un acteur public , nous recherchons un Développeur Full Stack IA afin d’intervenir au sein d’une usine IA interne en forte croissance . Objectif du poste Concevoir et déployer des solutions métiers intelligentes de bout en bout , contribuant directement à la performance de l’action publique, dans un environnement agile et innovant . Au sein d’une équipe pluridisciplinaire (Data Scientists, Data Engineers, Architectes), vous interviendrez sur l’ensemble de la chaîne de valeur : Développement Front-end Interfaces web modernes et responsives (React, Vue.js, Angular) Attention particulière à l’UX/UI et à l’accessibilité Développement Back-end Conception d’API REST / GraphQL (Node.js, Python – FastAPI/Flask, Java) Intégration de micro-services exposant des modèles IA Intégration IA Industrialisation de modèles IA (ML, Deep Learning, GenAI) Connexion à des API IA (OpenAI, Hugging Face…) Architecture & DevOps Déploiement Cloud & on-premise (AWS, GCP, Azure, Outscale) CI/CD, Docker, Kubernetes, Infrastructure as Code Qualité & Sécurité Tests automatisés, monitoring, performance Bonnes pratiques de sécurité (OWASP, IAM, chiffrement) Profil recherché Formation Bac+5 (informatique, développement logiciel ou équivalent) Minimum 3 ans d’expérience en développement Full Stack Solide culture IA / Data / Cloud À l’aise en environnement Agile Autonome, curieux(se), force de proposition
Offre d'emploi
Technical Product Owner Data Science Platform
Publiée le
DevOps
Machine Learning
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Objectifs Au sein de la division AI & Innovation de l'IT groupe d'une institution financière majeure, l'équipe AI Production Center recherche un profil premium afin d'assurer l'ownership technique du produit "Data Science Platform" du groupe. Contexte Équipe de 20 experts répartis sur 5 pôles d'activité (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services) 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production à l'attention de tous les métiers du Groupe Un GRID de GPU on premise utilisé pour le training et l'inference Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits Environnement de travail Team Play avant tout! Curiosité sans limites!! Autonomie, rigueur, qualité Sens du service client Patience & bienveillance Appétance naturelle pour le partage de connaissances L'automatisation dans le sang Anglais courant (fournisseurs et clients en dehors de France, base documentaire entièrement en Anglais) Laptops au choix (MacOS, Windows)
Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois