Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 124 résultats.
Freelance

Mission freelance
Mission Longue de Consultant Snowflake

SKILLWISE
Publiée le
Architecture
AWS Cloud
Azure

3 mois
180-680 €
Paris, France

Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.

Freelance

Mission freelance
[TPR] Architecte Data et IA - Big Data (8/12 XP)

ISUPPLIER
Publiée le
Big Data
RGPD
Stratégie

3 mois
400-730 €
Paris, France

Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC

CDI
Freelance

Offre d'emploi
Développeur Go / MLOps

IA Soft
Publiée le
Docker
Gitlab
Go (langage)

6 mois
40k-45k €
300-550 €
Île-de-France, France

Nous recherchons un(e) Développeur Go / MLOps pour l'un de nos clients grands comptes dans le secteur bancaire. Contexte de la mission : L’équipe est responsable de la stabilité, de la disponibilité et de l’évolution des briques techniques de la plateforme Sparrow. Elle conçoit également les fondations techniques (back-end, infrastructure, sécurité, CI/CD) essentielles à son fonctionnement. En tant que prestataire Dev Go / MLOps, tes missions seront les suivantes : Maintenance et évolution : Maintenir et faire évoluer des microservices en Go déployés dans Kubernetes (opérateurs, API internes, etc.). Développer des frameworks Python (back-end ou bibliothèques internes pour Data Science). Gérer les pipelines CI/CD GitLab (build, tests, déploiements). Créer et maintenir du code d'infrastructure (Terraform, Helm, Kustomize, etc.). Développer des outils internes DevOps / MLOps (ArgoCD, GitLab runners, Vault, etc.). Assurer la gestion des outils d’observabilité (Prometheus, Grafana, logs, alerting). Industrialisation de projets IA : Accompagner la mise en production de projets IA provenant d’autres équipes. Intégrer les modèles IA dans la plateforme Sparrow Flow et les déployer sur Sparrow Serving. Participer à des POCs pour tester de nouveaux outils ou pratiques Dev/MLOps. Stack technique : Une stack moderne et riche, avec un fort accent sur DevOps / MLOps : Langages : Go (pour les opérateurs Kubernetes, services back-end), Python (frameworks ML), Bash. Infrastructure & Orchestration : Kubernetes, Docker, Helm, Kustomize. CI/CD : GitLab CI, GitOps, BuildKit. Infra as Code : Terraform. Observabilité : Prometheus, Grafana, ELK, Jaeger. Sécurité / IAM : Vault, Keycloak, Sparrow IAM. Outils IA/DS : ArgoWorkflows, ArgoEvents, pyPF.

Freelance

Mission freelance
Expert Stockage Objet MinIO / S3

KEONI CONSULTING
Publiée le
autonomie

18 mois
100-500 €
Paris, France

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, InfrastructureExpert Spécialités technologiques :Stockage,API,ML Compétences Technologies et Outils Docker Active Directory Kubernetes LDAP Soft skills Autonomie Rigueur Nous recherchons un expert technique de haut niveau pour accompagner notre client dans la conception, la mise en œuvre, l'optimisation et la maintenance de notre infrastructure de stockage objet basée sur MinIO. Le candidat retenu devra justifier d'une expérience significative en environnement de production, avec des contraintes fortes de haute disponibilité, de performance et de scalabilité. MISSIONS Maîtrise approfondie de MinIO et de l'écosystème S3 - Expertise de l'API S3 : Connaissance complète des fonctionnalités de l'API S3 (gestion des objets, versioning, politiques de cycle de vie, multipart upload, presigned URLs, etc.). - Architecture MinIO : Compréhension fine de l'architecture de MinIO, y compris le fonctionnement du mode distribué, l'erasure coding pour la protection des données, et le processus de guérison automatique (healing). - Déploiement et Configuration : Expérience avérée dans le déploiement de clusters MinIO à grande échelle, que ce soit sur des serveurs bare-metal, des machines virtuelles ou dans un environnement conteneurisé (Kubernetes, Docker). L’échelle en terme de stockage est entre 500 et 900TB en cible à 5ans. - Sécurité : Maîtrise des aspects de sécurité liés à MinIO, incluant le chiffrement (côté serveur et côté client), la gestion des identités et des accès (IAM), et l'intégration avec des fournisseurs d'identité (LDAP, Active Directory). Haute Disponibilité et Scalabilité - Conception d'Architectures Résilientes : Capacité à concevoir et à mettre en œuvre des architectures MinIO garantissant une haute disponibilité (multi-nœuds, multi-sites). - Scalabilité Horizontale : Expérience dans l'ajout de nouveaux nœuds à un cluster MinIO existant sans interruption de service et connaissance des mécanismes de rééquilibrage automatique. - Gestion des Défaillances : Solide expérience dans la gestion des pannes (disques, nœuds) et les stratégies de reprise après sinistre. Performance et Optimisation - Analyse de Performance : Compétence dans l'utilisation d'outils de benchmark (comme warp) pour mesurer et analyser les performances (latence, débit) d'un cluster MinIO. - Optimisation : Capacité à identifier et à résoudre les goulots d'étranglement, que ce soit au niveau matériel (réseau, disques NVMe), système ou applicatif. - Caching : Connaissance des stratégies de mise en cache pour optimiser les performances des lectures. Expertise souhaitée Expérience de Production et Références Exigées Le candidat doit pouvoir présenter de manière détaillée une ou plusieurs implémentations significatives en environnement de production : - Description du Cas d'Usage : Quel était le besoin métier (stockage pour de l'analytique, de l'IA/ML, des sauvegardes, des médias, etc.) ? - Volumétrie et Charge : Quelle était la volumétrie des données gérées et le niveau de trafic (nombre de requêtes par seconde) ? - Enjeux de Performance : Description des défis spécifiques liés à la performance et des solutions mises en place pour y répondre. - Incidents et Résolution : Exemples concrets d'incidents de production gérés et des leçons apprises. Connaissance d'une Solution Alternative : Une expérience significative avec une autre solution de stockage objet compatible S3 est un atout majeur. Le candidat devrait être capable de comparer MinIO à cette alternative sur des critères techniques et opérationnels. Exemples de solutions alternatives pertinentes : - Ceph - OpenIO - Garage - Services S3 natifs dans un contexte cloud privé SecNumCloud Qualités Personnelles - Autonomie et Proactivité : Capacité à travailler de manière autonome, à diagnostiquer des problèmes complexes et à proposer des solutions robustes. - Rigueur et Méthodologie : Approche structurée dans la résolution des problèmes et la gestion des environnements de production. - Bonne Communication : Aptitude à communiquer clairement sur des sujets techniques complexes avec différentes équipes.

CDI
Freelance

Offre d'emploi
Data Scientists IA

5COM Consulting
Publiée le
Large Language Model (LLM)
Python
RAG

2 ans
La Défense, Île-de-France

Nous recherchons deux Data Scientists IA (Junior & Senior) passionnés par l’intelligence artificielle et les grands modèles de langage pour rejoindre notre équipe sur une mission longue. Missions Concevoir, entraîner et déployer des modèles IA/ML avancés. Travailler sur des cas d’usage innovants autour du RAG (Retrieval Augmented Generation) et des LLM (Large Language Models). Développer en Python des solutions performantes et scalables. Exploiter la puissance du cloud Azure pour industrialiser et mettre en production les modèles. Collaborer avec les équipes Data, Produit et Tech pour maximiser l’impact métier.

Freelance
CDI

Offre d'emploi
Consultant(e) Data Science Cloud GCP

HIGHTEAM
Publiée le
Data science
Google Cloud Platform (GCP)
SQL

3 ans
40k-60k €
400-550 €
Île-de-France, France

Pour le compte de l’un de nos clients grands comptes, nous recherchons un(e) Consultant(e) Data Science spécialisé(e) Cloud GCP pour une mission stratégique à haute valeur ajoutée. Vous interviendrez au sein d’équipes Data sur des projets de transformation digitale, de valorisation de la donnée et d’industrialisation de modèles. Compétences techniques : Google Cloud Platform (GCP) – Maîtrise des services data (BigQuery, Dataflow, etc.) SQL – Bon niveau requis Python (atout apprécié pour les traitements de données et les modèles ML) Data Engineering / Data Science – Connaissances en modélisation et pipelines data Compétences linguistiques : Anglais courant obligatoire (oral et écrit – environnement international) Soft skills : Excellentes compétences en communication Capacité à vulgariser des problématiques techniques auprès des équipes métiers Esprit d'équipe et sens du service

CDI

Offre d'emploi
Data Scientist Senior

REDLAB
Publiée le
Docker
Git
Modèle Logique des Données (MLD)

40k-45k €
Paris, France

Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)

Freelance

Mission freelance
Data Engineer IA GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France

🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

Freelance

Mission freelance
Expert IA & Sécurité

KEONI CONSULTING
Publiée le
AWS Cloud

18 mois
100-500 €
Paris, France

CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement,Expert Spécialités technologiques : Intelligence artificielle, Open Source,MLOps,AI,IA generative Cette mission stratégique s’inscrit dans un programme de sécurisation et d’industrialisation des solutions d’intelligence artificielle générative et agentique. L’objectif principal est de tester, évaluer et intégrer des garde-fous (AI guardrails) dans les pipelines d’IA et environnements MLOps, afin d’assurer la robustesse, la conformité et la sécurité des applications basées sur des LLMs (Large Language Models). Le poste s’adresse à un profil senior en ingénierie IA / sécurité ML, capable d’évoluer dans un contexte international et de collaborer avec des équipes pluridisciplinaires (sécurité, conformité, data science, développement). MISSIONS Responsabilités principales 1. Évaluation et test des solutions de garde-fous IA - Identifier, tester et comparer des solutions de sécurité applicables aux LLMs et aux applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir des scénarios d’attaque avancés (prompt injection, exfiltration de données, jailbreaks) pour évaluer la résilience des modèles. - Analyser les résultats et produire des rapports d’évaluation détaillés (accuracy, intégrabilité, impact sur la performance). 2. Intégration et industrialisation - Définir des blueprints d’intégration pour l’implémentation des garde-fous dans les pipelines d’IA et environnements MLOps. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG (Retrieval-Augmented Generation) et agentiques. - Collaborer avec les équipes IA et sécurité pour assurer la cohérence technique, la scalabilité et la conformité réglementaire. - Participer à la conception de workflows sécurisés pour les environnements cloud (Azure, AWS, GCP) et hybrides. 3. Conception de scénarios d’attaque et d’évaluation - Élaborer des batteries de tests adversariaux simulant des menaces réelles. - Documenter les résultats et proposer des mécanismes de mitigation. - Contribuer à la définition d’indicateurs de sécurité mesurables pour le suivi de la performance des garde-fous. 4. Partage de connaissances et contribution stratégique - Conduire des ateliers internes et former les équipes aux meilleures pratiques de sécurité IA. - Rédiger des whitepapers techniques sur la sécurité des systèmes IA et les approches de défense proactive. - Participer à la diffusion des bonnes pratiques au sein de la communauté interne IA et sécurité. Livrables attendus - Framework de test des garde-fous IA – outils et scripts pour évaluer la performance et la robustesse des solutions. - Rapports d’évaluation détaillés – comparatifs techniques entre outils (open source / commerciaux). - Blueprints d’intégration – recommandations d’architecture pour l’intégration dans les pipelines LLM, RAG et agents. - Livrables de knowledge sharing – supports d’ateliers, documentation technique et contribution à la base de connaissances IA Sécurité. Expertise souhaitée Expertise technique - Excellente compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en IA générative et sécurité des modèles : guardrails, content filtering, prompt validation, data leakage prevention. -Maîtrise des outils et langages : Python, Docker, CI/CD, APIs cloud AI (Azure, AWS, GCP). - Connaissance approfondie des environnements MLOps et des pipelines de déploiement IA sécurisés. - Expérience en vulnerability testing, tests adversariaux et robustesse des modèles. - Bonne connaissance des principes de Responsible AI, des cadres de gouvernance et du AI Act européen. - Expérience avec les workflows Asiantech AI ou similaires (design d’architectures agentiques et intégration cloud). Compétences transverses - Solides capacités de communication et de rédaction technique (en anglais et français). - Capacité à interagir avec des équipes multiculturelles et à vulgariser des concepts techniques complexes. - Sens de la rigueur scientifique, esprit d’analyse et orientation résultats. - Capacité à travailler dans des environnements complexes et soumis à des contraintes réglementaires.

Freelance

Mission freelance
Expert Technique – SSDLC & Solutions IA

KEONI CONSULTING
Publiée le
Javascript

18 mois
100-500 €
Paris, France

CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Infrastructure, Cloud, API, Automatisation des tests QA Au sein d’un environnement international, la mission consiste à co-définir, expérimenter et déployer un cadre de développement logiciel sécurisé (SSDLC) intégrant les apports récents de l’intelligence artificielle et de l’automatisation. Le rôle requiert une solide expérience technique, une compréhension fine du cycle de vie logiciel et une capacité à accompagner la transformation des pratiques d’ingénierie logicielle dans un contexte complexe et distribué. MISSIONS : Responsabilités principales 1. Co-définition et consolidation du SSDLC - Collaborer avec les équipes sécurité, développement et architecture pour co-construire le futur cadre SSDLC. - Intégrer des outils d’assistance au codage (Copilot, etc.) et des pratiques de sécurité automatisées dans les différentes phases du cycle. - Définir les contrôles de sécurité et mécanismes de validation pour le code généré par IA. - Rédiger la documentation, les playbooks et supports de formation pour faciliter l’adoption du SSDLC.* - Contribuer à l’amélioration continue des processus de développement et de validation. 2. Expérimentation et innovation autour de l’IA et des agents logiciels - Piloter des proof-of-concepts sur les assistants de codage, la génération de code et les workflows agentiques. - Concevoir et exécuter des expérimentations pour mesurer les gains de productivité, l’impact sur la qualité du code et les implications sécurité - Construire des prototypes intégrant l’IA dans tout le cycle de développement (planification, codage, test, déploiement, maintenance). - Analyser les données issues de ces expérimentations et formuler des recommandations stratégiques. - Participer activement à la communauté interne des développeurs IA et au partage de connaissances. 3. Évolution et support des plateformes internes - Faire évoluer l’assistant de code interne en y intégrant des fonctionnalités avancées et des garde-fous de sécurité. - Intégrer les outils dans les IDE et pipelines CI/CD existants pour une adoption fluide. - Contribuer à l’évolution de la plateforme d’orchestration de sécurité : détection de vulnérabilités, automatisation des tests, Intégration IA. - Développer des mécanismes d’évaluation automatisée de la qualité du code et des tableaux de bord d’excellence technique. - Collaborer avec les équipes cloud et sécurité pour aligner les solutions sur les standards internes (AWS, Azure, Kubernetes, OpenShift/RedHat). Expertise souhaitée - Excellente maîtrise du développement web moderne (JavaScript/TypeScript, Python, Node.js, React/Vue/Angular). - Connaissance approfondie de plusieurs langages (Java, Go, C#, etc.) et des architectures microservices et cloud-native. - Maîtrise des pipelines CI/CD, du déploiement sur AWS et Azure, de la containerisation (Kubernetes, OpenShift) et de l’Infrastructure as Code. - Expérience avec les outils de sécurité : SAST/DAST, gestion des dépendances et des secrets, pratiques de codage sécurisé. - Familiarité avec les cadres de sécurité (NIST, OWASP SAMM, ISO 27001) et les outils de productivité développeur. - Connaissance pratique des LLM, frameworks d’agents IA, prompt engineering, et intégration de modèles via API. - Expertise ML appliquée à l’ingénierie logicielle (détection de vulnérabilités, analyse de code, scoring de qualité). - Compétences fonctionnelles et comportementales Une certification QA constitue un atout. Profil recherché - Tech Lead ou Expert Software Engineering avec une solide expérience du développement sécurisé et de l’intégration de l’IA dans les pratiques d’ingénierie. - Familiarité avec les outils d’assistance au développement (Copilot, CodeWhisperer, etc.). - Expérience dans la conception d’applications, le déploiement et la gestion du cycle de vie logiciel complet. - Capacité à interagir avec de multiples parties prenantes, à la croisée du développement, de la recherche et de la sécurité. Compétences Technologies et Outils Redhat JavaScript Kubernetes C# Angular AWS React Python CI/CD TypeScript Azure JS Méthodes / Normes ISO 27001

Freelance

Mission freelance
Data Scientist - Azure AI (h/f)

emagine Consulting SARL
Publiée le

10 mois
500-700 €
1130, La Hulpe, Brabant wallon, Belgique

Vous êtes un Data Scientist expérimenté avec de solides compétences en Azure AI et Python ? emagine a une opportunité pour vous de soutenir les initiatives d'IA de l'entreprise dans les domaines de la finance, de la communication et du marketing au sein d'une équipe internationale. Are you an experienced Data Scientist with strong Azure AI and Python skills? emagine has an opportunity for you to support corporate AI initiatives across finance, communication, and marketing domains with a global team. Skills & Expertise: Data Science: Experience in designing and evaluating AI models for corporate use cases. Azure AI: Hands-on experience and or certification with Azure AI services such as Azure Machine Learning, Cognitive Services, and Azure OpenAI. Python Programming (Confirmed): Strong proficiency in Python for data manipulation. AI Engineering: Experience in end-to-end AI solution development—from data ingestion to model deployment and monitoring. Generative AI: Practical knowledge of generative models (e.g., GPT, diffusion models) and their application in content creation, summarization, and automation. Finance Knowledge: Understanding of financial principles and data structures, enabling effective collaboration on finance-related AI projects. Communication Skills: Comfortable engaging with stakeholders across departments. Able to translate technical concepts into business language. English Language: Fully fluent in spoken and written English, experienced working and collaborating in a global environment. Key tasks and deliverables: Develop and implement AI solutions for corporate projects in finance, communication, and marketing. Apply predictive algorithms and generative AI techniques to solve business challenges. Leverage Azure AI tools and services to enhance project outcomes. Collaborate with cross-functional teams and stakeholders to ensure project success. Deliver insights and recommendations based on data science and AI models. Apply with your latest CV or reach out to Brendan to find out more.

Freelance

Mission freelance
Développeur XR / IA Générative

KEONI CONSULTING
Publiée le
Deep Learning

18 mois
100-400 €
Metz, Grand Est

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Intelligence artificielle, IA generative MISSIONS Au sein du Digital Lab de notre client, vous participerez à la création et à la construction de solutions en réalité étendue couplées à l'intelligence artificielle. Expertise souhaitée Compétences ou connaissances indispensables : - Maîtrise des logiciels XR (Unity, C#), avec une expérience en développement d’applications immersives - Bonne connaissance des méthodes RAD (Rapid Application Development) et des pratiques de développement Agile - Familiarité avec les équipements XR (casques VR, lunettes connectées, capteurs) - Connaissance pratique des outils d’Intelligence Artificielle Générative (LLM, RAG), des solutions du marché, et de l’implémentation locale de modèles IA - Capacité d’analyse des besoins utilisateurs et de transformation en solutions techniques adaptées - Maîtrise des outils et méthodes pédagogiques dans un contexte digital ou immersif - Anglais courant à l’oral et à l’écrit - capacité à réaliser des présentations en anglais Innovation, créativité Compétences ou connaissances souhaitées : - Expérience en modélisation 3D d’environnements immersifs - Connaissance des cas d’usage industriels de la XR et des IA génératives - Aptitude à acculturer des publics variés aux nouvelles technologies et à former des utilisateurs Compétences ou connaissances qui seraient un plus : - Connaissances en Machine Learning et Deep Learning appliqués aux usages XR ou IAG - Sensibilisation aux enjeux éthiques de l’IA et à l’IA responsable - Expérience en développement cross-plateformes pour des solutions IA générative - Bases en sciences cognitives et compréhension des mécanismes d’apprentissage humain - Compétences en UX/UI design et en Game Design

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

124 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous