Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning
Ce qu’il faut savoir sur Machine Learning
Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Offre d'emploi
Data scientist - Retail - 3 à 5 ans exp.
Contexte Dans le cadre du renforcement des initiatives Data et IA, le Data Scientist jouera un rôle clé dans la réalisation de projets stratégiques à fort impact. Il/elle interviendra sur des problématiques variées telles que : Prédiction du churn Optimisation des campagnes marketing et promotionnelles Analyse du parcours client Recommandation de produits Anticipation de la demande Activation d’audiences Le poste implique une collaboration étroite : Avec les équipes produit pour comprendre les enjeux métiers, commerciaux et opérationnels. Avec les équipes techniques , notamment les Data Engineers, pour identifier, exploiter et valoriser les données disponibles. Missions Le/la Data Scientist interviendra sur l’ensemble du cycle de vie des projets data : 1. Cadrage & Analyse Recueillir et analyser les besoins métiers. Proposer des solutions de Data Science adaptées aux cas d’usage identifiés. Participer à la qualification, priorisation et pilotage des projets IA. 2. Préparation des données Analyser la qualité et la pertinence des données disponibles. Réaliser les transformations nécessaires pour exploiter les données de manière optimale. 3. Modélisation & Industrialisation Développer des modèles prédictifs en mode POC. Industrialiser les solutions avec les outils et bonnes pratiques MLOps. Documenter les modèles et pipelines mis en œuvre. 4. Valorisation & Suivi Créer des reportings adaptés aux utilisateurs (via Looker ou autres outils). Évaluer les performances et les impacts business des modèles déployés. Organiser les instances de suivi projet (comités, revues, etc.). 5. Animation & Collaboration Contribuer à l’animation des sujets IA dans l’organisation. Participer à la montée en compétence de l’équipe Data Science. Livrables attendus Analyses exploratoires et études statistiques Modèles de Machine Learning (prototypes et versions industrialisées) Tableaux de bord et visualisations Documentation technique et fonctionnelle

Offre d'emploi
Développeur Python / Golang
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize - Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : - Expérience dans la prestation de 5 ans mêlant le développement, l’infrastructure et le cloud ; - Très bonnes connaissances en Intelligence Artificielle ; - Très bonnes connaissances en Architecture logicielle et cloud ; - Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; - Niveau d’anglais correct à l’écrit et à l’oral ; - Méthodique et autonome - Intéressé par le monde open source
Mission freelance
Customer Technology Advisor
Contexte de la mission : Nous recherchons, pour le compte d’un client du secteur bancaire basé à Guyancourt, un Customer Technology Advisor pour une mission longue durée. Démarrage : ASAP Durée : 2 ans Localisation : Guyancourt / Télétravail hybride Description du poste : Le Customer Technology Advisor est un interlocuteur stratégique et opérationnel entre les entités clientes et les équipes techniques du cluster. Il joue un rôle central dans l’adoption des offres technologiques, la co-construction de nouveaux services et l’accompagnement technique des entités tout au long du cycle de vie des produits. Responsabilités principales : - Collecte et qualification des besoins et des irritants des entités et du cluster - Création, suivi et priorisation des demandes liées aux offres - Accompagnement à l’adoption technique des offres, fonctionnalités ou expérimentations - Co-construction des offres et participation à leur pilotage en early adoption - Animation de la montée en compétence et acculturation technique des équipes - Conseil technique auprès des entités et des équipes du cluster - Suivi des livrables et de la qualité de service (build & run) - Contribution aux roadmaps et aux arbitrages stratégiques Livrables attendus : - Consolidation des besoins et priorisation - Préparation des décisions pour les comités stratégiques (CTO / DSI) - Définition et suivi des compléments fonctionnels ou techniques aux offres - Support à l’adoption (communication, documentation, accompagnement technique) - Suivi des indicateurs de qualité, remontée des dysfonctionnements - Veille à la bonne adéquation entre services livrés et attentes métiers Compétences requises : - Méthodologie Agile (Scrum, SAFe, etc.) - Maîtrise ITIL V4 - Connaissances S.R.E (Site Reliability Engineering) - Expérience DevOps et GitOps - Bonne culture en architecture technique (réseau, infrastructure) - Forte appétence pour les technologies Cloud Native, conteneurisation, ML/IA, Big Data - Excellentes compétences en communication, pédagogie et coordination - Leadership et capacité d’influence Compétences appréciées : - Maîtrise des technologies ML / IA / GenAI - Connaissances sécurité (RGPD, LPM, normes SSI) - Bon niveau d’anglais professionnel (écrit et oral)

Mission freelance
Data Scientist Séries temporelles H/F
Comprendre finement les mécanismes du Revenue Management dans un contexte aérien : dynamiques de réservation, effets prix, anticipation, segmentation, etc. Concevoir, tester et mettre en œuvre un nouveau modèle de prévision de la demande, basé sur des approches de séries temporelles modernes (ML, statistiques bayésiennes, etc.) dans un contexte multi-segments, multi-horizons et incertain. Garantir l’interprétabilité, la robustesse statistique et la fiabilité des prévisions, afin de permettre aux équipes métiers RM d’exploiter efficacement les résultats dans un système de décision. Intégrer une réflexion rigoureuse sur les biais, les sources d’endogénéité, et les incertitudes des modèles, et proposer des moyens de les tester, corriger ou encadrer. Définir et produire des indicateurs de performance prédictive et de qualité statistique, à destination des équipes métiers. Maîtrise approfondie des modèles de séries temporelles (ARIMA, état-espace, bayésiens hiérarchiques, etc.). Connaissance des problèmes d’endogénéité, des méthodes de contrôle (instruments, double robustesse, etc.). Maîtrise des tests statistiques (hypothèse, robustesse, validité externe), et des méthodologies d’AB testing. Compétence en analyse causale, ou capacité à discuter la causalité dans un environnement de données observationnelles.

Mission freelance
Data Analyst / Développeur ETL
Compétences techniques : • Expertise en architecture décisionnelle et modélisation de données décisionnelles (modèle en étoile, flocon, Data Vault…) • Maîtrise d’un ou plusieurs ETL/datawarehouse • Gestion de la qualité et de la gouvernance des données • Excellente connaissance de Power BI pour la restitution des données • Solides compétences en SQL pour la modélisation et transformation des données • Connaissances en Python et Machine Learning pour intégrer des solutions d’IA • Maîtrise d’un outil de versionning GIT (connaître Bitbucket ou GitLab serait un plus). • Maîtrise d’un outil de ticketing (connaître JIRA ou GitLab serait un plus). • Expertise en gestion de projets (méthodologie agile, suivi des livrables, documentation …) • Compétences en sécurité et conformité : conformité RGPD et gestion des données personnelles, sécurité des accès (authentification, rôles, audit Savoir faire : • Capacité à comprendre les besoins métier • Capacité à traduire ces besoins en modèles de données • Capacité à s’intégrer dans une équipe humaine et à effectuer un reporting régulier au responsable SI • Esprit de synthèse pour prioriser et organiser les tâches • Communication à l’écrit (rédaction de documentation) Savoir être : • Ouverture d’esprit • Réactivité • Rigueur et sens de la documentation • Sens collaboratif et capacité de travail en équipe • Aisance relationnelle • Autonomie • Esprit analytique • Curiosité technologique

Mission freelance
Data Scientist Computer Vision & Forecasting
🔍 Missions principales Computer Vision Développement de modèles de traitement d'image et de vidéo (temps réel et différé) Mise en œuvre de techniques de détection d'objets, de segmentation et de reconnaissance visuelle Intégration de la vision par ordinateur dans des dashboards métier (FastAPI, React, Power BI) Déploiement sécurisé dans des environnements cloud (Azure ou GCP) Veille active sur les technologies deep learning en vision Forecasting Conception de modèles de prévision sur des séries temporelles (demande, ventes, indicateurs métier) Optimisation des modèles via des techniques statistiques et de machine learning Collaboration étroite avec les équipes métier pour transformer les modèles en leviers décisionnels Collaboration & Communication Travail transverse avec les équipes produit, data, techniques et opérationnelles Vulgarisation des résultats auprès d'interlocuteurs non techniques Documentation claire des approches, des modèles et des choix techniques 🛠 Environnement technique Computer Vision : YOLOv5, YOLOv8, ResNet, InceptionV3, base MS COCO Forecasting & NLP : LSTM, LangChain, LangGraph, ChromaDB, vectorisation documentaire Développement / Déploiement : FastAPI, React, Power BI Cloud & MLOps : Azure, GCP, GitLab CI/CD Montreal Associates is acting as an Employment Business in relation to this vacancy.

Mission freelance
Recherche Ingénieur RAG
Dans le cadre du développement de solutions d’intelligence artificielle générative, nous recherchons un Ingénieur spécialisé en RAG (Retrieval-Augmented Generation) pour concevoir, développer et optimiser des systèmes mêlant recherche d’information (retrieval) et génération de texte via des modèles de langage (LLM) . Vos responsabilités incluront : Concevoir des architectures RAG robustes et scalables Implémenter des pipelines de traitement NLP : vectorisation, embedding, indexation, recherche sémantique Intégrer des modèles de langage type GPT, LLaMA, Mistral, etc., avec des bases de connaissances internes Travailler avec des solutions de base vectorielle (FAISS, Weaviate, Pinecone, etc.) Optimiser la pertinence des réponses via tuning du modèle, réécriture de requêtes, reranking, etc. Collaborer avec les équipes data, ML et produit pour cadrer les cas d’usage métiers Assurer la veille technologique autour du RAG, LLM open source, et du NLP Participation à des projets innovants autour des LLMs Forte autonomie dans les choix technologiques Possibilité de contribuer à de l’open source ou à des publications techniques Environnement agile, stimulant et orienté recherche appliquée

Mission freelance
Data Scientist IA NANTES
Descriptif du poste : Data Scientist IA La mission du Data Scientist IA s'articule autour d'un besoin de développer des cas d'usages concrets embarquant des technologies d'Intelligence Artificielle avancées et se basant sur le patrimoine de données actuel pour en augmenter sa valeur et son usage métier. L'apport de ces cas d'usage se traduiront par une meilleure productivité des agents gérant des services spécifiques en Gare. Missions principales : • Préconiser le socle technologique adapté aux différents cas d'usage • Comprendre et modéliser les problématiques métier et les cas d'usage définis dans le cadre de la mission • Définir avec justesse le périmètre des données nécessaire à la solution technique • Designer et construire des modèles de machine learning adaptés • Optimiser les prompts et enrichir les modèles IA en fonction des retours des controles de cohérence et des utilisateurs • Eventuellement créer des visualisations appropriées aux besoins cartographiques • Estimer la charge à allouer aux différents traitements et actions techniques prévus • Optimiser le modèle de donnée des projets IA définis dans le cadre de la mission • Développer des scripts Python optimisés • Créer les tables ou vues nécessaires aux projets IA définis dans le cadre de la mission • Echanger avec les ops de la Team Data à des fins d'industrialisation de collecte, traitements, supervision et restitution des données • Définir la méthodologie de mesure de la performance adaptée afin de montrer les gains relatifs au développement des cas d'usages définis dans le cadre de la mission • Préconiser les modalités techniques précises de généralisation des cas d'usage et de mise en production Interactions et collaboration : Le poste implique des contacts avec les métiers et entités pilotant les services (Objets trouvés, assistance PSH / PMR, Consignes- Conciergerie, RCAD, Direction transporteurs, équipe CRM, Sat client…). Le candidat interagira également avec les équipes infra et l'équipe Data Analytics. Au quotidien, il travaillera en binôme avec le Chef de Produits Data/IA qui l'accompagnera sur le développement des Use Cases. Il devra présenter les résultats de ses travaux lors de Comités d'échange de best practices data.

Mission freelance
Customer Technology Advisor AGILE, ITIL V4, S.R.E. DevOPs and GitOps/fa
Customer Technology Advisor AGILE, ITIL V4, S.R.E. DevOPs and GitOps. client Banque basé à Guyancourt, un Customer Technology Advisor. Compétences requises : Compétence en méthodologie Agile. Compétence ITIL V4. Compétences S.R.E (Site Reliability Engineering). Expérience DevOps et GitOps. Expérience en architecture technique (réseau, infrastructure). Intérêt pour les nouvelles technologies (Cloud Native, DevOps, ML/IA/GenAI, Conteneurisation, Big Data, etc.). Excellentes compétences en communication et pédagogie. Excellente posture relationnelle. Leadership confirmé. Les atouts supplémentaires sont un plus : Technologies ML/IA/GenAI. Connaissances en matière de sécurité et des normes (RGPD, LPM, …). Compétences en anglais (écrit et oral). Démarrage ASAP Localisation Guyancourt / Télétravail Durée de la mission : 2 ans Projet : Il s’agit du point de contact privilégié des Entités et des Pôles. Il acquière la connaissance technique des offres, participe aux rituels des produits, porte les besoins jusqu’à la délivrance des services, échange avec les Pôles et mobilise les ressources du Cluster pour mener à bien l'adoption par les Entités. Il partage la connaissance des offres en interne du Cluster pour faciliter l'appropriation des nouvelles offres/évolutions, accompagne et conseille les Entités, accompagne lors de l'adoption, la co-construction et les expérimentations. Périmètre d’intervention : Il pilote la collecte et la qualification des besoins. Il pilote la collecte et la qualification des irritants. Il pilote la création et le suivi des demandes. Il est garant de l’adoption par le cluster et l’entité de l’offre ou fonctionnalité. Il est garant de la co-construction d’une offre. Il est garant de l’adoption en pilote (early adopter) d’une nouvelle offre. Il est garant de l’expérimentation technique. Il est référent sur les connaissances techniques de son domaine produits. Il est garant de l’acculturation et réalise des présentations des offres au cluster ou pour l’entité cliente. Il réalise un premier niveau initial d’accompagnement technique du cluster ou de l’entité cliente. Il est référent du cycle de vie des offres pour l’entité cliente. Principaux livrables : Collecter, consolider les besoins et leurs priorités du cluster et des entités. Co-construire backlogs et roadmaps : alimenter, challenger les backlogs. Préparer les décisions et arbitrages sur les roadmaps des offres proposées par les pôles notamment préparer les dossiers Comité Stratégique pour les CTO et DSI. Identifier les impacts des offres sur le cluster et les entités (techniques, organisationnels, compétences). Promouvoir les offres au sein du cluster et auprès des entités. Identifier et suivre la mise en œuvre des compléments aux offres (fonctionnalité additionnelle, tooling, complément CI/CD.). Animer l’adoption des offres (compléments, prérequis, freins, volumes d’adoption). Apporter ses connaissances techniques auprès du cluster et des entités lors de l’adoption et la consommation des produits. Suivre avec les pôles les indicateurs qualité du run et remonter les dysfonctionnements inhérents au modèle de delivery des produits. Suivre / S'assurer de l'adéquation des services délivrés par rapport aux niveaux de services convenus / attendus dans le cadre du build (indépendamment des process).

Offre d'emploi
Data Architect H/F
1G-LINK accompagne aujourd’hui de grands comptes dans l’amélioration de l’expérience de ses clients et collaborateurs. Cela passe par la valeur intrinsèque de l’entreprise : la symétrie des attentions. Par cette valeur ajoutée, 1G-LINK se positionne comme le partenaire de la transformation digitale par et pour les utilisateurs. Afin de renforcer nos équipes, nous recherchons des consultants expérimentés sur les nouvelles technologies pour accompagner nos clients au quotidien. Vous participerez à des projets enrichissants et aiderez les DSI à définir une stratégie d’innovation autour de leur système d’information tout en leur apportant vos compétences. Les missions confiées seront : Recueillir les besoins de la DSI métier (composants, services, SLA etc) Conception logique et physique des solutions cloud pour les différentes infrastructures et les plates-formes Documenter et partager les meilleures pratiques et les connaissances techniques acquises au travers des tâches réalisées. Optimiser le design de l’architecture et le dimensionnement des infrastructures en fonction des évolutions des besoins et des technologies. Intervenir en support des opérationnels (CloudOps) pour les points bloquants Garantir la qualité des livrables applicatifs (Automatisation, standardisation, documentation et capitalisation) Proposer des solutions techniques Rédiger des DAT Participer aux rituels de pilotage dans une approche Agile Compétences techniques : Ayant la compréhension des technologies Cloud, des enjeux business, et des tendances du marché du Cloud / Data Connaissances techniques dans certains des domaines suivants : design d’application dans le Cloud Azure, architecture lambda, technologies Big Data Analytics, Machine Learning, virtualisation, BI, architecture de stockage, sécurité, résilience et haute disponibilité Connaissance des problématiques d’intégration et de développement continus (CI/CD) Utilisation de PowerBI pour le traitement de certaines données sur la partie architecture Expertise sur Snowflake
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Creation d'une ESN sur loire
- Artibot – Un assistant IA français pour générer vos devis artisans en 1 clic
- IPREC, Jedha et la formation TISR (TSSR)
- Recherche partenaire pour un projet innovant dans l'univers de la mode
- Le choix du statut juridique de son entreprise
- PARTAGER DE DOSSIER SUR LE SERVEUR WINDOWS
Les métiers et les missions en freelance pour Machine Learning
Data scientist
Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offres