Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 149 résultats.
Freelance

Mission freelance
Expert Kibana / Data Visualisation (F/H)

CELAD
Publiée le
Bitbucket
CI/CD
Data visualisation

12 mois
550-590 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Kibana / Data Visualisation pour intervenir chez un de nos clients dans le secteur banacaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et maintenir des dashboards avancés sous Kibana pour assurer une visibilité de bout en bout des systèmes et des flux de données - Transformer des données issues de Elasticsearch en visualisations claires, pertinentes et actionnables - Mettre en place des visualisations interactives (filtres, drill-down, agrégations) pour faciliter l’analyse et la prise de décision - Analyser les données collectées via Filebeat et Logstash afin d’en maximiser la valeur - Exploiter les fonctionnalités de Machine Learning de Kibana pour détecter anomalies, tendances et signaux faibles - Collaborer avec les équipes techniques pour optimiser les requêtes, les index et la qualité des données - Traduire les besoins métiers en dashboards pertinents et exploitables - Assurer la fiabilité, la cohérence et la qualité des données présentées
Freelance
CDI
CDD

Offre d'emploi
Data Scientist

R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python

6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Freelance
CDI

Offre d'emploi
Expert IA cybersécurité SOC sur Charenton Le Pont

EterniTech
Publiée le
Large Language Model (LLM)
RAG
SOC (Security Operation Center)

3 mois
Charenton-le-Pont, Île-de-France
Nous recherchons un expert en intelligence artificielle, capable de concevoir et développer des solutions IA spécialisées pour répondre à des besoins métiers spécifiques. Missions principales Concevoir et mettre en place des composants IA sur mesure (moteurs IA, modèles de données, automatisation de tâches métiers). Développer des solutions intégrant des technologies telles que : LLM (Large Language Models) RAG (Retrieval-Augmented Generation) Tester, valider et industrialiser (packaging) les solutions. Construire et déployer des offres de services IA “sur étagère” adaptées aux enjeux cybersécurité. Accompagner les équipes en expliquant les solutions mises en place et en structurant leur adoption. Profil recherché Minimum 5 ans d’expérience en IA / data avec un niveau senior. EXPERIENCE APPROFONDIE EN SOC SOC N2/N3 – Data & IA Dans le cadre de la sécurisation des plateformes Data & IA, la mission inclut un rôle de support avancé (N2/N3) au sein du SOC, avec les responsabilités suivantes : *Supervision et détection Assurer la surveillance des environnements Data & IA (data lakes, pipelines, modèles ML/IA) via les outils SOC (SIEM, EDR, XDR) Détecter les comportements anormaux liés aux usages de la donnée et des modèles (exfiltration, dérive, accès non autorisés) *Analyse et gestion des incidents Prendre en charge les incidents de sécurité de niveau 2/3 sur les périmètres Data & IA Réaliser les analyses approfondies (forensics, root cause analysis) en lien avec les équipes sécurité et data Piloter la remédiation et proposer des plans d’action adaptés *Sécurisation des environnements IA Identifier et traiter les vulnérabilités spécifiques aux systèmes IA/ML (modèle poisoning, data leakage, adversarial attacks) Participer à la mise en place de contrôles de sécurité sur les pipelines data et les cycles de vie des modèles (MLOps sécurisés) *Amélioration continue & use cases Développer et enrichir les règles de détection spécifiques aux usages Data & IA Contribuer à l’industrialisation des cas d’usage de détection (use cases SOC) Automatiser certaines réponses via SOAR ou scripts *Collaboration transverse Travailler en étroite collaboration avec les équipes Data, IA, DevOps et Cyber Accompagner les projets dans l’intégration des bonnes pratiques de sécurité (SecDevOps / DevSecOps appliqué à la data) *Veille & expertise Assurer une veille sur les menaces liées à l’IA et aux environnements data Apporter un rôle de référent technique sur les sujets de sécurité Data & IA au sein du SOC Expérience solide dans le domaine de la cybersécurité (connaissance des enjeux métier). Capacité à concevoir, challenger et déployer des solutions innovantes. Profil expert / référent, capable de structurer une offre et de la porter. Très bonne maîtrise de l’anglais professionnel. Informations complémentaires Démarrage : ASAP Durée : mission longue Environnement exigeant, nécessitant un profil autonome, pédagogue et orienté delivery.
Freelance
CDI

Offre d'emploi
Expert(e) IA / Architecte Solutions IA

Halian
Publiée le
AI
API
Large Language Model (LLM)

5 ans
Paris, France
Contexte Une organisation internationale de premier plan accélère sa transformation digitale et l’adoption de l’Intelligence Artificielle au sein de plusieurs domaines métiers. Dans ce cadre, elle renforce ses capacités de delivery IA afin de passer de cas d’usage expérimentaux à des solutions robustes, industrialisées et déployées en production. Vous rejoindrez une équipe transverse dédiée à l’innovation et à la transformation, intervenant auprès de plusieurs équipes métiers et IT, avec un fort accent sur l’industrialisation, la gouvernance et la création de valeur long terme. Responsabilités Concevoir et déployer des solutions IA de bout en bout, depuis l’expression du besoin métier jusqu’à la mise en production Traduire les exigences fonctionnelles en architectures techniques scalables, sécurisées et maintenables Développer des cas d’usage IA tels que l’intelligence documentaire, les assistants conversationnels, l’automatisation et la génération de contenu Mettre en œuvre des solutions d’IA générative (LLM, RAG, workflows à base d’agents) intégrées aux systèmes internes Accompagner l’industrialisation via des pipelines CI/CD, des pratiques MLOps, le monitoring et l’optimisation des modèles Garantir la conformité avec les exigences de protection des données, de sécurité et les principes d’IA responsable Profil recherché Solide expérience dans le développement et le déploiement de solutions IA / machine learning en environnement de production Excellente base en ingénierie logicielle, APIs et architectures microservices Expérience pratique des solutions d’IA générative, LLM et du prompt engineering Bonne compréhension des plateformes cloud et des pratiques d’industrialisation IA (CI/CD, MLOps) Capacité à évoluer dans des environnements complexes, internationaux et multi‑parties prenantes Excellentes compétences en communication, avec une aptitude à faire le lien entre enjeux métiers et techniques
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Freelance
CDI

Offre d'emploi
 Data Scientist – IA (F/H)

K-Lagan
Publiée le
Big Data
Data science
IA

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
CDI
Freelance

Offre d'emploi
📩 QA & Automation Engineer Junior – Orchestrade

Gentis Recruitment SAS
Publiée le
CSS
Git
Javascript

1 an
Paris, France
Dans le cadre de l’accélération des livraisons autour de la plateforme Orchestrade, un acteur majeur du secteur de l’énergie recherche un QA & Automation Engineer Junior pour renforcer l’assurance qualité applicative et l’automatisation des tests. La mission s’inscrit dans un environnement critique de trading et de gestion des risques, avec de forts enjeux de fiabilité, de conformité et d’industrialisation des processus QA. Contexte de la mission Au sein du département DMG de la GBU S&EM, le consultant interviendra sur la plateforme Orchestrade, progiciel financier stratégique remplaçant progressivement l’ancien système front-to-back Meteor. L’objectif est d’assurer la qualité de la chaîne applicative, fiabiliser les processus de validation, automatiser les campagnes de tests et intégrer progressivement les usages de l’IA générative dans la démarche QA. Missions principalesAssurance qualité Analyse des spécifications fonctionnelles et techniques Participation à la rédaction des cas de tests fonctionnels et techniques Exécution des campagnes de tests (fonctionnels, non-régression, intégration) Identification, qualification et documentation des anomalies Vérification de la conformité des applications avec les exigences métiers et réglementaires Participation aux recettes applicatives Automatisation & scripting Développement et maintenance des scripts de tests automatisés Contribution à l’évolution des frameworks de tests existants Automatisation des tests batch et applicatifs Intégration des tests dans les chaînes CI/CD existantes Generative AI Réalisation de POCs rapides via les outils IA Aide à la génération de cas de tests Analyse intelligente des anomalies Optimisation de la couverture de tests Participation à l’amélioration continue autour du test intelligent Environnement technique Python C# / .NET HTML / CSS / JavaScript Git / Jenkins / GitLab CI / Azure DevOps Outils de test : Test Manager, Quality Center, Ranorex Automatisation UI / API Automic ou ordonnanceur équivalent Frameworks Front : Angular ou React IA Générative / NLP / ML appliqué à la QA
Freelance
CDD

Offre d'emploi
Ingénieur IA Générative / MLOps (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Docker
Kubernetes

6 mois
50k-60k €
470-500 €
Île-de-France, France
Dans le cadre du développement de ses capacités en Intelligence Artificielle , notre client recherche un Ingénieur IA Générative / MLOps . Vous interviendrez sur l’ensemble du cycle de vie des solutions IA, de l’expérimentation à la mise en production, avec un focus sur les architectures GenAI (RAG, agents, fine-tuning) . Vos missions Implémenter et déployer des modèles d’IA (Machine Learning & IA Générative) Industrialiser les solutions via des pratiques MLOps Mettre en place le monitoring, la supervision et la maintenance (MCO) des modèles Concevoir des pipelines de données et d’ingestion Optimiser les performances (coûts, temps de calcul, scalabilité) Évaluer des Proof of Concept (PoC) et recommander les meilleures architectures Mettre en œuvre des solutions RAG (Retrieval-Augmented Generation) Travailler sur des approches fine-tuning et prompt engineering Accompagner les équipes sur les bonnes pratiques IA et industrialisation Livrables attendus Études et cadrages de cas d’usage (4 à 6 par an) Développement de pipelines d’ingestion (15 à 20 par an) Déploiement de modèles en production (15 à 20 par an) Maintenance et optimisation des solutions IA (3 à 5 par an)
Freelance
CDI
CDD

Offre d'emploi
Développer Back end Kotlin Confirmé (4/6 ans d'experiences)

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Java
Kotlin

1 an
10k-57k €
100-500 €
Saint-Denis, Île-de-France
Rejoins un acteur majeur du numérique qui transforme la mobilité de demain Ici, on ne fait pas que développer du code — on conçoit des solutions digitales à fort impact, utilisées à grande échelle, pour simplifier les déplacements et améliorer l’expérience de millions d’utilisateurs. Le défi : faire parler la mobilité avec intelligence. Tu travailleras sur un chatbot conversationnel nouvelle génération qui accompagne les utilisateurs au quotidien : Informations temps réel (statuts, horaires, parcours…) Détails de voyage (quai, placement, desserte…) Services proposés Gestion des modifications et annulations Accessible via web et messageries instantanées, ce produit est un pilier de l’expérience utilisateur. Une stack technique moderne et ambitieuse Chatbot Open Source : framework conversationnel en Kotlin (TOCK) NLP & IA : services de machine learning managés Cloud & Data : AWS (S3, Sagemaker), MongoDB Infra : Kubernetes Front : React Tools : GitHub, GitLab CI, Sonar, Datadog Collaboration : Confluence, Jira, Teams, Miro Ton rôle : builder, améliorer, fiabiliser Intégré·e à une équipe agile, tu interviens sur tout le cycle de vie produit : Développement de nouvelles fonctionnalités (Kotlin) Mise en place de tests (unitaires, intégration, end-to-end) Code review & amélioration continue Monitoring, performance & stabilité en production Analyse d’anomalies & troubleshooting Conception technique & documentation Participation aux rituels agiles (daily, sprint, rétro…) Contribution à la qualité, sécurité et résilience
CDI

Offre d'emploi
Data Engineer Snowflake Senior F/H/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
Ocaml
Python

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
CDD

Offre d'emploi
Data Analyst - Bordeaux

OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL

9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
CDI
Freelance

Offre d'emploi
Builder Azure / DevSecOps Data

VISIAN
Publiée le
Azure
Azure DevOps
CI/CD

1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Freelance
CDI

Offre d'emploi
Expert Kibana & Analyse de Données (H/F)

STORM GROUP
Publiée le
Elasticsearch
Kibana
Python

3 ans
50k-58k €
500 €
Île-de-France, France
Nous recherchons un Expert Kibana et analyse de données avec une maîtrise exceptionnelle de la création de dashboards de suivi de bout en bout. Le candidat idéal excellera dans la transformation des données collectées et indexées dans Elasticsearch en visualisations claires, pertinentes et actionnables. Ce rôle se concentre sur l'exploitation poussée des capacités de Kibana et des données brutes pour fournir une observabilité complète, sans nécessiter une expertise approfondie en administration d'infrastructure Elasticsearch. Le candidat devra réaliser les missions suivantes : Concevoir, construire et maintenir des dashboards Kibana complexes et performants, permettant une visibilité de bout en bout sur les flux de données, les performances des applications et les processus métier. Exploiter pleinement les capacités avancées de Kibana pour la création de visualisations diversifiées, de contrôles interactifs, de vues agrégées et de fonctions de drilling pour faciliter l'exploration des données. Traduire les besoins métiers et techniques en solutions de reporting et de monitoring efficaces dans Kibana. Collaborer avec l'équipe en charge de l'infrastructure Elasticsearch pour optimiser les requêtes, les index patterns et les performances de Kibana. Analyser les données collectées via des outils tels que THEIA et Filebeat, et définir les stratégies de structuration via des outils comme Logcraft pour maximiser leur utilité dans Kibana. Utiliser et tirer parti des fonctionnalités de Machine Learning avancées de Kibana pour la détection d'anomalies, la prédiction et l'identification de tendances dans les données. Garantir la pertinence et la qualité des données présentées dans les dashboards. Élaborer et implémenter des stratégies de suivi des actions et fournir des reporting clairs et concis sur l'état des systèmes, les performances et les alertes identifiées.
CDI

Offre d'emploi
Senior Data Scientist - Ecommerce (f/m/d) (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
IT-QUANT Equity (C++) - sénior

Nexius Finance
Publiée le
C/C++

1 an
500-600 €
Île-de-France, France
Nous recherchons un Consultant IT Quant (6 ans d’expérience) pour développer, maintenir et supporter une bibliothèque interne de pricing de dérivés actions en C++ , utilisée en production par les équipes Front-Office, Risques et IT. Le poste inclut : Développement et intégration : implémenter des modèles de pricing conçus par les quants, les intégrer dans la librairie existante et les systèmes d’information, incluant Sophis, sur environnements Windows et Linux. Maintenance et optimisation : corriger des écarts de prix, améliorer les performances (calcul, parallélisation), maintenir les anciens pricers, outils ML et solutions cloud. Support technique et fonctionnel : assister les quants, traders, équipes Risques et IT sur le pricing, les bugs et les différences de valorisation (niveau 2/3). Ce poste n un poste hybride IT / Quant , fortement orienté production.
CDI
Freelance

Offre d'emploi
Data Scientist Senior — Expert IA Générative

Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)

12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

149 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous