Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 46 résultats.
CDI

Offre d'emploi
AI Solution Developer Junior 1-2 ans PARIS

Cogniwave dynamics
Publiée le
Large Language Model (LLM)
Python

37k-41k €
Paris, France
Pour un poste en cDI sur PAris , nous recherchons un développeur de Solutions IA Salaire Fixe + différentes primes de performance Le Développeur de Solutions IA sera responsable du développement de solutions basées sur l’intelligence artificielle afin de renforcer les solutions et processus de sécurité de la Production IT. Ce poste implique une collaboration étroite avec des experts métiers afin d’adapter les outils et de les améliorer en continu. Le développeur utilisera Python ainsi que les bibliothèques associées pour concevoir et déployer des modèles de machine learning et des interfaces utilisateurs. MissionsResponsabilités principales Développer et déployer des solutions basées sur l’IA en utilisant Python. Concevoir des interfaces utilisateurs avec Streamlit, Gradio, Flask et d’autres frameworks pertinents. Collaborer avec des experts métiers afin de comprendre les besoins et adapter les outils en conséquence. Mettre en œuvre des processus ETL (Extract, Transform, Load) pour gérer et transformer les données. Utiliser des bibliothèques telles que pandas et scikit-learn pour la manipulation de données et les tâches de machine learning. Améliorer continuellement les outils en fonction des retours utilisateurs et des analyses de données. Une bonne culture en cybersécurité est attendue.
CDI

Offre d'emploi
Data Scientist - IA Générative (H/F)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

43 800 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevOps Engineer Senior

Aneo
Publiée le
AWS Cloud
Kubernetes
Python

7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
CDI

Offre d'emploi
INGENIEUR(E) CONFIRME(E) - CRÉATION PORTAIL IAI

GROUPE ALLIANCE
Publiée le
Docker
Kubernetes
LangChain

65k-70k €
Paris, France
ACCROCHE SI TU TROUVES QUE JARVIS MANQUE DE PERSONNALISATION, CETTE ANNONCE EST FAITE POUR TOI ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe passionnée par l’intelligence artificielle Concevoir des solutions innovantes et intelligentes Repousser les limites de l'automatisation et du machine learning Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur Protection Soci, tu participeras à la maintenance adaptative et corrective de la partie Front du portail IA :en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateursen proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateurTu participeras à la maintenance corrective de la partie Back du portail IA permettant :la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accèsla maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateursla maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiersTu participeras à la réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniquesen réalisant des assistants IA à partir d'expressions de besoins fournisen apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IAen proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûtsTu contribueras à l'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil)en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs. Données, tu analyseras Modèles d’IA, tu entraîneras Algorithmes performants, tu développeras Les biais et les dérives, tu limiteras Les meilleures pratiques en IA, tu appliqueras Les performances, tu optimiseras Ton expertise, tu partageras Aux évolutions technologiques, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 7ans minimum Expert(e) en Microsoft Azure IA, Copilot Habile avec les outils SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
CDI

Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS

Cogniwave dynamics
Publiée le
Data science

Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Freelance

Mission freelance
CyberSOC Analyst - SPLUNK

Groupe Aptenia
Publiée le
Splunk

6 mois
220-530 €
Paris, France
Missions : Analyse, investigation et traitement des incidents de sécurité N2/N3 (SOC) Identification des causes racines et coordination des actions correctives Mise en place, pilotage et suivi des plans de remédiation Optimisation continue des règles de détection Splunk et des outils SOC Automatisation des processus de sécurité via scripting Réalisation de projets avancés Splunk (RBA, Machine Learning Toolkit) Conduite de campagnes de Threat Hunting avec formalisation d’hypothèses Veille active sur les menaces, vulnérabilités et TTPs attaquants Partage de la CTI et documentation via MISP, OpenCTI, Confluence et Git
CDI
Freelance

Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD

Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud

5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Freelance

Mission freelance
Dataset Manager (Computer Vision) H/F

Mobiskill (WEFY Group)
Publiée le
Computer vision

6 mois
400-700 €
Paris, France
🚀 Mission freelance — Dataset Manager (Computer Vision) 📍 France (déplacements ponctuels en usine possibles) 🕐 Démarrage rapide — mission longue 🏭 Contexte : vision industrielle / IA 🧩 Vos missions En lien étroit avec les équipes Produit, ML et Customer Success, vous interviendrez sur : 📊 Stratégie dataset Définir les besoins en datasets avec les équipes internes Identifier les cas d’usage et prioriser les campagnes Structurer les jeux de données nécessaires à la performance des modèles 🏷️ Pilotage des campagnes d’annotation Rédiger les guidelines d’annotation Organiser et superviser les campagnes Annoter une partie des données si nécessaire Manager et challenger les annotateurs Mettre en place des contrôles qualité 🔍 Qualité & amélioration continue Revoir et valider les annotations Mesurer la qualité des datasets Proposer des améliorations de process Contribuer à la robustesse des modèles 🗂️ Gouvernance des datasets Cartographier les datasets existants Maintenir une documentation référentielle claire Gérer des baselines de performance Assurer la traçabilité et la versioning 🏭 Compréhension terrain Analyser des pièces réelles et images industrielles Échanger avec équipes client / customer success Se déplacer ponctuellement en usine si nécessaire ⚙️ Modalités Démarrage : ASAP Type : freelance Durée : mission longue probable Localisation : France (remote possible avec déplacements ponctuels) TJM : selon profil
CDI

Offre d'emploi
Consultant(e) - Formateur(trice) Power BI & Python H/F (H/F)

█ █ █ █ █ █ █
Publiée le
Numpy
Python

40k-50k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Scientist

Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python

5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
CDI

Offre d'emploi
Data Engineer Banque(F/H)

CELAD
Publiée le

45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
Freelance

Mission freelance
[FBO] Ingénieur DevOps - Orchestration GPU - Paris - 1264

ISUPPLIER
Publiée le

10 mois
400-475 €
Paris, France
Secteur bancaire. Résumé Compétences techniques requises Orchestration GPU : Expérience avec des solutions d'orchestration GPU (Run.ai, ClearML, Volcano...) Containerisation : Docker, Kubernetes, OpenShift (5+ ans) Infrastructure : OpenShift, infrastructure on-premise, notions AWS/GCP Automatisation : GitLab CI/CD, Jenkins, Kestra est un + Monitoring : Prometheus, Grafana, ELK Stack Scripting : Python, Bash, Go est un + Compétences souhaitées : Expérience avec Run.ai ou KAI Scheduler serait un plus Expérience et intérêt à la gestion de plateforme en production (MCO/MCS) Connaissance des architectures IA/ML et des frameworks (Transformers, TensorFlow, PyTorch) Expérience en environnement bancaire ou secteur régulé Certification Kubernetes (CKA/CKAD) ou Openshift serait un plus Maîtrise des outils Atlassian (Jira, Wiki) Maitrise de l’agilité Soft skills Autonomie et proactivité dans un environnement complexe Capacité à travailler en équipe pluridisciplinaire Excellent relationnel pour accompagner les utilisateurs métier Rigueur et respect des procédures de sécurité Expérience : expérimenté ou + • Les astreintes (HNO, etc…) : oui • La possibilité de renouvellement : Oui • Type de besoin : nouvelle position • Type de projet (support / maintenance / implementation /…) : Implémentation • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Freelance

Mission freelance
Administrateur ElasticSearch Paris - administrer une base de données NOSQL - exp de 7 à 10 ans

WorldWide People
Publiée le
Elasticsearch

3 mois
Paris, France
Administrateur ElasticSearch Paris - administrer une base de données NOSQL - expérience de 7 à 10 ans Quelqu'un qui serait capable d'administrer une base de données NOSQL pour pouvoir gérer correctement les performances d'une base de données ElasticSearch et qui serait capable de réviser/gérer des index. Administrateur ElasticSearch et Gestion des PerformanceTunique ELK Description du Poste Nous recherchons un Expert ELK confirmé, spécialisé dans l'administration avancée d'une plateforme ElasticSearch et la gestion de ses performances (sujet critique dû à l’absorption quotidienne de données d' APM (Application Performance Monitoring) . Ce poste exige une expertise approfondie dans la configuration, la gestion des performances au quotidien , et l'optimisation des bases de données NoSQL. Vous serez un pilier essentiel de notre équipe dédiée au système de management, à l'observabilité et à l'automatisation. Responsabilités Administration de Plateforme ElasticSearch : Assurer la gestion quotidienne d'une plateforme ElasticSearch, incluant la configuration, le monitoring et l'optimisation des performances. Gestion de Performance via APM : Intégrer et analyser les données d'APM pour identifier les goulots d'étranglement et optimiser les performances des applications. Configuration et Tuning Avancé : Mettre en place des configurations optimales pour garantir la scalabilité, la haute disponibilité et des performances maximales et automatiser les tâches répétitives. Gestion des Performances : Identifier et résoudre les problèmes de performance, optimiser les requêtes et ajuster les paramètres pour une utilisation efficace des ressources. Déploiement et Maintenance de la Stack ELK : Installer, configurer et maintenir Elasticsearch, Logstash et Kibana, avec un focus sur la robustesse et la fiabilité. Optimisation des Bases de Données NoSQL : Analyser et optimiser les performances des bases de données NoSQL pour garantir une efficacité maximale. Configuration des ILM (Index Lifecycle Management) : Mettre en place et gérer les politiques ILM pour optimiser la gestion des index et leur cycle de vie. Gestion des Shards : Configurer et optimiser la répartition des shards pour garantir des performances élevées et une utilisation efficace des ressources. Interrogation des API via Logstash : Configurer et utiliser Logstash pour interroger des API externes et intégrer les données collectées dans Elasticsearch. Documentation et Support : Rédiger et maintenir la documentation des configurations et des processus, et assurer le support technique et la résolution des problèmes liés à la stack ELK. Compétences Requises Expérience : Minimum 5 ans d'expérience en administration de plateforme ElasticSearch , avec une expertise démontrée dans la gestion quotidienne des performances et des configurations avancées. Connaissances Techniques : Maîtrise des concepts d’ingestion, de transformation et de visualisation des données, avec des compétences avancées en tuning de performances. Gestion de Performance via APM : Expérience dans l'intégration et l'analyse des données d'APM pour optimiser les performances des applications. Interrogation des API : Expérience dans la configuration de Logstash pour interroger des API externes et intégrer les données dans Elasticsearch. ILM et Shards : Expertise dans la configuration des politiques ILM et la gestion des shards pour optimiser les performances et la scalabilité. Machine Learning : Expérience dans l'utilisation des fonctionnalités de Machine Learning d'Elasticsearch. Monitoring et Observabilité : Expérience approfondie dans la surveillance et la gestion de l'infrastructure IT avec un accent sur l'observabilité avancée. Interopérabilité : Expérience dans l'intégration d'ELK avec ServiceNow ou des systèmes similaires. Communication et Résolution de Problèmes : Excellentes compétences en communication écrite et orale, et capacité à diagnostiquer et résoudre des problèmes complexes de manière efficace et autonome. Atouts Connaissance d'autres outils de monitoring : Prometheus, Grafana, etc. Certification Elastic : Un atout majeur. Expérience avec des bases de données NoSQL et SQL : Expertise en optimisation et tuning. Connaissance des pratiques DevOps et des outils CI/CD : Expérience souhaitée. Expérience avec ServiceNow et son écosystème : Un plus. Scripting et Automatisation : Compétence en scripting (Python, Bash, etc.) et expérience avec des outils d'automatisation (Ansible, Puppet, etc.)

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous