Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Votre recherche renvoie 9 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur Machine Learning / Développeur Python (senior) H/F

LeHibou
Publiée le
Python

12 mois
600-680 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un/une Ingénieur Machine Learning / Développeur Python (senior) H/F Description de la mission: Notre client, acteur majeur de l'énergie, cherche un Ingénieur Machine Learning & Développeur Python pour renforcer son équipe. Le prestataire participera à l’implémentation des sujets du tech transverse et du MLOps pour accélérer le développement des produits de data science. Il participera également à aider les data scientists des Squads à implémenter des solutions data science suivant des bonnes pratiques MLOps, si besoin. Il devra notamment : · Mettre en œuvre les principes du MLOps en utilisant les bonnes pratiques de la data science et du développement de logiciel (intégration continue, déploiement continu, monitoring, gestion des modèles, etc…). · Développer et optimiser des templates de code data science qui permettra d’accélérer l’exploration data science et l’interaction avec l’utilisateurs. · Contribuer aux choix technologiques et à l’innovation. Contributions transverses : · Participer à la conception/maintenance des nouveaux outils/package communs à l’organisation. · Challenger la vision de l’équipe. · Participer aux CoP (Communautés de pratiques). Compétences requises : · Bien maîtriser Python et le développement de logiciel (packaging, versioning, etc…) · Avoir une expérience sur le déploiement des modèles machine learning sur Azure ou AWS · Une expérience en hexagonal Architecture serait souhaitée · La connaissance du Databricks, Sagemaker serait un atout. · Une appétence pour le software craftmanship / clean code, que l'environnement (squad, CoP, coaches) contribue à propager. · Une bonne maitrise de git et une première expérience dans un contexte devops (CI/CD, avec github ou similaire). · Une expérience dans les technologies cloud Azure, AWS serait un plus. Expérience réussie d’au moins 5 ans en développement en python et d’au moins 3 ans en MLOps (Azure, AWS). Compétences demandées Python ++++ Sénior MLOps +++ Médior Databricks +++ Médior Sagemaker +++ Médior AWS/Auzre +++ Médior. DevOps ++ Nice to have. Langues : Niveau de français et d’anglais courant Compétences / Qualités indispensables : Python, MLOps, Databricks, Sagemaker, AWS et/ou Azure, Anglais courant, DevOps (un plus), Pyspark Compétences / Qualités qui seraient un + : Connaissance du Databricks, Sagemaker : un gros plus expérience en hexagonal Architecture Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Développeur .Net/Python (projet IA) Apya

APYA
Publiée le
.NET
Azure
Machine Learning

6 mois
100-550 €
Paris, France

L'application de gouvernance des modèles de ML pour notre client vise à interroger diverses ressources telles que Azure Machine Learning, Azure Databricks, AWS Databricks et AWS Sagemaker afin de récupérer les métadonnées des modèles d'IA qui y sont hébergés. Ensuite, ces métadonnées sont stockées et une API est mise en place pour permettre à un front-end de les consommer et de les afficher dans un tableau de bord, facilitant ainsi le suivi des modèles en termes de mise à jour, d'utilisation et de performance. L'équipe devra prendre en charge les tâches suivantes : Développement, mise à jour et maintenance du code infrastructure Terraform requis dans Azure et/ou AWS, en respectant les règles de sécurité et les pratiques internes du client. Gestion des workflows Github pour automatiser les déploiements et analyser le code. Développement, mise à jour et maintenance du code back-end permettant de récupérer les métadonnées provenant de Azure ML, Databricks ou Sagemaker. Stockage des métadonnées des modèles dans une base de données et mise à jour régulière de celles-ci. Exposition d'une API pour que les données soient consommées par un front-end (le front-end étant en dehors du périmètre du projet). Concernant la Plateforme LLM Hub du client : La plateforme LLM Hub du client fournit aux équipes de développement un accès aux LLM tels que OpenAI/Mistral via Azure, Claude via AWS Bedrock, et éventuellement d'autres à l'avenir. Son objectif est de centraliser la consommation des modèles, gérer le reporting de cette consommation et optimiser les coûts grâce à un provisionnement du débit. L'équipe devra également gérer les tâches suivantes pour la Plateforme LLM Hub : Développement, mise à jour et maintenance du code infrastructure Terraform nécessaire dans Azure et/ou AWS, en conformité avec les règles de sécurité et les pratiques internes du client. Gestion des workflows Github pour automatiser les déploiements et analyser le code. Développement, mise à jour et maintenance du code back-end permettant l'exposition des APIs d'OpenAI et Mistral sur un API Manager centralisé, ainsi que des fonctions permettant de suivre la consommation des applications sur Azure et AWS. Développement de plugins visant à faciliter, optimiser et accélérer le développement des applications exploitant les LLM. Possibilité d'utiliser des connaissances en React pour mettre à jour une interface web développée pour gérer une application de chatbot. Veille technologique sur les nouvelles solutions de LLM et leur intégration dans la plateforme. Les technologies utilisées comprennent : Terraform pour Azure et AWS, Azure OpenAI, Azure Mistral, AWS Bedrock, Github, Github Actions, Github Workflows, Python, dotnet, React, Azure Function, AWS Lambda, Azure API Manager, Azure Container Apps/Container Instance, CosmosDB et SQLDB. TJM : 550€ - 2 jours de télétravail par semaine

Freelance

Mission freelance
Senior Data Scientist (H/F) – Paris

Espace Freelance
Publiée le
Machine Learning
Python

3 mois
100-800 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Senior Data Scientist (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Expertise en Machine Learning ; Python ; Data Science ; maitrise des outils permettant de gérer les gros volumes de données via Spark ; architectures AI avancées ; environnement de développement sur le Cloud ; outils de développement ; anglais courant Votre mission : - Développer des modèles prévisionnels utilisant des algorithmes de gradient boosting pour améliorer les performances de la solution de prévisions des demandes - Assurer la robustesse des prévisions de demande à maille - Continuer les évolutions data science permettant d’améliorer les prévisions - Assurer le lien avec l’équipe produit, les métiers et les utilisateurs REF : EFP/SNDSI/ODVB Plus d’offres sur :

Freelance
CDI

Offre d'emploi
Ingénieur IA générative d’images

skiils
Publiée le
ETL (Extract-transform-load)
Intelligence artificielle
Machine Learning

2 ans
45k-65k €
Paris, France

Dans le cadre d’expérimentations autour de l’intelligence artificielle générative d’images, nous recherchons un profil ayant une bonne vision de l’ensemble du domaine et déjà quelques expériences significatives. Parmi les expériences ou connaissances recherchées : Expériences d'utilisation d'IA générative et en particulier d'IA générative d'images Fortes compétences de développement (back notamment, utilisation d'ETL, de scripts système, ...) Compréhension des différentes briques d'IA: LM, LLM, outils on premise, SaaS, ... Compétences appréciées dans le domaine de l'UI et de l'UX (à préciser) Compétences en pédagogie (force de proposition) et documentation Appétence à la veille technologique dans le domaine de l’IA

Freelance

Mission freelance
Data Scientist Confirmé (anglais courant) H/F

LeHibou
Publiée le
Deep Learning
Machine Learning
Tensorflow

12 mois
500-570 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un/une Data Scientist Confirmé H/F Description de la mission: Notre client acteur majeur du secteur des énergies cherche un consultant Data Scientist pour renforcer son équipe. Objectifs et livrables La Data Science consiste à extraire, analyser et valoriser les données issues de sources diverses, afin de résoudre des problèmes métiers ou de créer de nouvelles opportunités. Les compétences demandées pour réaliser une prestation de Data Science sont les suivantes : · Maîtriser les techniques de Data Exploration pour collecter, nettoyer et préparer les données avec une posture qui a pour objectif d’accompagner le métier dans la phase d’idéation. · Savoir réaliser des analyses exploratoires et descriptives des données, en utilisant des statistiques et des visualisations, pour identifier les tendances, les corrélations, les anomalies, les opportunités d'optimisation ou de création de valeur. · Concevoir, développer, tester et déployer des modèles de Data science adaptés aux problématiques métiers, en utilisant des approches variées (Optimisation, Machine Learning, Computer Vision, Generative AI, etc.). · Respecter les bonnes pratiques de MLops (versioning, monitoring, CI/CD, etc.) pour assurer la qualité, la fiabilité et la sécurité des modèles en production. · Documenter et présenter les résultats des analyses et des modèles aux parties prenantes internes en utilisant des supports adaptés (rapports, dashboards, etc.). · Contribuer aux choix technologiques et à l’innovation. Contributions transverses : · Participer à la conception/maintenance des nouveaux outils/package communs à l’organisation. · Challenger la vision de l’équipe. · Participer aux CoP (Communautés de pratiques) et aux rituels d’équipes. Compétences requises : Pour mettre en place un développement en data science et IA, il faut disposer des compétences suivantes : · Compétences requises en data science : - maîtrise des outils statistiques et mathématiques, maîtrise des langages de programmation (Python de préférence) et des librairies de traitement de données sous-jacentes, capacité à collecter, nettoyer et analyser des données structurées ou non, compréhension des principaux algorithmes d'apprentissage automatique et de leurs applications. Compétences / Qualités indispensables : MLops (versioning, monitoring, CI/CD, etc.), clean code (expert), git hub (expert), Python (expert), TensorFlow (confirmé), PyTorch (confirmé), Azure ou AWS, connaissance des micro-services, Anglais courant, Deep learning Compétences / Qualités qui seraient un + : . Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
data scientist python - 550€ max

Innov and Co
Publiée le
Deep Learning
Python

12 mois
100-550 €
Paris, France

Objectifs: Prestation de Data Scientist expérimenté afin d'assurer le développement & suivi de projets en cours et de contribuer au cadrage des projets à venir. Les tâches à réaliser sont : - Exploration des données - Conception d’un modèle - Implémentation du modèle en Python / Spark - Tests - Documentations techniques et fonctionnelles - Accompagnement des utilisateurs en phase pilote Forte importance à la qualité du code produit(structure, lisibilité, optimisation, documentation) Contexte : Au sein de l'équipe Projet IA Business du Centre d'Expertise Data Science de la Direction Digital & Data composée de 6 data scientists dont les projets DS s'articulent autour du digital, du marketing et de la fraude. Type de données utilisées : Principalement données structurées, texte pour certains projets Langages et stack de développement : Principalement Python (Numpy, Pandas, scikit-learn...), Big Query, Spark. Environnement cloud GCP. Développement sous IDE et notebook. Git. Points clés : Capacité de compréhension et d'implémentation d'articles de recherches requise De bonnes connaissances en environnement cloud (GCP de préférence) sont recommandées. De bonnes connaissances en développement sont recommandées. Une expertise de mise en production de modèle est un plus (CI/CD). ML supervisé et non supervisé Segmentation Séries temporelles Factorisation de matrice / extraction de variables latentes (Analyse Factorielle, ACP, SVD, auto-encoder...) Graphes

Freelance

Mission freelance
DATA SCIENTIST

PARTECK INGENIERIE
Publiée le
AWS Cloud
Deep Learning
Microsoft Power BI

6 mois
100-650 €
Paris, France

Maîtrise des concepts principaux en statistiques : théories des tests, économétrie, probabilités, ... • Maîtrise des concepts principaux en machine learning : processus d’entraînement d’un modèle, comment éviter le sur-apprentissage, comment échantillonner les données, ... • Apprentissage supervisé : maîtrise des méthodes d’arbre de décisions, de bagging, boosting, de régression pénalisée, ... • Clustering : maîtrise des méthodes de kmeans, CAH, DBSCAN, ... • Maîtrise des méthodes de deep learning : réseaux denses, réseaux convolutifs, ... • Maîtrise de SQL. • Maîtrise de Python : librairies classique en data science (pandas, numpy, scikit-learn, matplotlib, ...), création d’environnements virtuels. • Connaissance en recherche opérationnelle • Expérience avec un cloud provider : AWS, GCP ou Azure • Expérience dans l’encadrement de projet data science. • Connaissance sur les outils de dashboarding (PowerBI). • Maîtrise de git. • Savoir effectuer une recherche bibliographique. • Savoir restituer ses travaux d’analyse et de modélisation.

Freelance

Mission freelance
Intégrateur confirmé/sénior

DATACORP
Publiée le
CentOS
KVM (Kernel-based Virtual Machine)
Puppet

12 mois
500-600 €
Paris, France

Descriptif mission : - Migration des hyperviseurs et Vms existants vers les socles Linux récents (RHEL 8 et RHEL9) - Évolutions des configurations système et logicielles - Prise en compte des extensions matérielles sur les hyperviseurs existants - Remplacement d'hyperviseurs, ajout de nouveaux hyperviseurs - Tenue des données de configuration (DEX) dans les outils - Veille sur les normes d'architecture applicables (proposition d'améliorations, recommandation de bonnes pratiques, ...) Compétences requises : - maîtrise de la mise en œuvre d'architectures serveurs Linux - maîtrise de la mise en œuvre d'environnements virtualisés (kvm/qemu) - configuration réseau en environnements virtualisés - connaissance souhaitée des outils de gestion des configurations et de déploiement (cobbler/puppet) - Technologies : - RHEL (CentOS7, Rocky8, Rocky9) - puppet, cobbler - kvm, qemu, libvirt - openVSwitch Niveau d’expérience requise : Minimum 6 ans d’expérience minimum Mission : Démarrage : ASAP Localisation : Nord Est Parisien

CDI

Offre d'emploi
Data Scientist spécialisé en IA Générative et NLP (H/F)

DIGITAL PARTNERS FRANCE
Publiée le

Paris, France

Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners se spécialise dans la transformation digitale, l'efficience opérationnelle et l'analyse des données pour des entreprises de tous secteurs d'activité. Dans le cadre de notre expansion, nous sommes à la recherche d'un(e) Data Scientist spécialisé en IA Générative et NLP (H/F). Contexte : La mission se déroule au sein du centre d'expertise de la donnée transverse composé d'une équipe pluridisciplinaire chargé de valoriser les données disponibles en créant des modèles de Machine Learning, notamment pour la Connaissance Client et l'Efficacité Opérationnelle. Responsabilités : En tant que Data Scientist rattaché au pôle IA du DataLab, vos responsabilités seront les suivantes : - Concevoir et développer des modèles de Machine Learning utilisant des techniques IA, NLP et IA Générative. - Travailler en étroite collaboration avec l'équipe des Data Scientists pour créer des modèles d'extraction d'informations à partir de documents de gestion, en respectant les bonnes pratiques de développement. - Participer à la construction de modèles d'IA Générative utilisant les technologies et frameworks à l'état de l'art, en collaboration avec l'équipe IAP. - Collaborer avec l'IA Factory pour mettre en oeuvre la stratégie data. Finalités de la Prestation : - Définir et récolter les besoins auprès des métiers. - Développer des modèles de Machine Learning en utilisant des techniques IA, NLP et IA Générative. - Concevoir des modèles dans le respect du framework. Compétences requises : Techniques : - Minimum 4 ans d'expérience en tant que Data Scientist. - Maîtrise des outils tels que VScode, conda, Python, Git, Spark. - Expertise en NLP, LLM et IA Générative. - Maîtrise des packages Data/ML en Python (numpy, pandas, sklearn, xgboost, pytorch, tensorflow, transformers, etc...) et des librairies orientées IA Générative et LLM. - Connaissance des modèles et algorithmes statistiques courants (Arbres de décisions, XGBoost, Réseaux de neurones, Bert, etc...). - La connaissance de kedro et mlflow serait un plus. - La connaissance des outils de CI/CD (GitLab, docker) serait un plus. Comportementales : - Excellente capacité relationnelle et aptitude à vulgariser le travail technique. - Capacité à restituer clairement son travail à l'écrit et à l'oral. - Proactivité et capacité à proposer différentes approches pour résoudre un problème. - Veille technologique régulière et capacité à tester rapidement les derniers modèles à l'état de l'art. - Capacité à lire et restituer un papier de recherche.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous