Trouvez votre prochaine offre d’emploi ou de mission freelance Tensorflow à Paris

Votre recherche renvoie 5 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Référent technique MLOps

CAT-AMANIA
Publiée le
Apache Kafka
Docker
Elasticsearch

2 ans
500-680 €
Paris, France

Au sein d'un client du domaine bancaire, vous intervenez au sein de la DSI en qualité de Référent technique MLOps. Dans ce cadre, votre quotidien s'articule autour des missions suivantes : mettre en place l'outillage Datascience et MLOPS et identifier les patterns pour un usage global évaluer et adpoter de nouvelles technologies et méthodologie pour améliorer les processus MLOps et l'efficacité de l'équipe Diriger l'élaboration et la mise en oeuvre de pipelineSuperviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes interne Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).s / solutions MLOps pour l'entrainement, le déploiement et la surveillance des modèles ML

Freelance

Mission freelance
Data Scientist Confirmé (anglais courant) H/F

LeHibou
Publiée le
Deep Learning
Machine Learning
Tensorflow

12 mois
500-570 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un/une Data Scientist Confirmé H/F Description de la mission: Notre client acteur majeur du secteur des énergies cherche un consultant Data Scientist pour renforcer son équipe. Objectifs et livrables La Data Science consiste à extraire, analyser et valoriser les données issues de sources diverses, afin de résoudre des problèmes métiers ou de créer de nouvelles opportunités. Les compétences demandées pour réaliser une prestation de Data Science sont les suivantes : · Maîtriser les techniques de Data Exploration pour collecter, nettoyer et préparer les données avec une posture qui a pour objectif d’accompagner le métier dans la phase d’idéation. · Savoir réaliser des analyses exploratoires et descriptives des données, en utilisant des statistiques et des visualisations, pour identifier les tendances, les corrélations, les anomalies, les opportunités d'optimisation ou de création de valeur. · Concevoir, développer, tester et déployer des modèles de Data science adaptés aux problématiques métiers, en utilisant des approches variées (Optimisation, Machine Learning, Computer Vision, Generative AI, etc.). · Respecter les bonnes pratiques de MLops (versioning, monitoring, CI/CD, etc.) pour assurer la qualité, la fiabilité et la sécurité des modèles en production. · Documenter et présenter les résultats des analyses et des modèles aux parties prenantes internes en utilisant des supports adaptés (rapports, dashboards, etc.). · Contribuer aux choix technologiques et à l’innovation. Contributions transverses : · Participer à la conception/maintenance des nouveaux outils/package communs à l’organisation. · Challenger la vision de l’équipe. · Participer aux CoP (Communautés de pratiques) et aux rituels d’équipes. Compétences requises : Pour mettre en place un développement en data science et IA, il faut disposer des compétences suivantes : · Compétences requises en data science : - maîtrise des outils statistiques et mathématiques, maîtrise des langages de programmation (Python de préférence) et des librairies de traitement de données sous-jacentes, capacité à collecter, nettoyer et analyser des données structurées ou non, compréhension des principaux algorithmes d'apprentissage automatique et de leurs applications. Compétences / Qualités indispensables : MLops (versioning, monitoring, CI/CD, etc.), clean code (expert), git hub (expert), Python (expert), TensorFlow (confirmé), PyTorch (confirmé), Azure ou AWS, connaissance des micro-services, Anglais courant, Deep learning Compétences / Qualités qui seraient un + : . Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Ingénieur Data ML

Phaidon London- Glocomms
Publiée le
Dataiku
Docker
Jenkins

1 an
Paris, France

Nous sommes à la recherche d’un ingénieur en informatique pour travailler sur un projet freelance axé sur les modèles d’apprentissage automatique. Rôle: Ingénieur Data ML Durée: 12 mois Lieu: Paris Travail Hybride Date de début : ASAP Vos responsabilités : - Développer et mettre en œuvre des modèles ML en utilisant des méthodes telles que l’apprentissage par renforcement et l’apprentissage profond pour résoudre des problèmes complexes. - Travailler avec d’autres ingénieurs de données et équipes scientifiques pour collecter, préparer et analyser les données nécessaires à la création de modèles efficaces. - Utiliser et améliorer les infrastructures cloud et les systèmes informatiques pour garantir que les modèles d’apprentissage automatique fonctionnent au mieux dans des scénarios réels. - Veiller à ce que des procédures de test et de validation soient mises en place afin d’évaluer la fiabilité et la qualité des modèles d’apprentissage automatique. - Maintenir les meilleures pratiques et les normes de développement au sein de l’équipe. Profil : - Expérience avérée dans des rôles de ML et grande compréhension des concepts, outils et frameworks de ML tels que TensorFlow, PyTorch, Scikit-Learn, etc. - Maîtriser les outils d’industrialisation des pipelines de données tels que Docker, Kubernetes, Dataiku, Jenkins, etc. - Avoir de l’expérience avec les langages de programmation utilisés dans le domaine des données, tels que : Python, R, Scala, SQL, etc. - Avoir de l’expérience dans la conception et la mise en œuvre de pipelines de données. - Anglais et français courants Si le rôle peut être intéressant, discutons-en !

CDI
Freelance

Offre d'emploi
Tech Lead AI

KLETA
Publiée le
C/C++
Cloud
Docker

3 ans
10k-80k €
Paris, France

Responsabilités clés : Leadership technique : Fournir des orientations techniques et un leadership à l’équipe de développement, y compris aux architectes, ingénieurs et scientifiques des données, pour garantir la mise en œuvre réussie des solutions d’IA. Expertise en IA : Rester à jour sur les dernières avancées dans le domaine de l’IA et des techniques de modélisation générative, y compris, mais sans s’y limiter, les réseaux neuronaux profonds, les LLMs et les Transformers, et les appliquer efficacement pour résoudre des problèmes du monde réel. Architecture logicielle : Définir l’architecture et la conception de systèmes logiciels évolutifs et efficaces pour prendre en charge la formation, les tests et le déploiement de modèles d’IA dans des environnements de production. Développement et mise en œuvre : Diriger les efforts de développement pour construire des composants logiciels robustes et fiables pour le retraitement des données, la formation des modèles, l’inférence et le post-traitement des sorties génératives. Collaboration en recherche : Collaborer avec des chercheurs et des scientifiques en IA pour traduire les résultats de recherche de pointe en solutions pratiques et relever les défis techniques rencontrés lors du cycle de développement. Optimisation des performances : Optimiser les performances et l’efficacité computationnelle des modèles d’IA pour répondre aux exigences strictes de latence et de débit pour les applications en temps réel. Assurance qualité : Établir les meilleures pratiques pour le test et la validation des systèmes d’IA, y compris les tests unitaires, les tests d’intégration et le benchmarking des performances, pour garantir la fiabilité et l’exactitude des prédictions des modèles. Collaboration interfonctionnelle : Travailler en étroite collaboration avec les chefs de produit, les concepteurs UX/UI et les experts du domaine pour comprendre les besoins des utilisateurs, prioriser les fonctionnalités et fournir des produits IA impactants répondant aux besoins des clients. Documentation et partage des connaissances : Documenter les conceptions techniques, les détails de mise en œuvre et les meilleures pratiques pour faciliter le partage des connaissances et garantir la maintenabilité et la scalabilité des systèmes d’IA au fil du temps. Amélioration continue : Promouvoir une culture d’amélioration continue en favorisant l’innovation, l’expérimentation et l’apprentissage au sein de l’équipe, et identifier les opportunités d’amélioration des processus et des flux de travail existants. Sécurité des solutions : Assurer la sécurité des solutions d’IA en collaboration avec les architectes d’entreprise.

CDI

Offre d'emploi
Data Scientist (H/F)

DCS EASYWARE
Publiée le

Paris, France

Nous recherchons aujourd'hui à renforcer nos équipes. Rattaché à l'équipe en place, vous intervenez en tant que Data Scientist (H/F). Notre client, spécialisé dans le retails, recherche son Data Scientist pour rejoindre l'équipe logistique et transport au sein du domaine de la chaîne de valeur. Vous jouerez un rôle crucial dans l'analyse des données, le développement de modèles d'IA en production, et la fourniture d'informations pour optimiser divers aspects de nos opérations de chaîne d'approvisionnement. Vous devrez démontrer une expertise dans les problèmes de prévision et une passion pour tirer partie des données pour orienter les décisions commerciales. Allez on vous en dit plus... vos missions seront de : Examiner de vastes bases de données afin de déceler les modèles, tendances et connaissances cruciales pour chaque secteur de la chaîne d'approvisionnement. Concevoir des modèles prédictifs et des algorithmes d'intelligence artificielle pour améliorer les opérations logistiques et de transport. Élaborer des stratégies d'optimisation pour exploiter les connaissances acquises et proposer des recommandations stratégiques à l'entreprise. Travailler en collaboration avec des équipes interdisciplinaires, y compris la gestion de la chaîne d'approvisionnement, l'ingénierie et le développement de produits, pour harmoniser les initiatives de données et d'IA avec les objectifs d'affaires. Créer et déployer des outils pour surveiller les modèles afin de suivre leur performance et évaluer l'efficacité des stratégies de la chaîne d'approvisionnement. Réviser et perfectionner régulièrement les modèles et méthodologies existants afin d'en augmenter la précision et l'efficacité. Présenter les conclusions et les recommandations aux parties prenantes via des rapports et des présentations clairs et précis. Se tenir au courant des évolutions dans le domaine de la science des données et de la gestion de la chaîne d'approvisionnement, incluant les tendances de l'industrie et les nouvelles technologies. Et si on parlait de vous ? De formation supérieure en informatique (BAC+5), vous avez déjà eu une expérience significative (5 à 10 ans) sur des fonctions similaires. Vos points forts : Maîtrise de l'analyse statistique, des techniques d'apprentissage automatique et des algorithmes d'optimisation.Maîtrise des systèmes de base de données et des langages de requête (par exemple, SQL) pour l'extraction et la manipulation de donnéesExpérience avec des langages de programmation tels que Python, Spark, TensorFlow et PyTorch pour l'analyse et la modélisation de données.Expérience avec des bibliothèques de manipulation et de visualisation de données telles que pandas, NumPy, Matplotlib ou ggplot2. Vous appréciez de travailler en équipe et partager des bonnes pratiques. Notre processus de recrutement : En 4 étapes ! Tout simplement 1. Dans un premier temps, vous échangerez avec l'un/e d'entre nous : Clément, Aurélie ou Stéphanie. 2. Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien sur site ou Teams. 3. Pour finir, discutez métiers avec l'un de nos managers opérationnels. 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : postulez ou partagez avec votre réseau ! Python SPARK Pytorch TensorFlow Numpy Matplotlib

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous