Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Votre recherche renvoie 42 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer SSAS/AAS Tabular

WHEEL OF WORK
Publiée le
Azure
Azure Data Factory
Azure DevOps Server

3 ans
100-750 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer SSAS/AAS Tabular pour une mission de 3 mois renouvelables sur Villeneuve d'Ascq. ▶ Finalité : Mettre en œuvre et maintenir la plateforme data, exposer les données aux métiers avec le niveau de qualité attendu. Garantir la sécurité et l'évolutivité du Système d'Information managé en cohérence avec les objectifs de l'entreprise et les contraintes externes et internes. ▶ Mission : ▪ Développer les compétences techniques et l'autonomie de l'équipe de Data Engineer • Faciliter la coopération • Développer et garantir les pratiques de développement et de documentation associés (DevOps) • Développer l'industrialisation de modèles statistiques ou de machine learning demandés par le Product Owner • Garantir le maintien et la qualité de fonctionnement d'ensemble ainsi que la performance • Assurer une veille technologique sur les outils data Collecter, stocker puis exposer les données • Recueillir les besoins métiers détaillés auprès du Product Owner • Définir et valider avec le Data Architect les solutions techniques en cohérence avec les normes, standards et processus • Développer les solutions techniques de collecte / stockage / exposition de la donnée • Mettre en place l'automatisation des traitements (pipelines) • Réaliser les tests unitaires, d'intégration et procéder à la mise en production Mettre et maintenir en qualité les données • Industrialiser et automatiser le nettoyage de la donnée selon les règles du Data Steward • Gérer le cycle de vie de la donnée conformément aux règles définies • Manager la qualité technique, la gestion du run et sécuriser l’accès aux données

CDI

Offre d'emploi
Data Scientist orienté Engineering - Partenaire Tech pour les Assureurs – Full remote (H/F)

EASY PARTNER
Publiée le
Apache Spark
AWS Cloud
CI/CD

65k-75k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Afin de soutenir notre croissance rapide et nos projets d'expansion internationale, nous recherchons un(e)Data Scientist orienté Engineering pour renforcer notre département Insights. Missions : - Concevoir et implémenter des modèles de Machine Learning pour répondre aux besoins business complexes. - Gérer le cycle de vie complet des modèles, de la conceptualisation à la mise en production. - Être le garant de la qualité du code au sein du département Insights, mettre en place des bonnes pratiques de développement. - Conduire des analyses ad hoc pour éclairer les décisions stratégiques. - Participer à des projets d'innovation et d'expérimentation de nouvelles technologies.

Freelance

Mission freelance
Data engineer (H/F)

Insitoo Freelances
Publiée le
Azure
Git
Microsoft Analysis Services (SSAS)

2 ans
380-500 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Lille, Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - Développer les compétences techniques et l'autonomie de l'équipe de Data Engineer - Faciliter la coopération - Développer et garantir les pratiques de développement et de documentation associés (DevOps) - Développer l'industrialisation de modèles statistiques ou de machine learning demandés par le Product Owner - Garantir le maintien et la qualité de fonctionnement d'ensemble ainsi que la performance - Assurer une veille technologique sur les outils data - Collecter, stocker puis exposer les données - Recueillir les besoins métiers détaillés auprès du Product Owner - Définir et valider avec le Data Architect les solutions techniques en cohérence avec les normes, standards et processus - Développer les solutions techniques de collecte / stockage / exposition de la donnée - Mettre en place l'automatisation des traitements (pipelines) - Réaliser les tests unitaires, d'intégration et procéder à la mise en production - Industrialiser et automatiser le nettoyage de la donnée selon les règles du Data Steward - Gérer le cycle de vie de la donnée conformément aux règles définies - Manager la qualité technique, la gestion du run et sécuriser l’accès aux données

CDI

Offre d'emploi
Data Analyst - Partenaire Tech pour les Assureurs - Paris (H/F)

EASY PARTNER
Publiée le
AWS Cloud
Gitlab
Google Cloud Platform

55k-60k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Pour enrichir notre équipe Insights, nous recherchons un(e) Data Analyst plein d’enthousiasme et prêt à relever des défis dans un environnement en constante évolution. En rejoignant cette équipe, vous aurez l'opportunité de travailler sur des projets analytiques et de visualisation de données, cruciaux pour la prise de décision dans l'entreprise. Missions : - Conception et mise en œuvre de dashboards performants pour le business et le suivi de l'utilisation des applications. - Collaboration étroite avec les équipes Produit et Business pour identifier, analyser et interpréter les tendances ou les patterns dans les ensembles de données complexes. - Participation active à l'amélioration des modèles existants et à la création de nouveaux modèles de Machine Learning pour répondre aux besoins spécifiques. - Analyse des performances des différentes fonctionnalités et recommandations sur les ajustements produits nécessaires. - Veille technologique pour proposer des solutions innovantes en termes d'analyse de données.

Freelance

Mission freelance
Data Scientist - MLOps (F/H)

SMARTPOINT
Publiée le
Apache
Kubernetes

12 mois
400-450 €
Île-de-France, France

Description du poste : En tant que Data Scientist spécialisé en MLOps (Machine Learning Operations), vous serez chargé de concevoir, développer et déployer des modèles d'apprentissage automatique à grande échelle, tout en assurant leur intégration harmonieuse dans les systèmes de production. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour automatiser et optimiser le cycle de vie des modèles, de l'entraînement à la production. Responsabilités : Développement de modèles d'apprentissage automatique : Concevoir et mettre en œuvre des modèles d'apprentissage automatique en utilisant des techniques avancées telles que l'apprentissage supervisé, non supervisé et par renforcement. MLOps : Mettre en place des pipelines de déploiement automatisés pour les modèles, en utilisant des outils et des frameworks tels que Kubeflow, MLflow ou TensorFlow Extended (TFX). Automatisation et orchestration : Développer des processus automatisés pour l'entraînement, le déploiement et la surveillance des modèles, en utilisant des outils tels que Apache Airflow ou Kubernetes. Surveillance des performances : Mettre en place des systèmes de surveillance pour suivre les performances des modèles en production, en identifiant les dégradations de performance et en proposant des améliorations. Collaboration interfonctionnelle : Travailler en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour intégrer efficacement les modèles dans les applications et les services. Optimisation des ressources : Optimiser l'utilisation des ressources informatiques en mettant en place des stratégies de mise à l'échelle automatique et en utilisant des architectures cloud adaptées. Sécurité et conformité : Assurer la sécurité et la conformité des modèles en mettant en place des pratiques de gouvernance des données et en garantissant la confidentialité des informations.

Freelance

Mission freelance
data engineer python spark anglais - 5 ans d'EXP

Innov and Co
Publiée le
Apache Spark
Kubernetes
PySpark

12 mois
100-600 €
Issy-les-Moulineaux, Île-de-France

Dans un secteur logistique en plein essor, en prise direct avec les problématiques actuelles (smart cities, environnement, géopolitique), et en pleine transformation technologique (véhicules autonomes, digitalisation, mobilité), DPD Group vous offre l’opportunité d’avoir un impact direct sur la gestion de colis du futur. Vous intégrerez l’équipe Analytics et contribuerez principalement au développement de la plateforme DataHub. Actuellement petite équipe autonome de 4 personnes engagées à 100% sur ce projet, l’équipe Analytics est intégrée au sein de l’équipe Data Science & Analytics de la DPSIN. L’objectif de la plateforme interne DataHub est de stocker les données historiques des activités et permettre leur requêtage efficient. Les données sont issues de et exploitées par divers acteurs – Marketing, Sales, OPS, IT, Data Science, … en central ou depuis les Business Units – pour des usages tels que la récupération simple de données historiques, la BI ou le machine learning. L’environnement de travail est international, avec des contacts quotidiens avec des équipes en France et à l’étranger. Les demandes d’utilisations de la plateforme croissent fortement. La plateforme DataHub en quelques faits : § 2023 : Forte croissance des usages de la plateforme (BI, requêtage ad-hoc, requêtages fréquents standardisés et hautes performances d’applications), enrichissement de l’offre de services (Data Viz avec Superset) § 2024 : Monter en charge sur les usages (plus de use cases !), étendre l’offre de services et améliorer l’expérience utilisateurs (Data Viz, Data lineage), optimiser l’usage de notre stack technique (Spark, Airflow...), généraliser l’usage de tables d’Apache Iceberg, poursuivre l’industrialisation des pipelines de traitement de données… o Les cas d’usages aujourd’hui en production : § 9 rapports BI servis § Requêtages fréquents (standardisés et tunés, avec ou sans API) par des applications :: 4 cas d’usages § Requêtage ad-hoc croissant des data scientists et équipes IT (+1000 requêtes / mois) o Volumes de données sous gestion active : § ~10 To de données § +15 flux de données § Flux de donné majeur : +100 millions d’évènements / jour d’évènements sur les colis Environnement technique : § Data Lake basé sur des technologies open source. § Architecture Cloud Kubernetes (Outscale Cloud) § Stockage des données sur du S3 (Outscale OOS) sous forme de fichiers Parquet (simples ou tables Iceberg) ou json § Query engine pour se connecter (S3 et autres DB) et requêter (SQL standard) les données : Dremio § Maintenance de tables Iceberg et requêtage de données avec Apache Spark § Automatisation des opérations et traitements de données en python avec Apache Airflow § Data Viz orientée métier avec Apache Superset § Data Viz orientée Monitoring IT avec Grafana § APIs développées en Python et Java § Gestion de version et CI/CD avec GIT Lab Organisation : § Equipe Produit de 4 personnes § Mode de travail Agile Scrum

Freelance

Mission freelance
Data Engineer (F/H)

Come Together
Publiée le
Azure Data Factory
Microsoft Analysis Services (SSAS)
Python

3 mois
400-520 €
Villeneuve-d'Ascq, Hauts-de-France

Nous recherchons pour un de nos clients grand compte un(e) Data Engineer (F/H), Missions: Développer les compétences techniques et l'autonomie de l'équipe de Data Engineer Faciliter la coopération Développer et garantir les pratiques de développement et de documentation associés (DevOps) Développer l'industrialisation de modèles statistiques ou de machine learning demandés par le Product Owner Garantir le maintien et la qualité de fonctionnement d'ensemble ainsi que la performance Assurer une veille technologique sur les outils data Collecter, stocker puis exposer les données Recueillir les besoins métiers détaillés auprès du Product Owner Définir et valider avec le Data Architect les solutions techniques en cohérence avec les normes, standards et processus Développer les solutions techniques de collecte / stockage / exposition de la donnée Mettre en place l'automatisation des traitements (pipelines) Réaliser les tests unitaires, d'intégration et procéder à la mise en production Mettre et maintenir en qualité les données Industrialiser et automatiser le nettoyage de la donnée selon les règles du Data Steward Gérer le cycle de vie de la donnée conformément aux règles définies Manager la qualité technique, la gestion du run et sécuriser l’accès aux données

Freelance

Mission freelance
Senior Data Scientist

Phaidon London- Glocomms
Publiée le
Amazon S3
Apache Airflow
Data science

1 an
Pays de la Loire, France

En partenariat avec un leader des logiciels informatiques, je suis à la recherche de 2 Data Scientists seniors pour un contrat à long terme, se concentrant sur l’implémentation d’algorithmes utilisant des techniques diverses et variées (Deep Learning, NLP, Image Processing, Heuristics, LLM, etc.). Rôle : Data Scientist Senior Lieu : Paris Durée du contrat : Long terme Travail à distance - Visites occasionnelles au bureau de Paris/Bordeaux Date de début : ASAP Le rôle : Responsable de l’analyse et de la préparation des algorithmes de prototypes de données Travailler de manière transversale avec les autres ingénieurs de données et les équipes de développement pour mettre les algorithmes en production. Contribuer à la création de tableaux de bord pour le suivi et l’illustration des algorithmes. Présentations hebdomadaires des résultats Affiner les cas d’utilisation, l’expérience utilisateur et les méthodes d’intégration. Le candidat idéal : 6+ ans d’expérience professionnelle en tant que Data Scientist avec une expérience prouvée en Machine Learning Expérience confirmée dans la mise en production d’algorithmes de Machine Learning Expertise dans les algorithmes de Deep Learning et les architectures de pointe (par exemple Transformers) Maîtrise des langages de script - Python, Tensorflow/PyTorch Expérience avec Spark développement

Freelance

Mission freelance
Intégrateur confirmé/sénior

DATACORP
Publiée le
CentOS
KVM (Kernel-based Virtual Machine)
Puppet

12 mois
500-600 €
Paris, France

Descriptif mission : - Migration des hyperviseurs et Vms existants vers les socles Linux récents (RHEL 8 et RHEL9) - Évolutions des configurations système et logicielles - Prise en compte des extensions matérielles sur les hyperviseurs existants - Remplacement d'hyperviseurs, ajout de nouveaux hyperviseurs - Tenue des données de configuration (DEX) dans les outils - Veille sur les normes d'architecture applicables (proposition d'améliorations, recommandation de bonnes pratiques, ...) Compétences requises : - maîtrise de la mise en œuvre d'architectures serveurs Linux - maîtrise de la mise en œuvre d'environnements virtualisés (kvm/qemu) - configuration réseau en environnements virtualisés - connaissance souhaitée des outils de gestion des configurations et de déploiement (cobbler/puppet) - Technologies : - RHEL (CentOS7, Rocky8, Rocky9) - puppet, cobbler - kvm, qemu, libvirt - openVSwitch Niveau d’expérience requise : Minimum 6 ans d’expérience minimum Mission : Démarrage : ASAP Localisation : Nord Est Parisien

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous