Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist à Toulouse
Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume.
Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique.
Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise.
In fine, il veille à proposer des solutions de protection efficaces.
Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles.
Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.

Offre d'emploi
Data Engineer – Java / Spark SCALA (F/H)
Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables. Vos missions au quotidien 🛠 · Développer et optimiser des pipelines de données massifs avec Spark et Scala . · Assurer l’ingestion, le nettoyage et l’enrichissement des données en vue de leur exploitation. · Exposer les données via des API et Web Services pour les rendre accessibles aux applications et modèles ML. · Contribuer à l’industrialisation et à la mise en production des traitements Big Data . · Collaborer avec les data scientists pour améliorer la maturité industrielle des modèles de machine learning. · Maintenir et optimiser les solutions en production pour garantir leur performance et leur robustesse. Votre environnement technique 🖥 · Langages : Java (J2EE / JDK 17), Scala · Big Data : Spark (SQL/DataFrame), Impala, Kudu, Hive, SQL, Parquet · Infrastructure & DevOps : Docker, Kubernetes, Helm, Git, Maven · Messaging & Streaming : Kafka, Redis · Tests & Qualité : JUnit, Mockito, PowerMock, ScalaMock · API : Web Services Rest
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.