Trouvez votre prochaine offre d’emploi ou de mission freelance Jupyter Notebook
Offre d'emploi
Senior MLOps Engineer – Plateforme IA & Calcul Distribué
Dans un contexte de transformation porté par l’IA, les entreprises doivent innover vite tout en garantissant une robustesse et une scalabilité industrielles. C'est précisément dans ce paysage en pleine mutation que nous intervenons auprès de nos clients (grands groupes, start-ups & scale-up) : nous proposons une expertise complète couvrant la définition de la stratégie Data/IA jusqu’à l’industrialisation des modèles via des pipelines MLOps robustes et scalables. Notre savoir-faire inclut l'accompagnement des migrations complexes de workloads HPC vers le cloud (AWS, GCP) et l’optimisation des infrastructures pour des usages LLMs à grande échelle. Nous recherchons un consultant expérimenté pour rejoindre l’équipe Data Plateform d’un hedge fund quantitatif de premier plan : au cœur des stratégies d’investissement. L’équipe dispose d’une plateforme de calcul hybride : un grid on-premise (l’infra historique sur laquelle les chercheurs lancent leurs jobs via des outils internes) et AWS (SageMaker). Elle exploite un large éventail de sources de données pour construire des prédicteurs diversifiés qui alimentent les stratégies d’investissement. Pour développer, tester et entraîner ces prédicteurs (modèles, simulations, entraînements, …), les chercheurs exécutent leurs jobs sur l’infrastructure de calcul (grid on-premise), et désormais extension AWS). Votre mission principale est de permettre aux chercheurs qui utilisent aujourd’hui le grid interne d’utiliser AWS comme une extension naturelle de ce grid : mettre en place pour chacun le setup technique complet (accès, environnement Python, image Docker, configuration) et les accompagner jusqu’au lancement effectif de leurs jobs sur AWS, tout en veillant à ce que l’expérience reste aussi fluide, interactive et réactive que sur leur environnement local. Votre rôle au quotidien 1. Ingénierie de la plateforme Assurer la transition des chercheurs depuis la grille de calcul on-premise vers AWS, en assurant la mise en place technique complète jusqu’au lancement effectif de leurs jobs. Mettre en place et maintenir des environnements Python sains et reproductibles (gestion conda, pip, virtualenv), packagés et distribués via la conteneurisation (Docker). Assurer la connexion opérationnelle entre les notebooks SageMaker et l’exécution des traitements sur AWS Batch. Améliorer les outils techniques du quotidien et mettre en place des librairies communes pour optimiser le workflow 2. Excellence opérationnelle et expérience utilisateur Contribuer à l'optimisation et à la gouvernance des ressources de calcul AWS (EC2, Lambda, Batch) en lien avec les besoins des chercheurs. Recueillir activement le feedback des chercheurs et mettre en œuvre des améliorations pour garantir que l'expérience utilisateur soit aussi interactive, réactive & fluide que sur leur environnement local. Promouvoir et mettre en place les meilleures pratiques auprès des utilisateurs (notamment ceux moins techniques) concernant la parallélisation et l'usage efficace de la nouvelle plateforme.
Offre d'emploi
Ingénieur Logiciel Junior (H/F)
Nous recherchons un(e) Ingénieur(e) Logiciel Junior pour accompagner une équipe de développeurs au coeur d'un environnement technique exigeant. Votre rôle : garantir la fluidité des environnements de développement et la bonne exécution des pipelines d'intégration continue. Après une phase de prise en main des outils et méthodes internes, vous deviendrez un point de contact privilégié pour soutenir les utilisateurs dans leurs activités quotidiennes. A ce titre vos missions principales seront les suivantes: Centraliser et traiter les demandes d'assistance des équipes de développement Diagnostiquer et résoudre les incidents liés aux environnements de dev : Git, Docker, pip, uv, conda, Jupyter, Python Surveiller, maintenir et optimiser les pipelines CI/CD Participer à l'amélioration continue des outils et pratiques internes Contribuer à l'industrialisation des workflows techniques Vous êtes titulaire d'une formation niveau Bac+5 (Master) ou avez une expérience équivalente. Vous avez 2 ans minimum d'expérience sur un poste similaire en environnement Linux/Python et possédez les connaissances et compétences suivantes: Connaissances en CI/CD (GitLab CI, Jenkins ou équivalent) Bon sens du diagnostic, curiosité technique et goût du support aux utilisateurs Proactivité, organisation et capacité à travailler en équipe python LINUX DevOps
Mission freelance
Data Scientist
Description: Prestation de Data Scientist en IA Générative - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles) Compétences et expériences : - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
Architecte Data Expérimenté
Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).
Mission freelance
Architecte Data
1. Contexte du projet Le projet concerne une application de gestion prédictive des risques fournisseurs impactant la supply chain. Cette solution vise à : Naviguer parmi les données produits et fournisseurs pour identifier les éléments à risque. Détecter et alerter en cas d’événements susceptibles d’augmenter le niveau de risque. Simuler différents scénarios (rupture fournisseur, hausse de charge, etc.) afin d’en mesurer les impacts et de proposer des actions correctives. L’application, hébergée on-premise , s’appuie sur un logiciel COTS et un modèle de facturation basé sur les VCPU/h alloués . Les données intégrées proviennent de : ERP (SAP ECC : modules MM, PP, CO, SAP BW, Oracle E-Business Suite) Applications internes (achats, procurement, BI) Sources externes (fournisseurs de rang N, données marchés, etc.) Ces chargements nécessitent un travail approfondi de préparation, transformation, contrôle qualité et corrections manuelles avant intégration. Certaines données sont sensibles (C3 business sensitive – Export Control France non restreint) . 2. Compétences techniques et fonctionnelles requises Expertise en modélisation de données , particulièrement sur les domaines achats et industrie . Connaissance approfondie de : SAP ECC (MM, PP, CO), SAP BW , Oracle E-Business Suite Ivalua , Power BI , Excel Power Query Python (notebook) , JavaScript (console Web) , VS Code , SSMS , Shell Unix , PowerShell Plateforme C3AI (console et exploration de données) Capacité à analyser, fiabiliser et enrichir la donnée , avec une approche orientée qualité et amélioration continue. Prise en main et évaluation d’outils de Data Analysis . Compétences en architecture fonctionnelle et technique . Bon niveau d’anglais (oral et écrit). 3. Missions principales Intégration et préparation de nouvelles données Identifier les nouvelles sources de données et les besoins associés. Définir et piloter les extractions à réaliser depuis les systèmes sources. Préparer, transformer et contrôler la qualité des données avant intégration. Vérifier la cohérence du modèle de données choisi. Automatiser autant que possible les traitements d’intégration et de mise à jour. Mise à jour et supervision des environnements Assurer la mise à jour récurrente des données internes et externes. Surveiller le bon déroulement des simulations et recalculer les KPIs pour vérification. Identifier et corriger les anomalies de chargement ou de qualité. Maintenir la documentation complète des flux et traitements de données. Tests, qualité et support applicatif Contrôler la qualité des livraisons logicielles. Participer aux tests de non-régression et au maintien du jeu de données de référence . Analyser les erreurs d’exécution (UI, scripts JavaScript/C3). Vérifier la cohérence des KPIs et des résultats de simulation. Pilotage et coordination technique Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures et sources de données. Maintenir et intégrer le référentiel des fournisseurs de rang N. Suivre les déploiements applicatifs, upgrades, incidents et performance du run. Optimisation du runtime Suivre la consommation CPU/h via les dashboards internes. Comparer les mesures internes et éditeur, analyser les écarts. Optimiser l’allocation des ressources CPU/h en fonction de l’usage réel de la plateforme. 4. Profil recherché Expérience confirmée en architecture data , gestion de flux complexes et intégration de données hétérogènes . Aisance dans les environnements ERP et BI. Capacité à structurer, documenter et fiabiliser des processus data de bout en bout. Bon sens analytique, rigueur technique, autonomie et communication fluide avec des équipes pluridisciplinaires.
Mission freelance
95630/Data Scientist en IA Générative Nantes
Data Scientist en IA Générative - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles) - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
Consultant BI - Databricks-Power BI - H/F
Vos missions : Développer et maintenir des pipelines de données sur Databricks (Spark, notebooks, Delta Lake). Concevoir des modèles de données et des rapports interactifs sur Power BI. Ecrire et optimiser des requêtes SQL complexes pour l'analyse et la transformation des données. Automatiser des traitements et scripts en Python pour répondre à des besoins spécifiques (nettoyage, calculs, API…). Participer à la mise en place de bonnes pratiques de gouvernance des données (documentation, qualité, sécurité). Collaborer avec les équipes métiers pour comprendre les besoins et proposer des solutions adaptées. Assurer la maintenance évolutive et corrective des outils BI existants.
Mission freelance
Consultant sécurité - Expert SPLUNK
Vos missions principales : Déploiement et exploitation avancée de Splunk : Mise en place, configuration et optimisation de l’architecture Splunk (indexers, search heads, forwarders). Intégration de nouvelles sources de données, normalisation via CIM (Common Information Model), et gestion de la scalabilité et des performances. Création de règles de détection et automatisation : Conception et implémentation de règles de détection adaptées aux cas d’usage métiers ou de sécurité. Mise en œuvre de scheduled searches , alertes corrélées, adaptive response actions et drilldowns interactifs. Gestion des droits via RBA (Risk-Based Alerting) : Définition et application de modèles de Risk-Based Alerting pour une gestion fine des alertes selon le niveau de risque métier. Association de scores de risque à des entités pour prioriser les incidents et réduire le bruit d’alerte. Conception de dashboards dynamiques et pertinents : Création de tableaux de bord interactifs pour la visualisation temps réel ou historique des données. Utilisation des meilleures pratiques UX pour favoriser une lecture intuitive et efficace des indicateurs clés (KPI, KRI, etc.). Exploitation du Splunk Machine Learning Toolkit (MLTK) : Application de modèles prédictifs ou de détection d’anomalies à l’aide du MLTK. Développement de notebooks pour analyser les données, entraîner des modèles supervisés/non-supervisés, et déployer des alertes basées sur les résultats. Pilotage de projets de bout en bout : Suivi complet du cycle de vie des projets Splunk, de la phase de cadrage et collecte de besoins, à la mise en production et au support post-déploiement. Coordination avec les équipes métiers, sécurité, infrastructure, et développement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Jupyter Notebook
Data scientist
Le/La Data Scientist utilise Jupyter Notebook pour développer, documenter et tester des modèles de machine learning.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Jupyter Notebook pour analyser et visualiser des données de manière interactive.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres