Trouvez votre prochaine offre d’emploi ou de mission freelance Jupyter Notebook

Votre recherche renvoie 13 résultats.
Freelance

Mission freelance
Un  IT Quants / DevOps Engineer,

Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab

6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Freelance

Mission freelance
Cloud Infrastructure Engineer (terraform, kubernetes, Azure) H/F

Pickmeup
Publiée le
Ansible
Azure
Kubernetes

2 ans
400-600 €
Paris, France
Le Projet Rejoignez l'élite de la Tech publique au sein d'une structure d'envergure nationale dédiée à l'innovation par la donnée. La mission est capitale : concevoir, sécuriser et maintenir la plateforme technologique qui centralise les données de santé pour faire avancer la recherche médicale en France. 🏥📊 Dans un environnement Agile et ultra-sécurisé, vous intégrez l'équipe Secure Process Environment . Votre terrain de jeu ? Une infrastructure complexe, innovante et 100% automatisée. 🛠️ Votre Stack Technique Infrastructure : Azure, Terraform, Terragrunt, Packer, Ansible. Orchestration : Kubernetes (K8s), Helm. Automation/Scripting : Bash, Python. Outils : Gitlab, Keycloak, Nexus, Jupyter, Spark, PostgreSQL. 🎯 Vos Missions : "Design, Automate & Secure" Infrastructure-as-Code (45%) : Développer et maintenir une infrastructure 100% terraformée sous Azure à grande échelle. Kubernetes & Apps (30%) : Industrialiser le déploiement des composants transverses (Ingress, Keycloak) et des outils data (Jupyter, Spark) via Helm & Docker. Scripting & Outillage (25%) : Créer des utilitaires de check, de déploiement et collaborer avec les Data Engineers pour répondre aux besoins des utilisateurs finaux. Sécurité & Architecture : Participer activement à l'homologation de la plateforme et à l'évolution de l'architecture distribuée. Culture Ops : Documenter vos succès pour un partage de connaissance fluide au sein de l'équipe (12 développeurs passionnés).
CDI

Offre d'emploi
DATA SCIENTIST - Télécom - Lyon (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Keras
Python

40k-54k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Rejoignez une entreprise innovante appartenant à un groupe de renom œuvrant dans le domaine des télécommunications. Avec des équipes basées à Lyon, notre entreprise s'attache à transformer l'expérience client à travers le développement de solutions IT innovantes pour divers opérateurs télécoms à travers le monde. Actuellement, nous sommes à la recherche d'un Data Scientist passionné pour rejoindre une équipe dynamique et motivée, composée de 9 personnes, dédiée à l'optimisation des réseaux radio du groupe. Dans le cadre de notre croissance et de l'évolution de nos projets, nous lançons ce recrutement pour soutenir nos efforts en intelligence artificielle et en data science. Missions Missions principales - Développer et mettre en œuvre des solutions IA pour résoudre des problématiques complexes dans le secteur des télécoms, incluant l'optimisation radio et le monitoring automatique. - Contribuer à l'amélioration de l'efficacité énergétique du réseau et à la création de chatbots business-orientés. Missions annexes - Collaborer avec les commanditaires pour définir les cas d’usage et s’assurer de la pertinence des applications proposées. - Coordonner les initiatives de Crédit Impôt Recherche et encadrer un alternant en Data Science. - Participer activement à l'intégration de modèles de données dans l'environnement de production et maintenir une veille technologique rigoureuse. Stack technique Compétences à maîtriser - Python 3, SQL, TensorFlow, scikit-learn, Keras, Pandas, Matplotlib, Ploty, seaborn. - Data processing avec Jupyter Lab, Airflow, Superset. Environnement technique - Bases de données relationnelles et non-relationnelles, fichiers csv et parquet, outils de gestion de projet tels que JIRA et Confluence.
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance
CDI

Offre d'emploi
Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance

Mission freelance
Data Engineer

Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop

12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
CDI
Freelance
CDD

Offre d'emploi
Développeur Big Data : Python, SQL, Shell, Spark expérimenté

KEONI CONSULTING
Publiée le
JIRA
Python
SQL

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans nos actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et ""clients"" (Groupes de protection sociale). La connaissance de Power BI et de SAS sont des plus." Livrables attendus Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale (Retraite Complémentaire idéalement)
Freelance

Mission freelance
Développeur Databricks / Python (h/f)

emagine Consulting SARL
Publiée le

12 mois
111 €
75000, Paris, Île-de-France
Introduction & Résumé : Emagine recherche un Développeur Databricks / Python capable d'accompagner des équipes dans des projets à forte valeur ajoutée autour des données. Le candidat idéal disposera d'une expertise avancée en développement sur Databricks et Python, et aura un rôle clé dans la conception et la maintenabilité des solutions techniques. Principales responsabilités : Accompagner les équipes sur des projets data. Concevoir et maintenir des solutions robustes sur Databricks. Intégration de données Développer des notebooks Python (PySpark)/SQL/R. Documenter les développements pour assurer la maintenabilité. Industrialiser les notebooks (jobs, workflows, automatisation). Exigences clés : Minimum 5 ans d'expérience. Expertise avancée sur Databricks/Python. Anglais courant, méthodologie agile Excellent relationnel, travail en équipe Présence obligatoire de 2 jours sur site. Atouts : Expérience dans des projets similaires. Compétences en gestion de projet.
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)

NSI France
Publiée le
Azure
Cloud
Data Engineering

6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés

Les métiers et les missions en freelance pour Jupyter Notebook

Data scientist

Le/La Data Scientist utilise Jupyter Notebook pour développer, documenter et tester des modèles de machine learning.

Data analyst

Le/La Data Analyst utilise Jupyter Notebook pour analyser et visualiser des données de manière interactive.

13 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous