Trouvez votre prochaine offre d’emploi ou de mission freelance Jupyter Notebook

Votre recherche renvoie 12 résultats.
Freelance

Mission freelance
Business Analyst IT spécialisé en Risque de Marché.

Publiée le
AWS Cloud
Finance
Gitlab

6 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un besoin urgent pour l’un de nos clients grands comptes du secteur financier, nous renforçons notre équipe et recherchons un Business Analyst IT spécialisé en Risque de Marché . 🎯 Votre rôle Vous rejoindrez une équipe en charge d’un dispositif stratégique pour la gestion du risque de marché. Votre intervention portera sur : · La consolidation et l’évolution d’une bibliothèque Python dédiée au risque. · Le développement d’outils de suivi, de contrôle, de reporting et d’analyse. · La création et l’automatisation de scripts liés aux activités de tests, de monitoring et d’analyse. · L’étude des impacts métier et réglementaires sur le cadre de risque et son intégration dans les systèmes internes. 🧩 Compétences clés recherchées 🔧 Techniques · Excellente maîtrise de Python , incluant : développement collaboratif, maintenance, gestion de versions ( GitLab ). · Connaissance des Jupyter Notebooks . · Familiarité avec les environnements AWS et/ou Snowflake (un plus). · Compréhension des algorithmes de calcul de risque (bases mathématiques financières fortement recommandées). · Bonnes notions sur les produits dérivés : valorisation d’options, Delta, Gamma, Vega, sensibilités… 🤝 Soft skills · Capacité d’analyse et de résolution de problèmes. · Excellente communication écrite et orale en français et en anglais . 👥 Environnement de mission · Équipe spécialisée dans la gestion du risque de marché. · Collaboration étroite avec les équipes IT et métier. · Contexte technique exigeant autour de Python, cloud et data. 📍 Modalités · TJM : selon profil · Période : longue durée · Démarrage urgent
Freelance

Mission freelance
Analyste IT Risque de Marché

Publiée le
AWS Cloud
Gitlab
Jupyter Notebook

6 mois
500-550 €
Paris, France
Télétravail partiel
Poste : Analyste IT Risque de Marché 📍 Paris, France 🎯 Contexte Vous rejoindrez une équipe Risque de Marché en charge de la conception du cadre de risque, du suivi opérationnel, de la modélisation et de l’évolution des outils de risk management. Le poste s’inscrit dans un environnement innovant lié aux produits dérivés et aux actifs digitaux. 🚀 Vos missions 🧪 Développement & Data Risk Développer des scripts, outils, rapports et dashboards en Python : analyse de marge, backtesting, contrôles qualité, analyse de portefeuille, outils de gestion du défaut… Contribuer à la construction d’une librairie Python robuste et documentée. Garantir la fiabilité et l’automatisation des scripts dans un environnement local et cloud. 📊 Business Analyse Recueillir et analyser les besoins fonctionnels liés aux risques de marché & opérationnels. Rédiger les spécifications fonctionnelles / user stories. Participer activement aux ateliers et réunions projets, identifier les impacts et proposer des solutions. Préparer et exécuter les tests, documenter les résultats et participer à la mise en production. Contribuer à la stratégie de déploiement et former les autres membres de l’équipe. 🎓 Compétences clés Très bonne maîtrise de Python et des outils de versioning (GitLab). Connaissance de Jupyter, AWS ou Snowflake appréciée. Excellente communication en français et anglais. Expérience projet dans la finance de marché (BA ou testing). Compréhension des notions de risque de marché et des produits dérivés (Delta, Gamma, Vega…). Rigueur, autonomie, esprit analytique, capacité à anticiper.
Freelance

Mission freelance
Market Risk Business Analyst IT

Publiée le

12 mois
600-650 €
75001, Paris, Île-de-France
Télétravail partiel
C ontexte & Objectif L'équipe First Line Risk (FLR) est responsable de la conception et de la mise en œuvre du cadre de gestion du risque de marché, ainsi que du suivi des risques. Elle intervient dans la conception des modèles et des dispositifs associés, ainsi que dans l'évaluation et la mise en œuvre des évolutions nécessaires au sein des systèmes de notre client pour cette activité. Un Business Analyst spécialisé en risque de marché est recherché pour renforcer l'équipe FLR. Il contribuera aux travaux en cours visant à consolider la bibliothèque Python de la FLR, et à développer des outils de suivi et de contrôle, des outils de test et des rapports d'analyses de risque. En outre, il participera à la mise en place, la planification et l'automatisation des scripts. Il sera également chargé d'analyser et de couvrir l'ensemble des impacts de ces projets métiers ou réglementaires sur le cadre de risque et sa mise en œuvre . Profil recherché Expertise en Python, incluant le développement collaboratif, la maintenance et la gestion de versions de code (GitLab) - compétence indispensable. Connaissance des Jupyter Notebooks et des environnements AWS/Snowflake - un atout. Capacité à communiquer couramment en français et en anglais, à l'oral comme à l'écrit. Expérience dans des projets, soit en tests, soit en tant que Business Analyst dans le secteur financier. Aptitude à trouver des solutions et à anticiper les problèmes. Capacité à prendre des initiatives dans son domaine de responsabilité. Compréhension des algorithmes de calcul de risque (bases en mathématiques financières fortement recommandées). Connaissances théoriques des produits dérivés également recommandées (principes généraux des modèles de valorisation d'options, Delta, Gamma, Vega, fondamentaux des sensibilités…).
CDI

Offre d'emploi
Développeur Data/Data Engineer

Publiée le
AWS Cloud
Azure
Azure Data Factory

40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Freelance
CDI

Offre d'emploi
Data Ops

Publiée le
Apache Spark

1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance
CDI

Offre d'emploi
Architecte Technique Data

Publiée le
Apache Spark
Architecture
Big Data

2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
Architecte Technique Solution Data

Publiée le
Big Data
Cloudera

3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Freelance

Mission freelance
Architecte Data

Publiée le
Javascript

6 mois
580-700 €
Élancourt, Île-de-France
Télétravail partiel
1. Contexte du projet Le projet concerne une application de gestion prédictive des risques fournisseurs impactant la supply chain. Cette solution vise à : Naviguer parmi les données produits et fournisseurs pour identifier les éléments à risque. Détecter et alerter en cas d’événements susceptibles d’augmenter le niveau de risque. Simuler différents scénarios (rupture fournisseur, hausse de charge, etc.) afin d’en mesurer les impacts et de proposer des actions correctives. L’application, hébergée on-premise , s’appuie sur un logiciel COTS et un modèle de facturation basé sur les VCPU/h alloués . Les données intégrées proviennent de : ERP (SAP ECC : modules MM, PP, CO, SAP BW, Oracle E-Business Suite) Applications internes (achats, procurement, BI) Sources externes (fournisseurs de rang N, données marchés, etc.) Ces chargements nécessitent un travail approfondi de préparation, transformation, contrôle qualité et corrections manuelles avant intégration. Certaines données sont sensibles (C3 business sensitive – Export Control France non restreint) . 2. Compétences techniques et fonctionnelles requises Expertise en modélisation de données , particulièrement sur les domaines achats et industrie . Connaissance approfondie de : SAP ECC (MM, PP, CO), SAP BW , Oracle E-Business Suite Ivalua , Power BI , Excel Power Query Python (notebook) , JavaScript (console Web) , VS Code , SSMS , Shell Unix , PowerShell Plateforme C3AI (console et exploration de données) Capacité à analyser, fiabiliser et enrichir la donnée , avec une approche orientée qualité et amélioration continue. Prise en main et évaluation d’outils de Data Analysis . Compétences en architecture fonctionnelle et technique . Bon niveau d’anglais (oral et écrit). 3. Missions principales Intégration et préparation de nouvelles données Identifier les nouvelles sources de données et les besoins associés. Définir et piloter les extractions à réaliser depuis les systèmes sources. Préparer, transformer et contrôler la qualité des données avant intégration. Vérifier la cohérence du modèle de données choisi. Automatiser autant que possible les traitements d’intégration et de mise à jour. Mise à jour et supervision des environnements Assurer la mise à jour récurrente des données internes et externes. Surveiller le bon déroulement des simulations et recalculer les KPIs pour vérification. Identifier et corriger les anomalies de chargement ou de qualité. Maintenir la documentation complète des flux et traitements de données. Tests, qualité et support applicatif Contrôler la qualité des livraisons logicielles. Participer aux tests de non-régression et au maintien du jeu de données de référence . Analyser les erreurs d’exécution (UI, scripts JavaScript/C3). Vérifier la cohérence des KPIs et des résultats de simulation. Pilotage et coordination technique Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures et sources de données. Maintenir et intégrer le référentiel des fournisseurs de rang N. Suivre les déploiements applicatifs, upgrades, incidents et performance du run. Optimisation du runtime Suivre la consommation CPU/h via les dashboards internes. Comparer les mesures internes et éditeur, analyser les écarts. Optimiser l’allocation des ressources CPU/h en fonction de l’usage réel de la plateforme. 4. Profil recherché Expérience confirmée en architecture data , gestion de flux complexes et intégration de données hétérogènes . Aisance dans les environnements ERP et BI. Capacité à structurer, documenter et fiabiliser des processus data de bout en bout. Bon sens analytique, rigueur technique, autonomie et communication fluide avec des équipes pluridisciplinaires.
Freelance
CDD

Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles

Publiée le
BI
Data Lake
Microsoft Fabric

9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Freelance
CDI

Offre d'emploi
Business Analyst orienté Data/BI

Publiée le
Microsoft Excel
Power Query
Python

12 mois
40k-45k €
400-450 €
Strasbourg, Grand Est
Télétravail partiel
Contexte : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Expérience confirmée en AMOA : un fort niveau d’autonomie est demandée, et une capacité à prendre en charge des projets complexes et d’envergure o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.

Les métiers et les missions en freelance pour Jupyter Notebook

Data scientist

Le/La Data Scientist utilise Jupyter Notebook pour développer, documenter et tester des modèles de machine learning.

Data analyst

Le/La Data Analyst utilise Jupyter Notebook pour analyser et visualiser des données de manière interactive.

12 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous