Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Data Scientist
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.

Offre d'emploi
Data Scientist senior
Site : Ile de France (Roissy-en-France) ; Date de démarrage : 22/09/2025 Durée mission : 8 mois (15/05/2026) Profil : Data Scientist senior, expert en modélisation statistique, capable de concevoir des modèles robustes et interprétables pour améliorer la prévision de la demande. Nombre d'années d'expérience : 8+ années d'expérience dans le domaine Compétences techniques : - Maîtrise de Python (NumPy, SciPy, PyMC, scikit-learn, statsmodels), - Maîtrise de SQL, - Connaissance des outils de visualisation (Power BI, Looker, Streamlit), - Machine Learning appliquée, - Modèles supervisés, boosting, régularisation, validation croisée
Mission freelance
LEAD DATA SCIENTIST AI
Nous recherchons un expert de haut niveau en Data Science et NLP/GenAI pour piloter un programme stratégique autour de l’ automatisation intelligente de la gestion d’emails (13M+/an) . L’objectif : concevoir un système agentique innovant intégrant priorisation, génération de réponses, résumé automatique et conformité réglementaire , tout en réduisant de plus de 60% les tâches manuelles. 🎯 Vos missions principales Leadership technique (40%) : concevoir l’architecture agentique, définir la roadmap, les métriques d’évaluation, assurer la scalabilité et l’intégration (MCP, A2A/ACP). Développement (30%) : prototypage d’agents, ingénierie de contexte LLM, pipelines de données synthétiques, déploiement en production. Business alignment (20%) : traduire les besoins opérationnels, élaborer des règles de priorisation, travailler avec les équipes conformité, définir les KPIs. Recherche & veille (10%) : explorer les nouvelles avancées en agentic AI, expérimenter et accompagner l’équipe. 🛠️ Tech Stack & environnement CrewAI , Python, SQL, APIs MCP / A2A / ACP integration GenAI, NLP avancé, MLOps Objectif : réduction >60% des tâches manuelles ✅ Profil recherché PhD ou équivalent 10+ ans en Data Science, dont 5+ en NLP/GenAI Expérience CrewAI & déploiement IA en production Solides compétences Python, SQL, APIs Expérience secteur financier & publications/patents appréciés Anglais courant (français apprécié) 💡 Pourquoi nous rejoindre ? Programme IA à fort impact stratégique Stack technologique de pointe Opportunités de recherche et publications Forte visibilité auprès du management Package attractif & télétravail hybride ANGLAIS OBLIGATOIRE
Offre d'emploi
Data Scientist Senior
Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)
Offre d'emploi
DATA SCIENTIST à Nantes
Prestation à Nantes. Le bénéficiaire souhaite une prestation d'accompagnement sur Nantes, dans le cadre de son programme d’accélération de l’IA. Contexte : Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Objectif de la mission : Concevoir un pipeline d'extraction, nettoyage et structuration de la connaissance textuelle issue de documents variés, en l'organisant dans un format pivot enrichi et exploitable. Activités principales : Extraction du texte depuis des fichiers PDF, Word, HTML via des librairies adaptées Nettoyage et normalisation des contenus (suppression de bruit, OCR si nécessaire) Segmentation des textes en unités de connaissance structurées (sections, blocs) Enrichissement des unités avec des métadonnées (source, date, thème, typologie) Conception du format pivot (Markdown enrichi ou JSON) standardisé Documentation le format et les choix de structuration Collaboration avec l’équipe KM pour affiner la structuration Mise en place un script ou pipeline réutilisable pour de nouveaux documents Bonne connaissance de Domino Data Lab (optionnel)

Offre d'emploi
Data scientist
Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Mission freelance
Data Scientist
Nous cherchons un(e) Data Scientist H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : Concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM , RAG , agents et chatbots . Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de développement : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (RGPD) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Mission freelance
Data Scientist
Objectif global :Développer des solutions IA GCP / Software engineering / Python Compétences techniques Machine learning - Expert - Impératif IA generative - Expert - Impératif MLOps/LLMOps - Confirmé - Important Chatbot - Confirmé - Important Connaissances linguistiques: Anglais Courant (Impératif) Description détaillée Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte).
Mission freelance
Data Engineer / Data Scientist
📝 Fiche de Mission – Data Engineer / Data Scientist 📍 Lieu : Pau (64) – Déplacements ponctuels sur Paris (≈ 5 / an) 📅 Démarrage : 13/10/2025 ⏳ Durée : 12 mois – renouvelable 💶 TJM : Jusqu’à 800 € HT / jour 🕐 Rythme : Plein temps (présentiel majoritaire, possibilité part remote) Contexte de la mission Dans le cadre d’un programme de transformation digitale d’un grand groupe industriel, la mission s’inscrit au sein de l’équipe et vise à renforcer les capacités d’ingénierie de données afin d’améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles.

Offre d'emploi
Data scientist
🎯 Missions principales : Concevoir des modèles statistiques et mathématiques robustes Implémenter ces modèles en Python dans le cadre de la plateforme du client Utiliser des techniques d’optimisation avancées : linéaire, entière, non linéaire Manipuler les solveurs ( CPLEX ) et le langage GAMS pour modéliser les problèmes Traduire des problématiques métier en modèles mathématiques opérationnels Prototyper, itérer et simplifier des solutions d’optimisation Présenter les résultats aux PO / métiers et accompagner la mise en production Collaborer avec les équipes Data, SI et projets
Mission freelance
Data scientist
Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots

Mission freelance
POT8602-Un Data scientiste sur Grenoble
Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks

Offre d'emploi
Data Scientists IA
Nous recherchons deux Data Scientists IA (Junior & Senior) passionnés par l’intelligence artificielle et les grands modèles de langage pour rejoindre notre équipe sur une mission longue. Missions Concevoir, entraîner et déployer des modèles IA/ML avancés. Travailler sur des cas d’usage innovants autour du RAG (Retrieval Augmented Generation) et des LLM (Large Language Models). Développer en Python des solutions performantes et scalables. Exploiter la puissance du cloud Azure pour industrialiser et mettre en production les modèles. Collaborer avec les équipes Data, Produit et Tech pour maximiser l’impact métier.

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Mission freelance
Data Scientist expert Octroi de Crédit et Risque de Crédit
Contexte Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme comporte plusieurs objectifs, dont celui de proposer des fonctionnalités utilisant de l’IA afin d’améliorer des processus ou produits existants. C’est dans ce contexte que l’équipe IALAB, au sein de la Direction Data, participe à l’exploration et la création d’indicateurs permettant de mieux appréhender le comportement des entreprises et l'appréciation du risque financier. Missions Dans le cadre de l’intégration d’algorithmes IA sur nos plateformes digitales d’octroi de crédits, le profil recherché aura la responsabilité de : • Analyser et comprendre en profondeur les objectifs et les exigences du projet en se basant sur les spécifications techniques et fonctionnelles • Proposer des nouveaux indicateurs en se basant sur les données existantes (données comptables, bancaires) • Etudier et fournir les éléments de décision pour intégrer des nouvelles sources de données alternatives afin de mieux apprécier le risque de défaut d’une entreprise • Echanger d’une manière régulière avec les différentes parties prenantes du projet et être force de proposition pour les besoins des parcours digitaux et des métiers • Superviser les performances des APIs et des algorithmes déployés en assurant un suivi rigoureux et régulier • Proposer des outils et des méthodes d’analyse pour une détection rapide des anomalies et problèmes • Evaluer régulièrement les résultats et les retours du projet afin d’identifier les axes d’améliorations et les opportunités d'optimisation • Contribuer à la documentation technique et fonctionnelle relative à l’architecture, aux APIs et aux algorithmes déployés Compétences métier • Appétence pour les problématiques bancaires et compréhension des enjeux • Connaissance des processus bancaires et plus spécifiquement d’octroi de crédit • Connaissance des indicateurs clés de bonne santé financière d’une entreprise • Bonne connaissance des données liées aux entreprises et des données open data associées • Très bonne connaissance des algorithmes de machine Learning et capacité à les appliquer pour résoudre des problèmes complexes • Aptitude à comprendre les problèmes techniques et à proposer des solutions adaptées • Capacité à communiquer de manière efficace avec différentes parties prenantes et à comprendre leurs besoins fonctionnels et techniques • Compétence dans la rédaction de documentation technique et fonctionnelle de qualité • Connaissance des APIs et de l’écosystème cloud de préférence AWS • Travail en méthodologie Agile • Expérience dans l’anticipation des écueils des projets de machine learning Liste des technologies • Python • Librairies Python de machine learning • Librairies de visualisation (ex plotly) et d’applications web type Dash ou Streamlit • Git Points critiques et différenciants PO au sein de l'IA LAB sujet au tour de l'Ia, de l'IA G solutions a créer et apporter pour les métiers Métier : octroi de crédit, l'octroi digital : dev d'une plateforme digitale et en ligne : besoin pour renforcer cette équipe offre dédiée aux PMEs, gros risques profil imaginatif explorer la data, trouver des solutions Data Scientist : - academique : - maitrise de la stack technique : machine Learning, python, libraire python, cloud AWS - SAFe / Scrum à minima - spécificité : connaissance octroi de crédit, risque de défaut, savoir analyser les données financières d'une entreprise, qqun capable de prendre du recul, maitrise des enjeux, appréciation des risques - où chercher / comment chercher des solutions - souple sur l'expérience Background CV : - expé en environnement bancaire et risque de crédit

Mission freelance
Data Scientist Full-Stack Python / Streamlit (H/F)
Cherry Pick est à la recherche d'un Data Scientist Full-Stack Python / Streamlit (H/F) pour l'un de ses clients. ontexte de la mission Dans le cadre d'un projet de transformation digitale d'envergure pour un acteur majeur de la grande distribution, vous rejoindrez l'équipe en charge d'une plateforme web interne. Ce projet vise à révolutionner la gestion des campagnes de couponing personnalisé en remplaçant les supports publicitaires physiques (kakemonos) par des écrans électroniques (e-paper) en magasin. Ce projet est à la croisée de l'IoT et de la gestion de campagnes marketing. Vos missions et responsabilités En tant que renfort clé pour l'équipe, vous jouerez un rôle central dans la construction et l'évolution des "produits data" de la plateforme. Vos missions principales seront les suivantes : Concevoir et mettre en place le système de mesure de la performance des campagnes, de la collecte des données brutes à la restitution des résultats. Définir les KPIs pertinents en collaboration avec les équipes métier. Traiter, analyser et préparer les données pour le calcul d'indicateurs de performance et d'agrégats statistiques. Automatiser la création d'échantillons et le calcul de la performance des campagnes. Développer et maintenir le front-end de la plateforme à l'aide de Streamlit , en apportant votre expertise pour des développements complexes. Collaborer sur des projets de "data sharing" afin de rendre les données accessibles et exploitables. Environnement Technique Langages : Python, SQL Framework : Streamlit (expertise forte requise) Cloud : GCP (Google Cloud Platform) Services GCP : Vertex AI, BigQuery Outils : GitLab Profil recherché Vous justifiez d'une expérience solide de 6 à 8 ans dans le domaine de la Data Science et de l'ingénierie data, avec un track record de projets complexes et mis en production. Vous maîtrisez parfaitement Python et avez une expertise avérée sur Streamlit , idéalement sur des projets de grande envergure. Une bonne connaissance de l'environnement GCP et de ses services (BigQuery, Vertex AI) est indispensable. Vous êtes autonome, rigoureux et proactif, capable de prendre en charge des sujets de bout en bout. Un niveau d'anglais professionnel est requis.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.