Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 165 résultats.
CDI

Offre d'emploi
Développeur Senior BI / Data (MSBI / Azure Data Factory)

Amontech
Publiée le
Azure Data Factory
Azure DevOps
BI

1 an
Paris, France

🎯 Contexte Nous recherchons un Développeur Senior BI / Data pour renforcer l’équipe Support Fund Management. Vous serez intégré(e) à l’équipe support et travaillerez en étroite collaboration avec les Business Analysts. 🔎 Missions Intégré(e) à l’équipe projet, vous serez en charge de : Participer au cadrage des solutions à implémenter. Développer les User Stories (US). Contribuer à la recette, l’UAT et la mise en production. Assurer la maintenance des applications. Rédiger la documentation technique. Améliorer en continu le modèle de développement. 🛠 Compétences recherchée Maîtrise des outils Microsoft BI (SQL Server 2019/2022, SSIS, SSRS). Maîtrise des bases de données relationnelles et SQL. Expérience avec Azure BI Data Factory. Compétences en Python, librairie Pandas appréciée. Bon niveau sur Azure DevOps. Expérience en Asset Management / finance de marché souhaitée. 📍 Localisation & Conditions Basé à Paris Démarrage : dès que possible

Freelance

Mission freelance
Consultant( H/F) Senior Fullstack Développeur Python/TypeScript

HOXTON PARTNERS
Publiée le
Python
TypeScript

9 mois
Paris, France

Dans le cadre d’un projet stratégique pour un acteur majeur du secteur du retail de luxe, nous recherchons un Développeur Senior Full Stack afin de renforcer une équipe existante composée de deux développeurs. La mission porte sur la conception et le développement de plateformes web custom, en assurant la qualité, la performance et la maintenabilité du code. Le consultant participera activement aux choix techniques, au développement back-end et front-end, ainsi qu’aux échanges réguliers avec les équipes internes et le client. La mission s’inscrit dans un contexte international et exige rigueur, autonomie et une bonne capacité de communication.

Freelance

Mission freelance
Administrateur d'outils Senior SAS - Maîtrise QLIK

Nicholson SAS
Publiée le
Git
Python
Qlik

3 mois
500 €
Paris, France

Entité : Secteur Bancaire Site : Paris ; 3 jours sur site par semaine TJM : 500 euros Date de démarrage : 01/10/2025 Langues parlées : français Durée mission : 3 mois (date de fin : 31/12/2025) Nbre d’années d’expérience : + 7 ans d'expertise Profil : d’Administrateur d'outils Senior SAS - Maîtrise QLIK Contexte : Au sein de la Direction de la Transformation dans les équipes Data & Analytics, vous rejoindrez l’équipe Décisionnel Dommage dont la mission est de mettre à la disposition des métiers, via une plateforme BI, les données et outils nécessaires aux études et aux reportings de l’entreprise. La plateforme hébergeant ces données est basée sur la solution SAS (SAS 9.4 sous Windows). Les outils de reporting utilisent les solutions Qlik : QlikView, QlikSense, Geonalytics. Des évolutions sont à prévoir pour moderniser notre plateforme pour servir de nouveaux usages dans l’entreprise. Le candidat rejoindra une équipe de 6 collaborateurs internes (ingénieurs d’étude, chefs de projets) et des ressources externes. Il travaillera en binôme avec une autre personne en charge de l’exploitation et du MCO du SID. Attendu : 1. Suivi quotidien des batchs et traitement des éventuels incidents avec communication auprès des utilisateurs impactés, 2. Livraison du code développé dans l’équipe dans les environnements de Recette et PRODUCTION, 3. Revue de code lors des livraisons pour s’assurer de l’application des normes de développement en vigueur dans le service, 4. Gestion des habilitations sur nos différents outils, 5. Support utilisateurs pour résoudre des problèmes techniques en lien avec nos logiciels : • SAS et à la marge PYTHON pour le traitement des données, • Qlik et à la marge PBI pour des restitutions WEB, • GIT notre outil pour versionner et livrer nos traitements, • Indexima pour optimisation d’un traitement QLIK, • CONTROL-M notre nouvel outil d’ordonnancement qui a remplacé AUTOMIC 6. Prise en charge des développements nécessaires lors des VM (Versions Majeures du SI 2 fois par an) amenant des évolutions dans notre infocentre SAS, 7. Prise en charge de demandes d’intervention type correction d’anomalie ou petite évolution, 8. Participation aux projets techniques comme la GDPR nécessitant d’affecter des droits de façon automatique sur nos données en fonction des usages validés par le DPO ou le changement d’ordonnanceur de nos traitements.

Freelance

Mission freelance
Data Scientist LLM

Cherry Pick
Publiée le
Data science
IA Générative
Large Language Model (LLM)

12 mois
680-700 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un Data Scientist (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'énergie . Description 🎯 Contexte Le groupe accélère la production de solutions digitales pour ses activités dans le monde. Dans ce cadre, la Data Factory recherche un Data Scientist expérimenté en LLM et IA Générative pour développer des solutions innovantes et industrielles autour de l’IA agentique et du traitement de données complexes. 🛠️ Missions & Livrables Exploration & PrototypageConcevoir et évaluer des approches IA agentique (LLM + outils/API + code).Expérimenter du fine-tuning ciblé (LoRA, autres techniques) sur données métiers.Comparer rigoureusement RAG / fine-tuning / multi-agents et frameworks (LangChain, LlamaIndex, CrewAI). Conception & Développement Créer des workflows avancés combinant RAG (connaissance), fine-tuning (style), agents (actions). Explorer et mesurer la fiabilité des capacités de raisonnement (Chain-of-Thought, ReAct, etc.). Produire des démonstrateurs fonctionnels et recommandations techniques. Contributions transverses Participer aux CoP (communautés de pratique) et rituels de squads. Contribuer à la conception/maintenance d’outils et packages communs. Challenger la vision de l’équipe et participer à la roadmap IA.

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France

Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques

Freelance

Mission freelance
Ingénieur de données GCP (H/F)

SMARTPOINT
Publiée le
Apache Spark
BigQuery
DBT

6 mois
400-500 €
Paris, France

o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Freelance

Mission freelance
Full Stack Developement spécialisation en AI/RAG (F/H) - 75

Mindquest
Publiée le
Python
RAG
React

3 mois
340-600 €
Paris, France

Le service collaborera à la croisée des LLM, des agents et du développement d'applications de pointe, contribuant ainsi à l'avenir des solutions basées sur l'IA. * Développer et maintenir des services backend évolutifs à l'aide de Python, en les intégrant aux LLM, aux agents et aux frameworks RAG. * Créer des interfaces front-end intuitives et réactives à l'aide de React. Collaborer avec des équipes interfonctionnelles pour concevoir et mettre en œuvre des applications et des solutions basées sur l'IA. * Contribuer au développement d'un produit RAG et améliorer l'évolutivité des ressources IA. * Collaborer avec les technologies IA émergentes, notamment les LLM, les architectures agentives et les intégrations d'applications.

Freelance

Mission freelance
Data Scientist Expérimenté (5–7 ans d’expérience) Japonais Mandatory

Signe +
Publiée le
Python

6 mois
550 €
Paris, France

Contexte Notr client recherche un Data Scientist confirmé pour rejoindre son Tech Accelerator et contribuer à des projets innovants autour de l’IA, du NLP et des solutions GenAI. Missions principales Extraction, traitement et analyse de données complexes. Développement et optimisation de modèles statistiques et algorithmiques. Conception et mise en œuvre de solutions basées sur le Machine Learning et Deep Learning . Participation à l’application, au fine-tuning et au développement de solutions LLM / Gen AI . Communication des résultats et vulgarisation des analyses auprès des équipes métiers. Compétences requises Langues : Japonais courant Anglais niveau B2+ Français : un plus, mais non obligatoire Techniques : Python, SQL, Git Deep Learning & NLP Algorithms Machine Learning & Statistical Modeling Fine-tuning et développement de modèles LLM / Gen AI Profil recherché 5 à 7 ans d’expérience minimum en tant que Data Scientist ou poste équivalent. Solides compétences en modélisation, algorithmes et exploitation de données. Capacité à collaborer avec des équipes internationales et à communiquer efficacement les résultats.

Freelance
CDI

Offre d'emploi
CHEF DE PROJET - TECHNIQUE - DEVOPS

HEEVOX
Publiée le
DevOps
Grafana
J2EE / Java EE

2 ans
40k-65k €
400-580 €
Paris, France

CHEF DE PROJET - DEVOPS Démarrage : Décembre 2025 Durée : 2 ans Localisation : Paris Télétravail : 50% Description détaillée Pilotage de projet : - Assurer le pilotage interne du projet en organisant des revues de projet avec l'équipe projet. - Gérer le pilotage envers la clientèle à travers des revues de projet client régulières. - Élaborer et assurer le reporting pour les comités de pilotage menés par les responsables de projet. Création et suivi d'indicateurs : - Piloter les projets en utilisant des indicateurs de qualité, de coûts et de délais pour garantir leur succès. - Analyser les indicateurs de performance (KPI) afin de fournir des résultats détaillés qui orientent la prise de décision. - Production d'indicateurs et analyse des données projets afin de soutenir le pilotage du projet Création d'outils transverses : - Développer des outils pour automatiser et faciliter les processus d'analyse et de reporting. - Proposer des solutions d'automatisation visant à standardiser et simplifier les tâches transverses au sein de la direction. - Effectuer des contrôles de qualité et des vérifications sur les données du périmètre pour assurer leur fiabilité. Projets spécifiques : - Outiller le suivi des remédiations des différents sujets transverses de la direction. - Mettre en place des outils pour le suivi et l'analyse de la réduction des coûts d'infrastructure.

Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Atlas Connect
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .

Freelance

Mission freelance
Data Analyst / Data Engineer

Lawrence Harvey (LHI group limited)
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

1 mois
450-550 €
Paris, France

Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)

Freelance

Mission freelance
224301/Développer R

WorldWide People
Publiée le
Python
Shiny

3 mois
360-420 €
Paris, France

Développer R Maîtrise du développement en R (version > 3), développement de packages, visualisation (Shiny). Expérience API REST, bases de données, traitement de données volumineuses. Compétences Python > 3. Outils de développement collaboratif : Git, CI/CD, Confluence, JIRA. Capacité à travailler en équipe Agile, autonomie et bonnes qualités relationnelles. Connaissance du domaine énergie / équilibre offre-demande = un plus. Contexte de la mission Objectif de la mission Développer, maintenir et industrialiser des scripts de traitement des données (entrées/sorties). Garantir des solutions robustes et pérennes, et non de simples scripts ponctuels. Préparer la migration progressive d’une partie des scripts R vers Python. Objectifs et livrables Missions principales Recueil des besoins auprès des utilisateurs métier (ateliers, rédaction de spécifications). Développement de nouveaux scripts en R et mise à niveau des existants. Industrialisation (packaging, tests unitaires, CI/CD). Évolutions fonctionnelles pour suivre les montées de version du simulateur. Automatisation des vérifications et analyses post-simulation. Coordination avec l’équipe projet et participation aux cérémonies Agile. Livrables attendus Spécifications fonctionnelles et techniques (Confluence). Tickets de dev (JIRA). Scripts R industrialisés, packages documentés, tests unitaires. Rapports d’analyses automatisés. Compétences attendues Maîtrise du développement en R (version > 3), développement de packages, visualisation (Shiny). Expérience API REST, bases de données, traitement de données volumineuses. Compétences Python > 3. Outils de développement collaboratif : Git, CI/CD, Confluence, JIRA. Capacité à travailler en équipe Agile, autonomie et bonnes qualités relationnelles. Connaissance du domaine énergie / équilibre offre-demande = un plus.

CDI

Offre d'emploi
Site Reliability Engineer (SRE) Azure (CDI)

Codezys
Publiée le
Bash
DevOps
Github

Paris, France

Lieu : Paris Type de contrat : CDI Démarrage : Dès que possible À propos du poste Nous recherchons un Site Reliability Engineer (SRE) spécialisé Azure pour renforcer notre équipe technique. Vous serez au cœur de la fiabilité, de la performance et de l’automatisation de nos plateformes cloud. Votre mission sera de garantir la disponibilité et la résilience des services tout en apportant une expertise DevOps et une culture forte de l’observabilité. Responsabilités principales Assurer la fiabilité, la performance et la sécurité de nos environnements Azure. Mettre en œuvre et maintenir des infrastructures as code avec Terraform. Définir, suivre et améliorer les SLA, SLO et SLI pour garantir la qualité de service. Déployer et optimiser des pipelines CI/CD avec GitHub Actions. Mettre en place et maintenir des solutions d’observabilité et monitoring (Grafana, Prometheus, alerting). Collaborer avec les équipes de développement pour améliorer la résilience et l’efficacité des applications. Participer à la gestion des incidents et à l’amélioration continue des processus d’exploitation.

Freelance

Mission freelance
MLOps / Azure AI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure
OpenAPI
Python

12 mois
Paris, France

Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.

Freelance

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)

Cherry Pick
Publiée le
Apache Spark
Java
Python

12 mois
500-560 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Freelance

Mission freelance
Machine Learning Engineer

SKILLWISE
Publiée le
Azure
DevOps
Kubernetes

3 mois
400-550 €
Paris, France

Nous recherchons un Machine Learning Engineer expérimenté pour une mission stratégique chez un client grand compte. Stack et compétences clés : Python 3.12 (expertise attendue) Kubernetes / Helm / Docker (maîtrise technique au-delà de l'utilisation) Azure SDK FastAPI GitLab (CI/CD, évolution de pipelines) OpenAPI, multithreading, ajout de routes pour UI gérant l’orchestration des déploiements jusqu’en UAT Tests unitaires obligatoires, monitoring des performances Organisation Agile en Squads et Chapters (partage des bonnes pratiques) Matrice RACI déjà en place, capacité à la faire évoluer Jenkins pour la production (géré par les équipes Ops) Certification KAD : un plus fortement apprécié, possibilité de la passer pendant la mission Contexte métier : Projet dans le secteur assurance autour de la modélisation de données, extraction d’informations depuis des contrats, comparaison avec des référentiels, vérification de cohérence, automatisation, recherche sémantique

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

165 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous