Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 231 résultats.
Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
CDD
CDI
Freelance

Offre d'emploi
Chef de projet technique création d'un portail IA

KEONI CONSULTING
Publiée le
Azure
Python
RAG

18 mois
20k-60k €
100-550 €
Paris, France
Contexte du besoin : Le client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en oeuvre de l'IA, est à ce titre, en charge de la mise en œuvre. l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'assistance technique a pour objectifs d'effectuer la maintenance corrective et évolutive du portail IA . Une bonne partie de nos utilisateurs étant non techniques et peu familiarisés avec l'IA, il lui sera demandé d'aider à la réalisation ou à la mise au point des prompts à partir des besoins exprimés par les utilisateurs. Il sera amené à prendre en charge les tickets d'incidents ou d'assistance de niveau 1 (voire 2 selon profil) aux utilisateurs du portail. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un bon relationnel est indispensable afin de savoir prêter assistance à utilisateurs non technique, notamment en sachant adapter son discours et aider à la rédaction de la documentation. TACHES - La maintenance adaptative et corrective de la partie Front du portail IA : o en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateurs o en proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateur - La maintenance corrective de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - La réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniques o en réalisant des assistants IA à partir d'expressions de besoins fournis o en apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IA o en proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûts - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil) o en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) o en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs o la mise à jour de la FAQ en fonction des retours des utilisateurs" PROFIL : Une expérience significative d'environ 6 mois de RAISE, ou de sa stack applicative, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance

Mission freelance
Ingénieur Système N3 - Linux & Perl

MEETSHAKE
Publiée le
Bash
Kubernetes
Linux

1 an
100-550 €
Paris, France
Dans un environnement de production critique lié à la gestion d'équipements réseaux (accès et routage), vous intervenez en tant que Référent Système N3 . Votre mission est de piloter l'évolution et la sécurisation des infrastructures de supervision. Vos missions principales s'articulent autour du Build et du Run : Pilotage de Mini-Projets (Build) : Concevoir et réaliser les stratégies de migration pour traiter l'obsolescence système (authentification, logs, bastions d'accès). Ingénierie de Migration : Mettre en œuvre des solutions techniques pour garantir la continuité de service lors des bascules (double run, switch d'IP, migration de comptes). Maintien en Condition Opérationnelle (Run) : Assurer le support de niveau 3 et l'évolution des services critiques ( Rsyslog, Tacacs, OpenSSH ). Automatisation & Scripting : Maintenir et adapter l'outillage existant (principalement en Perl et Bash ).
Freelance

Mission freelance
DATA Engineer - AWS (DataOps)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Freelance

Mission freelance
Data Scientist – GenAI & RAG - Paris

Net technologie
Publiée le
AWS Cloud
Data science
GenAI

3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
CDI
Freelance

Offre d'emploi
Security Solution Administrator - DevSecOps

Groupe Aptenia
Publiée le
Active Directory
Endpoint detection and response (EDR)
FortiGate

6 mois
Paris, France
Mission au sein d’un acteur majeur des marchés financiers, dans un environnement critique et fortement réglementé. Vous intervenez sur la sécurisation et l’administration d’infrastructures IT (réseau, VMware), la gestion des vulnérabilités, des accès (IAM/PAM) et du monitoring. Vous participez à la détection et à la réponse aux incidents, tout en automatisant les processus sécurité via scripting. Collaboration étroite avec équipes SecOps et infrastructure, avec enjeux de haute disponibilité, résilience et scalabilité.
CDI
Freelance

Offre d'emploi
Tech Lead Python- IAGen (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Freelance

Mission freelance
Lead SRE DevOps

BEEZEN
Publiée le
Ansible
DevOps
Docker

12 mois
400-540 €
Paris, France
Je recherche un Lead DevOps SRE 8 à 12 ans min., dont 3 ans en position de lead ou d'architecte DevOps sur des environnements de production complexes. Contexte Vous intégrez une organisation en transformation DevOps pour en piloter la stratégie et l'exécution opérationnelle. Mi-ingénieur, mi-leader, vous intervenez autant sur les pipelines CI/CD que sur la gouvernance des équipes — avec une conviction simple : Dev et Ops co-construisent, ne s'opposent pas. Missions principales Fiabilité, performance et disponibilité des infrastructures de production (SRE) Automatisation des déploiements applicatifs et d'infrastructure (IaC) Conception et maintien des tests d'intégration et de charge Gestion des incidents P1/P2, analyse des causes racines, actions correctives Pilotage du plan de transformation DevOps à grande échelle (Value Stream Map, maturité) Animation de la gouvernance : cérémonies, ateliers, sponsors et parties prenantes Conseil technologique, veille, définition et suivi des KPIs DevOps Stack technologique Conteneurisation : Docker · Kubernetes Cloud: IBM Cloud IaC / Automatisation: Ansible · Terraform CI/CD: GitLab · JFrog Artifactory Bases de données: MongoDB · PostgreSQL · Redis · Elasticsearch Langages: Python · Shell · PowerShell Monitoring: DynaTrace Outils: JIRA · API Gateway Profil recherché Posture À l'aise aussi bien en revue de pipeline qu'en comité de direction. Coach autant que technicien. Méthodes SAFe, Scrum, Lean Startup, Value Stream Mapping, DORA metrics — pratique réelle, pas théorique. Soft skills Pédagogie, conduite du changement, instauration de la confiance entre équipes Dev et Ops.
Freelance

Mission freelance
Asset management - risk management outil Aladdin VBA, SQL, Python

Mon Consultant Indépendant
Publiée le
Python
SQL
VBA

6 mois
620-640 €
Paris, France
Pour le compte de l’un de nos clients en Asset Management , nous recherchons un consultant en Risk Management disposant d’une solide maîtrise des métriques de risque de marché : sensibilités, VaR , produits optionnels, stress tests et modèles de risque. Une excellente connaissance de l’outil Aladdin est indispensable, notamment sur les modules Explore, ATX et Risk Radar . Le consultant devra également maîtriser les langages VBA, SQL et Python . Des compétences sur Power BI ou Tableau seraient appréciées. Une expérience sur des projets de migration constituera un atout supplémentaire pour cette mission.
Freelance

Mission freelance
Ingénieur Analyste Cybersécurité – Expert Auto

Codezys
Publiée le
Automatisation
Azure
Cloud

12 mois
Paris, France
Contexte de la mission Le consultant spécialisé en automatisation DevOps et gestion des événements IT/Sécurité sera chargé d’optimiser l’efficacité des processus opérationnels liés au suivi des incidents et des alertes. Sa mission consistera à concevoir et à déployer des workflows automatisés pour la création et le suivi des tickets, à industrialiser la génération de tableaux de bord et de rapports, tout en assurant une intégration fluide entre les différentes plateformes (ServiceNow, outils de monitoring, outils BI, etc.). Il interviendra dans un environnement technique diversifié comprenant : Outils & plateformes ITSM : ServiceNow, Jira BI / DataViz : Power BI, Grafana, ELK DevOps : GitHub Actions, GitLab, Azure DevOps, Jenkins Développement & scripting Python (prioritaire), PowerShell, Bash, Go API REST / GraphQL Infrastructure & Cloud Azure, AWS, GCP Terraform, Ansible Docker, Kubernetes, OpenShift Systèmes Linux / Windows Objectifs et livrables La mission du consultant portera principalement sur l’automatisation des processus liés à l’IT et à la cybersécurité, avec pour objectifs : Implémenter des automatisations fiables pour la création et le suivi des tickets dans les outils ITSM Développer et industrialiser l’automatisation du reporting et du tableau de bord (KPIs, incidents, SLA) Assurer la connectivité et l’intégration entre les différentes plateformes IT et Cloud afin de fluidifier la gestion des événements Réduire la charge manuelle des opérations récurrentes et chronophages Améliorer la qualité, la rapidité et la fiabilité du suivi des incidents ainsi que des rapports associés Élaborer une roadmap d’automatisation cohérente avec les priorités business et IT Missions principales Conception et développement de solutions d’automatisation Mise en place de pipelines CI/CD et de chaînes d’intégration automatisées Intégration des outils IT et de sécurité Développement de scripts d’automatisation pour le SOC Production de dashboards et de rapports automatisés Amélioration continue des processus opérationnels Accompagnement des équipes dans l’adoption des solutions Livrables attendus Workflows automatisés (création de tickets, gestion d’incidents) Tableaux de bord et reporting automatisés Scripts et pipelines CI/CD documentés Documentation technique et procédures opérationnelles Roadmap pour l’amélioration continue Rapports de suivi de prestation
Freelance

Mission freelance
Un(e) ML Engineer / MLOps Engineer

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI

6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Freelance

Mission freelance
un Quant Developer

Keypeople Consulting
Publiée le
CI/CD
Linux
Méthode Agile

6 mois
400-600 €
Paris, France
Je cherche un Quant Developer Junior pour rejoindre une équipe quantitative au sein d’un acteur international de premier plan dans les infrastructures de marchés financiers. Vos missions : Développer et intégrer des modèles de valorisation Collaborer avec des équipes de recherche quantitative Industrialiser des modèles sur des produits titrisés Optimiser les performances et la gestion mémoire 🛠️ Environnement technique : C++, Python (un plus), Linux, CI/CD, méthodologies Agile Profil recherché : Formation en modélisation financière (Master ou équivalent) Solides compétences en programmation orientée objet Capacité à résoudre des problématiques complexes Connaissance des marchés Fixed Income / produits structurés Pourquoi ce poste ? Environnement international Projets stratégiques et innovants Forte exposition à la modélisation financière Organisation de travail hybride Une belle opportunité pour évoluer en finance quantitative dans un environnement exigeant et stimulant. Cordialement,
Freelance
CDI

Offre d'emploi
📩 Data Engineer – Data Quality & Governance

Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API

1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
CDI

Offre d'emploi
Ingénieur Infrastructure H/F

Le Groupe SYD
Publiée le
Ansible
Bash
ClickHouse

45k-55k €
Paris, France
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Infrastructure H/F 📍 Lieu : Paris (75) 🏠 Télétravail : 3 jours sur site par semaine 📝 Contrat : CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur financier , engagé dans la modernisation, la sécurisation et l’industrialisation de ses plateformes Data à grande échelle. En tant qu’ Ingénieur Infrastructure tu interviens sur le maintien en conditions opérationnelles, l’évolution technologique et la performance d’environnements Data complexes (CDP 7.1.x, Hadoop, stockage distribué, ingestion API…). 🎯 Tu auras pour missions de : Tu auras pour missions de : Recueillir les besoins métiers. Développer l’ingestion (API) et concevoir les stockages (Ozone, Hadoop…). Automatiser les traitements (batchs/pipelines). Nettoyer, transformer et structurer les données. Documenter les bases et garantir la conformité RGPD. Assurer la maintenance corrective/évolutive. Déployer et industrialiser les modèles ML. Assurer validation, monitoring et robustesse. Participer au design, à l’installation et à la qualification des plateformes. Contribuer à l’industrialisation continue. Support aux équipes métiers/applicatives/infra. Communication régulière au chef de projet. Astreintes + interventions HNO. Amplitude équipe : 8h–19h. 🧰 Stack technique : Cloudera CDP 7.1.x : HBase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, Kerberos, LDAP Systèmes : RedHat 8, RedHat 9 Langages & DevOps : Python, Bash, Java, Maven, Gradle, Ansible, DevOps Stockage & Data : Ozone, Hadoop, Druid, Clickhouse Traitement & orchestration : Airflow, Flink, Trino, Starburst Containers : Openshift, Kubernetes (K8s), Cloudera Data Services Autres : écosystème Apache, automatisation, migration clusters Hadoop

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

231 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous