Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 769 résultats.
CDI

Offre d'emploi
Ingénieur Analyste Développeur Python - Connaissance Fortran F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
DevOps
Fortran

Dunkerque, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur Senior .Net 9 - Python - React Transition Énergétique H/F

█ █ █ █ █ █ █
Publiée le
.NET CORE
ASP
ASP.NET

65k-75k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevOps azure Python IAM sur Paris

EterniTech
Publiée le
Azure DevOps
CI/CD
IAM

3 mois
Paris, France
Nous recherchons pour un de nos clients dans le secteur des assurances un Consultant DevOps Azure – Python / IAM capable d’accompagner des équipes métiers dans l’exploitation, l’optimisation et la montée en compétence autour de leurs modèles (ex : hydrologie, sismique, etc.). Le périmètre comprend des sujets d’infrastructure cloud, de code Python, d’outillage DevOps et de support opérationnel Localisation : Paris Durée : 6 à 12+ mois (mission longue) Secteur : Assurance Missions principales Accompagner les équipes métiers dans le développement, l’optimisation et l’exécution de leurs workflows Python Mettre en place et maintenir des solutions Azure Cloud robustes et automatisées Développer/optimiser des pipelines CI/CD Structurer une approche Infrastructure as Code Conseiller et sécuriser la plateforme (IAM, Identities, Permissions)
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Freelance

Mission freelance
Développeur / DevOps Senior

ALLEGIS GROUP
Publiée le
CI/CD
CMDB
Python

4 mois
Seclin, Hauts-de-France
Mon client recherche un Développeur/DevOps expérimenté pour mener la refonte complète d’un outil interne utilisé pour calculer les coûts d’infrastructure technique, dans un contexte Cloud Services, Finance et Operations. Le consultant devra concevoir, développer, industrialiser et documenter un nouvel outil robuste, moderne, maintenable et conforme aux standards internes. Compétences techniques requises Python (maîtrise solide) Développement d’API (design + implémentation) Bonnes pratiques : tests unitaires , versioning, code review Culture DevOps : CI/CD, monitoring, gestion de configuration Connaissance CMDB appréciée Sensibilité finance IT (coûts, budgets, chargeback) Compétences fonctionnelles & soft skills Capacité à analyser un besoin et rédiger des specs fonctionnelles & techniques Autonomie forte, proactivité, sens de l’organisation Communication FR/EN (écrit + oral) Capacité à travailler avec plusieurs équipes : finance, ITSM, cloud, architecture… Livrables attendus Spécifications fonctionnelles et techniques Maquettes/API mocks Versions successives du nouvel outil Documentation utilisateur + guide de maintenance Suivi hebdomadaire de l’avancement
Freelance
CDI

Offre d'emploi
Data Architect Senior / Data Analytics Lead - Supply Chain

Clostera
Publiée le
BigQuery
Data analysis
Looker Studio

1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data architect Senior / data Analytics Lead F/H pour renforcer les équipes data d’un grand groupe retail, et accompagner la transformation analytique de ses activités. Ce que vous ferez : Au sein de l’équipe dédiée à la Data Supply Chain , vous interviendrez comme référent data senior pour accompagner les équipes métiers Supply Chain dans l’exploitation de la donnée afin d’optimiser la performance opérationnelle. Vous serez le pivot entre les équipes métier et les équipes data (data scientists, data engineers, data viz, data governance). Vos missions principales : Analyse et exploitation de la donnée Structurer et conduire des analyses data complexes de bout en bout Extraire, traiter et analyser des volumes importants de données Identifier des insights permettant d’améliorer les processus Supply Chain Construction d’outils d’aide à la décision Définir et suivre des KPI métiers Concevoir des reportings et dashboards interactifs Formaliser les résultats et recommandations business Interface métier / équipes data Interagir étroitement avec les équipes Supply Chain Traduire les besoins métiers en problématiques analytiques Collaborer avec les équipes Data Science, Data Engineering et Data Viz Communication et restitution Présenter les analyses et résultats aux équipes métiers Intervenir dans des restitutions auprès du top management Supply Chain Challenger les demandes analytiques et proposer des améliorations
Freelance

Mission freelance
Ingénieur Data & IA Générative (H/F)

Link Consulting
Publiée le
Python
RAG
Rest

12 mois
500-600 €
31860, Pins-Justaret, Occitanie
Notre client, acteur innovant en pleine transformation digitale, recherche son futur Ingénieur Data & IA Générative (H/F) afin de concevoir et déployer des solutions d’IA agentique connectées aux systèmes d’information de l’entreprise. L’objectif : automatiser et optimiser des processus métier grâce à l’intelligence artificielle, en construisant des systèmes capables d’interagir avec les données, les applications internes et les utilisateurs. Vos missions : Intégré à une équipe technique en pleine évolution, vous interviendrez sur des projets à forte dimension data, IA et automatisation : * Concevoir et développer des agents IA basés sur des LLM * Construire des systèmes agentiques (mono-agent ou multi-agents) capables d’interagir avec les outils métiers * Développer des assistants conversationnels et automatisations intelligentes * Concevoir des pipelines de données fiables pour alimenter les modèles et les applications * Connecter les APIs internes et externes aux systèmes IA * Mettre en place l’accès sécurisé aux bases de données et aux systèmes d’information * Orchestrer des workflows intelligents et automatisés * Développer des mini-applications internes (low-code / no-code) à forte valeur ajoutée pour les équipes métiers * Garantir la qualité, la sécurité et la gouvernance des données Les compétences techniques ### Langages & outils * Python (indispensable) * SQL avancé * APIs REST * Zoho (apprécié) ### IA & systèmes agentiques * LLM (OpenAI ou modèles open source) * RAG * Prompt engineering * Orchestration d’agents ### Data & infrastructure * Bases SQL (PostgreSQL, MySQL, SQL Server…) * Construction de pipelines data * Docker (apprécié) ### Sécurité * RBAC * Gestion des accès * Authentification * Bonnes pratiques cybersécurité
CDI

Offre d'emploi
Développeur Python Senior [Full remote possible]

Recrut Info
Publiée le
Docker
FastAPI
Flask

50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Lead Developer Back-end et intégré·e à une équipe de 3 développeurs Back-end, vous participerez activement au développement des nouvelles fonctionnalités du logiciel central de la société et aurez un périmètre de responsabilités assez larges car vous serez garant de vos développements de bout en bout : de la conception technique jusqu'à la mise en production en passant par la phase de tests unitaires et d'intégration ( rédaction de scripts Gherkin, en coordination avec un membre de l'équipe QA) et, plus en amont, vous participerez en coordination avec le PM à la partie "Discovery" et "Story Mapping". Vous serez amené·e à travailler majoritairement sur le langage Python avec Flask et FastAPI et pourriez être amené·e à travailler de temps à autres sur des briques logicielles conçues en Rust. Environnement technique : Python (requis), Flask (souhaité), MongoDB (souhaité), GitLab-CI (souhaité), Docker (requis), MySQL (requis), FastAPI (souhaité), Rust, Gherkin, pytest (souhaité), Celery, Kubernetes, Terraform
Freelance
CDI
CDD

Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)

bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD

36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Freelance

Mission freelance
Consultant Développeur Python/Interface Web/Automation

METSYS
Publiée le
.NET Framework
Docker
Kubernetes

1 an
450-550 €
Montreuil, Île-de-France
Contexte Dans un environnement anglophone , vous serez chargé de l'implémentation d'une stack Devops avec pour objectif de concevoir un système générique destiné à réduire les délais de mise en production et à améliorer la fiabilité de l'infrastructure. Missions principales Conception et mise en œuvre d'une plateforme CI/CD pour la construction et le déploiement d'applications, Automatisation des déploiements via des pipelines Gitlab, Configuration des Namespaces, Volumes, ConfigMaps, Secrets, Ingress, Routes, Quotas, Limites..., Accompagnement des équipes de développement pour le build et setup de images Docker sur Jfrog Artifactory, Développement d'une application pour fournir un retour d'information à partir des postes de travail, Maintien en condition opérationnelle des outils/serveurs de l'équipe, Réalisation de scripts Powershell pour la production, Mise en conformité des documentations.
Freelance

Mission freelance
DevOps / Intégrateur CRM – Unica v12 Sur Issy-les-Moulineaux

EterniTech
Publiée le
Docker
JIRA
Openshift

2 ans
400-420 €
Issy-les-Moulineaux, Île-de-France
Contexte de la mission Dans le cadre de la modernisation de son CRM marketing, Le client a engagé une transformation de sa plateforme avec la migration vers Unica v12 et l’intégration de nouveaux modules tels que Deliver et Journey . Au sein de la direction BD le consultant interviendra dans l’équipe MOE CRM afin d’assurer la continuité opérationnelle de la plateforme et de contribuer aux projets d’évolution du CRM. Responsabilités Run – Maintien en condition opérationnelle Assurer le maintien en condition opérationnelle de la plateforme CRM basée sur Unica v12 Suivre et gérer les incidents de production Réaliser les livraisons selon les procédures et normes internes Collaborer avec les équipes de production informatique pour la résolution des incidents Projet – Modernisation CRM Accompagner les équipes métier et la MOA sur l’utilisation des modules Unica Campaign, Interact, Deliver et Journey Participer à l’intégration des correctifs et évolutions de la plateforme CRM Construire et intégrer des images Docker à partir de composants applicatifs Mettre à jour les Helm Charts et participer aux déploiements sur OpenShift Mettre en œuvre les phases d’intégration technique (flux, routage IP, CI/CD) Développer des scripts d’automatisation en Shell (Korn Shell) ou Python Réaliser les tests de non-régression avant et après les migrations Accompagner les phases de recette et de mise en production
Freelance

Mission freelance
[SCH] Développeur Fullstack Python / React Senior - 1271

ISUPPLIER
Publiée le

10 mois
350-400 €
Paris, France
La mission s’inscrit dans un programme de développement d’outils permettant l’exploitation de données de recherche et de pilotage métier. Les solutions doivent s’intégrer dans un écosystème interopérable basé sur le standard HL7-FHIR. Le consultant interviendra en tant que développeur fullstack senior, avec une forte responsabilité sur la qualité, la robustesse et la sécurisation de la delivery, en lien avec les équipes produit, data et sécurité. Missions principales: Développement : -Concevoir et développer des composants Front & Back robustes et réutilisables -Développer en Python / Django / SQL côté backend -Développer en React / TypeScript / Redux / Next côté frontend -Implémenter des API REST conformes HL7-FHIR -Maintenir et faire évoluer les applications existantes Pilotage & Delivery : -Suivre l’avancement, charges, risques et dépendances -Participer à la planification des livraisons -Contribuer au respect des engagements projet Qualité & Sécurité : -Garantir les bonnes pratiques de code, tests et performance -Anticiper les impacts techniques sur la mise en production -Veiller aux mécanismes d’authentification (JWT, OAuth2, OIDC) Coordination : -Travailler avec les équipes produit, data, sécurité, partenaires -Participer aux rituels agiles et instances projet -Challenger les choix techniques Documentation : -Produire et maintenir la documentation delivery & reporting Profil attendu : -Senior fullstack avec vraie capacité à structurer la delivery -À l’aise dans des environnements normés / sensibles / santé -Vision transverse technique + organisationnelle -Capacité à être référent et à challenger les équipes
Freelance

Mission freelance
Développeur Python / Full‑Stack orienté AWS

Tenth Revolution Group
Publiée le
AWS Cloudwatch
Python

3 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Notre client une startup basée à Lyon , accélère la mise en place d’une architecture microservices pour ses produits data/scientifiques. Nous recherchons un(e) Développeur(euse) Python orienté AWS (SQS/SNS) pour renforcer l’équipe et livrer des services robustes et scalables. Votre mission Concevoir, développer et maintenir des microservices Python (API, workers, traitements asynchrones). Mettre en œuvre des patterns event‑driven sur AWS ( SQS/SNS , DLQ, retries/backoff, idempotence, FIFO vs Standard). Contribuer à l’industrialisation : CI/CD , conteneurisation, observabilité (logs/métriques/alertes). Collaborer avec les équipes Produit/Data/Scientifiques pour cadrer les besoins et livrer vite et bien. Partager les bonnes pratiques : tests, revues de code, qualité et sécurité. Stack & environnement Back : Python (FastAPI/Flask/Django), Pydantic, tests (Pytest), typing. AWS : SQS, SNS , (Lambda/ECS/EKS en plus, c’est un plus), CloudWatch. Architecture : Microservices , REST/async, event‑driven . Industrialisation : Docker, GitHub/GitLab CI, monitoring/observabilité. Bonus : notions React/TypeScript (front léger), OpenTelemetry, IaC (CDK/CloudFormation/Terraform).
CDI
Freelance

Offre d'emploi
Data analyst Qlik Sense H/F

Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL

12 mois
40k-52k €
375-450 €
Angers, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Angers (49), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : Angers (49) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Freelance
CDI

Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics

Ela Technology
Publiée le
Machine Learning
Python
SQL

6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Freelance

Mission freelance
Administrateur SOC Senior

Castelis
Publiée le
Automatisation
Python
Splunk

6 mois
500-600 €
La Garenne-Colombes, Île-de-France
GSOC – Splunk Admin/Expert : maintenir plateformes (Core/ES/ITSI/SC4S – 8 To/j), garantir qualité et continuité de collecte, développer détection/monitoring (règles, dashboards, KPI), automatiser (Python), piloter intégrations sources, supporter utilisateurs, documenter, contribuer aux projets (migrations/évolutions) et participer à l’astreinte (1 sem./mois). DETAIL : Contexte : Intégré(e) au Global Security Operations Center (GSOC) , au sein de l’équipe “Detection & Automation” , l’Administrateur·trice / Expert·e Splunk contribue à l’identification, l’investigation et la mitigation des menaces cybersécurité dans un environnement complexe et dynamique. La mission vise à maintenir la fiabilité des plateformes de monitoring (Splunk Core, ES, ITSI, SC4S), à développer les capacités de détection/automatisation et à soutenir les opérations 24/7 (astreinte).

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

769 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous