Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 758 résultats.
Freelance

Mission freelance
Data scientist Senior

CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python

6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
CDI

Offre d'emploi
Développement Back-End Python

CAT-AMANIA
Publiée le
PostgreSQL
Python

40k-45k €
Île-de-France, France
Conception, développement et maintenance des applications back-end robustes en Python, tout en intégrant des fonctionnalités liées à l’IA (Machine Learning, API IA, pipelines de données). Cette mission inclut la mise en production de services performants, sécurisés et évolutifs, en collaboration avec les équipes Data Scientist et IA. - Développement des API et des services back-end en Python - Intégration des modèles IA ou des services d’IA (API, microservices) dans les applications - Conception et maintenance des pipelines de données pour l’entraînement et l’inférence - Assurance de la qualité du code (tests unitaires, intégration continue) - Participation à la mise en place de CI/CD et à l’industrialisation des solutions IA - Collaboration avec les Data Scientists pour transformer les prototypes en solutions scalables - Respect des normes de sécurité et de conformité - Programmation orientée objet et des principes SOLID. - Langages : Python (avancée) - Frameworks Back-End : FastAPI (ou équivalent) - Bases de données : PostgreSQL, MongoDB, ElasticSearch - Outils DevOps : Docker, Git, CI/CD - Cloud : Kubernetes - IA / ML : concepts fondamentaux (classification, NLP, vision), et des frameworks comme TensorFlow ou PyTorch - Pratiques MLOps (monitoring, retraining) - Pratiques de DataEngineer (frameworks PANDAS et POLARS)
Freelance
CDI

Offre d'emploi
Géomaticien / Expert FTTH

AGH CONSULTING
Publiée le
ArcGIS
Python

6 mois
40k-45k €
320-500 €
Ans, Liège, Belgique
Intitulé du poste : Géomaticien / Expert SIG 1. Mission & tâches à réaliserContexte de la mission Dans le cadre de notre programme de déploiement Fiber to the Home (FTTH) , le consultant interviendra en soutien aux prises de décisions stratégiques et opérationnelles grâce à des analyses géospatiales avancées et à l’exploitation intelligente des données. Dans un environnement télécom concurrentiel et fortement orienté données, le rôle consiste à structurer et analyser différents jeux de données (données de déploiement réseau, couverture concurrentielle, données démographiques et cadastrales open data, indicateurs commerciaux) afin de fournir des données exploitables pour la conception réseau ainsi que des analyses claires et actionnables. Le consultant sera responsable du traitement, de l’import et de l’export des informations géospatiales pertinentes vers et depuis : l’outil interne de gestion du réseau, l’outil de conception réseau, d’autres outils SIG et bases de données, les partenaires externes de conception et de construction. Il sera également responsable de la vérification et du contrôle qualité des données SIG échangées aux différentes étapes du processus de déploiement FTTP. Principales tâches Réaliser des analyses spatiales variées telles que : Analyse de la couverture FTTH concurrente à partir de données réglementaires et open data Clustering spatial et priorisation des zones de déploiement Classification des ménages (éligibilité, densité, type de bâtiment, etc.) Analyses croisées des données réseau, démographiques et commerciales Collecter les données réseau, infrastructures et autres données pertinentes, puis les traiter pour alimenter l’outil de conception. Intégrer dans l’outil SIG les relevés de terrain et études, dans les délais impartis et conformément aux règles techniques, incluant : Mises à jour des bases de données et applications Contrôles de cohérence des données Vérification de l’éligibilité commerciale Concevoir des tableaux de bord interactifs et automatiser les processus de reporting récurrents (KPI de déploiement hebdomadaires / mensuels). Automatiser les processus d’import/export entre différents outils en garantissant la conformité des formats et la cohérence des données. Réaliser des analyses spatiales et produire les rapports associés. Développer et fournir des rapports automatisés à partir des bases de données, établir des diagnostics précis et proposer des actions correctives. Représenter l’activité Géomatique en interne et en externe dans le cadre de la Geodata Factory et soutenir le manager et les équipes grâce à son expertise technique.
Freelance

Mission freelance
Développeur Backend Python / Angular

CONCRETIO SERVICES
Publiée le
Angular
Python

12 mois
350-450 €
Île-de-France, France
Vous rejoindrez l’équipe Développement et Automatisation (DAM) , et plus précisément la Squad Réseaux , composée d’une vingtaine de collaborateurs. Cette équipe travaille en étroite collaboration avec l’ensemble des équipes Réseaux et Sécurité , dans un contexte de forts enjeux d’automatisation et d’industrialisation des infrastructures . En tant que Développeur Backend (Python) , vous interviendrez sur l’ensemble du cycle de vie des solutions d’automatisation. Développement & automatisation Développer des API d’automatisation des services Réseaux et Sécurité (Back-end) Développer des portails d’accès internes et/ou clients aux API (Front-end – Angular) Contribuer aux actions d’ automatisation et de fiabilisation Participer à la conception de solutions d’automatisation en lien avec les équipes Réseaux & Sécurité Qualité & expertise Réaliser les tests unitaires et d’intégration Mettre en production les API et portails Assurer la maintenance évolutive et corrective Effectuer les revues de code Assurer une veille technologique active Réaliser des présentations techniques Intervenir sur l’ensemble des environnements, de l’intégration à la production Collaboration Travailler en étroite collaboration avec les équipes de développement Intégrer et promouvoir les meilleures pratiques de développement
CDI

Offre d'emploi
Data Analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL

Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance
CDI

Offre d'emploi
Développeur .NET

VISIAN
Publiée le
.NET
Python

1 an
40k-45k €
120-350 €
Paris, France
Descriptif du poste Standardisation mise en œuvre sur le périmètre. Garantir le bon fonctionnement continu de la production et participer en priorité à la résolution des incidents et des problèmes de production. Garantir les builds et la mise en œuvre des actions nécessaires pour revenir à un état stable. Analyse des erreurs et participation à l'amélioration continue (aspects techniques, organisation de l'équipe et processus). Participation aux mises en production, c'est-à-dire contribution aux livrables projets (sécurité, architecture, estimations, etc.). Participation aux estimations. Maintenance des outils développés en interne (ex. : mise à jour des bibliothèques). Garantir et challenger les choix techniques pour qu'ils soient alignés avec : les besoins du client, les normes et standards des équipes d'architecture, l'innovation et les principes de la transformation digitale de l'organisation, la sécurité du système d'information. Remonter les alertes de l'équipe / faire le relais entre l'équipe de développement et le responsable de développement.
Freelance

Mission freelance
🚀 Mission Freelance – Développeur Python / AWS / IA (H/F)

Tenth Revolution Group
Publiée le
.NET
Angular
AWS Cloud

12 mois
320-510 €
Le Havre, Normandie
📍 Localisation : Calais 🏢 Présence : 1 jour sur site / semaine — télétravail le reste du temps 📅 Durée : Mission long terme ⚡ Démarrage : Dès que possible 🎯 Contexte Dans le cadre d’un programme stratégique orienté conception de solutions basées sur l’intelligence artificielle , nous recherchons un Développeur Python confirmé à senior pour intégrer une équipe d’architecture technique. L’environnement est structuré, exigeant et à forte contrainte technique : ce rôle s’adresse à un profil capable d’être rapidement autonome , opérationnel dès son arrivée et à l’aise dans des contextes complexes sans encadrement rapproché. 🛠️ Vos missions Concevoir et développer des solutions IA en Python Intégrer vos développements dans un écosystème applicatif existant et complexe Respecter des process techniques stricts et normés Collaborer étroitement avec l’équipe d’architecture Garantir la qualité, la robustesse et la maintenabilité du code 🧠 Environnement technique Langage : Python Cloud : Azure (AKS, Azure SQL) CI/CD : GitHub Monitoring : Grafana Backend historique : .NET Frontend : Migration Angular → React
CDI
Freelance

Offre d'emploi
Data Engineer AWS expérimenté

UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python

1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision

Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning

12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Freelance
CDI

Offre d'emploi
Data Scientist

ANDEMA
Publiée le
Databricks
PySpark
Python

12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Freelance

Mission freelance
Consultant DevOps & CRM Unica v12

Freelance.com
Publiée le
CI/CD
Cycle en V
Docker

2 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre de la modernisation d’un CRM stratégique, le consultant interviendra en mode mixte run/projet pour assurer la continuité opérationnelle du CRM et contribuer activement à son évolution. La mission comprend : le maintien en condition opérationnelle, le support aux équipes métier et MOA, la participation à l’intégration et aux tests des nouvelles fonctionnalités du CRM. Compétences attendues Techniques (Hard Skills) OpenShift / DCS – maîtrise CI/CD, GitLab, Docker, Helm – maîtrise Progiciel Unica v12 (Campaign, Interact, Deliver, Journey) – maîtrise Oracle v19 – maîtrise Intégration de flux BATCH, APIs, routage IP – maîtrise Korn Shell et Python – maîtrise Outils ADD, LDAP, JIRA – maîtrise Cycle en V « agilisé » – maîtrise Notions : DataStage, STCA/ANCA, WebServices, CRM et campagnes promotionnelles
Freelance

Mission freelance
Développeur Python Confirmé

CAT-AMANIA
Publiée le
Apache Airflow
DBT
FastAPI

6 mois
Nord, France
Pour un client dans le domaine bancaire, Vous participez à l’évolution du moteur python permettant de réaliser l’analyse des données bancaires du client · Développement en Python et SQL avec une plateforme Big Data Snowflake · Utilisation de DBT, Pandas, MLFlow et Airflow. · Chaine de développement complète (bac à sable – recette – PV recette – mises en productions – suivi de mises en productions) Principaux livrables : · Codes Python, SQL dans Gitlab · Evolutions dans nos Code Base · Analyses Ad Hoc · Test Unitaire / Test Fonctionnel
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS

VISIAN
Publiée le
Apache Airflow
API
AWS Cloud

3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
Développeur Python / Azure DevOps (H/F)

Freelance.com
Publiée le
Azure DevOps
Python

3 ans
400-590 €
Paris, France
2 jours de gratuité pour les deux premiers jours de la mission qui vont être deux journées d'intégration . Dans le cadre d’un programme stratégique de modernisation et d’industrialisation de plateformes cloud , nous recherchons un DevOps Azure avec une forte compétence Python pour renforcer une équipe technique existante. La mission s’inscrit dans un environnement cloud Azure mature et critique , avec des enjeux forts de performance, fiabilité, sécurité et passage à l’échelle . Les équipes travaillent sur des traitements batch à grande volumétrie , nécessitant une orchestration fine des workloads, une gestion avancée des pipelines CI/CD et une forte culture Cloud Ops . Le poste s’intègre au sein d’ équipes de développement agiles , en interaction constante avec des profils backend, cloud et métiers. L’environnement est structuré, industrialisé et orienté production , avec des exigences élevées en matière de qualité logicielle, bonnes pratiques DevOps et Software Craftsmanship . La mission requiert une expertise opérationnelle sur Azure , notamment sur Azure DevOps et Azure Batch , ainsi qu’une capacité à développer et maintenir des services et scripts Python utilisés en production. Une attention particulière est portée à l’ observabilité, à la résilience des systèmes et à la sécurité des workloads cloud .

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

758 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous