Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 751 résultats.
Alternance

Offre d'alternance
Alternance - Data Engineer H/F/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
CI/CD

Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Responsable Risques de Marché Senior

JobiStart
Publiée le
Python

2 ans
500-550 €
Paris, France
Le Risk Manager Senior en risque de marché est responsable de la gestion et du suivi des risques au sein de l'organisation. Il devra surveiller la production des risques de marché et mettre en place des contrôles critiques pour assurer la conformité et la robustesse des processus. Ce rôle exige une expertise approfondie dans l’analyse et la gestion des risques financiers, en particulier dans le domaine des produits dérivés. Il sera amené à interagir avec plusieurs équipes internes et à participer activement à des projets techniques, en particulier ceux qui impliquent des calculs de risques complexes. Les outils utilisés incluent des logiciels de gestion des risques, des plateformes d'analyse quantitative et des langages de programmation comme Python pour automatiser des processus et optimiser les modèles de gestion des risques. Ce rôle nécessite une grande réactivité et la capacité d'adaptation à un environnement dynamique, en fournissant des analyses techniques détaillées et des recommandations stratégiques.
Freelance
CDI

Offre d'emploi
Business Analyst INO Trading (H/F)

STORM GROUP
Publiée le
C#
Python
SQL

3 ans
50k-60k €
480-550 €
Île-de-France, France
Au sein de la squad eTrading Solutions de la DSI Global Markets d’un grand acteur du secteur financier, nous recherchons un Business Analyst expérimenté sur la partie ION Trading pour les produits IRS, Repo et Bonds. L’équipe est en charge de l’ensemble des automates de trading sur le périmètre Fixed Income. Les principales fonctionnalités couvertes sont : Credit Check, Client Vetting, Client Permissioning, Pricer Request, RFQ Popups, Auto Quote et STP. La stack technologique repose sur C# et WPF, en s’appuyant sur le framework ION. L’équipe travaille en étroite collaboration avec les différents desks de trading Fixed Income.
Freelance
CDI

Offre d'emploi
Data scientist IA générative

CAT-AMANIA
Publiée le
AWS Cloud
IA
Python

1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
Freelance

Mission freelance
Data Analyst Lead – Gouvernance & Conception Data

Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI

300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Freelance

Mission freelance
DevOps

Codezys
Publiée le
Ansible
Docker
Git

12 mois
350-420 €
Lyon, Auvergne-Rhône-Alpes
Présence sur site requise 3 jours par semaine. Au sein du pôle Système d'Information Chaînes Communicantes de la Département des Systèmes d'Information , l'équipe rassemble des briques applicatives et data essentielles à la supervision, la résilience, l’intelligence du réseau électrique. En intégrant des outils de visualisation de crise, des capteurs Internet des Objets (IoT) , des dataproducts, un socle DevOps mutualisé, l'équipe incarne une approche unifiée et opérationnelle de la donnée réseau. IndusML est une équipe DevOps rattachée à une unité dédiée, œuvrant pour un département spécifique. Elle est en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les DataScientists et développeurs de ce département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : des Environnements de Développement Intégrés (IDE) complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus Objectifs et livrables Activité principale : Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les analystes de données / scientifiques de données Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du Système d'Information (Développeurs, Sécurité, Architectes, Exploitants, etc.) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participer aux cérémonies d’équipe Activité secondaire : Étudier l'intégration vers l’analyse de données future en lien avec le pôle Système d'Information DATA (cloud / on-premise) pour assurer aux équipes analytiques une continuité d'activité dans un nouveau contexte Système d'Information .
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et développer de nouveaux algorithmes de Machine Learning afin d’enrichir et d’améliorer un système de recommandation à fort impact business. 📦 Livrables attendus Développement d’algorithmes ML opérationnels Prototypes (PoC / MVP) validés techniquement Documentation technique associée Mécanismes d’explicabilité des modèles Recommandations d’optimisation et d’industrialisation 🚧 Contraintes du projet Forte exigence de performance et de robustesse Nécessité d’explicabilité des algorithmes Intégration dans un écosystème data existant Collaboration transverse avec équipes produit et techniques 🧠 Missions principales1. Veille & Innovation Suivre les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative) Identifier les technologies pertinentes pour les cas d’usage recommandation Proposer des approches innovantes adaptées aux enjeux métier 2. Conception & Expérimentation Concevoir des Proof of Concept (PoC) Développer des MVP robustes Tester et comparer différentes approches algorithmiques 3. Analyse de données & Modélisation Explorer et analyser des datasets complexes Identifier patterns et signaux exploitables Concevoir, entraîner et évaluer des modèles de recommandation 4. Explicabilité & Qualité Mettre en place des mécanismes d’interprétabilité Garantir la compréhension des résultats par les parties prenantes Documenter les choix techniques et les performances 5. Collaboration & Intégration Travailler en lien étroit avec Product Owners et équipes data Participer à l’intégration des modèles dans les plateformes existantes Contribuer à l’amélioration continue des solutions IA 🌍 Langues Français courant – Impératif Anglais professionnel – Secondaire
Freelance

Mission freelance
Développeur logiciel embarqué confirmé

CAT-AMANIA
Publiée le
Python
UART

1 an
100-400 €
Lille, Hauts-de-France
Notre équipe gère l'intégralité de la stack technique – du cloud à l'embarqué en passant par le mobile – pour fournir une solution complète à nos utilisateurs. ‎Notre mission inclut notamment la conception et le développement du logiciel intégré aux modules électroniques des équipements. Objectif de la mission : Développement logiciel embarqué d’une nouvelle console pour l’ensemble de la gamme d’appareils de fitness, de la POC jusqu'à sa production. Langages de programmation: C embarqué, Python MCU: Gamme Espressif OS: FreeRTOS, OS temps réel préemptif Sécurité : TLS, PKI/certificats, Secure Boot Technologies embarquées/radio: BLE , UART, CAN BUS, Wi-Fi. CI/CD sur la partie développement logicielle Github Actions Tooling : VSCode, GitHub, SonarCloud, BlackDuck, Copilot, ESP IDF Context DevSecOps : you build it, you run it Outils collaboratifs: Confluence, Jira, Miro, suite Google
CDI

Offre d'emploi
Android AOSP Engineer F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
Android studio
CI/CD
CMake

Valbonne, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino

WorldWide People
Publiée le
Apache Kafka
DBT
Python

12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Freelance

Mission freelance
Data Engineer Senior / Lead Data

Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks

6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Freelance
CDI

Offre d'emploi
Application Production Support (APS)

OMICRONE
Publiée le
Linux
OS Windows
PL/SQL

2 ans
40k-45k €
400 €
Paris, France
📢 Opportunité – Application Production Support (APS) – Global Markets (H/F) 📍 Localisation : Paris 💼 Environnement international 🎯 Missions principales 🔹 Support Fonctionnel & Technique (Production) Support niveau 1 (clients internes) & niveau 2 (clients externes) Prise en charge complète des incidents et demandes utilisateurs Assistance fonctionnelle sur l’utilisation des applications Coordination avec équipes APS globales Suivi “follow-the-sun” avec équipes internationales 🔹 Incident & Problem Management Analyse et diagnostic des incidents (root cause analysis) Gestion des incidents critiques Communication des correctifs & workarounds Interaction avec équipes développement & systèmes 🔹 Monitoring & Performance Surveillance des applications Gestion des alertes Maintien des dashboards de monitoring Suivi des tendances de charge et performance 🔹 Change & Release Management Validation fonctionnelle et technique (pré-prod & prod) Coordination des déploiements Contrôles post-release Communication des Release Notes 🔹 Amélioration continue Automatisation des tâches manuelles (scripting, batch) Optimisation des logs et monitoring Contribution aux exercices DR / BCP 🛠️ Compétences attendues Expérience en Production Support / APS Connaissance environnement marchés financiers (Global Markets apprécié) Capacité à gérer des incidents critiques Bonne compréhension des architectures applicatives Sens du service & excellente communication Expérience monitoring / scheduling / scripting appréciée Anglais professionnel obligatoire 🎯 Profil Réactif, rigoureux, autonome Capacité à travailler sous pression Esprit d’équipe international Orienté amélioration continue 📩 Intéressé(e) ? Merci de transmettre CV.
Freelance
CDI

Offre d'emploi
Platform Engineer / Observabilité - Montpellier - (H/F)

SWING-ONE
Publiée le
Apache Kafka
DevOps
Kubernetes

1 an
Montpellier, Occitanie
CONTEXTE DU POSTE : Dans un environnement IT complexe, multi-domaines et à forts enjeux (production critique, forte volumétrie de données, nombreux utilisateurs), vous intégrez une équipe en charge de la conception, du build et de l’exploitation de plateformes d’Observabilité à destination d’équipes internes (développement, exploitation, data, sécurité, etc.). L’équipe opère dans une logique Platform as a Product, avec pour objectif de fournir des plateformes fiables, sécurisées, automatisées et simples à consommer. OBJECTIFS DU POSTE : En tant que Platform Engineer , vous jouez un rôle clé dans : La construction et l’évolution de plateformes d’Observabilité à grande échelle L’industrialisation de l’infrastructure et des déploiements La fiabilité, la sécurité et l’opérabilité de la plateforme L’accompagnement des équipes utilisatrices MISSIONS PRINCIPALES : Industrialisation & automatisation Plateforme & support aux équipes Conception de briques réutilisables Sécurité & conformité Fiabilité & SRE Conception & accompagnement technique
Freelance

Mission freelance
Data Engineer Experimenté/Senior

Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi

24 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
CDI

Offre d'emploi
Directeur / Directrice Technique CTO (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Docker
Javascript

39 300 €
Poix-du-Nord, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

751 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous