Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris
Ce qu’il faut savoir sur Python
Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.
Offre d'emploi
Développeur Senior BI / Data (MSBI / Azure Data Factory)
🎯 Contexte Nous recherchons un Développeur Senior BI / Data pour renforcer l’équipe Support Fund Management. Vous serez intégré(e) à l’équipe support et travaillerez en étroite collaboration avec les Business Analysts. 🔎 Missions Intégré(e) à l’équipe projet, vous serez en charge de : Participer au cadrage des solutions à implémenter. Développer les User Stories (US). Contribuer à la recette, l’UAT et la mise en production. Assurer la maintenance des applications. Rédiger la documentation technique. Améliorer en continu le modèle de développement. 🛠 Compétences recherchée Maîtrise des outils Microsoft BI (SQL Server 2019/2022, SSIS, SSRS). Maîtrise des bases de données relationnelles et SQL. Expérience avec Azure BI Data Factory. Compétences en Python, librairie Pandas appréciée. Bon niveau sur Azure DevOps. Expérience en Asset Management / finance de marché souhaitée. 📍 Localisation & Conditions Basé à Paris Démarrage : dès que possible
Mission freelance
Consultant( H/F) Senior Fullstack Développeur Python/TypeScript
Dans le cadre d’un projet stratégique pour un acteur majeur du secteur du retail de luxe, nous recherchons un Développeur Senior Full Stack afin de renforcer une équipe existante composée de deux développeurs. La mission porte sur la conception et le développement de plateformes web custom, en assurant la qualité, la performance et la maintenabilité du code. Le consultant participera activement aux choix techniques, au développement back-end et front-end, ainsi qu’aux échanges réguliers avec les équipes internes et le client. La mission s’inscrit dans un contexte international et exige rigueur, autonomie et une bonne capacité de communication.
Mission freelance
Administrateur d'outils Senior SAS - Maîtrise QLIK
Entité : Secteur Bancaire Site : Paris ; 3 jours sur site par semaine TJM : 500 euros Date de démarrage : 01/10/2025 Langues parlées : français Durée mission : 3 mois (date de fin : 31/12/2025) Nbre d’années d’expérience : + 7 ans d'expertise Profil : d’Administrateur d'outils Senior SAS - Maîtrise QLIK Contexte : Au sein de la Direction de la Transformation dans les équipes Data & Analytics, vous rejoindrez l’équipe Décisionnel Dommage dont la mission est de mettre à la disposition des métiers, via une plateforme BI, les données et outils nécessaires aux études et aux reportings de l’entreprise. La plateforme hébergeant ces données est basée sur la solution SAS (SAS 9.4 sous Windows). Les outils de reporting utilisent les solutions Qlik : QlikView, QlikSense, Geonalytics. Des évolutions sont à prévoir pour moderniser notre plateforme pour servir de nouveaux usages dans l’entreprise. Le candidat rejoindra une équipe de 6 collaborateurs internes (ingénieurs d’étude, chefs de projets) et des ressources externes. Il travaillera en binôme avec une autre personne en charge de l’exploitation et du MCO du SID. Attendu : 1. Suivi quotidien des batchs et traitement des éventuels incidents avec communication auprès des utilisateurs impactés, 2. Livraison du code développé dans l’équipe dans les environnements de Recette et PRODUCTION, 3. Revue de code lors des livraisons pour s’assurer de l’application des normes de développement en vigueur dans le service, 4. Gestion des habilitations sur nos différents outils, 5. Support utilisateurs pour résoudre des problèmes techniques en lien avec nos logiciels : • SAS et à la marge PYTHON pour le traitement des données, • Qlik et à la marge PBI pour des restitutions WEB, • GIT notre outil pour versionner et livrer nos traitements, • Indexima pour optimisation d’un traitement QLIK, • CONTROL-M notre nouvel outil d’ordonnancement qui a remplacé AUTOMIC 6. Prise en charge des développements nécessaires lors des VM (Versions Majeures du SI 2 fois par an) amenant des évolutions dans notre infocentre SAS, 7. Prise en charge de demandes d’intervention type correction d’anomalie ou petite évolution, 8. Participation aux projets techniques comme la GDPR nécessitant d’affecter des droits de façon automatique sur nos données en fonction des usages validés par le DPO ou le changement d’ordonnanceur de nos traitements.
Mission freelance
Data Scientist LLM
En quelques mots Cherry Pick est à la recherche d'un Data Scientist (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'énergie . Description 🎯 Contexte Le groupe accélère la production de solutions digitales pour ses activités dans le monde. Dans ce cadre, la Data Factory recherche un Data Scientist expérimenté en LLM et IA Générative pour développer des solutions innovantes et industrielles autour de l’IA agentique et du traitement de données complexes. 🛠️ Missions & Livrables Exploration & PrototypageConcevoir et évaluer des approches IA agentique (LLM + outils/API + code).Expérimenter du fine-tuning ciblé (LoRA, autres techniques) sur données métiers.Comparer rigoureusement RAG / fine-tuning / multi-agents et frameworks (LangChain, LlamaIndex, CrewAI). Conception & Développement Créer des workflows avancés combinant RAG (connaissance), fine-tuning (style), agents (actions). Explorer et mesurer la fiabilité des capacités de raisonnement (Chain-of-Thought, ReAct, etc.). Produire des démonstrateurs fonctionnels et recommandations techniques. Contributions transverses Participer aux CoP (communautés de pratique) et rituels de squads. Contribuer à la conception/maintenance d’outils et packages communs. Challenger la vision de l’équipe et participer à la roadmap IA.
Offre d'emploi
DATA ENGINEER GCP
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Ingénieur de données GCP (H/F)
o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.
Mission freelance
Full Stack Developement spécialisation en AI/RAG (F/H) - 75
Le service collaborera à la croisée des LLM, des agents et du développement d'applications de pointe, contribuant ainsi à l'avenir des solutions basées sur l'IA. * Développer et maintenir des services backend évolutifs à l'aide de Python, en les intégrant aux LLM, aux agents et aux frameworks RAG. * Créer des interfaces front-end intuitives et réactives à l'aide de React. Collaborer avec des équipes interfonctionnelles pour concevoir et mettre en œuvre des applications et des solutions basées sur l'IA. * Contribuer au développement d'un produit RAG et améliorer l'évolutivité des ressources IA. * Collaborer avec les technologies IA émergentes, notamment les LLM, les architectures agentives et les intégrations d'applications.
Mission freelance
Data Scientist Expérimenté (5–7 ans d’expérience) Japonais Mandatory
Contexte Notr client recherche un Data Scientist confirmé pour rejoindre son Tech Accelerator et contribuer à des projets innovants autour de l’IA, du NLP et des solutions GenAI. Missions principales Extraction, traitement et analyse de données complexes. Développement et optimisation de modèles statistiques et algorithmiques. Conception et mise en œuvre de solutions basées sur le Machine Learning et Deep Learning . Participation à l’application, au fine-tuning et au développement de solutions LLM / Gen AI . Communication des résultats et vulgarisation des analyses auprès des équipes métiers. Compétences requises Langues : Japonais courant Anglais niveau B2+ Français : un plus, mais non obligatoire Techniques : Python, SQL, Git Deep Learning & NLP Algorithms Machine Learning & Statistical Modeling Fine-tuning et développement de modèles LLM / Gen AI Profil recherché 5 à 7 ans d’expérience minimum en tant que Data Scientist ou poste équivalent. Solides compétences en modélisation, algorithmes et exploitation de données. Capacité à collaborer avec des équipes internationales et à communiquer efficacement les résultats.
Offre d'emploi
CHEF DE PROJET - TECHNIQUE - DEVOPS
CHEF DE PROJET - DEVOPS Démarrage : Décembre 2025 Durée : 2 ans Localisation : Paris Télétravail : 50% Description détaillée Pilotage de projet : - Assurer le pilotage interne du projet en organisant des revues de projet avec l'équipe projet. - Gérer le pilotage envers la clientèle à travers des revues de projet client régulières. - Élaborer et assurer le reporting pour les comités de pilotage menés par les responsables de projet. Création et suivi d'indicateurs : - Piloter les projets en utilisant des indicateurs de qualité, de coûts et de délais pour garantir leur succès. - Analyser les indicateurs de performance (KPI) afin de fournir des résultats détaillés qui orientent la prise de décision. - Production d'indicateurs et analyse des données projets afin de soutenir le pilotage du projet Création d'outils transverses : - Développer des outils pour automatiser et faciliter les processus d'analyse et de reporting. - Proposer des solutions d'automatisation visant à standardiser et simplifier les tâches transverses au sein de la direction. - Effectuer des contrôles de qualité et des vérifications sur les données du périmètre pour assurer leur fiabilité. Projets spécifiques : - Outiller le suivi des remédiations des différents sujets transverses de la direction. - Mettre en place des outils pour le suivi et l'analyse de la réduction des coûts d'infrastructure.
Mission freelance
DataOps AWS Engineer -MlOps
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Mission freelance
Data Analyst / Data Engineer
Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)
Mission freelance
224301/Développer R
Développer R Maîtrise du développement en R (version > 3), développement de packages, visualisation (Shiny). Expérience API REST, bases de données, traitement de données volumineuses. Compétences Python > 3. Outils de développement collaboratif : Git, CI/CD, Confluence, JIRA. Capacité à travailler en équipe Agile, autonomie et bonnes qualités relationnelles. Connaissance du domaine énergie / équilibre offre-demande = un plus. Contexte de la mission Objectif de la mission Développer, maintenir et industrialiser des scripts de traitement des données (entrées/sorties). Garantir des solutions robustes et pérennes, et non de simples scripts ponctuels. Préparer la migration progressive d’une partie des scripts R vers Python. Objectifs et livrables Missions principales Recueil des besoins auprès des utilisateurs métier (ateliers, rédaction de spécifications). Développement de nouveaux scripts en R et mise à niveau des existants. Industrialisation (packaging, tests unitaires, CI/CD). Évolutions fonctionnelles pour suivre les montées de version du simulateur. Automatisation des vérifications et analyses post-simulation. Coordination avec l’équipe projet et participation aux cérémonies Agile. Livrables attendus Spécifications fonctionnelles et techniques (Confluence). Tickets de dev (JIRA). Scripts R industrialisés, packages documentés, tests unitaires. Rapports d’analyses automatisés. Compétences attendues Maîtrise du développement en R (version > 3), développement de packages, visualisation (Shiny). Expérience API REST, bases de données, traitement de données volumineuses. Compétences Python > 3. Outils de développement collaboratif : Git, CI/CD, Confluence, JIRA. Capacité à travailler en équipe Agile, autonomie et bonnes qualités relationnelles. Connaissance du domaine énergie / équilibre offre-demande = un plus.
Offre d'emploi
Site Reliability Engineer (SRE) Azure (CDI)
Lieu : Paris Type de contrat : CDI Démarrage : Dès que possible À propos du poste Nous recherchons un Site Reliability Engineer (SRE) spécialisé Azure pour renforcer notre équipe technique. Vous serez au cœur de la fiabilité, de la performance et de l’automatisation de nos plateformes cloud. Votre mission sera de garantir la disponibilité et la résilience des services tout en apportant une expertise DevOps et une culture forte de l’observabilité. Responsabilités principales Assurer la fiabilité, la performance et la sécurité de nos environnements Azure. Mettre en œuvre et maintenir des infrastructures as code avec Terraform. Définir, suivre et améliorer les SLA, SLO et SLI pour garantir la qualité de service. Déployer et optimiser des pipelines CI/CD avec GitHub Actions. Mettre en place et maintenir des solutions d’observabilité et monitoring (Grafana, Prometheus, alerting). Collaborer avec les équipes de développement pour améliorer la résilience et l’efficacité des applications. Participer à la gestion des incidents et à l’amélioration continue des processus d’exploitation.
Mission freelance
MLOps / Azure AI
Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.
Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO
Mission freelance
Machine Learning Engineer
Nous recherchons un Machine Learning Engineer expérimenté pour une mission stratégique chez un client grand compte. Stack et compétences clés : Python 3.12 (expertise attendue) Kubernetes / Helm / Docker (maîtrise technique au-delà de l'utilisation) Azure SDK FastAPI GitLab (CI/CD, évolution de pipelines) OpenAPI, multithreading, ajout de routes pour UI gérant l’orchestration des déploiements jusqu’en UAT Tests unitaires obligatoires, monitoring des performances Organisation Agile en Squads et Chapters (partage des bonnes pratiques) Matrice RACI déjà en place, capacité à la faire évoluer Jenkins pour la production (géré par les équipes Ops) Certification KAD : un plus fortement apprécié, possibilité de la passer pendant la mission Contexte métier : Projet dans le secteur assurance autour de la modélisation de données, extraction d’informations depuis des contrats, comparaison avec des référentiels, vérification de cohérence, automatisation, recherche sémantique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Python
Data scientist
Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres