Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris
Ce qu’il faut savoir sur Python
Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.
            Offre d'emploi
            
        Deep learning researcher (Python)
      
 En tant que Deep learning researcher (Python), vous jouerez un rôle clé dans la recherche et le développement d'algorithmes avancés d'apprentissage profond afin d'améliorer les solutions innovantes de notre département R&D. Vos principales responsabilités seront : • Concevoir et expérimenter des modèles de deep learning adaptés aux problématiques métiers. • Développer des prototypes robustes en Python pour valider les concepts. • Collaborer étroitement avec les équipes data science et ingénierie logicielle. • Analyser et optimiser les performances des modèles déployés. • Participer à la rédaction de publications et de rapports techniques. • Veiller à la veille technologique dans le domaine de l'intelligence artificielle.
 
 
            Mission freelance
            
        Data Scientist Full-Stack Python / Streamlit (H/F)
      
 Cherry Pick est à la recherche d'un Data Scientist Full-Stack Python / Streamlit (H/F) pour l'un de ses clients. ontexte de la mission Dans le cadre d'un projet de transformation digitale d'envergure pour un acteur majeur de la grande distribution, vous rejoindrez l'équipe en charge d'une plateforme web interne. Ce projet vise à révolutionner la gestion des campagnes de couponing personnalisé en remplaçant les supports publicitaires physiques (kakemonos) par des écrans électroniques (e-paper) en magasin. Ce projet est à la croisée de l'IoT et de la gestion de campagnes marketing. Vos missions et responsabilités En tant que renfort clé pour l'équipe, vous jouerez un rôle central dans la construction et l'évolution des "produits data" de la plateforme. Vos missions principales seront les suivantes : Concevoir et mettre en place le système de mesure de la performance des campagnes, de la collecte des données brutes à la restitution des résultats. Définir les KPIs pertinents en collaboration avec les équipes métier. Traiter, analyser et préparer les données pour le calcul d'indicateurs de performance et d'agrégats statistiques. Automatiser la création d'échantillons et le calcul de la performance des campagnes. Développer et maintenir le front-end de la plateforme à l'aide de Streamlit , en apportant votre expertise pour des développements complexes. Collaborer sur des projets de "data sharing" afin de rendre les données accessibles et exploitables. Environnement Technique Langages : Python, SQL Framework : Streamlit (expertise forte requise) Cloud : GCP (Google Cloud Platform) Services GCP : Vertex AI, BigQuery Outils : GitLab Profil recherché Vous justifiez d'une expérience solide de 6 à 8 ans dans le domaine de la Data Science et de l'ingénierie data, avec un track record de projets complexes et mis en production. Vous maîtrisez parfaitement Python et avez une expertise avérée sur Streamlit , idéalement sur des projets de grande envergure. Une bonne connaissance de l'environnement GCP et de ses services (BigQuery, Vertex AI) est indispensable. Vous êtes autonome, rigoureux et proactif, capable de prendre en charge des sujets de bout en bout. Un niveau d'anglais professionnel est requis.
 
 
            Mission freelance
            
        Data Engineer AWS senior
      
 En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS senior" pour un client dans le secteur de l'Energie Description 🧩 Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un Data Engineer AWS Senior capable de concevoir, maintenir et optimiser les pipelines de données critiques de la plateforme analytique. La mission s’inscrit dans un environnement cloud AWS, au cœur de la transformation data et de l’industrialisation des flux d’ingestion, de traitement et d’exposition des données. 🎯 Objectifs et livrables 🔹 Responsabilités principales : Concevoir, développer et maintenir des pipelines de données ETL/ELT robustes et scalables. Travailler principalement en Python pour manipuler, transformer et automatiser les flux d’ingestion de données. Gérer les workflows SQL et concevoir des modèles de données relationnels sur PostgreSQL. Exploiter les services AWS (Lambda, Step Function, EC2, S3, Glue, etc.) pour l’orchestration et la livraison des données. Collaborer étroitement avec les équipes backend et data consumers pour assurer la cohérence des intégrations et des APIs. Mettre en œuvre des processus de monitoring, test et optimisation des systèmes de données afin de garantir performance, fiabilité et sécurité. Contribuer activement à l’amélioration continue de l’architecture et des bonnes pratiques techniques (code review, automatisation, documentation).
            Mission freelance
            
        EXPERT CI CD - DEVOPS GITOPS : Expert Intégration Continue
      
 Votre rôle : accompagner les équipes de développement dans la mise en place et la centralisation des chaînes CI/CD sur une stack commune (Jira, Bitbucket, Jenkins, Artifactory, SonarQube…). Vos principales missions : Analyser l’existant et identifier les éléments à migrer Définir le plan de migration vers la stack cible Créer et configurer les espaces projets (Git, Jenkins, Jira…) Former et onboarder les utilisateurs sur l’outil self-service GitOps Conseiller les équipes sur les bonnes pratiques CI/CD Participer à la documentation et au suivi sous Jira / Confluence Spécifier les besoins d’évolution des outils si nécessaire
 
 
            Mission freelance
            
        Architecte Solution IA
      
 Dans le cadre du développement de nos projets stratégiques autour de l’intelligence artificielle et des systèmes génératifs, nous recherchons un(e) Architecte IA F/H afin de concevoir, encadrer et déployer des solutions robustes, sécurisées et évolutives. Contexte : Dans le cadre du programme d'accélération de l'IA à l'échelle de l'entreprise, une plateforme basée sur des agents intelligents tel que des agents de type RAG, dans un environnement GCP est développé. Cette plateforme doit permettre aux utilisateurs métiers de bénéficier de l'IA GEN pour améliorer nos processus et produits existants. Missions principales En tant qu’Architecte IA, vous serez amené à : Concevoir et encadrer l’architecture des solutions d’IA générative, notamment autour des agents IA (RAG, orchestrateurs, frameworks spécialisés). Maîtriser et exploiter le langage Python pour la conception, l’intégration et l’industrialisation des solutions. Étudier et analyser les stacks techniques IT en place ou à mettre en œuvre, afin d’assurer leur pertinence et leur cohérence dans l’écosystème existant. Être force de proposition sur les briques technologiques du marché (open source ou solutions éditeurs) répondant aux besoins des projets. Garantir la sécurité des systèmes d’information et des accès aux données sensibles, dans le respect des standards de conformité. Concevoir des architectures scalables et robustes , adaptées à une montée en charge progressive et à des usages critiques. Optimiser le coût des infrastructures et services , en proposant des modèles économiquement viables. Participer activement à la conception, au développement et à la mise en production d’applications intégrant des fonctionnalités avancées d’IA. Accompagner l’équipe sur la méthodologie de la pyramide des tests , afin d’assurer la qualité logicielle et la fiabilité des déploiements. Prendre part aux discussions d’équipe lors des revues de conception, de code et d’architecture, en apportant une vision experte. Contribuer à l’élaboration et au partage de bonnes pratiques techniques et méthodologiques au sein du projet.
 
 
            Mission freelance
            
        Product Owner IA - ML
      
 Nous recherchons un Product Owner à forte sensibilité technique pour piloter : Le développement d’applications de gouvernance des modèles de Machine Learning La plateforme interne de mise à disposition de fonctionnalités d’IA générative (LLM Hub) Votre rôle sera clé pour orienter le produit, suivre sa construction, garantir la cohérence technique et maximiser la valeur pour les utilisateurs internes. Périmètre fonctionnel 1. Applications de gouvernance AI/ML Objectif : inventorier et suivre les modèles IA déployés sur différentes plateformes (Azure Machine Learning, Azure Databricks, AWS Databricks, AWS Sagemaker). Fonctionnalités principales : Récupération automatique des modèles et de leurs métriques Exposition des données via API Dashboard React dédié au suivi des modèles (mises à jour, performance, usage…) Application complémentaire de collecte des métriques d’inférence 2. Plateforme LLM Hub Objectif : centraliser l’accès et la consommation de LLMs (OpenAI, Mistral, Claude, via Azure OpenAI / AI Foundry et AWS Bedrock). Fonctionnalités actuelles : Mutualisation, supervision et optimisation de la consommation LLM (finops, reporting, provisioned throughput) Mise à disposition de briques IA clé en main (RAG, Text-to-SQL, WebSearch…) Application interne type ChatGPT Projections : Plateforme de création d’agents Élargissement des outils et plugins Nouvelles features dans le ChatGPT interne
 
 
            Mission freelance
            
        Consultant Expert en Sécurité Opérationnelle - IAM CLOUD
      
 Dans le cadre d’un projet stratégique mené par une grande organisation basée à Paris, nous recherchons un consultant expérimenté en sécurité opérationnelle , avec une expertise pointue en Identity and Access Management (IAM) sur les environnements Cloud Public : Google Cloud Platform (GCP) , Microsoft Azure et Amazon Web Services (AWS) . Le consultant rejoindra une équipe d’experts en sécurité Cloud pour renforcer les dispositifs IAM, accompagner les équipes projets et garantir la conformité aux politiques de sécurité internes. Vos missions principales : Auditer les environnements Cloud existants (GCP, Azure, AWS) afin d’identifier les vulnérabilités et les axes d’amélioration en matière de gestion des identités et des accès. Concevoir une stratégie IAM robuste , alignée sur les besoins métiers et les exigences de sécurité, incluant la gestion des permissions, des rôles et des politiques d’accès. Implémenter les meilleures pratiques de sécurité , notamment via des outils comme AWS SCP, GCP Deny Policy et les mécanismes de contrôle natifs des plateformes Cloud. Accompagner les équipes projets , en les formant aux concepts IAM et en les sensibilisant aux enjeux de sécurité. Documenter les processus et configurations , afin d’assurer la traçabilité et la pérennité des dispositifs mis en place.
 
 
            Mission freelance
            
        Analyste CERT expérimenté
      
 Localisation : Paris Durée : 1 an minimum Rattachement : Équipe CERT Missions principales : Détection, analyse et réponse aux incidents de sécurité (SIEM, EDR). Analyse forensique et investigation des incidents complexes. Threat hunting et identification proactive des vulnérabilités. Développement de scripts pour automatiser certaines tâches d’analyse. Compétences techniques : SIEM et EDR avancé. Forensic et scripting (Python, PowerShell, Bash). Connaissance approfondie des techniques d’attaques et intrusions. Soft skills : Réactivité et esprit d’analyse. Travail collaboratif et communication technique. Charge estimée : 2 ETP
 
 
            Mission freelance
            
        Data Management & AI Lead
      
 CONTEXTE Experience: 8 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expertise Spécialités technologiques : Gestion des données, Monitoring, AI,Data management Reporting MISSIONS Piloter la stratégie de gestion des données non structurées (UD) et l’adoption de l’IA au sein des différents métiers. Concevoir et mettre en œuvre le cadre méthodologique, industrialiser les outils associés, accompagner leur adoption par les utilisateurs, et assurer un suivi opérationnel continu pour garantir l’efficacité et la cohérence des pratiques. Responsabilités principales - Analyser les processus métiers et cas d’usage IA afin de proposer un plan de gestion des données non structurées. - Déployer le cadre UD dans plusieurs domaines métier et en assurer l’industrialisation. - Promouvoir et faciliter l’adoption des outils et pratiques auprès des utilisateurs. - Assurer le suivi opérationnel : monitoring, reporting et support aux utilisateurs. - Collaborer avec les équipes métiers et techniques pour garantir cohérence et efficacité. Expertise souhaitée Compétences et expertise attendues - Maîtrise des référentiels de gestion des données (DMBOK – DAMA). - Expérience en gouvernance de données, gestion des métadonnées et de la qualité, architecture & modélisation. - Expertise pratique sur le traitement des données non structurées (OCR, NLP, VLM, Vector Databases). - Compétences en data visualization (PowerBI) et gestion d’ontologies de métadonnées. - Compréhension des usages GenAI (prompting, grounding). - Maîtrise des outils d’automatisation et scripting (Python, Bash). - Connaissance des plateformes de gestion des données et des outils collaboratifs (Git, Jira). - Anglais courant obligatoire.
            Mission freelance
            
        Expert sécurité opérationnelle cloud GCP/ IAM GCP/ SECURITE, RESEAUX/ TERRAFORM/ PYTHON (H/F)
      
 Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
            Offre d'emploi
            
        Consultant IT en Production Applicative Acces Marché
      
 Le Consultant apportera son expertise pour la mise en place, l'évolution et le suivi de production des solutions d'accès aux marchés utilisées par les desks de Fixed Income et Forex de la CIBs. Il sera impliqué dans divers projets tels que l'intégration de nouveaux accès aux marchés, l'architecture des solutions, ainsi que les migrations boursières et la veille technologique. Il maîtrisera les aspects liés au passage d'ordres, au STP (Straight Through Processing) et à la gestion des données de marché.
 
 
            Mission freelance
            
        Ingénieur de données GCP (H/F)
      
 Au sein de l'équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d'un productowner, d'un data steward et d'un data ingénieur. Notre technique de stack est principalement constituée de Python, Spark, SQL, dbt, BigQuery, Airflow pour l'orchestration des traitements et Terraform ainsi que Terragrunt pour l'industrialisation. Le stack inclut également d'autres services de la Google Cloud Platform. En interaction avec les membres de l'équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe • Construire et maintenir des pipelines de données robustes et évolutifs • Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures évolutives capables de répondre aux besoins et à l'évolution rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l'évolutivité, la fiabilité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation.
 
 
            Offre d'emploi
            
        Tech Lead Data
      
 Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
 
 
            Mission freelance
            
        Développeur Python _ API _ React JS
      
 Je suis à la recherche pour un de nos clients d'un Développeur Python API React JS. L’objectif de la prestation porte sur le projet de remplacement de l’outil de lutte contre le blanchiment et le financement du terrorisme. Ce projet implique le développement des flux entrants et sortants de l’application de Screening (ASAM), le stockage des données et la création d’une interface pour le pilotage de l’activité. • Les connaissances techniques requises : o Jira, o Python, Flask, SQL Alchemy, o Cloud GCP : BigQuery, PostGresql, Airflow, API RESTFUL, … o React JS o La connaissance d’Okta, Swagger et Docker sont un plus Une expérience significative dans le développement est demandée dans les domaines suivants : • développement Back End (API, Python, Cloud function) • développement Front End (React JS) Savoir-faire sur : • Projet en méthode Agile, Kanban, RPE • Principes RGPD
            Offre d'emploi
            
        Data Scientist
      
 Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.
 
 
            Mission freelance
            
        223306/Développeur Python + CI/CD - Paris
      
 Développeur Python + CI/CD - Paris Objectifs et livrables Mettre à jour/Maintenir les scrappers développé en Python via Airflow (court terme + tâche de fond) Chiffrer la migration/le déploiement avec l’équipe de dev de Jurigeek sur OpenShift (court terme) Déployer Jurigeek sur OpenShift (court/moyen terme) S’assurer que l’équipe de dev ait tous les outils ou la toolchain pour maximiser le delivery (CI/CD, Système de log, notification de release etc…) Améliorer la qualité de code inhérente au produit en mettant en place des outils de monitoring/surveillance ou des best practices S’assurer que les produits en prod soit équipé de tous le monitoring adéquat Compétences demandées Niveau de compétence CI/CD Confirmé Apache Airflow Avancé OPENSHIFT Avancé Programmation Python Confirmé
Déposez votre CV
-  Fixez vos conditions Rémunération, télétravail... Définissez tous les critères importants pour vous. 
-  Faites-vous chasser Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque. 
-  100% gratuit Aucune commission prélevée sur votre mission freelance. 
Derniers posts sur le forum
Les métiers et les missions en freelance pour Python
Data scientist
Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres