Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris
Ce qu’il faut savoir sur Python
Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.
Mission freelance
Machine Learning Engineer
Nous recherchons un Machine Learning Engineer expérimenté pour une mission stratégique chez un client grand compte. Stack et compétences clés : Python 3.12 (expertise attendue) Kubernetes / Helm / Docker (maîtrise technique au-delà de l'utilisation) Azure SDK FastAPI GitLab (CI/CD, évolution de pipelines) OpenAPI, multithreading, ajout de routes pour UI gérant l’orchestration des déploiements jusqu’en UAT Tests unitaires obligatoires, monitoring des performances Organisation Agile en Squads et Chapters (partage des bonnes pratiques) Matrice RACI déjà en place, capacité à la faire évoluer Jenkins pour la production (géré par les équipes Ops) Certification KAD : un plus fortement apprécié, possibilité de la passer pendant la mission Contexte métier : Projet dans le secteur assurance autour de la modélisation de données, extraction d’informations depuis des contrats, comparaison avec des référentiels, vérification de cohérence, automatisation, recherche sémantique
Offre d'emploi
Data engineer GCP / Hadoop - DataOps
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme
Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Mission freelance
Machine Learning Engineer Lead Expert
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code
Mission freelance
Ingénieur Devops / DataOps
Notre client, une société innovante est spécialisée dans le traitement et l’analyse de données environnementales complexes, avec une expertise particulière dans la surveillance de la qualité de l’air. Elle conçoit et déploie des systèmes intelligents qui permettent de détecter, classifier et anticiper des événements liés à la pollution atmosphérique, notamment dans des environnements sensibles et exigeants comme l’aéronautique. L’entreprise associe plusieurs briques technologiques : · Capteurs physiques de haute précision, capables de collecter un large volume de données en temps réel, · Solutions logicielles de traitement et de modélisation, · Algorithmes d’intelligence artificielle pour identifier des signaux faibles et prédire des phénomènes complexes, · Outils de visualisation avancée pour rendre les résultats accessibles et exploitables par les décideurs. Basée au cœur d’un écosystème de recherche et d’innovation (proximité avec de grandes écoles d’ingénieurs et centres de R&D), cette société combine un esprit startup agile avec des projets de forte valeur sociétale et scientifique. Elle s’adresse aussi bien aux acteurs industriels qu’aux organisations publiques ou parapubliques soucieuses de mieux comprendre et maîtriser leur empreinte environnementale.
Mission freelance
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Offre d'emploi
Data Scientist Senior
Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)
Offre d'emploi
Ingénieur système DevOps
Il est attendu de la prestation d’apporter une expertise technique sur l’outillage DevSecOps avec GitlabCI afin de maintenir et faire évoluer la Plateforme DevOps en fonction des besoins qui ne cessent de croître ainsi que de contribuer à la montée en compétence de l’équipe sur l’outil. Tous les développements réalisés devront être testés et validés selon les procédures en vigueurs du client. Dans ce cadre il est attendu une expertise sur l’outillage Gitlab pour participer aux travaux de migration de Jenkins vers Gitlab. Il sera demandé au titulaire de répondre aux différentes activités : Développement Tests Accompagnement Support La prestation porte sur l’outil Gestionnaire de code source de la Plateforme DevOps : GitLab CE et GitLab EE, Gitlab Ultimaten, sur la stack d’indicateur de la plateforme logmining DevSecOps avec les outils Mimir et Loki et Grafana Les activités principales identifiées pour la mission sont les suivantes : Optimisation des instances afin d’améliorer les performances des outils, Mise en place et partage de bonnes pratiques autour des outils, Assurer le suivi, l’analyse et le traitement des incidents, Optimisation de la plateforme Gitlab sur Openshift Assurer le support auprès de l’équipe Projet Migration Jenkins2GitlabCI Suivre et exploiter des environnements de Développement, Participation au POC Gitlab Ultimate et DUO Développement des services conteneurisés (Docker/Openshift) Développement de scripts Python Récupération d’indicateurs (InfluxDB, loki, mimir, Grafana ect..) Rédaction des documentations associées aux travaux réalisés ( README, Confluence) Livrer la solution à l’exploitant et l’assister lors de la MEP, Réaliser la documentation technique, Les technologies du périmètre sont : Linux, RedHat Apache, Tomcat PostgreSQL,InfluxDB Python OpenShift, Kubernetes, Docker GitLab (CE/EE/Ultimate, CI-CD,components), Jenkins, Nexus, Sonar, Checkmarx, Jira/Confluence, Grafana, InfluxDB Cloud : AWS,GCP Méthodologie SRE Mimir Loki Grafana Coaching Connaissance des cultures agiles ((les valeurs, principes et les framework tel que SCRUM, KANBAN et SAFe) et les avoir implémentés dans différents contextes Connaissance des bonnes pratiques DevSecOps et SRE Connaissance des outils d’une plateforme DevOps pour réaliser les pratiques Non à la sous traitance.
Mission freelance
Tech Lead IA-Python/GCP
CONTEXTE: Expérience : 7 ans et plus Métiers Fonctions : Etudes & Développement-developpement Spécialités technologiques : Devops IA generative Monitoring tests unitaires Reporting Compétences Technologies et Outils Google Cloud Platform FastAPI GIT genai Java RESTFul GCP MongoDB Python Spring Boot genai PostgreSQL Méthodes / Normes SAFe TDD Agile Langues Anglais MISSIONS Dans le cadre d'un nouveau programme chez notre client, La Direction Informatique recherche une prestation de lead développement pour contribuer au développement du programme en mettant à disposition de nouveaux types d’agents IA venant enrichir les capacités de la plateforme self-service du client. Il s’agira de développer des solutions innovantes telles que les agents de type Retrieval-Augmented Generation (RAG). En capitalisant sur GCP et les dernières évolutions de GenAI, ces agents IA viennent enrichir les capacités de notre plateforme. Cette dernière permet aux utilisateurs métiers de créer, d’utiliser et de personnaliser des assistants et des workflows intégrant l'IA générative, afin d'améliorer nos processus et systèmes d'information (SI) existants. Le développement est réalisé en Python et Java, les agents IA dans une architecture micro-services et sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La mission concernera principalement : - La mise en place, la maintenance et l’évolution des agents IA : ● Garantir la couverture fonctionnelle et spécialisation de l’agent ● Garantir les capacités de collaboration de l’agent avec d’autres agents ● Garantir l’utilisation de standards lorsque possible ● Gérer les aspects sécurité et ACLs ● Intégrer monitoring et reporting sur l’activité agents IA ● Optimiser performance et coûts de fonctionnement ● Intégrer les mécanismes d’évaluation de la qualité de l’agent ● Garantir le passage à l’échelle de l’utilisation des agents - Garantir la stabilité et scalabilité de la plateforme par la mise en place/optimisation des technologies permettant la scalabilité et monitoring en collaboration avec les DevOps Garantir la remise en marche du SI dans les délais exigés par les projets - Communiquer sur l’état des services et le plan de remise en marche si le cas se présente - Challenger et contribuer à la vision du produit, piloter la conception, le développement, les opérations et garantir le SLA - Collaborer avec les Solution Architect pour l’étude des évolutions demandées par le produit - Identifier et prioriser les services offerts pour répondre aux besoins du client et de la stratégie du groupe - Sécuriser l'alignement organisationnel ainsi que la gestion des dépendances techniques avec les différentes parties prenantes - Assurer une veille technologique pour garantir la pérennité des solutions utilisées - Garantir la cohérence fonctionnelle et la qualité des composants - Garantir la pérennité et la mise à jour des outils et technologies employés - Garantir l’application des bonnes pratiques par l’ensemble des développeurs et le bon fonctionnement en mode agile du projet Livrables - Reporting de l’état des agents IA et technologies utilisés auprès des référents techniques - Capitalisation sur les technologies et sur toute problématique rencontrée par la formalisation dans les standards de l’entreprise (REX, eDEX, knowledge base, ...) - Code des développements demandés, conçus et mis en œuvre en production dans les critères d’acceptation Renault - Code des tests unitaires et d’intégrations automatisés - Documentation du code expliquant les programmes et algorithmes
Mission freelance
Architecte Solution Data AWS
Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :
Mission freelance
Data Engineer IA GCP
🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.
Offre d'emploi
Business Analyst - Intelligence Artificielle
Vos missions principales seront les suivantes : Assistance à Maîtrise d’Ouvrage : Organiser et animer les ateliers de recueil des besoins auprès des utilisateurs métiers. Analyser, modéliser et proposer des optimisations des processus existants. Rédiger les documents de cadrage et de qualification : études de faisabilité, chiffrage, analyse des risques, impact, et planning. Formaliser les processus et besoins fonctionnels en vue de leur développement. Rédiger les spécifications fonctionnelles détaillées. Élaborer les plans de test et accompagner les phases de recette. Accompagner les utilisateurs dans l’adoption des nouveaux outils et usages. Pilotage opérationnel : Participer à la coordination et au suivi de l’avancement des projets. Assurer le pilotage des projets dont vous avez la charge, en collaboration avec les développeurs (équipe SmartAutomation), le DataLab, les équipes API et autres parties prenantes. Superviser et réaliser les recettes techniques. Piloter les recettes fonctionnelles jusqu’à la mise en production des solutions automatisées. Réaliser un reporting régulier à la cellule de coordination projet. Maintenance et évolutions : Contribuer à la bonne tenue opérationnelle des solutions déployées. Participer aux évolutions fonctionnelles et techniques du parc applicatif existant.
Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
Data Engineer AWS / Databricks
Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre
Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).
Mission freelance
SRE DevOps AWS
Le rôle le plus important du SRE AWS est de maintenir les standards et la qualité de service de l’infrastructure AWS. Grâce à ses excellentes compétences et à son expertise, le SRE peut fournir un leadership et un soutien technique en matière d’architecture, de sécurité, de bases de données, de DevOps, de Bigdata, etc . Vous aurez pour principales missions : Être responsable de la plateforme AWS et participer aux évolutions futures Assurer la stabilité, la fiabilité et la performance des applications Soutenir les développeurs et aider à concevoir conjointement les services applicatifs Développer et maintenir notre pipeline de déploiement et CI/CD Contribuer aux discussions techniques sur l’intégration de nouvelles ressources ou standards Améliorer constamment les processus et communiquer les normes et les bonnes pratiques de notre plateforme AWS Participer à l’évolution des outils transverses Être capable de prendre du recul sur les besoins de l’équipe et de faire le lien avec la gouvernance pour mettre en place des solutions globales plutôt que des solutions spécifiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Python
Data scientist
Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres