Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris
Ce qu’il faut savoir sur Python
Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.
Offre d'emploi
Développeur Java Junior/Confirmé – Finance de Marché (H/F)
Contexte de la mission (POSTE A POURVOIR EN CDI UNIQUEMENT) : Nous recrutons un(e) Développeur(se) Java Junior/confirmé(e) pour rejoindre grand groupe bancaire parisien. Vous intégrerez le pôle Pricing & Analytics , en charge du développement et de la maintenance des librairies financières utilisées pour le pricing des produits dérivés sur les marchés Equity, Fixed Income et Commodities . Accompagné(e) par des experts techniques et fonctionnels, vous contribuerez au développement des outils de calcul à destination des métiers Front Office et Risques . Vos missions : Participer au développement et à l'évolution des librairies de pricing Contribuer à l’intégration de ces librairies dans les différents outils du SI Collaborer avec les équipes IT, Quants et Risques pour assurer une bonne intégration des solutions Travailler sur des chaînes de calculs performantes et robustes, capables de traiter de grands volumes de données
Mission freelance
Sénior DevOps Engineer
Dans le cadre d’un projet stratégique de transformation digitale, nous recherchons un Senior DevOps Engineer (AWS / Terraform) pour renforcer une équipe plateforme en charge de fournir un environnement cloud fiable, sécurisé et évolutif. L’objectif est de concevoir, industrialiser et maintenir une plateforme cloud (AWS) qui permettra aux équipes tech de déployer et faire évoluer leurs applications de manière rapide, sécurisée et autonome. 🔧 Responsabilités principales : Concevoir des modules Terraform avancés (réseau, sécurité, compute, données…) selon les meilleures pratiques AWS. Mettre en place une architecture multi-comptes AWS (Control Tower, gouvernance, IAM, SCP). Définir des modèles d’architectures types pour les applications serverless, conteneurisées (EKS/ECS) et classiques (EC2). Développer et maintenir les pipelines CI/CD (GitLab CI, Jenkins) avec intégration des politiques de sécurité, de test et de qualité. Gérer la surveillance, les alertes, les logs et la traçabilité (CloudWatch, Prometheus, Datadog, OpenTelemetry…). Renforcer la sécurité de l’environnement cloud (IAM, KMS, chiffrement, gestion des secrets…). Accompagner les équipes internes dans la migration des workloads on-premise vers AWS. Participer à l’automatisation de tâches répétitives via scripting Bash / Python / Terraform. Contribuer au support de niveau 2/3, à la gestion des incidents et aux post-mortems.
Mission freelance
Data Analyst / Lead Dataiku
Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.
Offre d'emploi
Data Engineer Pyspark/Dagster
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
Senior DevOps Engineer (Python, Jenkins, Ansible, Shell, AWS)
Qualifications / Compétences requises Licence ou Master en informatique, génie logiciel ou domaine connexe. Au moins 8 ans d'expérience en tant qu'ingénieur DevOps et au moins 4 ans en projets centrés sur les données. Vaste expérience en développement Python démontrant une solide maîtrise de la création d'applications évolutives. Expertise approfondie des pratiques DevOps et des pipelines CI/CD pour optimiser les processus de déploiement. Expérience en infrastructure as-code. Excellentes compétences collaboratives, avec la capacité à traduire des exigences utilisateurs complexes en solutions techniques efficaces. Bonne maîtrise de l'anglais, car la documentation sera rédigée en anglais et une partie des utilisateurs de la plateforme de données ne parlent pas français. Plus : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience en développement produit agile et en méthodologie Scrum. Maîtrise des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell. AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … DevOps : Jenkins, SonarQube, Conda, Ansible… Logiciels : Python, Rust est un plus.
Mission freelance
Data Engineer (localisation à PAU / 2j de tt max)
Contexte : L’objectif est de renforcer les capacités d’ingénierie de données pour améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles. Objectifs et livrables Objectifs de la mission : Définir les processus de gestion de données et d’information des outils digitaux du métier forage puits. Contribuer à la gouvernance des données (modélisation, documentation, standardisation). Développer et maintenir des pipelines de données robustes et automatisés. Développer et maintenir des outils de contrôle qualité des données (dashboards, alerting, audits). Participer à l’intégration de solutions IA / IA Générative pour des cas d’usage métier. Activités principales : Extraction, transformation et chargement de données issues de sources variées (structurées / non structurées, temps réel / historiques…). Développement de scripts et outils en Python (ou équivalent) pour l’automatisation des traitements. Mise en place / supervision de solutions IA / IA Générative (développées en interne ou customisées à partir d’outils du marché). Participation à la conception de modèles de données logiques et physiques. Mise en place / maintenance d’outils de suivi de qualité des données forage-puits (données real time WITSML, données WellView…), qui pourraient être développés en interne ou customisés sur la base d’outils du marché, pour des besoins spots ou pleinement automatisés et industrialisés. Définition du processus ‘data management’ pour l’outil de gestion de données real time : analyse du processus actuel, proposition d’améliorations et mise en place de ce nouveau processus, en collaboration avec l’éditeur de la solution. Définition, mise en place, puis supervision des tâches admin liées aux outils digitaux du métier forage-puits. Support aux utilisateurs métiers et accompagnement au changement.
Mission freelance
Senior AWS Data Developer
Contexte: Recherche Développeur(se) Senior Data compétent(e) et proactif(ve) pour un très grand projet de transformation IT en Espagne, dans le secteur manufacturier. Ce rôle est essentiel pour construire et optimiser le nouveau hub de données basé sur AWS, permettant un accès plus rapide aux données, une meilleure qualité et une livraison évolutive. Collaboration étroite avec l’Architecte Data, le Chef de Projet et les équipes de développement mondiales pour concevoir, mettre en œuvre et maintenir des pipelines de données robustes ainsi que des cadres de qualité. Responsabilités : • Développer et optimiser des pipelines de données évolutifs en utilisant les services AWS et des technologies open source. • Mettre en œuvre des modèles de traitement de données en temps réel et en batch . • Garantir la qualité des données via des tests automatisés et des cadres de surveillance. • Collaborer avec les architectes et les équipes métier pour traduire les besoins en solutions techniques . • Soutenir les pratiques CI/CD et l’ automatisation de l’infrastructure .
Mission freelance
Ingénieur Intégration Cloud- Expert Observabilité /SRE
CONTEXTE Dans le cadre d’un programme de refonte des applications monétique et paiements vers un modèle d’architecture cloud natif, La Direction Technique est chargée de la construction et la mise à disposition de l’offre d’infrastructures qui en sont les fondations techniques. des produits Dans ce cadre, la direction technique recherche un Expert en observabilité, Ingénieur d’intégration de type SRE en MISSIONS La prestation s'effectuera au sein du pôle « Architectures et solutions techniques ». Les objectifs de la prestation sont : • Accompagné les ME projet sur la mise en place des solutions d’observabilité applications dans le cloud et sur le legacy. • Être support N3 des ME en cas de bug ou anomalie sur ces solutions • Mettre à disposition des métiers les outils d’exploitation • Assurer les installations et les montées de version des solutions Promtail, Loki, Grafana , Instana • S’assurer du bon paramétrage des solutions d’observabilité et les adapter aux exigences du client • Être force de proposition sur l’architecture des solutions (robustesse/ résilience) et leur optimisation en performance • Préparer et suivre avec les équipes projets & de production, les mises en des dashboard / rapport / supervisons. • Rédiger et maintenir les documentations techniques (spec, scénarios de test/ bench, etc) et d’exploitation des solutions • Assurer la relation avec le supports externe IBM sur ces produits (Open et IBM) • Réalisation de bench et communication des résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service TTIS avec des cas d’usage à destination des fabrications • Fiabilité & Disponibilité : Assurer la haute disponibilité des solutions et mettre en place des stratégies de reprise après sinistre (PRA - PUPA) • Performance & Optimisation : Analyser et améliorer les performances des solutions en partenariat avec nos équipes métiers. • Automatisation : Concevoir, maintenir et déployer des solutions d’automatisation pour le provisioning, la mise à jour et la gestion des solutions. • Sécurité & Conformité : Mettre en œuvre les meilleures pratiques de sécurité pour la protection des données et assurer la conformité avec les réglementations en vigueur. • Observabilité : Développer des outils et des tableaux de bord pour surveiller la santé des solutions et prévenir les incidents. • Collaboration DevOPs : Travailler avec les équipes techniques et métiers pour améliorer les processus CI/CD et garantir la fluidité des déploiements. • Gestion des incidents : Diagnostiquer et résoudre rapidement les problèmes liés aux solutions d’observabilités pour minimiser l’impact sur nos clients et utilisateurs. RÉSULTATS ATTENDUS Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet Défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continue. • Être support des ME en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers entre la DT et les métiers. • Affirmer et défendre les patterns d’architecture choisi par la DT TTIS. • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations d’optimisation des solutions et de leur config. • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein du pôle AST et des équipes projets. • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage COMPETENCES ATTENDUES Compétences et expériences nécessaires • Excellente maitrise de Grafana , Prometheus, Loki , promtail - Administration avancée et Tuning • Maitrise de l’optimisation de requêtes SQL et la gestion des index • Maitrise des architectures de haute disponibilité • Systèmes Linux, RedHat & Réseaux • Maîtrise et expérience des technologie liées aux architectures de conteneurisation (Kubernetes / Docker / ArgoCD / Harbor / Istio / CI/CD – GIT / Mirantis …) • Gatling, K6, Loadrunner, SOASTA Cloud Test, Jmeter, etc. • Maîtrise du fonctionnement d'un système réseau sous Linux. • Maîtrise des architectures réseaux distribuées et résilientes • Méthodologies agile / Sprint • Experience Performance Testing & QA • Capacité en vulgarisation des technologies cloud • Connaissance générale de l’architecture applicative • Bonne compréhension des concepts DevOps et des pipelines CI/CD • Compétences en scripting (Python ,Bash,Yaml …) pour l’automatisation des tâches. • Anglais Souhaitées : • Expériences bancaires et/ou moyens de paiements , ou grand groupe. • Expérience de l’écosystème et de l’organisation • Connaissance du domaine fonctionnel de la monétique et des paiements • Connaissance des procédures liées à la gestion des incidents, problèmes et changements Compétences comportementales • Dynamisme, proactivité, autonomie • Leadership naturel • Ecoute, dialogue et communication avec les partenaires internes / externes • Appétence à l’amélioration continue • Esprit de service et pédagogue • Charisme avec aisance relationnelle et rédactionnelle • Force de proposition • Curiosité / appétence à découvrir et intégrer de nouveaux concepts, nouvelles technologies • Plus de 10 ans d’expérience en technologies Cloud. NIVEAUX REQUIS POUR LA PRESTATION • Niv 3 : Expérience avérée dans l’administration des solutions d’observabilité, dans les outils d’automatisation cloud.
Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Mission freelance
AWS Cloud Engineer
Responsable de la mise en œuvre de solutions dans un ou plusieurs des domaines techniques suivants : architecture d’infrastructure, technologies de conteneurs, calcul sans serveur, bases de données, connectivité réseau, sécurité et conformité. Gestion de la maintenance des environnements d’infrastructure avec des processus standardisés et des outils automatisés. Rédaction de documentation détaillée et de conception de bas niveau, avec coordination avec les autres membres de l’équipe. Responsabilité et maintenance de la plateforme de supervision.
Mission freelance
Ingénieur Production Kubernetes / Airflow / Spark – Secteur Bancaire
Nous recherchons un Ingénieur Production expérimenté pour rejoindre une équipe projet dans le secteur bancaire. Vous interviendrez sur des environnements critiques à forte volumétrie de données. Compétences obligatoires : Apache Spark Apache Airflow CI/CD Kubernetes OpenShift Python Anglais courant Profil recherché : +7 ans d’expérience en environnement de production Bonne capacité à travailler dans un contexte exigeant et international Esprit collaboratif et sens de la communication Conditions de mission : Lieu : Paris (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)
Mission freelance
Data Engineer
Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..
Mission freelance
Senior Devops
Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …
Offre d'emploi
Consultant Technique Asset Management – Risques de Marché & Développement H/F
Contexte Dans le cadre du renforcement d’une équipe dédiée à la gestion des risques de marché et à la modélisation des flux en asset management, nous recherchons un consultant technique confirmé capable d’intervenir sur des projets à forte valeur ajoutée mêlant mathématiques financières , data , et développement full stack . Vos missions Participer à la modélisation des flux financiers et des métriques de risque (Volatilité, VaR, Stress Tests…). Exploiter les données métiers en asset management pour construire des outils d’analyse et de pilotage. Concevoir et maintenir des bases de données SQL Server optimisées pour la performance. Développer des API Rest robustes et sécurisées pour l’interfaçage des systèmes. Contribuer au développement d’applications front-end et back-end (Angular, MVC, Winform). Intégrer les pratiques DevOps et Git dans les cycles de développement et de déploiement.
Mission freelance
Data Scientist
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.
Mission freelance
Consultant( H/F) Senior Fullstack Développeur Python/TypeScript
Dans le cadre d’un projet stratégique pour un acteur majeur du secteur du retail de luxe, nous recherchons un Développeur Senior Full Stack afin de renforcer une équipe existante composée de deux développeurs. La mission porte sur la conception et le développement de plateformes web custom, en assurant la qualité, la performance et la maintenabilité du code. Le consultant participera activement aux choix techniques, au développement back-end et front-end, ainsi qu’aux échanges réguliers avec les équipes internes et le client. La mission s’inscrit dans un contexte international et exige rigueur, autonomie et une bonne capacité de communication.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Python
Data scientist
Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres