Find your next tech and IT Job or contract Python
What you need to know about Python
Python is a powerful and easy-to-learn programming language, widely used in data science, web development, and automation. Its extensive libraries and clear syntax make it a favorite among developers.
Contractor job
QA PYTHON ANGLAIS - tests end to end
Objectif : Garantir la fiabilité et la qualité des nouvelles fonctionnalités ainsi que des évolutions produits par la mise en œuvre de tests fonctionnels et d’intégration. Responsabilités principales : Concevoir, exécuter et documenter les tests fonctionnels et d’intégration afin de valider le bon fonctionnement des produits. Analyser les besoins et détecter les anomalies ; assurer un suivi détaillé, efficace et réactif des défauts identifiés. Développer des scripts et outils de test en Python pour automatiser et optimiser les campagnes de tests.
Job Vacancy
Consultant Analyste Quantitatif - Modèles de Risque de Crédit
Descriptif du poste Dans le cadre de ses activités, l'équipe Model Performance – Methods réalise des analyses quantitatives sur les modèles de risque de crédit afin de soutenir les opérations de titrisation lors des processus de due diligence. L'objectif est de fournir aux investisseurs et aux collaborateurs des informations sur les modèles de risque de crédit, notamment ceux concernant la probabilité de défaut et la perte en cas de défaut (LGD). La mission vise à renforcer l'équipe dans la production de ces analyses, essentielle pour gérer la hausse de la charge de travail liée à l'intensification de l'activité, à la mise en œuvre de nouveaux modèles et à la complexité croissante des demandes des investisseurs.
Contractor job
Lead Data Engineer (Azure/Snowflake)
Dans le cadre de la structuration de son pôle Data, un grand groupe international lance la création d’un poste de Lead Data Engineer . Vous jouerez un rôle central dans l’encadrement de l’équipe Data Engineering (5 à 6 personnes) et dans la mise en place des bonnes pratiques de développement, d’industrialisation et de gouvernance sur un socle technologique Azure / Snowflake / dbt . Missions : Leadership & coordination technique Encadrer et animer une équipe de 5 à 6 Data Engineers. Garantir la qualité, la cohérence et la maintenabilité des développements (dbt, Python, Snowflake). Mettre en place des standards de développement, de revue de code et d’automatisation. Servir de relais technique entre le Data Architect, les Data Engineers et les équipes projet. Challenger les choix techniques et contribuer à la roadmap Data. Conception & industrialisation Piloter la migration des flux Informatica vers la nouvelle stack Snowflake / Azure Data Factory . Concevoir et optimiser les pipelines de données (ingestion, transformation, exposition). Garantir l’industrialisation via Terraform , Azure DevOps , PowerShell et CI/CD pipelines . Assurer la sécurité , la supervision et le FinOps des environnements Data. Architecture & gouvernance Participer à la modélisation et à la mise en place du modèle d’entreprise (EDM) et du Data Warehouse (3NF, étoile). Superviser la qualité, la traçabilité et la conformité des données (Data Quality, GDPR). Contribuer à la documentation et à la standardisation des pratiques.
Contractor job
Ingénieur IA & Sécurité
CONTEXTE Métiers Fonctions : ML ops, Ingénieur Spécialités technologiques : Intelligence artificielle,AI,Monitoring,IA generative, Open Source Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique. L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA. Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA. MISSIONS Responsabilités principales 1. Évaluation et tests de solutions de garde-fous IA - Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres). - Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration. - Assurer le monitoring des performances et de la gestion mémoire des modèles testés. 2. Intégration et industrialisation dans les environnements IA - Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP). - Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance. - Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI. - Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO). 3. Partage de connaissances et support transverse - Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA. - Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs. - Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs. - Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité. Livrables attendus - Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse. - Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité. - Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG. Documents de partage de connaissances : ateliers, documentation interne et publications techniques Expertise souhaitée - Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données. - Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP). - Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques. - Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA. - Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001). -Rigueur scientifique et approche expérimentale des problématiques IA. - Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité. - Excellente communication écrite et orale, en anglais et en français. - Autonomie, esprit analytique et goût pour l’innovation. Profil recherché - Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative. - Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques. - Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA. - Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
Contractor job
Data Scientist Python
(Expérience du domaine de l'énergie obligatoire) Profil capable de s’adapter à l’environnement technique du département SCC et aux pratiques de l’équipe qu’il va rejoindre • Capacité de travailler de manière autonome • Disposant d’un bon sens de l’organisation et de la rigueur • Capacité de synthétiser ses travaux pour communiquer efficacement à ses commanditaires Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données • Conception et développement de traitements de données • Réalisation d’études statistiques • Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord • Développement d’outils de visualisation de données pour faciliter les analyses • Documentation des traitements en vue d’une industrialisation Mise en production des traitements de données • Suivi de l'industrialisation, maintien des traitements en production • Participation aux cérémonies agiles de l’équipe • Diffusion et vulgarisation des résultats d’étude L’environnement technique du projet est le suivant : • Python • R • PostgreSQL • Teradata • Hadoop • Gitlab CI • Ansible • Jira / Confluence / Bitbucket • Git Compétences attendues sur le profil : o Maîtrise de Python et de ses librairies pour le traitement et l'analyse de données (pandas, scikit-learn, TensorFlow/PyTorch) o Maitrise des notions d’électricité (puissance/énergie) et notions sur le réseau électrique o Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata. o Maîtrise des outils de versioning et d'intégration continue, notamment Git et Gitlab CI/CD. o Familiarité avec Spark (PySpark ou Scala) pour le traitement de grandes volumétries de données o Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes. o Capacités à communiquer efficacement et avec pédagogie o Bonnes compétences rédactionnelles o Connaissance dans la rédaction de documents de cadrage du projet o Connaissance approfondie des métiers autour des chaînes communicantes o Expérience dans le recueil de besoins et l’animation d’ateliers métiers o Capacité de synthèse et de restitution d’informations o Capacité à animer des groupes de travail autour des organisations et des processus métiers. o Expérience avérée dans un environnement Agile à l’échelle o Est bon communicant
Job Vacancy
Quant FO Equity (3 ans et plus)
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Projet de calibration de la volatilité locale, de la corrélation locale • Marquage de l'asymétrie de corrélation et calcul de ses impacts • Révision de l'algorithme d'asymétrie de corrélation pour les options multi-actifs afin de s'adapter au marché • Création d'un service API pour l'étalonnage LVLC pour les options multi-actifs (Autocall, Dispersion,) • Calibrage de la volatilité entropique et vérification gratuite de l'arbitrage • Correction des prix TRS et des calibrations Repos adaptées aux différentes régions, optimisant ainsi l'efficacité du trading desk • Intégration d'un nouveau tarificateur dans le système pour améliorer la précision des prix multidevises et résoudre les problèmes • Construction de conventions de devises et de références de courbes d'actualisation avec TRO et Swappers • Amélioration du calcul du système P&L : Epsilon, VegaSabr • Calcul des contributions des actions pour les indices propriétaires • Contributions calculées pour la valorisation des indices Propriertary
Contractor job
Expert Cloud Security – Azure (H/F) - Paris
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Expert Cloud Security – Azure (H/F) - Paris Objectif : Mettre en place des contrôles de sécurité et de gouvernance dans le cloud Azure pour assurer conformité et sécurité des ressources. Livrables clés : Implémentation de règles de contrôle via Azure Policy Contrôles et monitoring de sécurité avec Prisma Cloud (CSPM) Analyse et cadrage de la sécurité des services Azure Responsabilités principales : Planification : définition du plan projet, coordination des étapes, ressources et délais Élaboration des contrôles : conception, tests, validation et déploiement des règles de sécurité Mise en place de détection et alertes : suivi des ressources non conformes Reporting et suivi : mise en place d’indicateurs de performance et reporting régulier Communication : faciliter les échanges entre toutes les parties prenantes
Job Vacancy
DATA ANALYST CONFIRMÉ (H/F)
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Job Vacancy
Développeur python sénior (H/F)
Ta mission ● Développer et faire évoluer leur application backend en Python/Django ● Collaborer à la conception technique du produit ● Accompagner un·e développeur·se backend (revues de code, pair programming) ● Gérer la base de données PostgreSQL (modèles, migrations, requêtes) ● Contribuer à la mise en place du CI/CD via Docker et Gitlab CI ● Travailler dans un environnement Kubernetes et Docker ● Comprendre le fonctionnement de microservices en Go et frontend en TypeScript (optionnel, mais un bonus) Stack technique ● Python + bases PostgreSQL ● ElasticSearch ● Linux (serveurs Debian, dev en local) ● Docker ● Kubernetes ● Écosystème Go (microservices) & TypeScript (frontend)
Job Vacancy
Data Scientist
En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.
Contractor job
Data Scientist Python (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Scientist Python (H/F) à Lyon, France. Contexte : Description de l'équipe Concevoir et réaliser des audits de performance d’exploitation et proposer un programme d’amélioration continue Développer des processus d’analyse automatique des performances Développer des outils de maintenance préventive pour les équipements Anticiper l’impact des évolutions des systèmes et de leur environnement Equipe en charge de l'amélioration continue et de la valorisations des données afin d'améliorer leurs exploitations. Les missions attendues par le Data Scientist Python (H/F) : Activité principale Analyser le fonctionnement Modéliser le comportement nominal Construire des outils de supervision temps réel du fonctionnement et de détection automatique d’un état d’anomalie Encadrement de Data Scientist junior Revue de code / Evaluation des orientations techniques Activité secondaire Industrialiser les prototypes dans les outils de supervision Veille technologique sur les outils utilisés au sein du projet Partage et formation des pairs Aide à la conception de solutions permettant le traitement de volumes de données suffisamment sécurisés Stack technique de l'équipe Python 3 / Python Dash PySpark SQL / Postgresql Tableau software / PowerBI
Job Vacancy
Data engineer MSBI Python Azure (7-8 ans minimum)
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Contractor job
Ingénieur DevOps Cloud Azure / PowerShell avec un mindset IA
Nous recherchons un Ingénieur DevOps Cloud Azure / PowerShell disposant d’une solide compréhension des environnements Cloud et d’une sensibilité aux technologies d’intelligence artificielle. Le poste est rattaché à l’équipe Infrastructure et constitue un rôle central de coordination entre les équipes Architecture , DevOps et IA . Missions principales Dans le cadre de vos fonctions, vous aurez pour principales responsabilités de : Concevoir, mettre en œuvre et maintenir les environnements Cloud Azure (IaaS / PaaS). Développer et automatiser les déploiements, configurations et opérations via PowerShell (et idéalement Terraform). Collaborer avec l’équipe IA pour l’intégration et l’industrialisation des modèles Python dans les pipelines DevOps. Travailler en étroite coordination avec les architectes afin d’assurer la cohérence, la performance et la sécurité des solutions techniques. Contribuer à la supervision, à la maintenance et à l’amélioration continue des plateformes Cloud
Job Vacancy
MLOps Engineer
En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...
Contractor job
Développeur Front Angular / Back Python / Linux - Paris 75 - ASAP
Développeur Front Angular / Back Python / Linux - Paris 75 - ASAP 📍 Lieu : Paris 75 ⏳ Durée : mission longue de plusieurs années à temps plein - Contrat de 12 mois, renouvelable. 💰 TJM : 380 € HT 💼 Statut : Freelance uniquement (pas de portage salarial et pas de sous-traitance) 🎯 Contexte Mon client (secteur public) recherche un Développeur Angular confirmé , avec une ouverture back-end Python, pour un projet à fort impact sociétal . 👉 L’objectif : développer un outil numérique d’aide aux conseillers afin d’améliorer la réactivité et la qualité des réponses apportées aux entreprises. L’application permettra également de centraliser et enrichir la documentation RH et, à terme, d’être mise à disposition des TPE/PME. #Freelance #Angular #Python #Docker #Jenkins #Linux
Contractor job
Développement .Net/Python
🚀 Un client recherche un Freelance .NET/Python ! 📍 Localisation : IDF 📅 Démarrage : ASAP 🔹 Responsabilités principales - Traiter de larges volumes de données pour la recherche quantitative & le suivi des stratégies de trading - Développer et maintenir des outils trading (frontend, backend, DevOps, infra & réseaux) - Contribuer au développement d’une plateforme SaaS dédiée aux produits structurés - Support & optimisation des outils et systèmes existants 🔹 Profil recherché - Min. 5 ans d’expérience sur des missions similaires - Très bonne maîtrise de .NET & bases de données relationnelles - Maitrise de Python - À l’aise en environnement Linux/Unix - Autonomie, rigueur & capacité à prioriser - Français & anglais opérationnels 🔹 Stack technique : Git, Azure DevOps, Visual Studio 2022, .NET8, WPF, SQL Server, PostgreSQL, Python
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
Contract roles and jobs for Python
Data Scientist
The Data Scientist uses Python to develop machine learning models and analyze large amounts of data.
Explore contract role and jobs for Data Scientist .
Find out the jobsData Analyst
The Data Analyst uses Python to manipulate and visualize complex data sets to extract strategic insights.
Explore contract role and jobs for Data Analyst .
Find out the jobs