Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris
Ce qu’il faut savoir sur Python
Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.
Mission freelance
Administrateur Système Linux
Nous recherchons un Administrateur Système pour assurer le maintien en condition opérationnelle des infrastructures et des outils utilisés dans un environnement de cybersécurité. L’environnement repose sur plusieurs serveurs Linux (principalement Red Hat) hébergeant diverses applications open source, internes ou issues d’éditeurs externes. Les principales technologies utilisées sont Docker, Nginx, Python et Zabbix pour la supervision. La mission inclut également un accompagnement des équipes dans les projets d’automatisation via le développement de scripts. Objectifs et livrables Développement de scripts d’automatisation Mise en place et optimisation du monitoring Maintien en condition opérationnelle (MCO) des infrastructures
Mission freelance
Data Scientist – Projet Contracts AI
En tant que Data Scientist, vous intégrerez l’équipe projet IA d'un de nos client et participerez aux activités suivantes : Mettre en œuvre la numérisation et la structuration du portefeuille de traités (traités et polices). Développer des analyses de wording et des analyses de tendances à partir des données contractuelles. Créer des jumeaux numériques alignés avec le modèle de données établi. Mettre en place des contrôles qualité et validation pour assurer l’intégrité des données. Produire une documentation technique complète pour l’intégration des données dans les modèles analytiques. Travailler en mode agile, avec des livrables versionnés sous GitLab (gitflow / mlflow).
Offre d'emploi
Consultant Cloud Terraform Python devsecops
Missions principales Piloter la conception, définir et mettre en œuvre l’évolution et l’exploitation des plateformes Cloud AWS/OVHcloud de l’entreprise afin d’assurer disponibilité, sécurité, performance et scalabilité des services. Garantir une gouvernance efficace des environnements Cloud (IaaS, PaaS, SaaS) tout en accompagnant les équipes produit et développement dans leurs besoins d’infrastructure. Mettre en place une veille active pour identifier et intégrer les outils les plus adaptés et les bonnes pratiques de sécurité.
Mission freelance
Python – Développement de la pipeline CI/CD - Orleans ou Paris
Python – Développement de la pipeline CI/CD - Orleans ou Paris Objectif : Concevoir et coder une pipeline CI/CD en Python, entièrement architecturée. Compétences requises : Expertise technique avancée en Python. Maîtrise des algorithmes dynamiques et des structures de données. Capacité à structurer et automatiser des workflows complexes. Contexte : Remplacement ou évolution d’une solution existante en Groovy Python – Développement de la pipeline CI/CD - Orleans ou Paris Concevoir et coder une pipeline CI/CD en Python, entièrement architecturée.
Offre d'emploi
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .
Mission freelance
Ingénieur IA & Sécurité
CONTEXTE Métiers Fonctions : ML ops, Ingénieur Spécialités technologiques : Intelligence artificielle,AI,Monitoring,IA generative, Open Source Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique. L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA. Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA. MISSIONS Responsabilités principales 1. Évaluation et tests de solutions de garde-fous IA - Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres). - Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration. - Assurer le monitoring des performances et de la gestion mémoire des modèles testés. 2. Intégration et industrialisation dans les environnements IA - Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP). - Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance. - Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI. - Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO). 3. Partage de connaissances et support transverse - Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA. - Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs. - Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs. - Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité. Livrables attendus - Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse. - Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité. - Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG. Documents de partage de connaissances : ateliers, documentation interne et publications techniques Expertise souhaitée - Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données. - Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP). - Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques. - Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA. - Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001). -Rigueur scientifique et approche expérimentale des problématiques IA. - Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité. - Excellente communication écrite et orale, en anglais et en français. - Autonomie, esprit analytique et goût pour l’innovation. Profil recherché - Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative. - Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques. - Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA. - Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
Mission freelance
Data analyst
Missions Clés • Concevoir et maintenir des tableaux de bords dans le respect des règles de bonnes pratiques / de Storytelling • Analyser et modéliser des données complexes afin d’identifier des tendances, opportunités ou risques, et proposer des solutions concrètes. • Développement et automatisation des rapports (tableaux de bord, analyses ad-hoc) pour faciliter la prise de décision. • Réaliser des études en croisant données internes et sources externes (INSEE, open data, etc.) pour éclairer des enjeux métiers. • Collaborer avec les équipes techniques pour structurer et enrichir les jeux de données. Compétences Techniques • SQL avancé (requêtes, jointures, optimisation). • Analyse statistique (Python/Pandas, R). • Visualisation (Power BI, Tableau). • Connaissance des bases de données (e.g. Snowflake, SQL Server ou Oracle) • Collecte et traitement de données externes (API, open data). Savoir- être • Esprit analytique et capacité à synthétiser des informations variées. • Rigueur dans la manipulation de données hétérogènes. • Communication et remontée d'informations • Dynamisme et Sens du service
Mission freelance
Tech Lead FULLSTACK Sur Paris
Nous recherchons, pour l’un de nos clients, un Tech Lead expérimenté afin de renforcer une équipe technique engagée sur un projet stratégique d’envergure. Cette mission freelance s’inscrit dans une perspective d’embauche en CDI garantie après un an de collaboration. En tant que Tech Lead, vous rejoindrez une équipe technique expérimentée et participerez activement à la conception, au développement et à l’évolution d’applications critiques pour l’entreprise. Vous serez également le référent technique de l’équipe, garantissant la qualité, la performance et la cohérence des développements. Vos missions principales : Encadrer techniquement l’équipe de développement et accompagner la montée en compétence des développeurs Concevoir, développer et maintenir des API backend performantes avec Python / FastAPI Participer à la création et à l’évolution d’interfaces frontend en Angular 14 Contribuer à la mise en place d’architectures cloud sur Azure Garantir la performance, la sécurité et la scalabilité des applications Rédiger une documentation technique claire et structurée Participer aux revues de code et à l’amélioration continue du processus de développement Collaborer étroitement avec les équipes produit pour traduire les besoins fonctionnels en solutions techniques Assurer la maintenance et le support technique sur les fonctionnalités existantes
Mission freelance
Data Scientist sénior traitement du signal acoustique
Dans le cadre d'une création de poste chez l'un de nos clients grand compte dans l'industrie, nous recherchons un(e) data scientist sénior ayant de l'expérience sur le traitement de signal acoustique. Notre client souhaite moderniser ses pratiques dans le cadre de ses opérations de maintenance de son matériel. Vous aurez comme objectif : Etude du besoin, analyse du système et compréhension des données Rédaction de MEMO retraçant les besoins, l'état de l'art, l'approche utilisée, les performances... Echange avec les métiers pour cadrer le besoin, comprendre le métier, les systèmes... Apporter la vision data science pour permettre aux métiers de comprendre la valeur de la donnée Analyse, mise au point, visualisations et validation de la pertinence des données d'aide à la maintenance issues des équipements embarqués et débarqués Définition et implémentation de modèles statistiques. Simulation des résultats Définition et implémentation de modèles de Machine Learning. Simulation des résultats Rédaction des spécifications fonctionnelles détaillées (code source des modèles et règles de pronostics) Définition et implémentation de réseau neuronaux. Simulation des résultats Définition et implémentation de traitement d'image et acoustique. Simulation des résultats Validation et qualification des données issues des équipements de diagnostics Interface avec les équipes de maitrise d'œuvre pour l'industrialisation des algorithmes Organisation et conduite des réunions dont il a la charge sous le pilotage du chef de projet Supports de présentation destinés à la communication interne sur l'avancement des projets; tenue des tableaux de bord Rédaction des comptes rendus des réunions auxquelles vous participez
Offre d'emploi
Ingénieur Linux / Expert Puppet (H/F)
Nous recherchons, pour un grand groupe du secteur bancaire, un ingénieur système Linux expert Puppet Vous intégrerez l’équipe Automatisation, en charge des missions critiques et à forte valeur ajoutée sur les environnements d’exploitation L’objectif : renforcer la cellule d’expertise sur la mise en place, le développement et l’optimisation d’une architecture Puppet dans un environnement de production exigeant Vos missions principales : Concevoir, développer et maintenir des modules Puppet en Ruby Mettre en place, documenter et faire évoluer l’architecture Puppet Automatiser et industrialiser les déploiements sur les environnements Linux Participer à la résolution d’incidents complexes et à la gestion du cycle de vie des systèmes Collaborer avec les équipes DevOps et infrastructure pour assurer la cohérence globale de la plateforme Environnement technique : Linux (RedHat / CentOS / Rocky Linux) Puppet (infrastructure globale, modules Ruby) Git / GitHub CI/CD : Jenkins, Terraform, Ansible Scripting : Bash, Python Méthodologie Agile / SAFE
Mission freelance
DBA Snowflake
Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.
Offre d'emploi
Consultant SecOps H/F
Dans le cadre du renforcement de l’équipe SSI, nous recherchons un consultant SecOps polyvalent et autonome pour piloter le traitement des vulnérabilités sur un parc de 400 machines Windows et Linux/Unix. Vous interviendrez sur l’installation et la configuration d’outils comme Tenable Nessus, l’analyse des résultats de scans (Outpost24, Tenable SC), la priorisation des CVEs, le patch management et la mise en œuvre de plans d’actions. Vous serez également en charge du suivi des recommandations issues des audits et pentests, du monitoring, de la supervision et du reporting via des outils comme Redmine et Splunk.
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Offre d'emploi
Développeur·se Backend Python – InsurTech Innovante – Paris (H/F)
Contexte du poste Rejoignez une entreprise innovante dans le secteur de l'InsurTech, située au cœur de Paris, qui travaille à révolutionner la manière dont les clients souscrivent à des assurances cybersécurité. Actuellement, notre équipe technique est constituée de 20 ingénieurs logiciels répartis en deux pôles majeurs. Vous intégrerez une équipe de 10 développeurs et plus étroitement avec 2 développeurs Python pour concevoir le cœur de notre modèle statistique d’assurance, en développant des solutions backend robustes qui alimentent notre API majeure. Nous recherchons un développeur Python aguerri pour renforcer notre équipe et faire face à notre croissance rapide. Missions Principales missions Développer et optimiser le cœur de notre modèle statistique d'assurance en Python. Collaborer avec notre équipe d’actuaires pour transformer les fonctions mathématiques complexes en solutions logicielles efficaces. Améliorer la performance et la scalabilité de notre API pour déterminer les risques et prix d’assurance en temps réel. Missions annexes Participer activement aux discussions techniques pour améliorer nos processus de développement. Former et accompagner techniquement les développeurs plus juniors sur les bonnes pratiques de code et d'architecture logicielle. Contribuer au perfectionnement de nos systèmes de sécurité et de traitement des données
Mission freelance
Data engineer GCP SPARK PYTHON
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Manager Data / Lead Data
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Python
Data scientist
Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres