Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 228 résultats.
Freelance

Mission freelance
Administrateur de Bases de Données

Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Dynatrace

3 mois
Paris, France
Administrateur de Bases de Données – Cloud & Automatisation Client : Prestataire mondial de technologies et de services Lieu : Nanterre Contrat : 3 mois À propos de l’entreprise Notre client est une organisation internationale de premier plan spécialisée dans les opérations technologiques sécurisées à grande échelle et les solutions numériques pour les environnements de travail. Avec une forte culture d’excellence technique et de fiabilité opérationnelle, l’entreprise soutient des millions d’utilisateurs dans plusieurs régions grâce à des infrastructures robustes, des initiatives de transformation cloud et des systèmes critiques. Elle est reconnue pour son haut niveau d’exigence, son modèle de delivery structuré et sa capacité à gérer des environnements technologiques complexes à l’échelle mondiale. Présentation du rôle L’équipe mondiale d’ingénierie des bases de données recherche un Administrateur de Bases de Données Senior pour accompagner des projets de transformation cloud, des initiatives d’automatisation et l’amélioration continue de la fiabilité des plateformes Oracle et SQL. Ce rôle couvre des activités d’ingénierie, de migration, de support d’incidents et d’optimisation de plateformes, au sein d’une équipe technique collaborative. Le poste exige une solide expertise Oracle, une expérience en migration vers le cloud (AWS), des compétences en automatisation, ainsi que la capacité à soutenir des services critiques de bases de données en zone EMEA. La mission inclut l’ingénierie, la supervision, la résolution d’incidents, la réplication, la sauvegarde, la reprise après sinistre et l’amélioration des frameworks d’automatisation. Une participation aux astreintes sera requise. Responsabilités principales Contribuer aux efforts d’ingénierie au sein d’une équipe DBA globale, en soutien aux initiatives de transition cloud et d’optimisation d’infrastructure. Diriger les activités de migration cloud, d’automatisation, d’ingénierie de réplication et de frameworks d’auto‑réparation. Consolider et améliorer les métriques, dashboards et solutions de supervision. Assurer le support des serveurs Oracle et SQL en EMEA : incidents, changements, migrations et plans de continuité (DRP). Mettre en œuvre et maintenir les solutions de sauvegarde, clonage et restauration (DATAPUMP, RMAN). Travailler sur les technologies de réplication, notamment GoldenGate et DataGuard. Collaborer avec des équipes transverses dans le cadre de projets d’ingénierie internationaux. Participer aux rotations d’astreinte. Compétences & Qualifications requises Minimum 5 ans d’expérience en administration Oracle. Connaissance d’autres technologies telles que SQL Server, MongoDB, PostgreSQL, Hadoop (atout). Solide exposition à AWS et aux migrations cloud. Expérience sur les clusters Oracle RAC. Maîtrise des solutions de sauvegarde, clonage et migration via DATAPUMP et RMAN. Expertise en reprise après sinistre via DataGuard. Solide expérience Linux (Red Hat). Connaissance d’outils de supervision : OEM, Sitescope, Prometheus, Dynatrace. Compétences en automatisation et scripting (Python, Java, PowerShell, Terraform). Expérience CI/CD ou d’orchestration d’automatisation (Ansible, AWX ou équivalent). Maîtrise de l’anglais (lu/parlé/écrit).
Freelance

Mission freelance
OPS Linux, Stockage, Virtualisation

AVALIANCE
Publiée le
Puppet
Python
VMware

3 ans
400-650 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
CDD
CDI
Freelance

Offre d'emploi
Ingénieur sécurité Opérationnelle - Authenth - N2

KEONI CONSULTING
Publiée le
Python
Scripting
Single Sign-on (SSO)

18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Objectif global : Administrer Les solutions d'authentification la direction Sécurité opère des plateformes d’authentification et de Single Sign-On critiques pour l’accès aux applications internes, partenaires et clients.Dans ce cadre, l’équipe Access Control recherche un profil pour assurer le RUN (MCO/MCS) des plateformes SSO et d’authentification, et contribuer à leur évolution dans un environnement banque / assurance fortement réglementé (sécurité, conformité, disponibilité). MISSIONS Le périmètre exact pourra être ajusté, mais couvrira notamment : Plateformes SSO / fédération d’identités (type : SAML, OpenID Connect, OAuth2) Solutions d’annuaire / LDAP / AD / AAD MFA / authentification forte, certificats, gestion des secrets Intégration avec les applications métiers (web, API, mobiles) Une bonne connaissance de Ilex Sign & Go est un vrai plus Missions principales Le profil interviendra au sein de l’équipe Access Control et aura pour missions principales : RUN / MCO Assurer l’exploitation quotidienne des plateformes SSO et d’authentification Superviser les composants (disponibilité, performances, logs, alertes) Gérer les incidents N2/N3 : diagnostic, résolution, escalade, communication Analyser les causes racines (RCA) et proposer des actions préventives Participer aux astreintes / plages étendues le cas échéant Administration & intégration Gérer les configurations SSO et les fédérations d’identités (SAML, OIDC, OAuth2) Intégrer de nouvelles applications au SSO (création de connecteurs, policy, mappings, scopes) Participer aux mises à jour, montées de version, campagnes de patching Contribuer à la sécurisation des parcours d’authentification (MFA, durcissement, etc.) Amélioration continue & documentation Mettre à jour et enrichir la documentation d’exploitation et les procédures Contribuer à l’industrialisation et à l’automatisation des opérations récurrentes (scripts, CI/CD, Ansible, etc.) Participer aux comités techniques et proposer des optimisations (performance, sécurité, résilience) Profil recherché Expérience significative (≥ [3/5] ans) en exploitation / RUN de plateformes d’authentification et SSO en environnement de production critique Maîtrise des protocoles d’authentification et de fédération : SAML 2.0, OAuth2, OpenID Connect Bon niveau sur les environnements Linux (et/ou Windows) et les briques techniques associées : HTTP(S), reverse-proxy, certificats TLS, DNS, firewall, load balancing Connaissance des concepts IAM : gestion des identités, annuaires LDAP/AD, MFA, RBAC/ABAC Pratique des processus ITIL (incident, problème, changement) et des contraintes de production d’un grand compte (banque / finance idéalement) Capacité à diagnostiquer des incidents complexes (analyse de logs, traces HTTP, tokens, etc.) Compétences techniques appréciées Expérience sur une ou plusieurs solutions du marché (ex. : Ilex,ForgeRock, Ping, Keycloak, Azure AD, WSO2, IBM, etc.) Outils d’industrialisation / scripting : Bash, PowerShell, Python, Ansible, CI/CD, etc. Connaissance des contraintes réglementaires et de conformité du secteur bancaire Soft skills Sens du service et de la fiabilité en production Rigueur, capacité de formalisation et de documentation Esprit d’équipe, bonne communication avec les équipes projets, sécurité, infra et support Autonomie, proactivité, capacité à alerter et à proposer des améliorations Modalités de réponse Compétences techniques SSO - Confirmé - Important Fédération d'identité (SAMLv2, WS-Fed...) - Confirmé - Important
Freelance

Mission freelance
Un  IT Quants / DevOps Engineer,

Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab

6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Freelance

Mission freelance
Développeur Summit Senior (C#/.NET – C/C++ – DevOps)

NEXORIS
Publiée le
.NET
C#
C/C++

1 an
550-600 €
Paris, France
Notre client recherche un Développeur Summit Senior (C#/.NET – C/C++ – DevOps) (H/F) dans le cadre d'une longue mission. Au sein du SI de gestion des opérations de marché basé sur Summit du groupe BPCE, la mission consiste à contribuer au développement, à la maintenance et à l’évolution des composants applicatifs et techniques du système gérant les opérations financières du groupe. - Développer et maintenir les interfaces Front-End en C# / .NET - Développer, maintenir et optimiser le Back-End Summit (C/C++, Perl, Python, Oracle SQL) - Assurer la gestion et l’optimisation des données financières au sein du SI de marché - Réaliser les tests techniques et accompagner les tests fonctionnels - Mettre en place l’automatisation des tests et des TNR - Maintenir et optimiser les mécanismes de build C++ (compilation, édition de liens, gestion des dépendances) - Maintenir et améliorer les pipelines DevOps (CI/CD) et automatiser les processus d’intégration, de tests et de déploiement - Assurer le support applicatif de niveau 2 et accompagner les utilisateurs - Participer à l’amélioration continue des méthodes et des solutions techniques - Documenter les développements et assurer le transfert de connaissances au sein de la DSI
Freelance
CDI

Offre d'emploi
Expert Architecture / DevSecOps Azure (H/F)

ONSPARK
Publiée le
Azure
Azure Kubernetes Service (AKS)
Bash

48 mois
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers le renforcement d'équipes DSI, OnSpark intervient auprès d'un organisme de protection sociale parisien sur un programme de modernisation SI cloud-native de grande envergure. Nous recherchons un Expert Architecture / DevSecOps pour intervenir au plus haut niveau technique sur une plateforme microservices Azure. Missions Référent technique de haut niveau, vous intervenez en support des équipes de développement et de la direction DSI : Conception et évolution de l' architecture microservices sur Azure (DDD, CQRS, event-driven, Contract-First/OpenAPI) Définition des standards techniques et des bonnes pratiques DevSecOps TMA de niveau Expert : résolution d'incidents complexes, refactoring, optimisation des performances Sécurisation des pipelines CI/CD, gestion des secrets, scan de vulnérabilités (OWASP) Administration Kubernetes (AKS), Azure Container Apps, Azure API Management Réalisation d'audits techniques et de plans d'amélioration Transfert de compétences vers les équipes internes Veille technologique et contribution à la stratégie technique de la DSI
Freelance

Mission freelance
Commando développeur quant Equity risque de marché

Mon Consultant Indépendant
Publiée le
.NET
Python
SQL

12 mois
520-550 €
Paris, France
En coordination avec le pôle transverse, s’assurer du support des outils? correction de bugs, livraisons de nouvelles versions, implémentation de projet. Listes des livrables / Résultats attendus : -Support de 3 applications en -Support de 2 applications en C# -Support de plusieurs outils en Excel/VBA/Python -Mise en place de nouveaux projets comme : • L’optimisation du chargement des différents risques • Nouveaux outils en python Pour cette mission il est requis : Compétences : Excel VBA, , C#, Access, SQL et python Connaissance des produits dérivés actions. Forte autonomie.
Freelance
CDI

Offre d'emploi
Data scientist Senior

VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python

1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
CDI

Offre d'emploi
Développeur IA H.F

NSI France
Publiée le
Agent IA
IA Générative
Python

Paris, France
Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle au sein de NSI Le/la consultant(e) travaillera pour différents clients de NSI France basé en IDF avec de gros enjeux sur le développement d’agent IA. Vous intervenez notamment pour : Concevoir et développer des agents IA basés sur des LLM Implémenter des mécanismes de raisonnement, planification et prise de décision (agents autonomes / multi-agents) Intégrer des agents IA capables d’interagir avec : APIs et services internes, Bases de données et outils métiers, Pipelines data et systèmes d’information Orchestrer les agents (workflows, chaînes d’actions, mémoire, contexte) Industrialiser et déployer les agents IA en environnement de production Collaborer avec les équipes Data/Produit/Métier pour concevoir des cas d’usage concrets
Freelance
CDI

Offre d'emploi
Analyste fonctionnel LBC / AML

VISIAN
Publiée le
AML (Anti-Money Laundering)
LCB-FT
Python

1 an
40k-45k €
190-450 €
Paris, France
Descriptif du poste Dans le cadre du programme de surveillance LBC (Lutte contre le blanchiment de capitaux – AML Monitoring), la Conformité déploie un outil logiciel sur l'ensemble des sites et lignes métiers de la Banque. Une plateforme interne, axée sur la technologie, conçue pour rationaliser et améliorer l'efficacité ainsi que la couverture des risques liés aux enquêtes LBC, à travers les Régions et Lignes métiers (Correspondent Banking, Global Markets, Global Banking, Securities Services). La solution a également été pensée pour être indépendante des technologies de détection ou de données environnantes. Ce projet requiert des ressources IT spécialisées en LBC afin de construire une plateforme informatique « state of the art » permettant un déploiement itératif des fonctionnalités destinées à la gestion efficace des alertes de blanchiment, intégrant des composants d'intelligence artificielle (ou prêts à accueillir de l'IA).
Freelance

Mission freelance
Expert Infrastructure IT - Supervision Broadcast (Prometheus / Grafana / Centreon)

INSYCO
Publiée le
Bash
Centreon
Cisco

36 mois
500-600 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Expert Infrastructure IT – Supervision Broadcast (Prometheus / Grafana / Centreon) Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/ISB/5255 dans l'objet de votre message La prestation se déroulera au sein de la direction technique d'un grand groupe audiovisuel public, dans l'entité en charge des systèmes permettant l'alimentation en médias et la diffusion de plusieurs chaînes nationales et régionales. Ces systèmes sont opérés par deux centres de diffusion : un centre en activité et un centre en construction. Le client recherche un expert en infrastructure IT pour mettre en place la supervision d'une infrastructure broadcast de supply chain et de diffusion, dont les outils principaux sont Prometheus et Grafana. Architecture et administration de la supervision Conception, déploiement, administration et optimisation des plateformes de supervision : Centreon (supervision infrastructure, métier et historique) Prometheus (collecte métrique temps réel, environnements distribués) Mise en haute disponibilité des briques de supervision critiques Mise en place de sondes et d'indicateurs spécifiques pour la surveillance des flux ST 2110 (latence, perte de paquets, synchronisation PTP) Monitoring des équipements réseau dédiés à la diffusion IP (switchs broadcast, équipements spine/leaf, gateways médias) supportant les flux ST 2110 Développement de sondes personnalisées pour la collecte de métriques spécifiques aux environnements de diffusion IP temps réel Supervision des infrastructures des centres de diffusion (salles serveurs broadcast) Mise en œuvre d'une observabilité complète des chaînes de diffusion, de l'infrastructure jusqu'aux flux médias Supervision orientée service de diffusion, intégrant systèmes, stockage, réseau et applications métiers Collecte métrique et sondes avancées Déploiement, configuration et maintien des exporters Prometheus : node_exporter, windows_exporter, blackbox_exporter exporters applicatifs et exporters personnalisés Développement de sondes spécifiques aux environnements broadcast et salles serveurs : Supervision des salles informatiques (température, alimentation, climatisation, équipements critiques) Supervision des flux TCP/UDP de diffusion Supervision des services médias Mise en place de sondes avancées pour le stockage haute performance : NetApp (baies, volumes, snapshots, quotas, performances IOPS/latence) Isilon / PowerScale (capacité, charge, disponibilité, throughput) Visualisation et pilotage de la performance Intégration avancée de Prometheus avec Grafana Création de dashboards temps réel et historiques pour : Diffusion Stockage média Infrastructures systèmes Flux réseau ST 2110 Performances applicatives Alerting Conception des règles d'alerting via Alertmanager (seuils dynamiques, alertes sur dérives de performance, capacités et risques de saturation) Mise en place de scénarios d'escalade adaptés aux contraintes 24/7 Définition d'alertes critiques sur les anomalies du réseau ST 2110 (pertes de flux, dérives de latence, désynchronisation PTP) Supervision des environnements critiques Systèmes : Linux (RedHat, CentOS, Debian, Ubuntu, Rocky Linux), Windows Server Virtualisation : VMware vSphere / ESXi, vCenter — supervision des clusters, hôtes, VM, performances Stockage et sauvegarde : NetApp, Isilon — suivi des sauvegardes Veeam Réseaux : équipements Cisco, HP, Palo Alto — SAN Brocade — flux IP de diffusion et réseau ST 2110 Services d'infrastructure : Active Directory, DNS, DHCP, PKI et certificats Applications critiques et bases de données Capacity Planning Mise en œuvre du capacity planning basé sur les métriques : Analyse de tendances CPU, RAM, stockage, réseau Prévision des saturations Aide à la décision pour l'évolution des infrastructures de diffusion Sécurité et conformité Durcissement des plateformes de supervision Application contrôlée des correctifs de sécurité Suivi des vulnérabilités et impacts sur les environnements critiques Respect des exigences d'homologation du client Industrialisation et automatisation Standardisation des templates Centreon Industrialisation des sondes et exporters Automatisation via scripts Bash, Python, PowerShell Intégration API (REST/XML/JSON) Support N2/N3 supervision Documentation d'ingénierie Rédaction et maintien : Procédures d'exploitation Schémas d'architecture DAT (Dossiers d'Architecture Technique) Dashboard et référentiels d'alerting Cartographie des flux (IPAM, diffusion) Formalisation des processus de supervision adaptés aux environnements broadcast Rédaction de procédures spécifiques aux opérations de diffusion critique
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
CDI
Freelance

Offre d'emploi
ML Engineer/ MLOPS Engineer

Panda Services
Publiée le
API
BigQuery
CI/CD

12 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique. Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur, nous recherchons un(e) ML Engineer/ MLOPS Engineer Confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Localisation = Paris Projet Data & IA en production 🎯 Vos missions Au cœur de la chaîne de valeur Data & IA, vous interviendrez sur : La conception, le développement et la maintenance de pipelines ML robustes et scalables L’ industrialisation des modèles en collaboration avec les équipes Data Science Le déploiement en production des modèles et l’accompagnement des phases d’A/B testing La mise en place de solutions de monitoring (performance, dérive, qualité des modèles) L’ exposition des modèles via des API REST L’optimisation du stockage, de la circulation et de la gouvernance des données Le développement et la maintenance des workflows CI/CD La garantie de la stabilité, sécurité et scalabilité des environnements La collaboration étroite avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Vous évoluerez dans un stack moderne orienté cloud : Langages : Python, SQL Cloud & Data : Google Cloud Platform (GCP), Vertex AI, BigQuery, Cloud Run Orchestration & APIs : Airflow, FastAPI, Flask CI/CD & Infra : GitLab CI/CD, Terraform Machine Learning : TensorFlow, Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur Google Cloud Platform (GCP) Bonnes connaissances en MLOps, industrialisation et Infrastructure as Code Capacité à interagir avec des interlocuteurs techniques et métiers
Freelance
CDI

Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform

Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
CDI
Freelance

Offre d'emploi
Data Engineer Snowflake Sénior (H/F)

Panda Services
Publiée le
Apache Airflow
Azure
CI/CD

6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

228 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous