Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 227 résultats.
Freelance

Mission freelance
Expert Linux ET Stockage

AVALIANCE
Publiée le
Administration linux
Linux
Python

3 ans
400-700 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Freelance

Mission freelance
Generative AI Architect

Phaidon London- Glocomms
Publiée le
Agent IA
AI
AWS Cloud

6 mois
400-550 €
Paris, France
Définir et mettre en œuvre l'architecture de notre plateforme d'IA générative/agentique. Collaborer avec les ingénieurs IA et les stimuler intellectuellement pour industrialiser l'environnement d'IA agentique. Élaborer une documentation d'architecture détaillée et des schémas pour les cas d'utilisation de la plateforme. Former et développer les compétences de l'équipe d'architecture informatique (9 architectes) sur les technologies, les méthodologies et les évolutions de l'écosystème de l'IA générative. Animer des ateliers (Design Thinking, Cartographie d'impact, Analyse de la proposition de valeur) avec les parties prenantes des services informatiques, métiers, risques et conformité. Communiquer clairement des sujets techniques complexes à un public non technique. Produire une documentation de haute qualité et travailler de manière autonome dans un environnement matriciel.
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
CDI
Freelance

Offre d'emploi
Ingénieur DevOps IA

VISIAN
Publiée le
AI
Amazon SageMaker
Ansible

1 an
Paris, France
Missions principales Mise en œuvre opérationnelle et technique des produits IA : Apporter une expertise technique et participer à la conception des architectures IA Industrialiser et automatiser le déploiement de plateforme agentique dans un environnement on premise ou cloud Participer à la mise en place de services managés en intégrant les contraintes de sécurité, compliance et gouvernance Documenter les offres et services et assurer leur mise en production Démontrer la valeur des offres d'IA générative auprès des entités/clients internes Réaliser des présentations et démos pour promouvoir les offres et services Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap Prendre en charge les éléments de la backlog formalisée par le Product Owner Assurer le lead technique sur un produit au sein de la squad Participer à l'ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Compétences métiers requises Expérience en déploiement et manipulation du workload data Maîtrise des stacks IA sur AWS, GCP et/ou on-premise, avec expérience en déploiement de processus MLOps et LLMOps Maîtrise des fondamentaux de conteneurisation et des pratiques CI/CD Expérience dans le développement de projets AI/ML, d'exploitation et d'optimisation de produits IA Connaissance approfondie des meilleures pratiques en matière de sécurité des données et de conformité Environnement technique Cloud et Infrastructure : AWS (EKS, Sagemaker, Bedrock), GCP (GKE, Vertex AI), stack on premise, Kubernetes, Openshift, Docker Développement et Automatisation : Terraform, Python, SQL, Ansible, Jenkins, GitLab CI, Kestra Data et IA : Artifactory (Jfrog), orchestration de workload IA (Dataiku ou MLflow), bases de données vectorielles (Opensearch, RDS, Elastic Search, PG Vector, MongoDB Atlas) Observabilité : Dynatrace, CloudWatch, Prometheus, Grafana, X-Ray (appréciées) Compétences comportementales Excellent relationnel Agilité Esprit d'équipe Force de proposition Rigueur et sens de l’organisation
Freelance

Mission freelance
OPS Linux, Stockage, Virtualisation

AVALIANCE
Publiée le
Administration linux
Linux
Maintien en condition opérationnelle (MCO)

3 ans
400-700 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
Freelance
CDI

Offre d'emploi
Développeur Senior IA

OLYMPP
Publiée le
Agent IA
Azure
Microsoft SQL Server

24 mois
45k-60k €
460-560 €
Paris, France
Merci de respecter les critères de seniorite & Compétences techniques requises Dans le cadre du renforcement de l’intégration de l’intelligence artificielle au sein des processus métiers critiques, et en collaboration avec un acteur majeur du domaine, l’équipe souhaite développer ses capacités sur les sujets liés à l’IA générative et à l’automatisation intelligente. Missions Les principales activités confiées seront : Participer à la définition et au cadrage des solutions à mettre en œuvre Concevoir et développer les solutions techniques Industrialiser et déployer les solutions développées Mettre en place des mécanismes d’évaluation et de monitoring des solutions Rédiger la documentation technique associée
Freelance

Mission freelance
Applied Scientist (IA)

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS

VISIAN
Publiée le
Apache Airflow
API
AWS Cloud

3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
Proxy Product Owner

Hexagone Digitale
Publiée le
.NET
API REST
Java

6 mois
Paris, France
Contexte de la mission Au sein d'une équipe dédiée aux Services Clients Digitaux Épargne Retraite, l'objectif est d'offrir des services performants et intuitifs via des espaces digitaux clients. Ces plateformes couvrent un périmètre stratégique incluant la retraite supplémentaire individuelle et collective, ainsi que l'épargne et la prévoyance individuelle. Le Proxy Product Owner (PPO) jouera un rôle clé dans la concrétisation de cette vision en facilitant la collaboration entre les équipes métiers et techniques. La mission — Proxy Product Owner (PPO) Nous recherchons un profil confirmé de Proxy Product Owner sur le domaine de la retraite supplémentaire individuelle et collective. Le PPO agit comme l'intermédiaire stratégique entre le Product Owner (PO), les parties prenantes métier et l'équipe de développement. Il est le bras droit du PO, le déchargeant des tâches opérationnelles, avec une solide capacité à plonger dans les détails techniques pour fluidifier le processus de livraison, garantir l'alignement des développements avec les objectifs métier et la stabilité des solutions en production. Responsabilités principales • Gestion opérationnelle du Backlog Produit ◦ Assister le Product Owner dans la définition, la priorisation et la gestion du Product Backlog. ◦ Rédiger des User Stories claires, concises et testables, en s'appuyant sur les besoins exprimés par le PO et les équipes métiers. ◦ Affiner continuellement le Backlog pour s'assurer de sa pertinence et de son adéquation avec la vision produit. • Interface et Communication Technique ◦ Servir de point de contact privilégié entre les équipes de développement, le PO et les parties prenantes métiers. ◦ Clarifier les besoins et les spécifications auprès de l'équipe de développement tout au long des sprints, en apportant un éclairage technique approfondi si nécessaire. ◦ Participer activement et animer les rituels Agile (refinement, sprint planning, démos, rétrospectives). • Garant de la Qualité Technique et du Fonctionnement en Production (RUN) ◦ Réaliser la recette fonctionnelle et technique des APIs (tests de bout en bout, vérification des contrats d'interface, performance). ◦ Prendre en charge la gestion du RUN, y compris le diagnostic et la résolution des incidents de niveau 1 et 2. ◦ Effectuer des analyses approfondies des dysfonctionnements. ◦ Contribuer à la mise en place de processus de monitoring et d'alerting pour garantir la disponibilité et la performance des services digitaux. ◦ Participer à la conception et au suivi des campagnes de tests fonctionnels et de recette. ◦ Contribuer à la validation des fonctionnalités développées au regard des critères d'acceptation fonctionnels et techniques. Profil recherché • Méthodologies Agile : Maîtrise des principes et des cérémonies Scrum. • Compétences techniques : ◦ Bonne compréhension des architectures systèmes (APIs REST/SOAP, bases de données, microservices, cloud). ◦ Capacité à lire et comprendre du code (Java, .NET, Python, JavaScript) et à utiliser des outils de débogage. ◦ Expérience des outils de test API (Postman, SoapUI) et de monitoring. ◦ Connaissance des bases de données et capacité à exécuter des requêtes SQL de base. ◦ Capacité à analyser des logs techniques. • Compétences relationnelles : Excellentes capacités d'écoute et de communication, aptitude à interagir avec des interlocuteurs variés (métiers, techniques, PO). Capacité à traduire des problématiques techniques en langage métier et inversement. • Rigueur & Organisation : Souci du détail, rigueur dans la rédaction des spécifications, organisation pour gérer le backlog et les incidents de production. • Esprit d'analyse et de synthèse : Capacité à comprendre des besoins complexes et à les traduire en fonctionnalités claires ou en actions correctives. • Outils : Maîtrise de Jira, Confluence et outils techniques pertinents. • Sensibilité forte à l'exploitation (RUN) : Capacité à anticiper les problématiques de production et à y réagir efficacement. • Qualités clés : Autonome, Facilitateur, Leadership — profil confirmé avec une connaissance du Digital indispensable. Livrables attendus • User Stories • Documentation technique et fonctionnelle • Rapports et analyses (compte-rendu d'analyse d'incidents avec root cause) • Plans de tests
Freelance

Mission freelance
Azure Platform Engineer – Data & Analytics

Codezys
Publiée le
Ansible
Azure
Azure Data Factory

6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Freelance
CDI

Offre d'emploi
Senior Developer Summit – Finance de Marchés (H/F)

SOFTEAM
Publiée le
C#
C/C++
CI/CD

2 mois
Paris, France
Dans le cadre de l’évolution et de la maintenance de son système d’information dédié aux opérations financières, un grand groupement bancaire recherche un Senior Developer Summit . La mission s’inscrit au sein du SI ChROME , plateforme stratégique de gestion des opérations financières utilisée par plusieurs entités du groupe. Ce système couvre l’ensemble du cycle de traitement des opérations financières : de leur intégration dans le système d’information jusqu’à la production des confirmations Back Office, des résultats/reporting (R/L) et des données comptables, en passant par leur valorisation et leurs déclarations auprès des systèmes de place ou internes au groupe. Au sein de l’équipe DSI – EMT Summit , la mission consiste, en complément du support de niveau 2 , à garantir la qualité , l’ évolutivité , la sécurité et la performance du SI ChROME Summit hébergeant ces opérations financières. Le consultant interviendra sur un périmètre couvrant à la fois le développement , la maintenance , l’ industrialisation et le support applicatif . Développement et maintenance applicative Développer et maintenir les interfaces Front-End en C# / .NET Développer, maintenir et optimiser le Back-End Summit pour la gestion des données financières ChROME en utilisant : C / C++ Perl Python Oracle SQL Qualité et tests Réaliser les tests techniques Accompagner les tests fonctionnels Mettre en place l’ automatisation des tests de non-régression (TNR) Industrialisation et DevOps Maintenir et optimiser les mécanismes de compilation, d’édition de liens et de gestion de dépendances d’une solution C++ Maintenir, enrichir et optimiser les pipelines DevOps (CI/CD) Automatiser les processus d’ intégration , de tests et de déploiement Support et amélioration continue Respecter les chiffrages et les délais imposés Assurer le support et l’accompagnement des clients internes Être force de proposition dans l’évolution des projets, des méthodes et des processus Documenter les réalisations et assurer le transfert continu de connaissances au sein de la DSI
CDI

Offre d'emploi
Ingénieur Devops Senior AZURE F/H

ASTRELYA
Publiée le
Ansible
Azure DevOps
Azure Kubernetes Service (AKS)

75008, Paris, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission En tant qu’Ingénieur(e) DevOps Senior spécialisé(e) Azure, vous jouerez un rôle clé dans la conception, l’industrialisation et l’optimisation des plateformes Cloud de nos clients. Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux de modernisation, d’automatisation et de fiabilisation des environnements de production. Concrètement, vous allez : · Concevoir, déployer et maintenir des architectures Cloud Azure robustes, scalables et sécurisées. · Mettre en place et optimiser des pipelines CI/CD (GitLab, GitHub Actions, Azure DevOps…). · Automatiser l’infrastructure via IaC (Terraform, Bicep, Ansible). · Industrialiser les environnements conteneurisés (Docker, Kubernetes / AKS). · Implémenter les bonnes pratiques DevSecOps (sécurité, conformité, scanning, secrets management). · Superviser et améliorer la performance, la résilience et la disponibilité des plateformes. · Accompagner les équipes de développement dans l’adoption des bonnes pratiques Cloud & DevOps. · Participer à la définition des standards d’ingénierie et à la diffusion de la culture Craft & SRE. Votre futur environnement technique · Cloud : Azure (AKS, App Services, Functions, Storage, Key Vault, APIM, Monitor…) · CI/CD : GitLab CI, GitHub Actions, Azure DevOps, Jenkins · Conteneurs : Docker, Kubernetes, Helm · Infrastructure as Code : Terraform, Ansible, Bicep · Sécurité : DevSecOps, scanning, Azure Defender, secrets management · Observabilité : Prometheus, Grafana, Azure Monitor, ELK · Automatisation & scripting : PowerShell, Bash, Python
Freelance

Mission freelance
Administrateur système et Réseaux confirmé (H/F) - 75

MP Advertising
Publiée le
Administration linux
Administration Windows
AWS Cloud

3 mois
Paris, France
Rattaché(e) à la fonction IT / Systèmes d’Information, l’Administrateur Systèmes et Réseaux Confirmé assurera, sous la responsabilité du Manager Systèmes & Réseaux, le bon fonctionnement, la sécurité et l’évolution opérationnelle du système d’information de la société, dans un environnement à forte exigence (secteur financier). L’Administrateur Systèmes et Réseaux sera l’interlocuteur technique pour les collaborateurs de la société et bras droit opérationnel du manager, avec un rôle clé dans l’exécution, la fiabilité et l’amélioration continue de l’infrastructure. Il contribue activement à : - La disponibilité et la performance des systèmes - La qualité de service aux utilisateurs - La mise en oeuvre des standards de cybersécurité - La résilience et la continuité d’activité - La (co)gestion et l’implémentation des projets IT structurants 1. Exploitation & administration des systèmes et réseaux - Encadrer, animer et faire monter en compétence l’équipe systèmes et réseaux. - Administrer et maintenir les infrastructures : • Serveurs (on-premise et cloud) • Réseaux (LAN, WAN, VPN) • Stockage et sauvegarde. - Garantir la disponibilité, la performance et la sécurité des systèmes - Gérer les environnements virtualisés (VMware, Hyper-V) et cloud (AWS, Azure…) - Assurer la supervision quotidienne et le traitement proactif des alertes - Participer à l’automatisation des tâches d’exploitation (scripts, outils). 2. Référent technique & support avancé - Intervenir (helpdesk) en niveau 2/3 sur les incidents complexes et critiques - Diagnostiquer et résoudre les problématiques techniques avancées - Assurer un rôle de référent technique interne pour l’équipe - Contribuer à l’amélioration continue du support, de la documentation, des procédures, et des outils internes - Encadrer les administrateurs juniors (CDI, stagiaire, alternant) dans l’intervention en niveau 1 sur les incidents simples, et participer à leur formation technique (bonnes pratiques, …) 3. Cybersécurité (mise en oeuvre opérationnelle) - Appliquer la politique de sécurité définie par le manager - Déployer et maintenir les outils de sécurité : EDR, firewall, SIEM - Gérer les accès, identités et droits (IAM) - Participer aux audits de sécurité et à la remédiation des vulnérabilités - Contribuer à la détection et à la réponse aux incidents de sécurité - Appliquer les bonnes pratiques (patching, durcissement, segmentation réseau). 4. Résilience & continuité d’activité - Mettre en oeuvre les dispositifs PCA/PRA définis - Assurer : • Les sauvegardes (3-2-1) • Les tests de restauration - Participer aux tests de continuité et de reprise (PRA/PCA) - Documenter précisément : • Les procédures de reprise • Les dépendances critiques - Contribuer à l’optimisation des RTO/RPO 5. Projets IT & évolution du SI - Participer activement aux projets IT : • Migration cloud • Modernisation de l’infrastructure • Automatisation / DevOps • Intégration de nouvelles solutions - Implémenter les choix techniques validés par le manager - Être force de proposition sur : • Les améliorations techniques • Les optimisations de performance et de coûts - Collaborer avec les équipes métiers pour comprendre les besoins 6. Documentation & conformité - Maintenir une documentation technique rigoureuse et à jour : • Schémas d’infrastructure • Plan IP • Procédures d’exploitation • Configurations critiques - Assurer la traçabilité des actions et changements - Appliquer les politiques IT et de sécurité - Contribuer à la préparation des audits (internes et externes) 7. Collaboration avec le Manager Systèmes & Réseaux - Agir en binôme direct du Manager Systèmes & Réseaux - Relayer et appliquer les orientations techniques et stratégiques - Remonter les risques, incidents majeurs et axes d’amélioration - Participer à : • La priorisation des tâches • Les choix techniques (force de proposition) - Assurer la continuité opérationnelle en l’absence du manager (back-up) Intéractions avec: Equipes IT (support et admins) Equipes métiers Prestataires techniques (en coordination avec le manager) Indicateurs de performance (KPI): - Taux de disponibilité des systèmes - Temps de résolution des incidents complexes - Qualité et fiabilité des déploiements techniques - Nombre et typologie des incidents critiques - Respect des procédures et standards de sécurité - Qualité et mise à jour de la documentation - Mise en oeuvre des améliorations recommandées à la suite des tests PRA / PCA - Niveau de proactivité (améliorations proposées / mises en oeuvre)
Freelance
CDI

Offre d'emploi
Expert Cyberdéfense & IA

VISIAN
Publiée le
Agent IA
AWS Cloud
CyberSoc

1 an
40k-70k €
400-700 €
Paris, France
Contexte & Objectif du Poste Dans le cadre de la modernisation du GSOC et de la mise en place d'une plateforme agentique IA, nous recherchons un expert cybersécurité / AWS / IA / développement Python capable de concevoir, développer et opérer les composants essentiels de notre future architecture d'IA de Défense. Vous jouerez un rôle stratégique en développant : • des agents IA opérationnels, • des sous-agents spécialisés, • des pipelines AI/ML robustes, • des intégrations avancées avec Splunk, XSOAR, AWS et nos systèmes internes.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

227 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous