L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 616 résultats.
Mission freelance
Ingénieur Infrastructure – Citrix / VDI – CIA5
Deodis
Publiée le
Azure
Citrix
Virtual Desktop Infrastructure (VDI)
1 an
500 €
Île-de-France, France
Un Ingénieur Infrastructure senior (+10 ans) est recherché pour assurer le maintien en condition opérationnelle, l’évolution et l’optimisation d’infrastructures Citrix et VDI dans un environnement multi-cloud. La mission couvre le déploiement et la configuration de plateformes de virtualisation, l’analyse et la résolution d’incidents, la rédaction de procédures, ainsi que la participation à des projets d’amélioration continue. Le poste implique également de contribuer aux décisions d’architecture, de proposer des axes d’évolution et de veiller au bon niveau de qualité, de disponibilité et de performance des services d’infrastructure.
Mission freelance
Architecte Observabilité / SRE – Dynatrace
CAT-AMANIA
Publiée le
Azure
Dynatrace
Kubernetes
1 an
Centre-Val de Loire, France
Contexte de la mission Un grand groupe du secteur des services financiers met en place une démarche d’observabilité IT et de SRE (Site Reliability Engineering). Dans ce cadre, l’équipe Observabilité IT recherche un(e) expert(e) Dynatrace & SRE pour renforcer son dispositif et accompagner la mise en œuvre de la stratégie d’observabilité sur l’ensemble du SI (production et hors production). Description de la mission Le/la consultant(e) interviendra au sein de l’équipe Observabilité / SRE et aura pour principales responsabilités : Réaliser l’analyse de bout en bout en environnements Production et Hors Production avec Dynatrace (contexte DevOps). Assurer le suivi de la production via Dynatrace (supervision de bout en bout). Participer et assurer un rôle de lead lors de “task force” en cas d’incident ou de dégradation de service. Animer des workshops et sessions de sensibilisation autour de Dynatrace (utilisation, bonnes pratiques, cas d’usage). Assurer un rôle de tech lead sur Dynatrace Managed / Dynatrace Grail et l’infrastructure associée. Piloter et accompagner la migration de Dynatrace Managed vers Dynatrace Grail. Mettre en place et industrialiser les concepts SRE : SLO, automatisation, fiabilité, observabilité, etc. Concevoir et déployer des tableaux de bord métier et IT de bout en bout. Assurer le support de niveau 2 et 3 sur Dynatrace. Livrables attendus Rapports d’analyses en Production et Hors Production. Tableaux de bord métier et IT sous Dynatrace. Définition et suivi des SLO. Comptes rendus de réunions et de comités techniques. Supports de formation / supports de workshops. Suivi de l’activité et des tickets (ex : via Jira ou équivalent). Documentation interne (architecture, procédures, guides d’exploitation, bonnes pratiques).
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
5COM Consulting
Publiée le
Azure
Python
1 an
750 €
Paris, France
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Data engineer
Deodis
Publiée le
Ansible
Apache Airflow
Apache Kafka
1 an
320-330 €
Île-de-France, France
Vous intégrerez l’équipe Data Event Management en charge des offres d’infrastructure de messaging Kafka sur ITCloud OnPremise et IBMCloud/dMZR , avec pour mission de construire, déployer, exploiter et maintenir en conditions opérationnelles les plateformes Kafka du groupe. Vous interviendrez sur des projets structurants incluant la transition vers un nouvel orchestrateur basé sur Python/Airflow/Terraform , l’extension de l’offre Kafka IBMCloud/dMZR avec l’intégration de Lenses , ainsi que la migration du monitoring OnPremise vers une solution hybride Dynatrace + ELK . La prestation s’inscrit dans un cadre ITIL , Agile à l’échelle et Product-Based , au sein d’un environnement moderne mobilisant Kubernetes, Terraform, Git, SQL, Docker, CI/CD GitLab, monitoring (ELK, Dynatrace, Sysdig), sécurité HashiCorp Vault et ITCloud/IBMCloud.
Mission freelance
Architecte / Direction de programme IA- AWS H/F
Cheops Technology
Publiée le
AI
AWS Cloud
Azure
6 mois
530-650 €
Malakoff, Île-de-France
Partenariats & écosystème plateformes •Cartographier l’écosystème et identifier les bons interlocuteurs chez les éditeurs / intégrateurs. •Préparer, conduire et restituer les workshops partenaires (AWS, Microsoft, MuleSoft, Snowflake, etc.). •Évaluer les offres (agents frameA. Partenariats & écosystème plateformes •Cartographier l’écosystème et identifier les bons interlocuteurs chez les éditeurs / intégrateurs. •Préparer, conduire et restituer les workshops partenaires (AWS, Microsoft, MuleSoft, Snowflake, etc.). •Évaluer les offres (agents frameworks, orchestration, outils d’observabilité, sécurité, gouvernance, intégration SI). B. Discovery & use cases Agentic AI (génériques + aéronautique) •Animer des ateliers de discovery (métier, IT, sécurité, data, ops) pour : oDéfinir des use cases transverses (support, IT ops, knowledge assistant, dev productivity, workflow automation, etc.) ; oDéfinir des use cases aéronautiques (ex. maintenance, supply chain, engineering, flight ops, qualité, conformité, MRO, documentation technique). •Formaliser chaque use case : objectifs, périmètre, acteurs, triggers, tâches agentiques, dépendances, données, risques, critères de succès. •Prioriser via une grille valeur/risque/effort (quick wins vs “strategic bets”). C. Recommandations plateformes, architectures, trajectoire •Proposer des patterns d’architecture Agentic AI (RAG, tool-use, multi-agent vs single-agent, event-driven workflows, human-in-the-loop). •Recommander des plateformes / briques (cloud, iPaaS, API management, vector DB, orchestration, MLOps/LLMOps). •Définir la trajectoire : MVP → industrialisation, critères de passage en prod, exigences non fonctionnelles.
Offre d'emploi
Ingénieur Système H/F
KOLABS Group
Publiée le
Active Directory
Azure
Distributed File System (DFS)
6 mois
Paris, France
Pour le compte de notre client du secteur du luxe, nous sommes à la recherche d’un profil Ingénieur Système expérimenté afin de renforcer l’équipe Infrastructure. Vous interviendrez à la fois sur des activités opérationnelles (RUN) et sur des projets structurants liés à l’évolution des environnements systèmes et cloud. La mission se déroulera dans un environnement à forte valeur ajoutée, avec un fort enjeu de fiabilité, de sécurité et d’amélioration continue des infrastructures. Missions 💼 : Assurer le support de niveau 3 sur les incidents liés à l’infrastructure, principalement sur les technologies Microsoft (ADDS, ADCS, RADIUS (NPS), DNS, DFS) et Azure Rédiger et maintenir à jour la documentation technique Participer à la conception et à l’implémentation de nouvelles solutions d’infrastructure Migrer des environnements existants vers Microsoft Azure Automatiser les tâches d’administration système Contribuer à l’amélioration continue des processus et des outils Assurer une veille technologique sur les technologies en place
Mission freelance
Database administrator
Gentis Recruitment SAS
Publiée le
MySQL
Nosql
Oracle
6 mois
Luxembourg
Nous recherchons un(e) Administrateur(trice) de bases de données (DBA) fiable et rigoureux(se) pour garantir l’intégrité, la cohérence et la performance des bases de données qui alimentent notre infrastructure de marché de nouvelle génération dédiée à la distribution de fonds. Évoluant dans un environnement cloud-native et basé sur des microservices, avec des interactions avec des composants blockchain/DLT, ce rôle est essentiel pour assurer la cohérence, la sécurité et la qualité de l’ensemble des données gérées par la plateforme. Le ou la candidat(e) idéal(e) combine une solide expertise technique en administration de bases de données avec de fortes capacités d’analyse et de communication. Il/elle supervisera les modèles de données, garantira la cohérence des données de bout en bout et pilotera les migrations de données clients, en collaboration étroite avec les équipes Produit, Ingénierie, DevOps et Conformité. Responsabilités Gestion des bases de données & excellence opérationnelle Administrer, surveiller et maintenir les bases de données de production, de préproduction et de développement dans un environnement cloud-native. Garantir la cohérence, la consistance et l’intégrité des données à travers les microservices et les flux de données inter-systèmes. Gérer les évolutions de schémas, les mises à niveau, les correctifs et l’optimisation des configurations. Optimiser en continu les performances des bases de données et l’exécution des requêtes pour des charges de travail à haute disponibilité. Gouvernance des modèles de données Maintenir et faire évoluer les modèles de données logiques et physiques de la plateforme en cohérence avec l’architecture produit. Collaborer avec les architectes produit et les ingénieurs afin de garantir la scalabilité et la performance à long terme des modèles de données. Assurer l’application cohérente des conventions de nommage, des définitions de données et des structures relationnelles / NoSQL sur l’ensemble des services. Participer aux revues de conception pour valider les choix de stockage des données et la gestion de leur cycle de vie. Migration et onboarding des données clients Planifier, exécuter et superviser les migrations de données clients, de l’extraction initiale à la transformation, la validation et l’import sécurisé. Concevoir des workflows de migration robustes et des plans de validation pour garantir un onboarding propre et fiable. Développer des outils, scripts et automatisations pour les activités récurrentes de migration de données. Accompagner les clients et les équipes internes sur les questions et incidents liés aux migrations. Qualité des données, conformité & sécurité Mettre en place et superviser des contrôles de qualité des données (intégrité référentielle, détection d’anomalies, règles de rapprochement). Garantir la conformité aux réglementations sur la protection des données (rétention, confidentialité, auditabilité, contrôles d’accès). Collaborer avec les équipes Sécurité et Conformité pour le chiffrement, le masquage et la gestion sécurisée des données. Réaliser régulièrement des tests de sauvegarde, de restauration et de reprise après sinistre pour valider la résilience de l’infrastructure. Collaboration transverse Travailler étroitement avec les Product Owners, Business Analysts et ingénieurs pour comprendre les besoins fonctionnels et techniques liés aux données. Accompagner les développeurs lors des livraisons fonctionnelles (évolutions de schémas, requêtes, contrôles de cohérence). Collaborer avec les équipes DevOps pour intégrer les opérations de bases de données dans les pipelines CI/CD et les frameworks d’infrastructure as code. Apporter une expertise lors des incidents, analyses de causes racines et revues de performance. Compétences clés Expertise solide en bases de données relationnelles (PostgreSQL, MySQL, Oracle…) et/ou NoSQL (MongoDB, CosmosDB, etc.). Très bonne compréhension de la modélisation de données, du design de schémas et des principes de normalisation / dénormalisation. Expérience pratique des migrations de données, outils ETL/ELT et transformations de données structurées. Familiarité avec les services de données cloud-native (Azure SQL) et les bases de données managées. Compréhension des architectures microservices et des patterns de données distribuées. Connaissance des flux de données blockchain/DLT et de la cohérence on-chain / off-chain (fort atout). Maîtrise du SQL, des langages de scripting (Python, Bash…) et de l’optimisation de requêtes. Solides capacités d’analyse et de résolution de problèmes liés aux performances et à la cohérence des données. Sensibilité aux exigences de conformité, de protection des données et d’audit dans des environnements financiers. Expérience requise 4 à 8 ans (ou plus) d’expérience en tant que DBA, Data Engineer ou poste équivalent. Expérience de gestion de bases de données dans des architectures cloud-native et microservices. Expérience avérée en migrations de données et en assurance qualité des données. Une expérience préalable en fintech, services financiers ou secteurs réglementés est un plus. Habitude de travailler avec des équipes transverses et de supporter des environnements de production. Connaissance des pratiques DevOps, de l’automatisation et de l’infrastructure as code appréciée.
Mission freelance
Architecte d’Entreprise (Cloud / IA / GenAI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Azure
GenAI
6 mois
400-600 €
Île-de-France, France
Bonjour, Je suis à la recherche Architecte d’Entreprise (Cloud / IA / GenAI): Missions principales : Apporter un soutien transversal à l’ensemble des activités d’Architecture d’Entreprise du Groupe, notamment dans le cadre : Ø des travaux autour du Blueprint d’architecture, Ø des initiatives et projets liés à l’Intelligence Artificielle (IA) et à la GenAI, Ø des transformations technologiques à grande échelle. Ø Contribuer à l’évolution du Blueprint d’architecture du Groupe. Ø Produire des schémas, modèles, référentiels et guidelines d’architecture. Ø Accompagner les projets de transformation Cloud (AWS / Azure). Ø Apporter un soutien aux projets GenAI : cadrage, architecture technique, intégration, sécurité, gouvernance. Ø Participer à l’identification des cas d’usages IA pertinents pour le Groupe. Ø Produire des livrables synthétiques et structurés (schémas, notes d’architecture, recommandations).
Offre d'emploi
Ingénieur Réseau Sécurité IT
EXMC
Publiée le
AWS Cloud
Azure
Fortinet
6 mois
Luxembourg
Ingénieur Réseau et Sécurité IT Le candidat doit avoir une passion pour la technologie cloud et une expertise avérée dans la conception et la gestion d'infrastructures réseaux sécurisées. Responsabilités : - Concevoir et déployer des architectures réseau robustes et sécurisées sur Azure, ainsi que localement dans nos différentes structures. - Gérer des projets d'installation de nouveaux réseaux LAN, WAN et WIFI, des projets d'évolution et d'optimisation des réseaux, mise en place d'outils de monitoring, mise en place d'un NAC. - Offrir un support technique avec prise en charge des incidents de niveau 2/3 sur les infrastructures réseau (LAN, WAN et WIFI). - Maintenance et supervision des équipements réseau (routeurs, switchs, etc.) et amélioration des outils de monitoring. - Rédaction et mise-à-jour de procédures techniques et mise à jour des schémas d'architecture réseau et sécurité. - Superviser et collaborer avec les fournisseurs pour intégrer les meilleures pratiques d'architecture réseau cloud et local en ligne avec les stratégies technologiques. - Garantir le respect de la sécurité, des performances et d'autres types de conformité. - Fournir des recommandations et des feuilles de route pour les solutions proposées. - Plaider en faveur de l'amélioration des processus et aider à développer des solutions. - Communiquer régulièrement les nouvelles fonctionnalités et les avantages aux parties prenantes. - Fournir un leadership technique à l'équipe IT. Nous offrons : - Un environnement de travail stimulant au sein d'une entreprise en pleine évolution digitale. - La possibilité de travailler sur des projets innovants et d'avoir un impact réel.
Mission freelance
Platform Reliability Engineer SRE & DevOps
Codezys
Publiée le
Azure Data Factory
Azure DevOps Services
Datadog
12 mois
390-500 €
Versailles, Île-de-France
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
Offre d'emploi
Architecte Mainframe - Bordeaux (H/F)
STORM GROUP
Publiée le
CICS (Customer Information Control System)
COBOL
IBM Db2
3 ans
50k-60k €
500-550 €
Bordeaux, Nouvelle-Aquitaine
Missions : • Concevoir les solutions SI, et leurs modalités d’exploitation, en assurant leur alignement avec les besoins métiers • Maîtriser l’évolution du SI sur un ou plusieurs domaines fonctionnels (ex. architecte Réseau & Monétique au MS) • Garantir la bonne intégration des solutions proposées dans le SI existant et leur opérabilité • Assurer la conformité de l'architecture de la solution mise en œuvre avec la stratégie SI et le cadre d’architecture • Être force de proposition vis-à-vis des métiers, de la MOA et des MOE. • Cadrer les besoins et concevoir la solution fonctionnelle dans une démarche de construction d'une offre globale cohérente. • Analyser les impacts d’une évolution d’un composant référentiel existant (performance, respect des principes d’architecture) et sur les effets induits sur le SI. • Maintenir la cohérence applicative du périmètre Référentiels et participer à la production de la Roadmap • Restituer une synthèse de l’étude (solution et impact) avec macro-chiffrage et macro-planning puis rédiger des dossiers d'architecture. • Maintenir les documents de référence, dont le modèle de données. Livrables / Résultats attendus : • Etude avant-projet • Etude du besoin et analyse d’impact • Estimation des charges et abaques
Mission freelance
Consultant Sécurité Cloud Azure – WAF, Proxy & Gouvernance SSI (N3)
Sapiens Group
Publiée le
Azure
Terraform
Web Application Firewall (WAF)
12 mois
500-630 €
Île-de-France, France
Contexte de la mission Dans le cadre de la reprise et de la sécurisation d’un tenant Cloud Public Azure existant, le client souhaite renforcer sa gouvernance de la sécurité réseau et industrialiser l’administration de ses solutions de protection périmétrique. La mission s’inscrit dans un contexte de montée en maturité SSI, avec des enjeux forts autour de la protection des flux applicatifs exposés, de la détection et du traitement des alertes de sécurité, ainsi que de la standardisation des pratiques via l’Infrastructure as Code. Le consultant interviendra au sein des équipes Sécurité et Réseaux afin de définir, mettre en œuvre et piloter les politiques de sécurité WAF Azure natif et Proxy Cloud McAfee, tout en assurant la cohérence avec les référentiels SSI et les exigences réglementaires. Objectifs de la mission Administrer et sécuriser les solutions WAF Azure et Proxy Cloud McAfee dans un environnement Azure existant Définir et formaliser les politiques et stratégies de sécurité réseau adaptées aux enjeux métiers Améliorer la détection, l’analyse et le traitement des alertes de sécurité réseau Industrialiser les configurations via Terraform Structurer la gouvernance des alertes de sécurité (cycle de vie, priorisation, remédiation) Produire et maintenir la documentation d’architecture et d’exploitation Principales responsabilités Définition et mise en œuvre des politiques de sécurité WAF Azure et Proxy McAfee Analyse des alertes de sécurité réseau (WAF / Proxy) et mise en place de règles de blocage en coordination avec les équipes Réseaux et Sécurité Développement et maintenance de scripts de mise à jour et de configuration via Terraform Mise en place de reportings et tableaux de bord de sécurité (Splunk) Définition d’un processus de gestion des alertes de sécurité réseau (N2/N3, cycle de vie, escalade, clôture) Contribution aux revues de sécurité, audits et tests d’intrusion Suivi des plans de remédiation et réduction des risques Rédaction et mise à jour des documents d’architecture, schémas et procédures d’exploitation Enjeux clés Sécurisation des applications exposées sur le Cloud Public Réduction des risques cyber et amélioration du niveau de conformité Homogénéisation et automatisation des pratiques de sécurité Amélioration de la visibilité et de la réactivité face aux incidents de sécurité Livrables attendus Politiques et règles de sécurité WAF / Proxy Scripts Terraform documentés Tableaux de bord et reportings Splunk Processus de gestion des alertes de sécurité réseau Documentation d’architecture et procédures d’exploitation Contributions aux audits et revues de sécurité
Mission freelance
Développeur Python /Azure - Paris ou Orleans
WorldWide People
Publiée le
Python
6 mois
400-420 £GB
Paris, France
Développeur Python /Azure ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Mission freelance
Ingénieur projets système H/F - 92
Mindquest
Publiée le
Active Directory
Azure
Intune
3 mois
400-600 €
Rueil-Malmaison, Île-de-France
En tant qu’Ingénieur Système F/H vous êtes en charge de l’ensemble des infrastructures et projets, dans le respect des règles de sécurité du groupe. Vous intégrez une équipe responsable de l’ingénierie de production, de l’intégration et du Maintien en Conditions Opérationnelles (MCO). Vous assurez la réalisation de projets techniques d'amélioration des infrastructures et leurs évolutions. D’un point de vue technique, vous aurez comme missions : Mission * Gestion des tâches opérationnelles du quotidien * Assurer le maintien en condition opérationnelle des infrastructures système de nos Sites et Datacenters. * Assurer le déploiement de nouvelles infrastructures (staging des équipements, tests, installation, configuration finale, recettes) * Gérer les tickets incidents et demandes * Assurer le monitoring et Intervenir en assistance pour la résolution des incidents de production * S’assurer de la complétude de la documentation technique et opérationnelle de nos environnements, et la compléter si besoin Vous intervenez dans les différentes phases du projet : * Pilotage et Gestion de projet * Organisation des phases du projet : cadrage, spécification technique, réalisation et validation * Participation aux comités projet * Planification Réalisation * Identification des impacts sur les solutions/processus existants * Rédaction des spécifications techniques détaillées * Participation à la réalisation en termes de développements spécifiques ou d’intégration * Définition des tests et participation aux recettes * Organisation de la maintenance
Offre d'emploi
Financial Application Engineer
Business & Ict Consulting
Publiée le
Azure
JIRA
Linux
2 ans
48k-60k €
400-500 €
Luxembourg
Vous interviendrez sur le support et l’amélioration de notre plateforme de trésorerie ainsi que des applications financières associées. Ce poste vous offrira une exposition à un environnement technologique varié incluant bases de données, scripting, cloud, automatisation et outils d’intégration. Au-delà de l’aspect technique, vous serez également amené(e) à développer une bonne compréhension des enjeux fonctionnels liés aux systèmes financiers. Vos missions Assurer le support de niveau 2 des applications financières. Accompagner l’intégration de nouvelles fonctionnalités dans les systèmes financiers. Automatiser les tâches récurrentes afin d’améliorer l’efficacité opérationnelle. Participer aux déploiements, à la maintenance des environnements et à la gestion des configurations. Rédiger et maintenir la documentation technique (solutions, प्रक्रssus, bonnes pratiques) pour le partage de connaissances. Animer les discussions techniques et piloter la résolution des incidents. Contribuer aux initiatives d’amélioration continue et à la mise en place des meilleures pratiques.
Offre d'emploi
Devops SRE - Expert Systèmes d'Exploitation et Kubernetes.
KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
CentOS
CI/CD
45k-57k €
Nord, France
Description détaillée 1. En quoi consiste le poste ? En tant qu' Expert Systèmes d'Exploitation et Kubernetes , vous intégrez la direction des infrastructures de notre Groupe, acteur majeur de la protection sociale. Votre rôle est de piloter la transformation technologique en construisant une plateforme moderne, hautement disponible et sécurisée. Vous êtes le chef d'orchestre des environnements conteneurisés . Votre mission est de garantir que nos services numériques critiques (portails clients, gestion des cotisations, applications internes) tournent sur un socle technique robuste, automatisé et capable de protéger des données hautement sensibles. 2. Vos missions principales BUILD (Architecture & Déploiement) : Concevoir et administrer les clusters Kubernetes (environnements hybrides : vSphere et Cloud GCP ) en utilisant l'approche Infrastructure as Code ( Terraform, Ansible ). AUTOMATISATION (CI/CD) : Développer et maintenir les chaînes de déploiement ( GitLab CI ) pour automatiser le cycle de vie des applications. SÉCURITÉ & RESILIENCE : Mettre en œuvre les outils de sécurité Cloud Native (Falco, Kyverno) et assurer la protection des données. OBSERVABILITÉ : Garantir la visibilité sur la santé des systèmes via des outils de métrologie ( Prometheus, Grafana, ELK ). EXPERTISE & CONSEIL : Agir en tant que référent technique auprès des équipes projet pour faciliter l'adoption des technologies de conteneurisation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2616 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois