L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 531 résultats.
Mission freelance
Digital Product Owner
Codezys
Publiée le
API
Azure
KPI
12 mois
Madrid, Espagne
Détails du projet : Entreprise : multinationale dans la santé Localisation : Europe (fuseau CET) Mode de travail : télétravail ou hybride Date de début : janvier 2026 Durée : 12 mois Langues : anglais obligatoire, espagnol apprécié Charge de travail : temps plein Objectif du poste : Recruter un Product Owner Digital pour piloter l'évolution d'un chatbot IA destiné à soutenir les collaborateurs. Il sera responsable de la stratégie produit, de la feuille de route, et de l'optimisation pour garantir fiabilité, pertinence et évolutivité, afin d'améliorer l'expérience utilisateur et l'efficacité opérationnelle. Principales responsabilités et activités clés : Stratégie produit & Feuille de route : Définir la vision et la feuille de route Réaliser analyses concurrentielles et de marché Établir et suivre KPIs et métriques de succès Prioriser les cas d'usage selon leur valeur et coût Expérience utilisateur & Conception : Collecter et analyser les retours utilisateurs Collaborer avec UX/UI pour améliorer l'ergonomie et les interactions Définir personas, parcours et cas d'usage Gestion technique du produit : Collaborer avec les ingénieurs IA/ML pour améliorer les capacités du chatbot Gérer l'intégration avec les systèmes d'entreprise Superviser la qualité des données et la gouvernance Définir exigences de performance, scalabilité et sécurité Gestion des parties prenantes : Identifier de nouveaux cas d'usage et opportunités d'automatisation Présenter des rapports d'avancement à la direction Animer réunions et ateliers inter-fonctionnels Gérer relations avec partenaires technologiques Analyse & Optimisation : Suivre les indicateurs de performance et d'adoption Réaliser tests A/B et expérimentations Produire des rapports et améliorer continuellement le produit Charge de travail : variable selon les besoins du projet et le contexte opérationnel.
Mission freelance
DevOps AWS Confirmé / Senior (H/F)
Atlas Connect
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons des ingénieurs DevOps AWS confirmés à seniors pour intervenir sur des projets à forte valeur ajoutée, dans des environnements cloud modernes et scalables. Vous interviendrez sur des contextes variés (clients grands comptes, scale-ups, projets innovants) et participerez activement à la mise en place, l’optimisation et la sécurisation des plateformes cloud AWS. Vos missions pourront inclure notamment : Conception, déploiement et exploitation d’infrastructures AWS robustes et évolutives Mise en place et amélioration des pipelines CI/CD Automatisation des déploiements via Infrastructure as Code Participation aux choix d’architecture cloud et aux bonnes pratiques DevOps Collaboration étroite avec les équipes Dev, Cloud, Sécurité et Data Contribution à la fiabilité, la performance et la sécurité des environnements
Mission freelance
Architecte DevOps -
Freelance.com
Publiée le
Azure DevOps
Helm
6 mois
400-650 €
Issy-les-Moulineaux, Île-de-France
Contexte de la mission Dans le cadre d’un vaste plan de transformation numérique, notre client — un grand acteur institutionnel français — renforce son Usine de Développement au sein de la Direction de l’Innovation et du Web Opérationnel. L’objectif : accompagner les projets jusqu’au Cloud en proposant des outils, services et bonnes pratiques autour d’une démarche DevSecOps et GitOps , Vous interviendrez au sein du domaine Cloud , composé d’experts et de développeurs, pour contribuer à l’évolution, l’industrialisation et la fiabilisation de plateformes Cloud et CI/CD à grande échelle. Environnement technique Linux Helm Kubernetes Docker Git Langages : Python, Bash, sh… CI/CD : Jenkins, GitLab Runner (pipelines appréciés) Outils complémentaires : Prometheus, Grafana, ELK, OpenShift, Nexus, Réseau (firewall, DNS, proxy…) Objectifs et enjeux Cadrage & Expertise Participer à l’étude, l’évaluation et l’intégration de nouveaux outils. Diffuser les bonnes pratiques DevSecOps & GitOps. Industrialisation & Automatisation Automatiser l’installation et la configuration des outils via everything-as-code . Améliorer les chaînes CI/CD , la supervision et la métrologie . Fiabilité & Modernisation Contribuer à l’évolution du catalogue de services Cloud. Garantir la performance et la continuité opérationnelle ( you build it, you run it ). Contribuer aux initiatives d’ intégration de l’IA générative dans le cycle de vie des projets. Compétences attendues Fonctionnelles Cadrage et instruction de nouveaux outils. Diffusion des bonnes pratiques DevSecOps / GitOps. Automatisation (everything-as-code). Amélioration CI/CD, monitoring, métrologie. Amélioration continue et maintien en conditions opérationnelles. Fiabilité et robustesse des services. Contribution aux initiatives autour de l’IA générative. Techniques Linux Helm Docker Kubernetes Git Scripting (Bash, sh…) CI/CD sous Jenkins & GitLab Runner Autres compétences souhaitées Prometheus / Grafana Stack ELK OpenShift Nexus Réseau (firewall, DNS, proxy…) Livrables attendus 1. Documentation Technique Guides d’installation et de configuration Fiches actions Documentation des pipelines CI/CD 2. Scripts & Templates Scripts d’automatisation (Python, Bash…) Templates Helm Dockerfiles & Docker Compose 3. Pipelines CI/CD Pipelines de déploiement et tests automatisés Intégration Jenkins / GitLab Runner 4. Monitoring & Alerting Dashboards Prometheus / Grafana Systèmes d’alertes 5. Infrastructure as Code Scripts Terraform ou Ansible Déploiements Kubernetes (YAML) 6. Rapports & Analyses Rapports de performance Analyses d’incidents et plans d’amélioration 7. Sécurité Configuration réseau (firewall, DNS, proxy…) pour sécuriser l’infrastructure Profil recherché Ingénieur DevOps / Architecte confirmé (8 ans min), autonome, force de proposition, passionné par l’automatisation, le Cloud, les environnements containers et la démarche DevSecOps.
Mission freelance
Ops Engineer (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
350-450 €
Lille, Hauts-de-France
Description Le/la prestataire interviendra en tant qu’Ops Engineer confirmé au sein de l’équipe Accompagnement Résilience. Il/elle aura pour missions principales : - Participer à la définition et au pilotage des SLO - Industrialiser les processus de déploiement et d’exploitation - Réaliser et restituer des audits de résilience - Exploiter et optimiser les environnements AWS dans une logique SRE - Challenger les équipes sur leurs choix techniques et architecturaux - Être force de proposition sur l’optimisation performance/coût - Administrer et maintenir les outils de résilience (Gatling, Gremlin, Dashboard SLO) - Contribuer aux analyses d’incidents et post-mortem Livrables Le/la prestataire produira notamment : - Livrables techniques - Plateformes et outils de résilience opérationnels - Scripts d’automatisation et d’industrialisation - Tableaux de bord SLO et indicateurs Cloud - Configurations et scénarios de tests Livrables documentaires - Documentation d’exploitation - Guides d’usage des outils - Procédures de résilience Supports de formation - Livrables opérationnels - Rapports d’audit - Contribuer aux comptes rendus d’incidents - Plans d’amélioration continue
Mission freelance
Devops
ESENCA
Publiée le
CI/CD
Github
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Nous gérons trois types de produits : Du legacy (en cours de migration vers la plateforme moderne). Des produits modernes (développés sur standards récents). De l'Innersource (contribution directe aux produits de la plateforme). Nos défis majeurs : Remplacer le legacy en intégrant les produits plateforme. Enrichir l'expérience client/collaborateur avec des produits innovants. Une culture "Expérience First" et "Data Informed". CADRE DE LA MISSION Le rôle est au service de la fiabilité et de la vélocité des équipes de développement. L'intervenant opérera dans un contexte hybride : Gestion d'un existant Legacy critique (JBoss, SQL Server, VM, Nginx). Accélération sur les produits modernes (Full GCP, Aiven, Kubernetes). L'objectif n'est pas seulement de "faire", mais de rendre les équipes autonomes (Enablement) sur leurs gestes d'exploitation quotidiens. TACHES ET ACTIVITES Audit et sécurisation des produits Legacy (gestion des backups/restore, maintien en condition opérationnelle). Mise en oeuvre et maintien des standards Groupe sur la partie Cloud (GCP, Aiven, Turbine, Helm, Kubernetes). Construction et maintenance des pipelines CI/CD (Github Reusable Workflows) pour standardiser les déploiements. Accompagnement pédagogique des développeurs pour les rendre autonomes sur le Run et le Monitoring. Support technique sur l'architecture et la migration progressive du Legacy vers le Moderne. Mise en place de l'observabilité (Monitoring, Alerting) sur l'ensemble du périmètre. Une connaissance des pratiques SRE est un plus. LIVRABLES ATTENDUS Infrastructure as Code (Terraform/Helm) documentée et déployée. Pipelines CI/CD opérationnels et utilisés par les devs. Tableaux de bord de monitoring et politique d'alerting active. Plan de sécurisation et procédures de restauration (Legacy & Moderne). MODALITES DE REPONSE Toute proposition devra inclure un paragraphe décrivant une expérience concrète de l'intervenant sur la gestion d'un environnement hybride (Legacy + Cloud Public) et sa pratique de l'automatisation CI/CD. Les dossiers génériques sans cette justification ne seront pas étudiés.
Mission freelance
DBA Expert MongoDB – PaaS Azure (H/F)
AVA2I
Publiée le
Azure
Maintien en condition opérationnelle (MCO)
Mongodb
3 ans
550-670 €
La Défense, Île-de-France
🎯 Contexte Dans le cadre du renforcement de ses équipes IT et de l’évolution de plateformes data vers le cloud, un grand groupe international du secteur de l’énergie recherche un DBA expert MongoDB pour intervenir sur des environnements PaaS Azure à forte criticité . Le rôle est résolument opérationnel et technique : il s’agit d’un référent MongoDB , capable d’intervenir en profondeur sur la plateforme, et non d’un poste d’architecte . 🛠️ Missions En tant que DBA MongoDB expert, vous intervenez sur : Administration et exploitation de bases MongoDB en environnement PaaS Azure Maintien en Conditions Opérationnelles (MCO) : Performance Disponibilité Sécurité Optimisation des bases : Tuning Gestion des index Gestion des volumes Réplication Gestion des incidents complexes (N2 / N3) Montées de version et opérations de maintenance Support aux équipes applicatives Mise en place et suivi des bonnes pratiques : Sauvegardes Restauration Supervision ⚙️ Environnement technique MongoDB (expertise indispensable) Azure PaaS (Cosmos DB Mongo API / MongoDB managé) Cloud Azure Automatisation / scripting : PowerShell, Python ou équivalent Supervision, sécurité, haute disponibilité
Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F
Comet
Publiée le
Azure
Bloomberg
IA
128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
Mission freelance
Architecte DATA - Paris
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
450-500 €
Paris, France
Recherche d'un architecte Data expérimenté pour renforcer la maîtrise technique d’un projet DataCloud. Contexte : Un interne partira le 1er avril 2026, nécessitant son remplacement pour assurer la continuité du projet. Mission : Analyser les besoins et usages en données des différentes unités métier de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Participer à la conception de l’architecture de la plateforme DataCloud. Contribuer à l’amélioration de l’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle continue de la plateforme. Garantir la sécurité des accès et de l’ensemble de la plateforme. Définir et mettre en place une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités : Participer aux décisions de design technique (Design Authority). Contribuer aux travaux du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment pour la construction et la maintenance du socle technique (infrastructure, FinOps, habilitations, conformité, CI/CD). Contribuer à l’automatisation des déploiements et à la gestion du cycle de vie de la plateforme. Surveiller le comportement et la performance de la plateforme. Participer à la résolution des incidents opérationnels. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires clients : Localisation idéale : Dijon, Châlons-en-Champagne, Paris, Nantes ou Limoges. Expérience requise : minimum 5 ans dans le domaine de la Data. Budget prestataire : TJM de 500€, à négocier selon profil. Début souhaité : dès que possible, en veillant à effectuer un transfert de compétences avec le précédent avant le 1er avril 2026. Profil recherché : Un architecte opérationnel, capable de réaliser concrètement les actions, avec une forte implication technique. Les soft skills (esprit d’équipe, autonomie, sens de la communication) sont également essentiels pour réussir cette mission.
Offre d'emploi
Storage DevOps
Codezys
Publiée le
autonomie
Azure
CI/CD
6 mois
Paris, France
Dans le cadre de son nouveau programme de transformation cloud, l’organisation a décidé avec ses entités de moderniser l’ensemble des infrastructures encore hébergées dans les datacenters régionaux, afin de prendre en charge des charges de travail non éligibles au Cloud Public. Objectifs et livrables 1. Gestion des pipelines CI/CD : Conception et mise en œuvre : Créer et maintenir des pipelines CI/CD pour automatiser la construction, les tests et le déploiement des partages de stockage. Optimisation : Améliorer en continu l’efficacité et la fiabilité des pipelines. 2. Infrastructure as Code (IaC) : Automation : Utiliser des outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le biais de code. Scalabilité : Assurer une montée en charge efficace de l’infrastructure pour répondre à la demande. 3. Monitoring et journalisation : Mise en place : Déployer des outils de surveillance pour suivre la performance des systèmes. Analyse : Analyser les logs afin d’identifier et de résoudre proactivement les problèmes. 4. Sécurité : Meilleures pratiques : Intégrer des mesures de sécurité et des vérifications de conformité dans les pipelines CI/CD. Gestion des incidents : Élaborer et maintenir des plans de réponse aux incidents. 5. Collaboration : Équipes transverses : Collaborer étroitement avec les équipes de développement, assurance qualité et opérations pour assurer un flux de travail fluide. Communication : Faciliter la communication entre les équipes afin de résoudre rapidement les problématiques. Documentation : Rédiger des plans de tests, des procédures et des documents de transfert pour permettre l’automatisation et assurer la transmission des connaissances aux experts et à l’équipe Q&A. Compétences et expériences requises Connaissance des systèmes de stockage est un plus. Une certification Cloud DevOps est un avantage. Maîtrise des plateformes cloud telles qu'AWS ou Azure, indispensable. Expérience confirmée en environnement IT (gestion d’incidents, rotation 24/7, organisation matinale, assurance qualité). Compétences en scripting et automatisation avec Python, Ansible, Terraform. Expérience avec Docker appréciée. Documentation : Maintenir une documentation claire et complète, comprenant procédures, processus, supports de formation et plans de test.
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Mission freelance
SRE - Site Reliability Engineer
Comet
Publiée le
AWS Cloud
Azure
Site Reliability Engineering (SRE)
218 jours
370-830 €
Île-de-France, France
Bonjour à tous les SRE ☁️ / Observabilité 📊 / Cloud & Resilience 🚀 ! Rejoins une équipe innovante qui garantit la fiabilité et la résilience des plateformes digitales critiques utilisées dans le monde entier. L’équipe Site Reliability Engineering accompagne les divisions applicatives pour améliorer la fiabilité, la surveillance et la résilience des produits digitaux. 🔎 Je cherche donc un/-e SRE expérimenté/-e pour participer à un projet ambitieux et technique. 💻 Ce que tu vas faire : Définir et implémenter des mécanismes de monitoring et alerting à tous les niveaux (front, back, ETL, data quality, connectivité) Contribuer à la résilience des applications via backup/restauration, Disaster Recovery Plans et tests associés Implémenter des scénarios de Chaos Engineering sur AWS et Azure Optimiser la gestion des incidents pour réduire le MTTR (détection, notification, analyse) Mettre en place des solutions AIOps pour améliorer observabilité et fiabilité Promouvoir les bonnes pratiques SRE auprès des squads et projets digitaux 🎯 Stack & outils : AWS (Prometheus, Cloudwatch, X-Ray, Firewall), Azure (Monitor, Application Insights, Log Analytics), GCP Observability, Grafana, Chaos Engineering, pipelines CI/CD, automatisation des backups, AIOps 📍 IDF – Paris 2e (Sentier) : 2 jours de télétravail 🏠 Si tu as une solide expérience en SRE, cloud multi-plateformes (AWS, Azure, GCP) et observabilité, et que tu aimes rendre les systèmes robustes et résilients, cette mission est faite pour toi !
Mission freelance
Data Product Manager en Data Lab - Rennes
Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Mission freelance
Développeur React Golang AWS
Cherry Pick
Publiée le
AWS Cloud
Go (langage)
React
6 mois
Vélizy-Villacoublay, Île-de-France
RESPONSABILITÉS1. Développement Front-end (Cœur de métier) Conception d'IHM techniques : Développer et maintenir un portail d'administration complexe permettant la gestion et le pilotage de clusters. Implémentation UI/UX : Traduire les maquettes en fonctionnalités fluides (React), avec une forte capacité à prototyper des features rapidement pour tester la robustesse du backend. Visualisation de données : Réalisation de Dashboards techniques et de portails d'applications dédiés aux produits data. 2. Développement Backend & Intégration Développement Go : Interventions ponctuelles et prototypage de services backend en Golang. Écosystème Data : Collaboration autour des outils de traitement et d'analyse de données (Flink, Spark, Trino, Superset). Back-end alternatif : Capacité à travailler sur du Node.js (pas de Java/Python sur ce périmètre spécifique). 3. Culture DevOps & Infrastructure Gestion de Clusters : Compréhension fine de Kubernetes (Open Source) et déploiement via Helm sur AWS. Automatisation : Utilisation de Terraform et Ansible pour l'infrastructure as code. Intégration Continue : Connaissance de GitLab Runner. Résilience : Compréhension des systèmes de backup et de leur intégration dans l'écosystème global.
Mission freelance
Administrateur de solutions de sécurité
Mindquest
Publiée le
Cortex XSOAR
CrowdStrike
Qualys
5 mois
400-490 €
La Défense, Île-de-France
Mon client recherche un Security Solutions Administrator pour une mission freelance à La Défense. Démarrage : 15/02/2026 Fin : 12/07/2026 Lieu : La Défense (92) 3 jours de remote par semaine Vous rejoignez le GSOC du groupe, centre névralgique de la cybersécurité du groupe, où la protection des environnements IT, Cloud et industriels est essentielle. Vous travaillerez avec des équipes SOC, VOC, CSIRT et CTI pour détecter, analyser et automatiser la réponse aux incidents de sécurité. Ce rôle est clé pour renforcer la maturité de nos processus de cyberdéfense grâce à l’automatisation et l’intégration avancée des outils de sécurité. Mission : En tant que VOC & Incident Playbook Developer, vous serez responsable de concevoir, développer et maintenir des playbooks d’incidents automatisés. Vos missions principales incluent : Développement et maintenance de playbooks pour SOC, VOC, CSIRT, incluant IT, Cloud et OT/ICS. Automatisation des workflows de réponse aux incidents (SOAR, SIEM, EDR/XDR). Intégration et exploitation des outils de détection et remédiation : Splunk, Azure Sentinel, Crowdstrike, Palo Alto, Qualys, Microsoft 365/AD/Azure, Prisma Cloud, etc. Analyse et qualification des incidents, documentation et amélioration continue des procédures automatisées. Veille sur les vulnérabilités et menaces (CVE, CWE, MITRE ATT&CK, MITRE ATT&CK for ICS), adaptation des playbooks en conséquence. Collaboration transverse avec les équipes IT, Cloud, industrielles et sécurité pour garantir l’efficacité des automatisations. Développement de scripts et use-cases innovants pour améliorer la détection et la remédiation. Maintien d’une documentation claire et complète sur les playbooks, automatisations et intégrations. Environnements couverts : IT & Cloud : Windows/Linux, AD, Azure, 365, AWS, GCP, bases de données, réseaux. Sécurité : SIEM/SOAR, EDR/XDR, CSPM, IAM, monitoring et remédiation automatisée. Industriel / OT : SCADA, PLC, IoT, supervision industrielle, protocoles Modbus/OPC.
Mission freelance
Développeur Devops Azure - Paris
Codezys
Publiée le
Azure
Azure DevOps Services
Docker
6 mois
Paris, France
Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe. Compétences requises : Expérience solide avec Azure DevOps et les outils CI/CD. Connaissance approfondie des conteneurs (Docker, Kubernetes). Compétences en scripting (PowerShell, Bash) et expérience avec des langages de programmation (Java, Javascript, Python, C++). Connaissance des outils d'infrastructure as code (Terraform). Compréhension des pratiques de sécurité et de conformité dans le cloud. Excellentes compétences en communication et en travail d'équipe. Qualifications : Diplôme en informatique, en ingénierie ou dans un domaine connexe. Expérience dans un environnement de développement web Java et backend. Certification Azure AZ-900, AZ-104, AZ-204, AZ-400, AZ-500 Objectifs et livrables - Connaissance approfondie d'Azure - CI/CD (Intégration Continue / Déploiement Continu) - Infrastructure as Code (IaC) - Conteneurisation et orchestration - Scripting et automatisation - Gestion de la configuration et surveillance - Sécurité dans le Cloud
Offre d'emploi
Intégrateur applicatif sénior
R&S TELECOM
Publiée le
Azure
CI/CD
GitLab CI
12 mois
40k-48k €
400-480 €
Lyon, Auvergne-Rhône-Alpes
ontexte de la mission Assurer l’intégration, la maintenance et la sécurisation des composants applicatifs transverses, dans un contexte cloud hybride, tout en accompagnant l’évaluation et l’intégration de futurs progiciels. Le profil attendu intervient comme référent technique sénior, avec une forte sensibilité aux enjeux de sécurisation des infrastructures et des flux. Objectifs et livrables Responsabilités clés · Assurer la maintenance corrective et évolutive des composants intégrés Participer activement aux activités de RUN Intégrer et exploiter des progiciels concurrents dans le cadre des travaux d’évaluation et de préfiguration du futur SI Garantir le respect des exigences : -Qualité -Sécurité -Disponibilité -Mettre en œuvre et maintenir l’ automatisation des déploiements -Contribuer à la sécurisation de l’infrastructure applicative -Participer aux travaux de transition avec les partenaires externes Environnement technique · Cloud : -GCP (Compute Engine, GKE, Cloud Run, Cloud SQL, Pub/Sub) -Azure (App Service, AKS, Storage) · Infrastructure as Code : Terraform CI/CD : GitLab CI Environnements cloud de confiance Compétences attendues · Très forte expérience en intégration applicative cloud Solide maîtrise des environnements GCP et/ou Azure Sensibilité forte aux enjeux de sécurité des infrastructures Capacité à intervenir dans un contexte en construction Autonomie, rigueur et posture de référent sénior Certifications recommandées · GCP Associate Cloud Engineer GCP Professional Cloud DevOps Engineer Terraform Associate Compétences demandées GCP-Confirmé Infrastructure as Code : Terraform-Confirmé Sensibilité forte aux enjeux de sécurité des infrastructures-Confirmé Azure (App Service, AKS, Storage)-Confirmé Autonomie, rigueur et posture de référent sénior-Expert Intégration applicative cloud-Expert Environnements cloud de confiance-Confirmé GCP (Compute Engine, GKE, Cloud Run, Cloud SQL, Pub/Sub)-Confirmé Gitlab CI/CD-Confirmé Solide maîtrise des environnements GCP et/ou Azure-Expert
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
531 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois