L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 531 résultats.
Mission freelance
DevSecOps
ESENCA
Publiée le
Ansible
Cybersécurité
DevSecOps
3 mois
Lille, Hauts-de-France
Nous recherchons un(e) consultant(e) maîtrisant(e) DevSecOps pour renforcer notre équipe et accélérer le déploiement de notre stratégie de sécurité applicative. Le/la prestataire retenu(e) sera un maillon essentiel pour diffuser la culture de la sécurité et outiller nos équipes de développement. Les principaux objectifs de la mission sont : - Industrialiser la sécurité dans les pipelines CI/CD : - Participer au déploiement, à la configuration et à la maintenance des outils d'analyse de sécurité (SAST, DAST, SCA). - Développer des scripts et des automatisations pour renforcer la sécurité de nos chaînes d'intégration et de déploiement continu. - Contribuer à l'optimisation de notre "Security Toolchain". - Contribuer à l'acculturation sécurité : - Produire de la documentation technique et des guides de bonnes pratiques. - Assurer une veille sur les menaces émergentes et les solutions de sécurité applicative.
Offre d'emploi
DEVELOPPEUR BACK SENIOR 7 à 10 ans
WINSIDE Technology
Publiée le
AWS Cloud
Docker
Git
1 an
40k-45k €
400-480 €
Lille, Hauts-de-France
Le besoin concerne un renfort Back‑End sénior pour retravailler l’affichage des services mis à disposition des EF. Les services seront reçus en mode push, automatiquement, en fonction de l’étape du processus dans laquelle se trouve l’EF. L'équipe existante est composée de 2 dev BO dont un lead dev et un dev FO. L'objectif est d'arriver à une équipe de 4 dev BO et 2 dev FO. Description Le prestataire interviendra pour : - Développer et adapter les évolutions nécessaires côté Back‑End - Contribuer à la qualité, à la sécurité et aux performances du code - Participer aux rituels et échanges techniques avec l’équipe interne - Intégrer les tests automatisés dans les pipelines existants - Documenter les évolutions réalisées - Faire preuve d’une très grande adaptabilité et être opérationnel très rapidement Livrables • Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l’équipe travaillant dans un cadre Agile. • Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. • Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue. Compétences 1/ Architecture IT Connaissance des composants : serveurs, applications, bases de données, réseau, services cloud Compréhension des interactions entre composants Maîtrise des standards techniques, choix technologiques, niveaux de sécurité, performances et évolutivité 2/ Capacité d’analyse et de synthèse Compréhension rapide de l’existant Identification des données essentielles Détection des impacts potentiels Production d’analyses claires et structurées Capacité à aller directement à l’essentiel 3/ CI/CD Maîtrise des pipelines CI/CD Pratique avancée de Git, automatisation et contrôle qualité Intégration des tests automatisés dans les pipelines 4/ Développement logiciel (stack requise) Langages & frameworks : Java 21+ ; Spring Boot 3 Outils : Git ; Maven ; Docker Cloud & intégrations : AWS SDK ; LocalStack (mock AWS S3) Tests & qualité : JUnit 5 ; OpenAPI Base de données & persistance : PostgreSQL ; Liquibase ; Redis ; Lombok Autres : ClamAV 5/ Méthodologie et pratiques de tests Connaissance des méthodologies agiles (Scrum) Estimation de charges Rédaction de documentation technique Maîtrise des frameworks de tests et automatisation Préparation/gestion des jeux de données Lecture et optimisation de code existant 6/ Collaboration Communication claire, écoute active, posture constructive Travail en équipe ; partage d’information ; coordination Très grande adaptabilité, sens des responsabilités, autonomie 7/ Software Design Structuration de modules, API et services Approche modulaire et découplée Réutilisabilité du code ; simplicité et cohérence Scalabilité technique et fonctionnelle 8/ Supervision IT Mise en place et amélioration des logs Contribution à la supervision existante Diagnostic rapide d’incidents ou anomalies
Mission freelance
DATA ENGINEER
Codezys
Publiée le
Azure
BigQuery
Business Intelligence
12 mois
Hauts-de-Seine, France
Localisation :92 Démarrage : ASAP Jours obligatoires sur site : 3 jours/semaine Expérience : 5 ans minimum TJM: 400€ Data Engineer domaine Recyclage & Valorisation (F-H) Pour atteindre l'objectif stratégique de transformer ses données en un véritable actif, on réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le/la Data Engineer domaine Recyclage & Valorisation aura en responsabilité l’infrastructure Data servant aux projets BI pour les métiers du Recyclage et de la Valorisation , conformément au niveau de service et de sécurité attendu. Il/ Elle a également la charge du maintien en condition opérationnelle de la Data Plateforme existante et de son évolution. MISSIONS • Est en charge de la mise en œuvre, du run et de l’évolution de la plateforme Data : o Intègre de nouveaux flux de données o S’assure du bon déroulement des batchs d’intégration des données o S’assure de l’intégrité et des performances de la plateforme Data o Veille à maintenir la plateforme Data « up to date » en mettant à jour ses composants et en la faisant évoluer en adéquation avec les dernières avancées technologiques • Pour être efficace, le/la Data Engineer doit avoir une connaissance transverse des flux de données qui transitent dans la plateforme data • Collabore avec les Data Analysts / Scientists pour s’assurer de la bonne utilisation des données qui sont exposées via la plateforme Data o Gère la mise à disposition et les droits d’accès à la donnée o S’assure des interactions entre les consommateurs des données et la data plateforme dans un soucis de rationalisation et de performance o Propose des améliorations techniques (indexation, datamart, pré calcul de kpis…) • Participe aux travaux d’amélioration continue de la qualité des données. • Assure le niveau de support N 3 sur la fraîcheur, l’intégrité et la mise à disposition des données • Est référent technique du socle Data • Interagit avec le département data gouvernance de la direction pour aligner les modèles de données avec la stratégie data des métiers • Travaille en étroite collaboration avec les data managers dans les BUs en charge de la définition et de la qualité des objets data pris en charge • Participe à la road map de mise en qualité des données lancées par les data managers
Mission freelance
Architecte Technique & Responsable Production
dubbing brothers
Publiée le
AWS Cloud
Check Point
Cisco IOS
5 ans
500-780 €
Saint-Denis, Île-de-France
Dubbing Brothers, groupe international de postproduction et de doublage présent dans 9 pays, renforce actuellement son équipe IT composée d’architectes et d’ingénieurs. Pour accompagner notre croissance, la transformation de notre infrastructure, et la mise en conformité avec les normes de sécurité (ISO 27001, TPN), nous recherchons un architecte technique freelance expérimenté. Intégré(e) à l’équipe Infrastructure & Production IT (7 personnes), sous la direction du Group CIO & CISO, vous interviendrez pour : Concevoir, documenter et piloter l’évolution des architectures techniques (on-premise & cloud) Garantir la stabilité, la performance et la sécurité des environnements de production Administrer les infrastructures virtualisées (VMware, Hyper-V) Participer à la migration ou modernisation des environnements legacy Assurer l’automatisation des déploiements et la gestion de configuration (Ansible, Git) Contribuer activement aux projets d’industrialisation, supervision, cloud et sécurité Assister les ingénieurs systèmes dans le troubleshooting avancé et les mises en production Documenter les architectures et les procédures techniques
Offre d'emploi
Développeur Middleware Senior (Java / Tibco BWCE) – SI Santé & Prévoyance - NIORT
SONASO INFORMATIQE
Publiée le
Dynatrace
Java
Openshift
1 an
40k-54k €
100 €
Toulouse, Occitanie
Appel d’offre – Développeur Middleware Senior (Java / Tibco BWCE) – SI Santé & Prévoyance - NIORT Contexte : Renforcement de l’équipe Middleware pour absorber une forte activité Build. L’équipe gère le développement et la maintenance des flux d’intégration, APIs, batchs, scripts et automates entre applications métiers et systèmes de gestion. Objectif : Prendre en charge des sujets techniques complexes, concevoir et maintenir les composants middleware, contribuer à l’industrialisation et assurer la qualité des livrables. Environnement technique : Java / Spring / Spring Batch Tibco BWCE API REST / SOAP SAP Cloud Studio CI/CD GitLab, OpenShift Observabilité : Dynatrace Automates RPA Missions principales : Développer et maintenir les composants Java, JavaScript et Tibco BWCE (APIs, batchs, intégrations) Assurer le diagnostic et la résolution d’anomalies sur différents environnements Participer à l’intégration CI/CD et aux déploiements OpenShift Produire la documentation technique associée Accompagner les développeurs moins expérimentés et promouvoir les bonnes pratiques Profil recherché : Expertise Java et Tibco BWCE Maîtrise JavaScript, APIs REST/SOAP, SAP Cloud Studio Expérience CI/CD GitLab, OpenShift et outils d’observabilité (Dynatrace) Curiosité, autonomie, ouverture et esprit collaboratif Niveau requis : Senior
Mission freelance
Administrateur Atlassian
Codezys
Publiée le
Confluence
Gouvernance
JIRA
6 mois
Castelnau-le-Lez, Occitanie
Dans le cadre de l’exploitation et de la transformation de sa plateforme Atlassian, notre organisation recherche un administrateur Jira expert Atlassian afin de renforcer l’équipe existante. L’environnement concerne : Jira Cloud (~2 000 utilisateurs, migration en cours depuis Jira Server) Confluence On-Premise (~2 000 utilisateurs) de nombreux enjeux liés à la qualité de service, la gouvernance, la sécurité et la conformité Le prestataire travaillera en collaboration étroite avec un responsable de projet déjà en place. La mission comprend : Administration avancée Atlassian Accompagnement des équipes dans leurs usages de Jira Structuration et harmonisation de Jira Cloud après migration Les missions principales : 1. Administration et gestion de la qualité de service Gestion de l’administration et de la maintenance de Jira Cloud et Confluence On-Premise Supervision des évolutions (workflows, champs, projets), gestion des incidents et recommandations issues des audits Développement de fonctionnalités spécifiques via API Jira Assurance de la stabilité, de la performance, de la traçabilité et de la documentation des interventions Propositions d’améliorations et d’automatisations pour optimiser les pratiques 2. Migration de Jira Server vers Jira Cloud Participation à la migration en assurant le respect du cadre, des standards et des exigences de sécurité Analyse des écarts, préparation des données et validation post-migration Accompagnement des équipes dans la prise en main et l’usage de Jira Cloud 3. Harmonisation et optimisation post-migration Rationalisation des projets, harmonisation des schémas, workflows et permissions Amélioration de la gouvernance et de la lisibilité de la plateforme Proposition de bonnes pratiques et d’évolutions structurantes 4. Conseil et accompagnement Analyse des besoins métiers et traduction en solutions Jira adaptées Support aux équipes projets Mise en place de formations et sensibilisations à l’utilisation de Jira 5. Gouvernance, conformité et reporting Maintien des livrables réglementaires et participation aux audits Production de reportings mensuels et bilan trimestriel de conformité Communication étroite avec le responsable de projet
Offre d'emploi
Architecte Cloud Azure - Expert AD/Entra ID (h/f)
Aprile
Publiée le
Microsoft Entra ID
Virtualisation
92100, Boulogne-Billancourt, Île-de-France
APRILE est une société de services basée à Boulogne-Billancourt et regroupant une quarantaine de collaborateurs. Depuis 2004, notre activité s’articule autour de plusieurs pôles : Infogérance (Exploitation ; Hébergement ; Helpdesk), Intégration de Systèmes&Réseaux et Services Associés (Délégations chez nos clients de profils liés aux métiers de la Production, Assistance, Exploitation et Etudes et Développement). Descriptif Notre client basé à Boulogne-Billancourt (92) recherche un Architecte Cloud Azure - Expert AD/Entra ID (h/f) pour un démarrage ASAP, afin de renforcer son équipe pour travailler sur des sujets variés dans un contexte international. Au sein d'une équipe à taille humaine, vous aurez pour principales missions : Participer à l'amélioration continue des services cloud Azure Renforcer la s écurité du tenant Azure AD pour répondre aux exigences réglementaires et réduire les vulnérabilités critiques Assurer le suivi et le maintien des systèmes Cloud existants Assurer la surveillance et la sécurité des infrastructures. Rédaction des documents d’architecture technique, documents d’exploitation.. Assurer une veille régulière pour optimiser les performances des services Cloud. Scripting PowerShell , automatisation des activités Azure et Office 365 Collaborer avec les équipes et les chefs de projets sur différents sujets et projets ( Hybridation...) Le poste prévoit 1 jour de Télétravail par semaine. Profil Vous avez une bonne maîtrise générale de l’environnement serveur Microsoft et une expérience confirmée sur un poste d'Ingénieur système ? Vous êtes expert sur Azure et sur Entra ID ? Vous êtes autonome, avez un bon sens de l'organisation, de la rigueur ainsi qu'une aisance en communication pour le travail en équipe ? Alors n'hésitez plus, postulez pour que l'on puisse en discuter ! Compétences requises Cloud Azure Entra ID Virtualisation Sécurité AD / GPO Power BI ( Notions de base) Linux ( notions de base) Anglais professionnel pour certains échanges avec les filiales du groupe. Type de contrat : CDI/ Freelance - Temps plein Salaire : selon expérience
Mission freelance
ARCHITECTE INFRA / DATA – CLOUDERA
KERNET
Publiée le
Architecture
Cloudera
Infrastructure
24 mois
400-550 €
Paris, France
Contexte Dans un environnement data stratégique à forte volumétrie, le groupe consolide et fait évoluer sa plateforme Big Data afin de soutenir la montée en charge des usages data & analytics. Le poste est centré sur la robustesse, la performance, la sécurité et l’industrialisation d’une plateforme Cloudera opérée en production. Mission principale ✔️ Définir et faire évoluer l’architecture technique de la plateforme Data (on-premise, hybride ou cloud selon le contexte) ✔️ Administrer et optimiser les environnements Cloudera et leurs composants clés (HDFS, Hive, Spark, Kafka, Impala, YARN…) ✔️ Assurer la disponibilité, la sécurité, la résilience et les performances des clusters en production ✔️ Concevoir les architectures de stockage et de calcul distribués adaptées aux besoins ✔️ Déployer les bonnes pratiques d’industrialisation : automatisation, supervision, capacity planning ✔️ Travailler en transverse avec les équipes data engineering, sécurité et exploitation ✔️ Contribuer aux arbitrages technologiques et à la feuille de route plateforme ✔️ Anticiper les enjeux de scalabilité, de tuning et de maîtrise des coûts
Mission freelance
Expert Cyberdéfense : VOC & Incident Playbook Developer
IT-newvision sas
Publiée le
CrowdStrike
Qualys
Splunk
5 mois
La Défense, Île-de-France
IT-NewVision accompagne l'un de ses clients majeurs, pour renforcer son Global SOC (GSOC) basé à Paris. Le Challenge Dans un contexte technologique riche mêlant environnements IT, Cloud et Industriels (OT/ICS) , vous serez le garant de la conception, du développement et de l’optimisation des playbooks d’incidents. Votre mission consiste à transformer les besoins opérationnels en scénarios d’automatisation fluides pour nos équipes de cyberdéfense (SOC, VOC, CSIRT, CTI). Vos Missions Principales Automatisation & Orchestration : Développer et maintenir des playbooks sur les plateformes SIEM/SOAR (Splunk) et EDR/XDR (Crowdstrike, Cortex) . Détection Avancée : Créer de nouvelles règles de détection et enrichir les alertes pour accélérer les investigations. Gestion des Vulnérabilités : Intégrer les flux CVE/CWE et optimiser les processus via des outils comme Qualys et Prisma Cloud . Expertise Multi-environnements : Adapter les réponses aux incidents sur des périmètres variés : serveurs Windows/Linux, Azure/365, AWS, ainsi que les infrastructures industrielles (SCADA, PLC, protocoles Modbus/OPC). Innovation : Proposer de nouveaux use-cases et maintenir une veille active sur les frameworks de menace ( MITRE ATT&CK & ATT&CK for ICS ).
Mission freelance
Devops SRE
Ness Technologies
Publiée le
Argo CD
GitLab CI
Grafana
6 mois
Île-de-France, France
Contexte du poste Au sein de l’équipe Site Reliability Engineering (SRE) , vous intervenez sur des plateformes Cloud critiques avec un rôle central dans la fiabilité, la performance et la scalabilité des environnements de production. Le poste est fortement orienté RUN, automatisation et excellence opérationnelle , avec un focus majeur sur OpenShift en production . Vous participez activement à la conception, à l’exploitation et à l’amélioration continue des plateformes Cloud (public, privé ou hybride), dans une logique SRE et DevOps avancée. Missions principales Opérations & Fiabilité Garantir la stabilité, la résilience et les performances des environnements Cloud et OpenShift. Participer au déploiement, au monitoring, au troubleshooting et à l’optimisation des applications en production. Définir, mettre en œuvre et améliorer les SLO, SLI et SLA . Automatiser les opérations de production dans une approche Infrastructure as Code et GitOps . Engineering & Automatisation Concevoir, développer et maintenir des pipelines CI/CD (GitLab CI). Gérer l’infrastructure via Terraform et Helm . Contribuer au design et à l’évolution des architectures Cloud (Public / Private / Hybrid). OpenShift & Kubernetes Administrer et exploiter des clusters OpenShift : installation, mises à jour, capacity planning gestion des opérateurs sécurité et durcissement des plateformes Améliorer la fiabilité de la plateforme OpenShift et accompagner les équipes de développement dans son usage. Gérer les sujets réseau, stockage, logging et monitoring en environnement Kubernetes / OpenShift. Collaboration & Culture SRE Travailler en étroite collaboration avec les équipes Développement, Sécurité, Infrastructure et Produit . Documenter, partager les bonnes pratiques et contribuer à une démarche d’amélioration continue . Compétences requises Compétences techniques – Must Have Maîtrise avancée d’OpenShift en environnement de production . Solide expérience sur Kubernetes . Très bonne connaissance des pratiques DevOps / SRE et des outils associés : GitLab CI/CD Terraform Helm Prometheus / Grafana Argo CD Bonne expertise des environnements Cloud . Excellente compréhension : des architectures microservices des API REST des patterns de résilience (autoscaling, circuit breaker, etc.). Compétences complémentaires – Nice to Have Expérience OpenShift à grande échelle / très forte production . Pratiques GitOps avancées (Argo CD, Flux). Connaissances en sécurité Cloud : RBAC gestion des secrets network policies Scripting : Python, Bash, Go (optionnel).
Mission freelance
DevOps Azure et Architecture technique
HAYS France
Publiée le
Azure DevOps
IAC
Node.js
3 ans
100-440 €
Lille, Hauts-de-France
Contexte de la mission Nous recherchons un expert DevOps spécialisé sur la plateforme Microsoft Azure afin d’améliorer notre infrastructure cloud. L’objectif est de mettre en œuvre des solutions d’automatisation et de gestion de l’infrastructure en tant que code ( IaC ) via des outils tels que Terraform et Ansible . La mission consiste à optimiser les processus de déploiement et la gestion des ressources cloud pour garantir efficacité , scalabilité et qualité . Une forte expérience en méthodologie agile est requise pour assurer la livraison dans les délais. La collaboration avec les équipes internes sera essentielle pour le succès du projet.
Offre d'emploi
Chef de Projet Recette - Programme OpenShift NextGen (H/F)
DCS EASYWARE
Publiée le
France
La mission s'inscrit au sein d'une équipe de chefferie de projet rattachée à un pôle d'expertise Infrastructure & Cloud, en charge des environnements cloud, data, IA et DevOps. Ce pôle accompagne des programmes de transformation numérique d'envergure, avec pour objectifs la performance, la sécurité, l'industrialisation et l'innovation des plateformes techniques. Dans le cadre du programme stratégique OpenShift NextGen, nous recherchons un Chef de Projet Recette pour renforcer l'équipe projet et accompagner la direction de programme. Le programme vise à remplacer une plateforme OpenStack existante devenue obsolète par une plateforme cloud native moderne, performante et sécurisée, basée sur OpenShift. Le Chef de Projet Recette aura la responsabilité de piloter le stream Recette, en assurant la coordination entre les équipes techniques, les équipes d'exploitation et les parties prenantes métiers. Périmètre de la mission - Définition du périmètre de recette (technique et fonctionnel) - Élaboration de la stratégie de recette et de la planification associée - Mise en place et coordination des environnements de test - Coordination avec les équipes MCO / MCS - Pilotage des campagnes de recette, y compris avec les utilisateurs / clients internes - Suivi des anomalies, priorisation et coordination des correctifs - Production du reporting projet (avancement, indicateurs, risques) - Contribution aux démarches d'amélioration continue Activités attendues: - - Rédaction des plans de test et des scénarios de recette - Animation des comités de suivi et de pilotage - Suivi opérationnel des tests (exécution, automatisation, couverture) - Reporting sur les risques, alertes et plans d'actions - Coordination transverse avec les autres streams du programme - Expérience confirmée sur des projets d'infrastructure et/ou cloud (OpenShift, Kubernetes, plateformes PaaS) - Bonne maîtrise des processus MCO / MCS et des enjeux d'industrialisation - Expertise en gestion de tests / recette dans des contextes techniques complexes - Capacité à coordonner des équipes pluridisciplinaires (techniques et métiers) Compétences Soft skills - Leadership collaboratif - Communication claire, structurée et assertive - Esprit d'analyse et de synthèse - Orientation résultats et qualité - Agilité et résilience - Sens du service - Capacité à fédérer et à créer du lien Poste également ouvert en freelance.
Mission freelance
Techlead IAM - Data - Chriffrement
Sapiens Group
Publiée le
Ansible
Confluence
Docker
12 mois
570-600 €
Île-de-France, France
Mission En tant que Tech Lead de la tribe IAM – Data – Chiffrement (IDC) au sein de l’Engineering Platform, vous êtes responsable de la qualité, de la sécurité et de la conformité des solutions livrées, dans le respect des standards IT et des exigences réglementaires. Vous définissez et pilotez la conception technique des produits et solutions IAM, Data et Chiffrement, en proposant des architectures robustes, sécurisées et optimisées, alignées sur les besoins métiers et créatrices de valeur. Véritable leader technique et coach, vous accompagnez les équipes dans leur montée en compétences, favorisez l’adoption des bonnes pratiques et insufflez une culture d’excellence technique. Acteur clé de la transformation, vous contribuez activement à l’intégration des approches Agile, DevSecOps et à l’industrialisation des processus (automatisation, sécurité by design, test & learn). Objectifs de la prestationVolet Organisation & Management Encadrer et animer les équipes, internes comme prestataires, en assurant le mentorat et le développement des compétences. Participer au recrutement et à la sélection des prestataires, en garantissant l’adéquation des profils aux besoins techniques et organisationnels. Définir la roadmap, prioriser les initiatives et veiller à leur alignement avec les objectifs stratégiques de la Direction Technique. Être le point d’entrée identifié auprès des directions de Transactis (DSSI, Fabrication, Communication, RH…), centraliser les demandes, orienter les arbitrages techniques et synchroniser les priorités avec les équipes projets et opérationnelles. Piloter les rituels Agile (daily, sprint planning, sprint review, rétrospective) dans des cadres Scrum ou Kanban, et intégrer des démarches d’innovation (Design Thinking) lorsque pertinent. Contribuer activement aux comités de pilotage et aux ateliers techniques. Assurer la coordination transverse avec les équipes projets, production et sécurité afin de garantir la cohérence et la qualité des livrables. Identifier les risques, proposer des plans d’actions adaptés et veiller à la conformité des livrables. Promouvoir les bonnes pratiques techniques et organisationnelles (IAM, Data, Chiffrement, DevSecOps) ainsi qu’une culture d’amélioration continue. Volet Technique Maîtriser les enjeux liés aux systèmes d’information et aux technologies associées. Disposer d’une expertise sur les protocoles d’authentification et de fédération (SAMLv2, OpenID Connect, OAuth2) ainsi que sur les standards de sécurité avancés (WebAuthn, FIDO2). Intégrer et paramétrer les solutions dans des environnements Cloud et conteneurisés (IaaS, PaaS, conteneurisation, orchestration, CI/CD, automatisation, IAM Cloud & Sécurité). Définir les standards et bonnes pratiques en matière de chiffrement et de hash (Java Crypto, chiffrement symétrique et asymétrique, gestion des clés et des certificats). Orienter les développements applicatifs Java / Spring Boot / JEE, en garantissant l’application des principes de Clean Code et l’usage des standards d’API (SOAP, REST). Superviser l’administration et l’optimisation des bases de données PostgreSQL, en veillant à la performance et à la sécurité. Garantir la résilience et la disponibilité des plateformes via des mécanismes de haute disponibilité et de reprise d’activité (PCA/PRA). Piloter l’intégration des solutions IAM et de chiffrement dans des environnements Cloud (AWS, Azure, GCP) et leur orchestration via Kubernetes et Docker, en collaboration avec les équipes DevOps. Contrôler la conformité des pipelines CI/CD sécurisés (GitHub Actions, Jenkins) et des déploiements automatisés, sans intervenir directement dans leur exécution. Superviser la mise en œuvre des outils d’observabilité (Grafana, Prometheus, Loki) afin d’assurer la disponibilité et la performance des services IAM et Cloud. Promouvoir l’adoption des pratiques SRE et DevSecOps tout au long des cycles de développement et d’exploitation. Valider la configuration et la maintenance des socles techniques en garantissant la sécurité, la résilience et la fiabilité des flux. Assurer une veille technologique active sur les domaines IAM, Cloud, DevSecOps et SRE afin d’anticiper les évolutions et proposer des solutions innovantes. Compétences techniques attendues Systèmes Linux (RedHat) et réseaux Load balancing (VIP, SLB, HAProxy) Administration et gestion des bases de données PostgreSQL (standalone et cluster) Conception d’architectures réseaux distribuées et résilientes Expertise en conteneurisation et en automatisation des déploiements (Terraform, Ansible, Kubernetes, Docker, CI/CD, GitHub Actions, Jenkins) Maîtrise de Keycloak (installation, administration, configuration, tuning) Solide connaissance des protocoles et standards de sécurité (SAMLv2, OpenID Connect, OAuth2, WebAuthn, FIDO2) Utilisation des outils d’observabilité (Grafana, Prometheus) Expertise Java / Spring Boot / JEE, API, SOAP et principes de Clean Code Maîtrise des méthodes Agile (Scrum, Kanban, Design Thinking, Agile@Scale) et des outils de gestion (Jira, Confluence), avec une bonne connaissance des standards ITIL Capacité à accompagner les équipes sur les tests unitaires, d’intégration et de performance, et à en contrôler la conformité aux exigences de qualité et de sécurité Bonne compréhension des architectures applicatives
Offre d'emploi
DevOps Senior-UNIQUEMENT CDI
NEWAY SOLUTION DIGITALE
Publiée le
Argo CD
Automatisation
AWS Cloud
3 ans
40k-45k €
La Défense, Île-de-France
PAS de SOUS TRAITANCE UNIQUEMENT CDI Notre client HCLTech renforce ses équipes et recherche un(e) Ingénieur DevOps Senior passionné(e) par les environnements CI/CD et les outils de déploiement à grande échelle. Vous interviendrez sur des plateformes critiques, au coeur d’environnements cloud complexes, avec un fort enjeu d’automatisation, de fiabilité et de performance. Vos missions : • Concevoir et faire évoluer des plateformes CI/CD • Administrer et supporter des outils de déploiement (XL Deploy, Argo CD) • Développer des scripts et automatisations • Gérer incidents, changements et problématiques techniques • Collaborer avec des équipes Dev, Infra et Cloud Environnement technique • Cloud : AWS, Microsoft Azure • CI/CD : Argo CD, XL Deploy • Conteneurisation : Docker • Scripting : Python, Shell Unix/Linux • Versioning : Git, GitHub
Mission freelance
Network Operation Manager H/F
KOLABS Group
Publiée le
Azure
Cisco
Fortinet
1 an
Paris, France
Nous recherchons pour le compte de notre client un Network Operation Manager afin de renforcer son équipe. Le poste a pour mission d’appliquer des contrôles opérationnels stricts afin d’assurer une performance cohérente des processus techniques et une gouvernance de qualité sur la gestion des tickets, la liaison incidents– changements et la gestion des flux de travail multi-clients. Le poste implique un rôle actif dans l’évaluation des dispositifs internes, la proposition d’améliorations et d’initiatives innovantes pour optimiser les opérations techniques et améliorer la performance globale des services. 💼 Missions : Établir et maintenir des standards de contrôle pour le traitement des tickets techniques, incluant des revues périodiques pour vérifier l’exactitude du contenu et la conformité des workflows établis Surveiller les tendances des tickets et signaler toute incohérence, lacune ou déviation dans les processus Identifier les corrélations entre causes et tickets et mettre en œuvre des améliorations sur le cycle de vie des tickets Garantir la liaison correcte entre incidents et changements, assurer la traçabilité complète et initier des actions correctives si nécessaire Collaborer avec les équipes engineering, opérations et gestion des changements pour réduire les problèmes récurrents et améliorer les pratiques de liaison Définir les responsabilités à chaque point de contrôle technique et renforcer les pratiques de gouvernance Évaluer les systèmes et workflows internes, identifier les inefficacités et proposer des améliorations conformes aux meilleures pratiques techniques Encourager l’adoption d’outils modernes, de tableaux de bord et d’indicateurs pour améliorer la visibilité sur la performance Standardiser les processus techniques entre différents clients pour assurer cohérence, fiabilité et efficacité Identifier les processus variés et les standardiser en cadres évolutifs tout en respectant les exigences spécifiques des clients Proposer des initiatives d’automatisation et d’amélioration continue pour optimiser la qualité globale des opérations
Offre d'emploi
Data Engineer Senior
INFOGENE
Publiée le
60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
531 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois