L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 394 résultats.
Offre d'emploi
Administrateur Système & devops
Le Groupe SYD
Publiée le
Administration système
microsoft
35k-45k €
Saint-Herblain, Pays de la Loire
🌟Quel sera ton poste ? 🌟 Rejoins une équipe d’environ 60 personnes basée à Saint-Herblain , qui travaille sur des projets d’intégration majoritairement en SaaS (≈90 %) , avec une part On-Prem (≈10 %) , dans des contextes métiers exigeants et variés. Ton rôle est clé : tu interviens comme référent infrastructure & DevOps , au croisement des équipes de développement, des chefs de projet et des clients. En tant qu’ Administrateur·rice Systèmes & DevOps , tu es un acteur pivot des projets . Tu accompagnes les équipes projet sur les sujets d’infrastructure, d’automatisation et d’architecture, tout en participant à l’amélioration continue de nos pratiques techniques. Tu évolues entre : des missions de routine projet (accompagnement, industrialisation, sécurisation), et des phases de découverte / R&D , pour concevoir les meilleures architectures d’intégration possibles chez nos clients. Tes missions : Architecture & conseil (rôle central) Accompagner les clients dans la définition des architectures d’intégration des solutions Microsoft dans leur SI Être force de proposition sur les choix techniques, Cloud et DevOps auprès de l’équipe SYD Participer aux réflexions d’urbanisation et d’intégration applicative Cette dimension “architecture & conseil” est au cœur du poste. Accompagnement des équipes projet Travailler en étroite collaboration avec les développeurs et chefs de projet Accompagner la livraison du code , l’industrialisation des déploiements et les bonnes pratiques DevOps Superviser et gérer les ressources Azure liées aux projets Contribuer à la supervision des environnements SaaS hébergés sur l’écosystème Microsoft (Azure / Power Platform) Environnements Cloud & On-Prem Intervenir sur des environnements Azure (sécurité, monitoring, optimisation) Participer ponctuellement à des projets On-Prem : installations migrations environnements existants (anciennes versions Dynamics AX / CRM Automatisation & DevOps Concevoir et faire évoluer des pipelines CI/CD (Azure DevOps) Développer des scripts et automatisations (PowerShell) Participer à la standardisation et à l’industrialisation des environnements Expertise & amélioration continue Assurer un support technique de haut niveau d’expertise , en lien avec nos clients et Microsoft Capitaliser via la rédaction de procédures et guides techniques Participer à une veille technologique continue (Azure, DevOps, Cloud Microsoft) Ton environnement technique Tu évolues dans un écosystème Microsoft riche et structuré , qui correspond à l’environnement actuellement utilisé sur nos projets . Il n’est pas attendu que tu maîtrises l’ensemble de ces technologies dès ton arrivée . L’important, c’est d’avoir de bonnes bases, de la curiosité et l’envie de monter en compétence, accompagné par l’équipe. Environnement actuel : Azure (services Cloud, sécurité, monitoring) Azure DevOps (Repos, Pipelines) PowerShell (automatisation, scripting) SQL Server (administration) Power Platform
Mission freelance
DevOps AWS (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Kubernetes
12 mois
600-620 €
Paris, France
Contexte Nous accompagnons notre client, acteur majeur du secteur des mobilités, dans le cadre de l’évolution et de la modernisation de ses applications critiques hébergées sur AWS. Dans un contexte d’exigence forte en matière de haute disponibilité, de performance et de sécurité, il renforce son équipe DevOps afin d’industrialiser ses infrastructures via l’Infrastructure as Code, d’optimiser son usine CI/CD et de garantir la fiabilité des plateformes en production. Objet de la mission Industrialiser le déploiement et la gestion des infrastructures cloud via l’Infrastructure as Code et des pipelines CI/CD Assurer la fiabilité, la sécurité et l’observabilité des plateformes en production (Day-2 Ops, automatisation) Piloter la maîtrise des coûts (FinOps) et l’intégration des architectures hybrides (on-prem et AWS) Missions et livrables Apporter une expertise en architecture AWS pour des applications critiques Analyser les besoins et formuler des recommandations techniques adaptées Concevoir, maintenir et faire évoluer les infrastructures via Terraform et les outils DevSecOps Contribuer à l’amélioration continue de l’usine CI/CD et à la réduction des cycles de delivery Intervenir sur des architectures complexes en collaboration avec les équipes sécurité, développement et exploitation Réaliser des études techniques et PoC Rédiger la documentation technique (DEX, procédures, architecture) Assurer un reporting d’activité régulier
Mission freelance
Cloud DevOps Engineer orienté Data (GCP)
Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)
210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Expert DBA SQL Server / Cloud Azure
Gentis Recruitment SAS
Publiée le
Azure
Azure DevOps
Database
12 mois
Paris, France
Contexte de la mission Au sein de la DSI du client, l’équipe DBA intervient sur l’architecture, le build et le maintien en condition opérationnelle des bases de données utilisées par différentes applications critiques. Dans un contexte cloud first , l’environnement évolue progressivement vers des solutions Azure et AWS , avec une forte composante SQL Server sur Azure . Le consultant interviendra au sein d’une équipe DBA et collaborera étroitement avec les équipes infrastructure, développement et opérations afin d’accompagner les projets techniques et garantir la disponibilité des environnements de bases de données. Missions principales Le consultant interviendra notamment sur les activités suivantes : • Assurer l’architecture, le déploiement et l’administration des bases de données SQL Server • Maintenir et optimiser les environnements de bases de données en production • Participer à la mise en place et à l’amélioration des solutions d’infrastructure database • Accompagner les équipes de développement dans l’optimisation et l’évolution des bases de données • Mettre en œuvre des architectures haute disponibilité (clusters SQL Server, failover, Always On) • Automatiser les déploiements et l’administration via scripting et outils DevOps • Participer à l’amélioration continue des processus d’infrastructure et d’exploitation • Rédiger la documentation technique (architecture, HLD / LLD, procédures) • Contribuer aux projets d’évolution vers les services PaaS database dans le cloud Environnement technique Bases de données SQL Server (principal) PostgreSQL MongoDB Oracle Cloud Azure AWS Infrastructure Windows Server SQL Server clusters / Always On Environnement hybride On-premise / Cloud Automatisation et DevOps Azure DevOps CI/CD Bicep Scripting PowerShell Python Bash Monitoring Zabbix Prometheus Grafana
Offre d'emploi
Ingénieur stockage H/F
DSI group
Publiée le
Ansible
Exadata
Python
44k-50k €
Bezons, Île-de-France
Nous recherchons un Ingénieur stockage H/F pour l'un de nos clients basé à Bezons en Ile de France. Missions principales: Gestion du stockage Administration des baies HITACHI (HUSVM, G5500, G370), incluant HCP Administration des baies HP EVA Suivi des recommandations éditeurs et mise en œuvre des préconisations Gestion des environnements systèmes Administration, maintenance et optimisation des serveurs Solaris Administration et maintien des systèmes Linux (principalement RedHat RHEL ) MCO et performance Garantir la disponibilité, la performance et la capacité des infrastructures de stockage Métrologie, optimisation et capacity planning Analyse des causes d’indisponibilité et des incidents récurrents Définition et mise en œuvre de plans d’actions correctifs et préventifs Gestion des incidents et changements Diagnostic, prise en charge et résolution des incidents techniques Gestion des changements mineurs et moyens Escalade vers les centres de compétences si nécessaire Automatisation & industrialisation Conception et automatisation de tâches via Ansible et AWX (contexte DevOps) Développement de scripts Python pour : Automatiser des tâches spécifiques Intégrer des outils tiers Contribution à l’industrialisation et à la standardisation des processus d’automatisation Infrastructures virtualisées Interventions sur des environnements : VMware ESX Hyper-V OPCA Exadata Projets, documentation et support Support technique aux équipes MCO applicatives et projets Réalisation d’études techniques et propositions d’évolution Intégration technique et mises en production (patchs, évolutions) Mise à jour et conformité de la documentation et des procédures Production de tableaux de bord et reporting (suivi des indicateurs)
Offre d'emploi
DevSecOps
CAT-AMANIA
Publiée le
DevOps
Sécurité informatique
6 mois
40k-80k €
400-650 €
Paris, France
Rôle et responsabilité L’ingénieur DevSecOps a pour mission d’assurer l’évolution et le maintien en condition opérationnelle d’une chaine d’intégration continue CICD déployée sur une infrastructure Cloud IBM. Localisation : Paris (Métro Cour St Emilion) MISSIONS Mise en place d’une chaîne d’intégration et de déploiement continue à l’état de l’art (hébergée dans une infrastructure Cloud) · Evolution d’un pipeline CI pour assurer un déploiement d’applications sur un modèle On Premise existant ou Cloud sur l’outillage cible · Création d’un pipeline CD « sans couture » pour les applications Cloud opérées par Estreem · Intégration de tests de sécurité en intégrant des outils de sécurité SAST/DAST à l’état de l’art pour identifier et corriger des vulnérabilités dès les premières étapes de développement · Automatisation des tests et de l’analyse de leur bonne exécution · Automatisation des déploiements · Mise en place de mécanismes d’"Observabilité" du pipeline CICD · Mise en place de contrôle en ligne avec les exigences règlementaire, de sécurité et de qualité (ex : IBM FS Cloud) · Garant de la bonne disponibilité de la chaines CICD (en lien avec le fournisseur de la plateforme CICD) · Support aux équipes dans l’adoption de la chaine et de ses évolutions · Maintien & évolution d’outils de traçabilité des tests (de la stratégie de test jusqu’au rapports d’exécution) · Mise en place des « Quality Gates » au sein de la chaine CICD définis par le responsable Process & Industrialisation · Documentation de la chaine (pour son usage et son exploitation) Maintien en condition de la plateforme CICD · Garant de la qualité de service de la chaîne · Supervision de la chaine · Mise à jour régulière des versions logicielles des outils constituants la chaine · Suivi et optimisation des couts (logiciels et hébergement) Support aux équipes · Accompagnement des équipes dans l’utilisation de la chaine · Communication des standards de l’entreprise et des bonnes pratiques · Garant de la bonne intégration des services logiciel au sein de la chaine · Formation des équipes (inc. création de kits de formation) Securité et Conformité de la chaine · Assurer la conformité de la chaine en lien avec le CISO sur les évolutions règlementaires · Collaborer avec les architectes pour une chaine résiliente et un PCA · Auditer régulièrement la sécurité et la conformité de la chaine · Mettre en place les contrôles automatiques nécessaires (notamment autour de l’homologation IBM FS Cloud) Amélioration continue et automatisation · Promotion d’une amélioration continue des pratiques · Garant d’une standardisation de la chaine et du maintien d’une chaine à l’état de l’art · Automatisation régulière des outils · Veille technologique Assurance Qualité · Mise à disposition de dahsboard/indicateurs qualité permettant aux équipes et au management de suivre l’avancement des développements et la qualité du logiciel COMPETENCES REQUISES Techniques : · Maîtrise des principes CI/CD · Environnements IBM Cloud / Red Hat Openshift · Git, Kubernetes (K8s), Helm · Jenkins, GitLab, GitHub · SAST / SCA / DAST : SonarQube, Fortify, CheckMarx Personnelles : · Excellente communication, pédagogie et sens du service. · Capacité à travailler avec des équipes pluridisciplinaires (Dev, SRE, Archi, SecOps…). · Vision globale, sens de l’architecture et esprit d’amélioration continue. · Capacité à gérer le stress et les priorités. · Sens de l’organisation et rigueur. QUALIFICATIONS ET EXPERIENCES Formation : · Diplôme d’ingénieur Expérience professionnelle : · Minimum 5 ans d’expérience en tant qu’ingénieur DevOps · Expérience significative dans la mise en place de pipelines automatisés de bout en bout . · Expérience en développement et intégration de tests
Offre d'emploi
INGENIEUR / SRE / SYSOPS APPUI AU RUN
KEONI CONSULTING
Publiée le
CPU
Linux
Run
18 mois
20k-60k €
100-550 €
Évry, Île-de-France
CONTEXTE Dans le cadre de la mise en œuvre de pratiques de développement agiles et incrémentales, un fonctionnement en équipe intégrée Build et Run peut être demandé MISSIONS Dans ce cadre, le candidat assure des prestations d'exploitation applicative et d'industrialisation de celle-ci, assure au quotidien la performance et la disponibilité des applications, et œuvre à l'amélioration continue de l'opération d'une application, en particulier via l'automatisation et la mise en place de métriques de fonctionnement pertinentes pour l'application et la mesure de l'atteinte de ses objectifs. Il peut également être demandé au candidat d'intégrer dans sa prestation une activité de surveillance, supervision et observabilité des systèmes et applications. PROFIL & Exigences techniques : • Avoir des compétences en administration système : gestion des serveurs sur site (on premise), des systèmes d’exploitation (Linux, Windows), le matériel, le réseau, la sécurité et les sauvegardes. • Avoir des compétences en ingénierie système, middlewares, conteneurisation, orchestration et SGBD. • Maitriser les architectures logicielles et avoir des notions en développement applicatif. • Connaitre le fonctionnement d'une infrastructure DevOps et pouvoir mettre en œuvre et optimiser des pipelines CI/CD • Capacité à définir des objectifs de niveau de service (SLO), des accords de niveau de service (SLA) et des indicateurs de niveau de service (SLI) • Intervenir dans le cadre de processus de Gestion d'Incidents et Gestion de Problèmes • Capacité à aller chercher les root causes • Maitriser l'automatisation de tâches récurrentes (Ansible, Terraform, Chef, Puppet ...) • Savoir mettre en place et adapter des outils de surveillance et supervision Activités principales : • Assurer la disponibilité des applications et infrastructures • Gérer les incidents et problèmes, réaliser des post-mortem et REX, proposer des solutions d'amélioration continue • Automatiser les tâches répétitives pour réduire la charge manuelle d'exploitation • Travailler de concert avec les développeurs pour améliorer sur le long terme l'exploitabilité des solutions • Amélioration des outils de supervision et de traçabilité • Capitalisation et transfert de compétences LIVRABLES. Rapports de disponibilité et performance des applications ; Procédures de gestion des incidents et problèmes ; Scripts d’automatisation pour tâches récurrentes ; Préparation des systèmes (CPU, serveurs) Préparation et déploiement de machines virtuel et conteneurs Tableaux de bord de supervision et observabilité ; Indicateurs SLO/SLA/SLI et rapports de suivi : Documentation technique ; Rapports de capitalisation et transfert de compétences ;
Mission freelance
[FBO] Ingénieur Intégration Applicative (CI/CD) – DBA Oracle - 1283
ISUPPLIER
Publiée le
4 mois
400-450 €
Saint-Denis, Île-de-France
Description: 1.1. ÉLÉMENTS CONTEXTUELS GÉNÉRAUX Une nouvelle organisation est mise en place au sein des départements concernés avec le changement de sourcing dans le cadre de l’intégration continue. Une reprise de l’activité est donc réalisée afin de mettre en place des experts et intégrateurs au sein du département concerné pour réaliser ces activités. 1.2. CONTEXTE DE LA PRESTATION Dans le cadre de la verticalisation des solutions métiers, le département concerné met en place un mode équipe unifiée (Squad CAP DEA) pour l’amélioration du Delivery (DevOps). Afin de mettre en place ce nouveau mode de fonctionnement, la division CAP (Cohérence Architecture & Portefeuille) met à disposition des ressources pilotées par les projets et intégrées à l’équipe projet pour réaliser les activités d’intégration, d’expertise et de gestion des incidents pour les Chefs de Projet (CDP) ou Responsables d’Applications (RA), accompagnés par un référent technique pour le pilotage et la coordination de l’ensemble des applications du département. Les principaux domaines métiers concernés sont l’ingénierie, la surveillance/supervision de l’infrastructure et la sécurité. 2. DESCRIPTION DE LA MISSION 2.1. OBJECTIFS Réaliser l’intégration des applications sur les environnements d’intégration et de production. Réaliser les demandes de travail pour les environnements d’intégration et de production. Réaliser l’expertise sur les bases de données. Participer à l’amélioration du Delivery. Adapter ou améliorer les scripts de déploiement automatiques. Participer aux arbitrages des plannings d’intégration. Challenger, conseiller et proposer des solutions pour améliorer le processus. Participer et traiter les incidents dans le domaine de compétence, sur sollicitation dans le cadre de la gestion de crises (incident/résolution), du Chef de Projet ou du Référent Technique. Mettre en œuvre le pipeline PIC + PDCR avec le partenaire projet et la Factory CI/CD. Participer au processus de décommissionnement des applications on premise. Participer à la transformation méthodologique du département. Traiter les Demandes de Travaux. Accompagner la construction et le déploiement technique des produits digitaux du programme. Fiabiliser les services déployés et améliorer la qualité par une meilleure maîtrise des processus de gestion d’incidents et de problèmes. Gérer, compléter et suivre l’ensemble des demandes de services des projets. Gérer les incidents et assurer l’exploitation applicative. 2.2.1. INTÉGRATION Arrêt/redémarrage de services (Apache, Tomcat, WebLogic, VTOM, Ingres, Oracle, etc.). Déploiement de binaires (.ksh, .sql, etc.). Modification de fichiers de configuration (.properties, environnement, tomcat-user.xml, etc.). Ajout/suppression/modification de droits propriétaires (chown). Exécution de scripts (droits Oracle, PostgreSQL, etc.). Installation de certificats dans /etc/. Accès aux répertoires de configuration des socles par défaut (debug, vérification, mises en place des préconisations). Création de liens symboliques. Accès à l’ensemble du serveur pour les activités de debugging d’incidents (répertoires système tels que /var, /etc, /usr). Correction des droits de fichiers (chmod, chown). Dépôts de configuration. Vérification des ports (telnet). Export de schéma/export base. Import de schéma. Modification de mots de passe utilisateurs. Exécution de scripts SQL et de requêtes. Arrêt/relance de bases. Relance de batchs VTOM et modification basique du paramétrage. 2.2.2. EXPERTISE DBAx Création d’utilisateurs. Copie de fichiers dumps. Augmentation de la mémoire (SGA/PGA). Restauration Oracle. Vérification de l’état des bases (archivelogs, redémarrage, corruption de blocs). Déblocage de situations (mémoire saturée, FS full). Modification de la taille et/ou ajout de tablespaces ou datafiles. Rebuild d’index, recalcul de statistiques. Analyse des performances (analyse de rapport AWR ou autre).
Offre d'emploi
Platform Engineer Elastic Expérimenté
Deodis
Publiée le
DevOps
Elasticsearch
Site Reliability Engineering (SRE)
36 mois
40k-45k €
480-530 €
Montpellier, Occitanie
Mission à Montpellier, 3 jours sur site, 2 jours de télétravail / semaine En tant que Platform Engineer, au cœur du dispositif d’ingénierie de plateforme, aura un rôle clé dans la construction, l’évolution et la sécurité et l’opérabilité de notre stack technique. Dans une logique Platform-As-A-Product pour mettre à disposition des équipes internes (devs, ops, data, etc…) un environnement cohérent, standardisé et automatisé, en production. Nous exploitons la solution d’Elastic au travers de 4 plateformes Elastic Cloud Enterprise avec 600 machines virtuelles dont 400 déploiements de la Stack Elastic. Nous exploitons la solution Grafana au travers de 4 plateformes avec 6 000 utilisateurs dont 2 000 utilisateurs mensuels sur l’environnement de production. Voici les principales responsabilités : 1. Automatiser & Industrialiser l’infrastructure Maintenir et faire évoluer l’infrastructure virtualisée et conteneurisée (VMs, Kubernetes). Implémenter des workflow GitOps robustes avec ArgoCD, Gitlab CI et Ansible. Gérer le cycle de vie des environnements techniques (dev, test, recette, prod), depuis le provsionning jusqu’à la décommissions. Support les équipes via la plateforme Accompagner les équipes tech dans l’onboarding, l’usage des outils, le déploiement des applications. Assurer un support niveau plateforme, incluant le diagnostic, l’amélioration continue et la documentation claire. Participer à la co-construction des « golden paths» pour les cas d’usage récurrents (déploiement, logs, monitoring, intégration). Concevoir des abstractions réutilisables Créer des blueprints, templates et modules pour accélérer les déploiements et éviter les duplications. Maintenir un portail interne de la plateforme, pour exposer ces composants, documentations, et automatisations. 4. Assurer la sécurité et la conformité Intégrer les exigences de CyberAct et autres réglementation de sécurité dans les pipelines et l’infrastructure. Automatiser les contrôles de conformité (analyse d’images, gestion des secrets, règles de sécurité Kubernetes, audit trail) Participer à la mise en œuvre des politiques de contrôle d’accès et à leur revue régulière. 5. Fiabiliser la plateforme Travailler sur la résilience, l’automatisation des redémarrages, la capacité à rollback, et la haute disponibilité. Contribuer au traitement des incidents, aux post-mortems et à la réduction du MTTR. Participer à la définition et au suivi d’indicateurs de performance SLOs, taux de succès des déploiements, couverture, IaC, etc.)
Offre d'emploi
Lead Développeur C++ (H/F)
ANDEMA
Publiée le
Azure DevOps
C/C++
1 an
40k-55k €
380-480 €
Valence, Auvergne-Rhône-Alpes
Dans le cadre d'un projet d'envergure pour l'un de nos clients, nous recherchons un Lead Développeur C++/C pour intervenir sur un logiciel complexe et historique. Vous intégrerez le bureau d’études d’un acteur majeur de la conception et maintenance de solutions d’équipements intelligents , notamment des machines de distribution dotées de nombreux périphériques (paiement, monétique, imprimantes, écrans…). L’équipe développe et maintient une application C++ historique et critique , riche fonctionnellement et évoluant depuis plus de 30 ans. Il s’agit d’un logiciel cœur, complexe, avec un fort niveau d’exigence (disponibilité 99,9 %). Un rôle hybride incluant : ✔ Pilotage technique ✔ Développement C++ ✔ Gestion de budget/charges & reporting ✔ Suivi complet des évolutions (analyse → dev → tests → livraison) L’application intègre de nombreux composants C/C++ cross-plateformes utilisés sur : Linux embarqué Back office Linux 64 Windows 10 IoT (migration Windows 11 prévue) MISSIONS DÉTAILLÉES 1. Analyse & spécifications Analyser les besoins techniques et fonctionnels. Rédiger les spécifications détaillées. Proposer des solutions adaptées dans un environnement logiciel ancien et complexe. 2. Pilotage technique Encadrer une équipe de développement locale (~10 personnes) et distante (~6 développeurs). Suivre la charge, les budgets (en heures) et les jalons. Gérer les tickets, priorités et qualité du code (Azure DevOps). Valider les pull requests et garantir les bonnes pratiques. 3. Développement & refactoring Développer de nouvelles fonctionnalités en C++. Travailler dans un environnement C++ moderne (C++17, POO, design patterns). Réaliser des refactorings maîtrisés et sécurisés. 4. Intégration & tests Mettre en place et exécuter les tests d’intégration et de validation machine. Rédiger les plans de test, notes de version et notes de livraison. Participer activement à l’intégration continue (CI), aux tests automatiques et à l’analyse de code. 5. Installation & delivery Installer, livrer et mettre à jour les développements sur plateformes internes et clients. Travailler sur des machines puissantes. Participer aux réunions techniques et contribuer à l’amélioration continue. 6. Documentation & reporting Rédiger les documentations techniques (spécifications, tests, livrables…). Assurer un reporting régulier au responsable de service et au référent fonctionnel. ENVIRONNEMENT TECHNIQUE Systèmes Windows Windows 10 IoT → upgrade Windows 11 Linux (embarqué & back office) Langages C++ (expertise indispensable) C C# (apprécié) Notions web front appréciées (Vue.js) – utile pour interfaçage Outils Visual Studio 2019 / 2022 CMake Git (nombreuses branches / configurations complexes) Azure DevOps (tickets, CI/CD, code review) Périphériques intégrés Paiement bancaire (modules certifiés type Ingenico / Verifone) Monnayeurs, imprimantes, lecteurs, écrans simples ou doubles LES POINTS FORTS DU POSTE Travailler sur un logiciel cœur complexe, exigeant, fortement disponible. Participer à la modernisation d’une base C++ historique très riche. Encadrement et pilotage d’équipes multi-sites. Environnement R&D, forte technicité, autonomie.
Offre d'emploi
DevOps SRE Cloud AWS H/F - Paris
Webnet
Publiée le
Ansible
CI/CD
Cloud
73k-80k €
Paris, France
Dans le cadre d'une intégration définitive chez l'un de nos clients, nous sommes à la recherche d'un DevOps Cloud. Vous intégrez l'équipe R&D Cloud, et serez capable de structurer et cadrer l’ensemble des activités CI/CD et observabilité. Le poste combine expertise technique, vision d’architecture et responsabilité opérationnelle. Vous êtes responsable de la fiabilité, de l’automatisation et du maintien en condition opérationnelle des plateformes Cloud. Vous intervenez sur trois axes majeurs : Structuration et fiabilisation des pipelines CI/CD Mise en place et pilotage de la stratégie d’observabilité Support technique avancé et accompagnement des équipes Vous aurez pour missions : CI/CD & Automatisation Mise en place et optimisation des pipelines CI/CD Configuration et maintien des outils TeamCity et Bitbucket Pipelines Création et maintenance des scripts et jobs de déploiement en production Développement et maintenance des scripts Terraform et Ansible Instanciation des composants nécessaires au déploiement des produits Automatisation et fiabilisation des mises en production Observabilité & MCO Définir et cadrer la stratégie d’observabilité Choisir et implémenter la stack (OpenTelemetry, Datadog, Prometheus…) Mettre en place le monitoring, l’alerting et les dashboards Définir les indicateurs de maintien en condition opérationnelle Optimiser les performances, la scalabilité et les coûts Support & Collaboration Support de niveau 3 Accompagnement de l’équipe Digital Services dans le traitement des demandes clients Gestion des accès, certificats et sujets liés à la sécurité Contribution à la stratégie Cloud et aux bonnes pratiques
Offre d'emploi
Platform Engineer
Deodis
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
42k-47k €
460-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du développement de notre client, nous souhaitons faire appel à une expertise, avec une spécialisation Devops et en gestion de clusters Kubernetes. Vous intégrez l’équipe Experte en Conteneurisation, où, en collaboration avec le Product Owner et vos pairs, vous concevez les plateformes d’infrastructure orientées Kubernetes permettant de proposer aux équipes internes des services informatiques consommables en selfcare. Missions : participer à la définition de l’architecture des plateformes de services, et rédigez la documentation nécessaire à l’exploitation des services. superviser, monitorer et optimiser les performances des environnements Cloud, afin d’assurer leur robustesse, leur disponibilité et leur sécurité. gérer le support technique de niveau 3, pour résoudre les incidents complexes et accompagner les utilisateurs. réaliser une veille technologique sur les solutions d’automatisation, afin d’intégrer les innovations pertinentes.
Offre d'emploi
Ingénieur Logiciel – Systèmes Distribués & Performance ⚠️Français
Sapiens Group
Publiée le
AWS Cloud
Go (langage)
Java
3 ans
Vélizy-Villacoublay, Île-de-France
🚀OFFRE SAPIENS 😉 Pour notre partenaire dans le secteur de la défense, nous recherchons un : Ingénieur Logiciel Confirmé – Systèmes Distribués & Performance (H/F) 📍 Vélizy-Villacoublay (78) 🏢 Mission longue durée 🖥️ Environnement critique haute performance Profil habilitable ⚠️ 👤 Profil recherché Formation ingénieur ou équivalent Expérience significative en développement de systèmes distribués Forte culture performance et qualité Capacité à travailler dans un environnement exigeant et structuré 📍 Localisation & organisation Basé à Vélizy-Villacoublay (78) Présentiel requis au démarrage Télétravail possible à partir du 3ᵉ mois (à valider) Pas de déplacements prévus 🎯 Contexte de la mission Dans le cadre d’un programme stratégique à forte visibilité, nous recherchons un(e) Ingénieur(e) Logiciel confirmé(e) pour intervenir sur le développement et la maintenance de systèmes distribués à fortes contraintes de performance et de résilience. Vous évoluerez dans un environnement technique exigeant où les temps de réponse, la robustesse et la scalabilité sont essentiels. La mission s’inscrit également dans une dynamique d’innovation avec l’intégration de technologies IA/ML, LLM et agents intelligents dans les produits. 🛠 Vos responsabilités Développer et maintenir des applications pour des systèmes distribués critiques Participer aux choix d’architecture et aux optimisations de performance Garantir la qualité du code (tests, non-régression, fiabilité) Travailler en méthodologie Agile (User Stories sous JIRA) Contribuer à l’intégration de briques IA/ML et LLM Participer à l’ajout de fonctionnalités avancées (serveur MCP, agents de code, etc.) 💻 Environnement technique Compétences clés Excellente maîtrise des algorithmes et structures de données Analyse de complexité (notation Big O) Architecture de systèmes distribués Bases de données répliquées Optimisation des performances applicatives Langages TypeScript Golang Java Technologies Web Angular (préféré) PWA WebGPU / WebGL WebRTC Optimisation des performances Web DevOps & Infra Redis, IndexedDB, Local Storage API SRE, CI/CD, automatisation Docker Kubernetes 💡 Ce que nous vous proposons Mission stratégique sur des systèmes critiques Environnement technologique innovant (IA intégrée aux produits) Contexte structuré et exigeant Opportunité long terme Merci à vous et bonne journée 😊
Mission freelance
Ingénieur support applicatif Trading (Accès marchés)
JobiStart
Publiée le
Finance
Support technique
3 ans
400-550 €
Paris, France
Connaissance obligatoire en trading et accès marché Nous recherchons un profil Support/Production Applicative pour rejoindre une Grande Banque de Financement et d'Investissement (BFI) . Vous intégrerez une équipe de 20 personnes ("Market Access Integration & Architecture") aux profils variés (Support, Intégration, BA, Dév), en charge des outils de trading, des automates et de l'accès aux marchés. Vos missions principales : Support Front-Office : Assurer le maintien en condition opérationnelle des plateformes d’algo trading et d’exécution, en proximité directe avec les traders. DevOps & Intégration : Accompagner les développeurs sur les bonnes pratiques CI/CD et assurer le déploiement des composants applicatifs sur les environnements DEV, UAT et PROD (Linux/Windows). Monitoring & Scripting : Optimiser les outils de surveillance et l'analyse de logs via du scripting pour une détection proactive des incidents. Contexte : Travail en méthodologie Agile au sein d'un environnement international multi-sites.
Offre d'emploi
IBM MQ / WebSphere MQ
bdevit
Publiée le
Ansible
DevOps
ITIL
36 mois
Île-de-France, France
Contexte : Dans un environnement critique à forts enjeux de disponibilité, de performance et de sécurité, l’Expert IBM MQ / WebSphere MQ intervient sur la gestion des flux inter-applicatifs et le maintien en conditions opérationnelles des plateformes middleware. Il joue un rôle clé de référent technique auprès des équipes projets et de production. Missions Principales : Assurer l’expertise technique sur IBM MQ / WebSphere MQ dans des environnements critiques et hautement disponibles ; Concevoir, administrer et sécuriser les flux inter-applicatifs (synchrones et asynchrones) ; Garantir la disponibilité, la performance et la fiabilité des plateformes middleware ; Prendre en charge le support de niveau 2 et 3 : Analyse et diagnostic des incidents complexes, Résolution des problématiques critiques et récurrentes, Gestion des incidents majeurs et participation aux cellules de crise. Contribuer aux mises en production : Préparation, validation et accompagnement des déploiements, Coordination avec les équipes projets, applicatives et infrastructure. Participer à l’ industrialisation des plateformes middleware : Automatisation des déploiements et des opérations récurrentes, Standardisation des configurations et bonnes pratiques, Assurer un rôle de référent technique : Support aux équipes projets et production, Rédaction et maintien de la documentation technique, Contribution aux choix d’architecture et à l’amélioration continue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
394 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois