L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 782 résultats.
Offre premium
Offre d'emploi
Expert Datadog/kubernetes/ AWS/ OBSERVABILITE
Sapiens Group
Publiée le
AWS Cloud
Datadog
Kubernetes
1 an
Paris, France
Mission : Accompagner l’équipe dans la mise en place de Datadog et des pratiques DevOps, automatiser les processus et maintenir l’infrastructure cloud Responsabilités principales : Déploiement CI/CD sur serveurs Windows, containers ECS et clusters EKS Maintenance et amélioration des plateformes de production Développement et optimisation de modules Terraform/Terragrunt Création de Lambdas pour administration et automatisation Mise en place d’ArgoCD et accompagnement des développeurs sur l’observabilité Coordination de comptes AWS et Landing Zones PoC Talos sur environnement on-prem Proxmox Profil : Expérience solide en DevOps, cloud et IaC Autonome, rigoureux et orienté optimisation Capacité à travailler avec les équipes de développement et à vulgariser les concepts DevOps Environnement technique : DATADOG / KUBERNETES / AWS (EKS, Lambda, Landing Zones), Azure DevOps, AKS, Terraform, Terragrunt, Helm, Docker, ArgoCD, Python, Bash, Linux/Windows, Git/GitHub/GitLab, Datadog, Trivy, Falco, SonarQube, Talos (PoC).
Mission freelance
Consultant ETL Semarchy Orleans/su
WorldWide People
Publiée le
Semarchy
6 mois
350-400 €
Orléans, Centre-Val de Loire
Consultant ETL Semarchy pour renforcer un dispositif chez un client à Orléans. Le collaborateur devra résider dans la région : aucune possibilité de télétravail durant les trois premiers mois, puis 2 jours de télétravail par semaine. Le client retient uniquement des candidats ayant déjà travaillé auprès de clients locaux à Orléans. Vous trouverez ci-dessous une liste non exhaustive des travaux attendus dans le cadre de cette mission : · Apporter des préconisations sur les choix de conception & réalisation · Concevoir et développer les évolutions, en tenant compte des besoins métiers actuels et futurs. · Identifier les impacts sur les applications dépendantes · Rédiger des livrables projets du chantier (Note de livraison, bon de livraison, dossier de création de chaines) · Donner de la visibilité aux membres de l'équipe de développement (via des Compte rendu, de l’animation de comité) · Interagir avec un nombre important d’acteurs : développeurs, chefs de projets SI, MOA, urbanistes SI, experts techniques, correspondants métiers, etc. Pour mener cette prestation, le dispositif proposé doit présenter au minimum les aptitudes suivantes : · Avoir des compétences techniques avérées : o Maîtriser les outils développements : XDI semarchy · La maitriser des compétences techniques suivantes est un plus : o Maitriser l’environnement Snowflake o Connaitre le fonctionnement de la moulinette de migration fournie par Semarchy afin de réaliser la bascule du code ODI vers XDI de Semarchy o Maitriser l’environnement Oracle o Maîtriser les outils développements : ODI o Maitriser les outils de déploiements : Jenkins, Git, Terraform, Sqitch o Maitriser l’interfaçage avec le cloud Azure o La maitriser du langage SAS est un plus · Autonomie · Être force de proposition · Disposer d’une capacité d’adaptation · Être rigoureux et organisé · Appétence au travail en équipe
Mission freelance
POT9073 - Un consultant ETL Semarchy à Orléans
Almatek
Publiée le
ETL (Extract-transform-load)
6 mois
320-380 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, Un consultant ETL Semarchy à Orléans Vous trouverez ci-dessous un aperçu des principales missions et responsabilités attendues dans le cadre de cette prestation : Apporter des préconisations sur les choix de conception & réalisation Concevoir et développer les évolutions, en tenant compte des besoins métiers actuels et futurs. Identifier les impacts sur les applications dépendantes Rédiger des livrables projets du chantier (Note de livraison, bon de livraison, dossier de création de chaines) Donner de la visibilité aux membres de l'équipe de développement (via des Compte rendu, de l’animation de comité) Interagir avec un nombre important d’acteurs : développeurs, chefs de projets SI, MOA, urbanistes SI, experts techniques, correspondants métiers, etc. Pour mener cette prestation, le dispositif proposé doit présenter au minimum les aptitudes suivantes : Avoir des compétences techniques avérées : Maîtriser les outils développements : XDI semarchy La maitriser des compétences techniques suivantes est un plus : Maitriser l’environnement Snowflake Connaitre le fonctionnement de la moulinette de migration fournie par Semarchy afin de réaliser la bascule du code ODI vers XDI de Semarchy Maitriser l’environnement Oracle Maîtriser les outils développements : ODI Maitriser les outils de déploiements : Jenkins, Git, Terraform, Sqitch Maitriser l’interfaçage avec le cloud Azure La maitriser du langage SAS est un plus Autonomie Être force de proposition Disposer d’une capacité d’adaptation Être rigoureux et organisé Appétence au travail en équipe
Offre d'emploi
Ingénieur Devops (H/F)
Experis France
Publiée le
Lille, Hauts-de-France
Experis recherche un Ingénieur Devops (H/F) sur Lille pour son client spécialisé dans le secteur du retail. Experis recherche un Ingénieur DEVOPS à sur la métropole Lilloise pour l'un de ses clients: Intégré au sein des équipes infrastructure, le prestataire participera aux différents projets ainsi qu'au maintien en condition opérationnelle de la solution actuelle. Aidé par l'équipe infrastructure de la solution actuelle, il participe aux tâches projets et au maintien opérationnel de l'infrastructure kubernetes. Ses tâches pourront couvrir les domaines suivants : Améliorer l'infrastructure as code ainsi que l'infrastructure elle-même (essentiellement kubernetes) Participer aux mises en production et au lifecycle des différentes briques de la plateforme (kubernetes, gravitee, terraform, etc) Améliorer le provisionning via terraform Travailler à l'élaboration de la stratégie de déploiement du logiciel (canary deployment, blue/green, etc ...) Notions de bench et tests de charge Participer au tuning de la solution et à l'optimisation de la plateforme, notamment en fonction des benchs Améliorer et maintenir le système de supervision Devenir référent sur nos usages des technologies Opensearch, Kibana, Logstash Maintenir les environnements (en équipe) pour viser un zéro défaut en production Automatiser les tâches récurrentes Surveiller la plate-forme Proposer des optimisations Challenger et valider le DRP Optimiser et maintenir des JVMs en production (dans un environnement conteneurisé) serait un plus Expérimentation, POC, et compte-rendu. Documenter / informer / signaler
Mission freelance
ML platform senior DevOps engineer
Cherry Pick
Publiée le
AWS Cloud
MLOps
Terraform
12 mois
Paris, France
Équipes ML Platform et ML Lab L'équipe ML Platform est centrée sur l'amélioration de la productivité des chercheurs dans l'entraînement de modèles de machine learning (ML) en développant des bibliothèques, des services et des bonnes pratiques, et en assurant une production ML robuste à grande échelle. L'équipe est composée de profils travaillant sur des projets transverses ainsi que d'ingénieurs accompagnant les équipes fonctionnelles dans leur parcours ML. Le ML Lab est une équipe de recherche axée sur des travaux académiques, nécessitant donc des outils et une infrastructure dédiés en dehors de l'infrastructure du client, afin de pouvoir accéder librement aux ressources open source de pointe et collaborer avec des collaborateurs externes. Mission En tant qu'Ingénieur DevOps au sein de l'équipe ML Platform, vous tirerez parti de votre solide bagage en ingénierie logicielle, de votre maîtrise de Python et de votre expérience pratique avec les fournisseurs cloud pour faciliter le travail quotidien de l'équipe ML Lab sur — leur néocloud de référence — ainsi que les liens nécessaires avec l'infrastructure du client, principalement hébergée sur AWS. Responsabilités principales Configuration du fournisseur cloud (Lambda) pour l'accès GPU par le ML Lab. Fonctionnalités FinOps et protection minimale contre les erreurs humaines. Optimisation des images Docker pour un démarrage à froid plus rapide. Mise en place et maintenance de systèmes de monitoring pour l'entraînement des modèles. Participation mineure aux projets plus larges de l'équipe ML Platform sur AWS pour les autres chercheurs du client (CI/CD, outillage sur AWS, etc.). Promotion et mise en œuvre de processus d'automatisation. Renforcement des protocoles de sécurité via des évaluations de vulnérabilités et la gestion des risques pour déployer des mesures de cybersécurité.
Offre d'emploi
Tech Lead IA
OBJECTWARE
Publiée le
Ansible
Dataiku
DevOps
3 ans
40k-80k €
400-600 €
Île-de-France, France
Le Technical Lead IA jouera un rôle structurant pour garantir cohérence technique, industrialisation et excellence DevOps au sein de la plateforme. h3. a. Piloter l’architecture technique de la plateforme • Définir et maintenir l’architecture agentique (Registry, Gateway/MCP, workflows, sécurités, modèles de qualification). • Assurer cohérence, robustesse, maintenabilité et alignement transverse avec les équipes IAP, MTA, Data et SSI. h3. b. Animer et structurer l’équipe de développeurs • Encadrer une équipe de développeurs et instaurer les bonnes pratiques (clean code, revue, qualité, documentation, sécurité). • Organiser les rituels techniques et accompagner la montée en compétence h3. c. Renforcer l’industrialisation, le DevOps et le run • Mettre en œuvre et piloter les environnements Kubernetes, MCP, orchestrateurs et connecteurs. • Définir et opérer la chaîne CI/CD (tests, scans, packaging, déploiements, observabilité). • Implémenter les normes : GOPROD, DORA, sécurité, monitoring Datadog/Grafana, logging distribué. • Garantir scalabilité, résilience, observabilité et conformité SSI. h3. d. Appuyer le delivery et la qualification des agents • Participer aux ateliers techniques, PI Planning, System Demos. • Contribuer au processus de qualification des agents IA (création → test → industrialisation → run). • Accompagner les équipes builders et métiers dans l’intégration en production • Pilotage technique transverse, capacité à fédérer et clarifier les responsabilités. • Maîtrise des architectures orientées agents : Registry, Gateway, MCP, outils associés. h3. DevOps / SRE • Compétences cloud, conteneurs, CI/CD, observabilité, automatisation. • Industrialisation d’environnements critiques, monitoring avancé, optimisation de pipelines. h3. Sécurité & Gouvernance IA • Connaissance approfondie des règles SSI, IA Act, propagation sécurisée des tokens. • Maîtrise AuthN/AuthZ (OIDC/JWT) et doctrines DevSecOps. h3. Communication & Transversalité • Pratique avancée de la documentation structurée (guidelines, playbooks, runbooks). • Excellente communication avec architectes, produits, DevOps, Data, SSI. h3. Infrastructure & Cloud • Kubernetes (on prem & cloud), Helm, RBAC, Secrets Management. • AWS / Azure. • Terraform / Ansible. h3. Orchestration agentique • MCP Servers, Agent Registry, Agent Gateway. • Frameworks agents : Dust, Mistral, Dataiku. h3. DevOps / CI/CD / Observabilité • GitLab CI, Jenkins, Sonar, Artifactory/Nexus. • Docker, optimisation d’images. • Datadog, Grafana, Prometheus, logging distribué. h3. Sécurité • Keycloak, OIDC, JWT. • Scans de sécurité, politiques DevSecOps. h3. Langages & intégration • Python expert (FastAPI, Langgraph, Langchain, Pydantic, asyncio). • Compétences Fullstack (Python, Java, Angular) • YAML / JSON / OpenAPI. • Kafka ou autres bus d’événements
Offre d'emploi
Ingénieur.re DevOps Intégration (Annecy)
LEVUP
Publiée le
Ansible
Linux
Shell
12 mois
Annecy, Auvergne-Rhône-Alpes
Contexte Au sein d’un environnement technique complexe, l’ingénieur intervient sur l’ensemble du cycle de vie des applications afin d’en assurer l’intégration, le déploiement, le maintien en conditions opérationnelles et l’amélioration continue. Il collabore étroitement avec les équipes projets, les équipes de développement et les équipes opérationnelles dans un objectif de qualité, de stabilité et de performance des services. Missions principales Participer aux phases de validation technique des projets et contribuer à l’analyse des incidents sur les différents environnements Accompagner les équipes projet dans la préparation et la mise en production des applications Rédiger et maintenir la documentation technique associée aux mises en production et aux opérations récurrentes Assurer le déploiement des nouvelles versions applicatives ainsi que des correctifs Définir, préparer et exécuter les tests techniques nécessaires à la validation des livrables Vérifier les évolutions et mises à jour des bases de données en lien avec les développements Participer à l’amélioration continue des processus d’intégration, de livraison et de déploiement Contribuer à l’automatisation des traitements et à l’ordonnancement des chaînes applicatives via des outils dédiés Réaliser des tests de performance, de charge et de robustesse sur les composants applicatifs Mettre en place et maintenir les dispositifs de supervision et de suivi des applications et infrastructures Gérer les opérations de maintenance, incluant les mises à jour et correctifs Administrer les environnements techniques (systèmes et composants associés) Assurer la gestion des sauvegardes et des restaurations Participer à la gestion des certificats et à la sécurisation des environnements
Offre d'emploi
DevOps / SysOps Senior (H/F)
Amiltone
Publiée le
DevOps
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un DevOps / SysOps senior. Vous rejoignez le projet dès sa phase de démarrage, participez à la définition de l'architecture, puis assurez à la fois les activités de BUILD et de RUN. Votre rôle - Vous construisez les environnements Cloud - Vous automatisez les déploiements - Vous garantissez la stabilité, la supervision et l'exploitation des applications - Vous travaillez en binôme avec les équipes de production, avec un rôle de référent technique et de transmission Vos missions - Construire les environnements Cloud via Terraform (cluster OpenStack) - Automatiser les déploiements et configurations avec Ansible - Mettre en place et maintenir les pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) - Déployer et exploiter la supervision et l'observabilité (Prometheus, Grafana, Loki) - Assurer le suivi des systèmes d'exploitation Linux - Collaborer étroitement avec les équipes de développement - Accompagner et faire monter en compétence les équipes OPS Environnement technique : - Linux (système & réseau) - Cloud public ou privé - Terraform - Ansible - Jenkins - Grafana
Mission freelance
Expert DevOps pour solution de back office
Codezys
Publiée le
Ansible
Confluence
DevOps
12 mois
Nantes, Pays de la Loire
Contexte de la mission Recrutement d'une expertise DevOps pour renforcer l'équipe actuelle. Compétences requises : Gestion d'installations sur divers environnements de recette. Traitement des questions d'installation et de déploiement sur serveurs Windows en magasin et solutions cloud. Interventions sur les actions de Build et de Run. Maîtrise d'outils tels qu'Ansible, Terraform et AWX. Importance d'une bonne organisation et d'une collaboration efficace avec quatre équipes produit. Objectifs et livrables Renforcer l'équipe DevOps pour améliorer efficacité et fiabilité du back office. Principales missions : Installation et gestion des environnements de recette. Déploiement sur serveurs Windows et en cloud. Actions de Build et de Run. Rédaction et mise à jour de documents d'exploitation et pages Confluence. Collaboration avec les équipes produit pour une communication fluide. Gestion simultanée de plusieurs demandes et partage des connaissances avec les pairs DevOps.
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer
Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer
3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Mission freelance
Ingénieur SRE
TEOLIA CONSULTING
Publiée le
AWS Cloud
DevOps
12 mois
400-550 €
Paris, France
Dans le cadre de la transformation de son système d’information et de l’industrialisation de ses pratiques IT, un acteur majeur du secteur de l’énergie recherche un Ingénieur SRE pour renforcer ses équipes. Le consultant interviendra dans un environnement Agile, au cœur d’un écosystème applicatif critique (B2C / B2B), avec des enjeux forts de fiabilité, performance et scalabilité des services . Missions Concevoir, développer et maintenir des systèmes fiables, performants et évolutifs Collaborer avec les équipes de développement pour intégrer les principes SRE dès la conception Assurer la disponibilité, la performance et la résilience des applications en production Mettre en place des mécanismes de monitoring et d’alerting proactifs Participer à la gestion et à la résolution des incidents critiques Automatiser les tâches opérationnelles (run, déploiement, exploitation) Contribuer à l’amélioration continue des pratiques SRE et DevOps Maintenir la documentation technique et les bonnes pratiques Environnement technique Cloud : AWS CI/CD : GitHub Actions, pipelines de déploiement Infrastructure as Code : Terraform, Ansible, Puppet Conteneurisation : Docker Monitoring : Dynatrace Systèmes : Linux Architecture : systèmes distribués, haute disponibilité
Offre d'emploi
Consultant DevOps et AWS F/H
METSYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
65k-70k €
Paris, France
Pour un client de forte renommée dans son secteur d'activité, nous recherchons un.e Ingénieur AWS & DevOps/Terraform pour un démarrage prévu le 17 mai 2026 à Paris (7ème arrondissement) pour une mission allant jusqu'à fin 2026 et pouvant être reconduite. Votre mission consistera à concevoir, industrialiser et exploiter la plateforme et les outils qui permettent aux équipes de développer, de déployer et de faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Plus spécifiquement, vous serez chargé.e des tâches suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, données, périphérie) conformes à des normes architecturales rigoureuses et aux meilleures pratiques AWS ; Faire évoluer une infrastructure multi-comptes (AWS Organizations, Control Tower/SCP, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et évolutif ; Définir des modèles d'infrastructure et d'application (« golden paths ») pour les charges de travail conteneurisées (EKS/ECS/Fargate), sans serveur (Lambda) et traditionnelles (EC2/ASG), y compris la mise en réseau, l'observabilité et la sécurité ; Créer et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), y compris les tests, la politique en tant que code (OPA/Conftest), la sécurité (tfsec/Checkov) et la planification/application automatisées (Atlantis/Spacelift/Terraform Cloud) ; Exploiter et renforcer la plateforme : surveillance/alertes/journalisation/traçabilité (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog) ; Définition des SLI/SLO, gestion des capacités, sauvegardes et reprise après sinistre ; Sécurisation de l'environnement : IAM avec principe du moindre privilège, KMS, Secrets Manager, application de correctifs, gestion des secrets (SOPS), analyse IaC/des images ; Gestion de Terraform : état distant (S3 + verrouillage DynamoDB), stratégie de gestion des versions, détection et correction des modules. cycle de vie, modèles multi-environnements, dérive ; Accompagner les équipes de notre Client dans la migration des charges de travail sur site vers AWS : évaluations, sélection de modèles, adoption de modèles, outils et accompagnement pour l'autonomie ; Identifier et automatiser les tâches répétitives (outils Bash/Python, automatisation Terraform ou Copilote) pour accélérer les déploiements et les migrations ; Contribuer au support de niveau 2/3, à la gestion des incidents et aux analyses rétrospectives ; produire une documentation claire et assurer le transfert des connaissances.
Mission freelance
Lead ingénieur Linux
Kamatz
Publiée le
Administration linux
Ansible
Cybersécurité
6 mois
Paris, France
Freelance – Lead Ingénieur Linux / Responsable Technique Dans le cadre d’un projet d’infrastructure critique, nous recherchons pour l'un de nos clients un expert Linux pour piloter les activités techniques et encadrer une petite équipe (2-3 ingénieurs). Vos missions : Pilotage technique des systèmes Linux Encadrement d’équipe Mise en place de solutions d’automatisation (Ansible) Administration systèmes & réseau (firewall, switchs…) Suivi MCO/MCS, reporting et documentation Environnnement technique : Systèmes Linux (multi-distributions) Outils d’automatisation (Ansible) Technologies de virtualisation et conteneurisation Infrastructures réseau complexes Contrainte : Environnement sensible – défense Mission freelance – démarrage ASAP Possibilité de pré-embauche
Offre d'emploi
Ingénieur DevOps Cloud - Production
VISIAN
Publiée le
Ansible
Exadata
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la mise à disposition d'application en adhérence avec un acteur du courtage digital et d'en gérer la stabilité des environnements techniques (Production / hors Production) en mode produit. L'automatisation via les toolchain et les outils Digital AI sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative/technique à gérer dans une équipe produit Cloud. Missions Participation aux rituels des équipes Réalisation de la préparation des projets (préparation & design architecture), orientation des choix selon le catalogue Point relais techniques entre la DSI et la Production Contribution à la mise à disposition des ressources d’infrastructure Facilitation des déploiements Contribution au maintien en conditions opérationnelles Respect et formation des bonnes pratiques Groupes dans le cadre des déploiements et livraisons Participation à la vie de l'application en étant force de proposition dans la résolution d'incidents ou de problèmes Point d'entrée sur les technologies Toolchain présentes au sein du groupe Contribution à des chantiers transverses dont projets (automatisations, modèles d'organisation DevOps...) Réalisation des retours d'expérience, les présenter et inspirer l'équipe Inscription dans une démarche d'amélioration continue et de propositions Participation aux réunions et proposition du planning avec l'architecture (documents d'architectures) Facilitateur et orienteur sur les bonnes architectures
Mission freelance
POT9116 - Un Ingénieur de Production – Administration DataStage & Autosys en Île-de-France
Almatek
Publiée le
Ansible
6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients,Un Ingénieur de Production – Administration DataStage & Autosys en Île-de-France. A partir de 7 ans d’expérience Installation et configuration produit, plateforme mutualisée partagée mais cloisonnée + sujet migration cloud privé Environnement : Datastage, Autosys, CFT, Linux, Shell, Openshift / Kub, Ansible, etc. Almatek recherche pour l'un de ses clients,Un Ingénieur de Production – Administration DataStage & Autosys en Île-de-France. A partir de 7 ans d’expérience Installation et configuration produit, plateforme mutualisée partagée mais cloisonnée + sujet migration cloud privé Environnement : Datastage, Autosys, CFT, Linux, Shell, Openshift / Kub, Ansible, etc.
Offre d'emploi
Ingénieur DevOps H/F
DCS EASYWARE
Publiée le
42k-47k €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement de nos équipes, nous recherchons un(e) Ingénieur(e) DevOps pour intervenir au sein de l’équipe Exploitation Back Office d’un grand groupe bancaire. Votre intervention portera sur l’automatisation des traitements de production, le maintien en condition opérationnelle des chaînes batch et l’amélioration des pratiques de delivery, dans un environnement multi-applicatif à forte criticité. Vos principales missions : Automatisation et déploiement Conception et maintien de scripts d'automatisation des procédures d'exploitation courantes (Ansible, Bash, Python) Mise en place et évolution des pipelines CI/CD pour les composants applicatifs back-office (Jenkins ou GitLab CI) Contribution à la standardisation des pratiques de déploiement : revue des procédures, réduction des opérations manuelles, fiabilisation des MEP Ordonnancement et production batch Administration et exploitation de l'outil d'ordonnancement (Control-M) : création, modification et supervision des plans de traitement Suivi des chaînes batch en environnement de production : détection des anomalies, analyse des rejets, relance des traitements en échec Participation à l'optimisation des séquences de traitement et à la réduction des délais d'exécution MCO et supervision Participation au MCO des environnements Linux (RHEL) de production : correctifs, mises à jour, vérification de l'intégrité des socles Contribution à la supervision des flux applicatifs et des incidents de production (Datadog, Splunk ou équivalent) Analyse des incidents récurrents, identification des causes racines, proposition d'actions correctives Gestion des changements et documentation Instruction des demandes de changement via ServiceNow : rédaction des RFC, évaluation des risques, participation aux instances CAB Rédaction et mise à jour de la documentation d'exploitation : runbooks, procédures de traitement des incidents, PV de mise en production Transmission des connaissances aux équipes RUN en cas d'évolution des composants ou des procédures Support Prise en charge des incidents N2/N3 liés aux composants automatisés ou aux chaînes de traitement Interface avec les équipes projet et les équipes applicatives lors des phases de mise en production
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2782 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois