L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 278 résultats.
Offre d'emploi
Cloud DevOps
Publiée le
Ansible
Argo CD
CI/CD
36 mois
40k-45k €
500-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de sa transformation digitale, une banque de renom souhaite renforcer ses pratiques DevOps et optimiser la supervision de ses plateformes critiques. La mission vise à améliorer la fiabilité des déploiements, l’observabilité applicative et la performance globale au sein d’un environnement Kubernetes natif, dans un contexte à forts enjeux de sécurité et de disponibilité des services bancaires. Missions Principales : Accompagner et coacher les équipes projets dans la mise en place et l’industrialisation des chaînes CI/CD (GitLab, GitLab-CI/Runner, Artifactory, ArgoCD) dans un environnement Kubernetes ; Analyser la maturité des processus DevOps en place, identifier les points d’amélioration et proposer des évolutions vers davantage d’automatisation et de fluidité ; Mettre en œuvre une stratégie d’observabilité complète à travers Dynatrace pour : Surveiller la performance et la santé des applications bancaires critiques. Créer et maintenir des dashboards dynamiques pour le suivi en temps réel des environnements (pods, services, pipelines CI/CD…) , Automatiser la détection d’incidents et contribuer à la réduction du MTTR (Mean Time To Repair) , Analyser les données de performance pour anticiper les dégradations et fiabiliser les livraisons. Collaborer avec l’infogérant du groupe pour le test, le déploiement et l’amélioration des services fournis. Livrables Techniques : Reporting d'avancement, présentation des solutions/processus ; Rédaction de procédures, Feuille de routes, Template pour accélérer la montée en compétence et l'adoption des équipes ; Jira / Confluence.
Mission freelance
Ingénieur d’Exploitation / DevOps Infrastructure
Publiée le
Administration linux
Gitlab
Red Hat Satellite
12 mois
310-520 €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Dans le cadre du renforcement des équipes d’exploitation et d’industrialisation, le client recherche un Ingénieur d’Exploitation / DevOps Infrastructure capable de piloter la mise à disposition, l’automatisation et la supervision des environnements applicatifs (hors-prod et production). L’objectif : garantir la fiabilité, l’autonomie et la continuité des services techniques tout au long du cycle de vie des applications. Provisionnement des environnements : commandes d’infrastructures, VIP, ouvertures de flux (prod / hors-prod). Industrialisation & automatisation : conception de scripts (Ansible, Shell, Python), pipelines CI/CD (GitLab), templates d’IaC. Déploiements & intégration applicative : installation des packages et socles applicatifs, rédaction de procédures d’installation. Supervision & observabilité : mise en place et intégration des indicateurs (Dynatrace, ELK, XL Release), suivi de disponibilité. Exploitation & support N2 : gestion des changements, suivi des incidents, coordination des équipes pour rollback si nécessaire. Documentation & reporting : publication de l’état des applications, mise à jour des plans de production et PRA.
Mission freelance
Ingénieur Cloud AWS/GCP - Terraform
Publiée le
AWS Cloud
Go (langage)
Google Cloud Platform (GCP)
12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de l’équipe Infrastructure Cloud, notre client recherche un(e) Ingénieur(e) Infrastructure Cloud chargé(e) d’assurer la stabilité, la performance et l’évolution des environnements cloud. Le poste consiste à garantir le Run des solutions critiques tout en participant activement à leur amélioration, automatisation et industrialisation, selon les bonnes pratiques du cloud et les standards internes. L’environnement technique est multi-cloud (GCP / AWS), fortement orienté Infrastructure as Code (Terraform), et s’inscrit dans une démarche DevOps et agile. Missions : Assurer le Run des solutions de configuration management , stockage et sauvegarde Maintenir, améliorer et faire évoluer les modules Terraform (HCL) Développer et optimiser les providers custom Terraform (GoLang) Accompagner et conseiller les utilisateurs dans la mise en œuvre de stacks Terraform Apporter un support technique et favoriser la montée en compétence des utilisateurs internes Participer aux rituels agiles (daily, sprint, workshop, etc.) et contribuer à la culture d’équipe Identifier, proposer et mettre en œuvre des solutions innovantes pour renforcer l’automatisation et la fiabilité des infrastructures Respecter les engagements de performance et de qualité de service (SLO, OLA)
Mission freelance
AI Engineer Azure – IA Générative
Publiée le
Microsoft Copilot Studio
Azure AI Foundry
Azure DevOps
3 mois
Paris, France
Télétravail partiel
Nous recherchons un AI Engineer Azure confirmé pour le compte d’un grand groupe dans le cadre d’un projet stratégique autour de l’IA Générative . La mission consiste à concevoir et développer des solutions d’assistants IA en exploitant les services avancés de la plateforme Microsoft Azure . 🎯 Vos missions principales : Concevoir et développer des solutions IA Générative (LLM, RAG, Agents) dans Azure. Mettre en œuvre et exploiter les services Azure AI Foundry et Copilot Studio . Déployer des assistants IA répondant aux besoins métiers et intégrés aux outils internes. Développer et intégrer des modèles IA/ML personnalisés (fine-tuning, optimisation). Collaborer avec les équipes techniques et métiers pour définir les cas d’usage et maximiser la valeur business. Contribuer à la mise en production et à l’orchestration des pipelines IA via Azure DevOps.
Mission freelance
DevOps Senior Python (Cloud, Ops & Digital Workplace) H/F
Publiée le
Cloud
12 mois
400-450 €
Massy, Île-de-France
Télétravail partiel
Équipe Cloud spécialisée Kubernetes. Développement d'un outil d'assistance et d'analyse connecté au ticketing. Développement Python, automatisation, CI/CD, modernisation interfaces, gestion Cloud Le DevOps Senior Python (Cloud, Ops & Digital Workplace) est responsable de la mise en place, l’automatisation et l’optimisation des environnements cloud et digitaux de l’entreprise. Il conçoit, déploie et maintient des solutions techniques permettant de garantir la stabilité, la sécurité et la performance des infrastructures, tout en facilitant la collaboration entre les équipes Développement, Exploitation et Digital Workplace . ⚙️ Responsabilités principales Concevoir et maintenir les pipelines CI/CD pour automatiser le build, les tests et le déploiement des applications. Développer et maintenir des scripts et outils d’automatisation en Python pour l’administration et la supervision des environnements. Déployer, monitorer et optimiser les environnements cloud (AWS, Azure ou GCP) et hybrides . Gérer et sécuriser l’infrastructure Cloud & On-Premise (réseaux, serveurs, conteneurs, identités, monitoring). Participer à la mise en place d’une culture Infrastructure as Code (IaC) via Terraform, Ansible ou CloudFormation. Intégrer les outils du Digital Workplace (Microsoft 365, Intune, Azure AD, SharePoint, Teams, ServiceNow…) dans une logique d’automatisation et de support aux utilisateurs. Assurer la supervision et l’observabilité (Grafana, Prometheus, Datadog, ELK, CloudWatch) des environnements. Participer à la gestion des incidents et à la résolution des problèmes liés à la production. Contribuer aux pratiques SRE : gestion des SLI/SLO, post-mortems et amélioration continue. Collaborer étroitement avec les équipes sécurité, développement et support pour garantir la qualité et la fiabilité des déploiements.
Offre d'emploi
DEVELOPPEUR BACK-END PYTHON GCP (460€ MAX)
Publiée le
Google Cloud Platform (GCP)
Python
3 mois
40k-50k €
330-460 €
Île-de-France, France
Télétravail partiel
excellentes compétences en communication orale et écrite ainsi qu’une maîtrise de Python, des API REST (FastAPI), de GCP, du SQL et de Kubernetes sont requises. Bonne maîtrise de Python, des REST API (FastAPI), de GCP, SQL, Kubernetes. Facultatif, mais idéalement une connaissance de l’environnement Salesforce (Data Cloud & Marketing Cloud Engagement). Familier avec les principes DevOps, notamment la CICD. Familier avec le versionning, notamment Git. Contribuer à l'amélioration de la qualité du produit (Test coverage, Sonar, SOLID, YAGNI…) Participer à toutes les phases du cycle de développement logiciel, de la conception en passant par la mise en production et le run. Familier avec les principes d’observabilité. Excellentes aptitudes à la collaboration et au travail en équipe. Aider à la décision et arbitrage des choix techniques et fonctionnels. Bonne communication écrite et orale en français pour des interactions fluides avec le métier. Contribuer à l'amélioration continue des pratiques de développement. Assurer la maintenance et l'évolution des applications existantes. Maîtrise des méthodes agiles, notamment SCRUM
Offre d'emploi
Data Engineer Python
Publiée le
Python
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Nous recherchons pour notre client du secteur bancaire un Data Engineer confirmé sur Python. Vous interviendrez en binôme avec le développeur en place sur la conception, le développement et la mise en qualité des flux de migration, tout en garantissant la robustesse et la fiabilité du code déployé. Rôles & Responsabilités Participer aux analyses techniques et au cadrage des besoins de migration/reconsolidation issus des différentes squads. Concevoir et implémenter des solutions data conformes aux bonnes pratiques d’architecture et de développement. Réaliser les développements Python / SQL et les tests associés (unitaires, non-régression). Mettre en œuvre les traitements d’ingestion et de streaming de données (Kafka, SFTP, Dataflow, DBT). Assurer le support technique aux équipes d’homologation et de production. Maintenir les applications du périmètre en condition opérationnelle. Rédiger la documentation technique et assurer un reporting régulier de l’activité. Collaborer activement avec les équipes QA, DevOps et DataOps dans un environnement CI/CD (GitLab, Kubernetes). Environnement technique Python – SQL – Kafka – GCP (BigQuery, Dataflow, Cloud Storage) – DBT – Looker – GitLab – Docker – Kubernetes – Terraform – Helm – Kustomize – Shell – CSV/JSON/XML
Offre d'emploi
Ingénieur DevOps GCP
Publiée le
CI/CD
Gitlab
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Mission longue pour un DevOps GCP expérimenté dans le cadre de la généralisation de la facturation électronique . Participation à la conception, au déploiement, à l’industrialisation et au maintien en conditions opérationnelles de plateformes cloud stratégiques (PDP, référentiel factures). Maîtrise GCP (Pub/Sub, Cloud Run, BigQuery) et SQL impérative, Terraform souhaitée. Environnements Linux, CI/CD GitLab, scripting Bash/Python/Node.js. Contexte agile, support N3 en RUN, documentation et supervision attendues.
Mission freelance
INGENIEUR DEVOPS AWS H/F
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
3 mois
400-500 €
Villers-Bretonneux, Hauts-de-France
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients, un INGENIEUR DEVOPS AWS H/F orienté développement pour une mission longue durée. Vous interviendrez au sein d’une équipe de haut niveau technique afin de faire évoluer et maintenir en condition opérationnelle l’usine logicielle et la plateforme Cloud du groupe. Vous serez responsable de l’industrialisation, de l’automatisation et de l’optimisation des déploiements applicatifs sur AWS. Votre maîtrise des outils DevOps et votre sensibilité développeur vous permettront d’accompagner efficacement les équipes de développement dans la mise en place de solutions robustes, sécurisées et performantes. Objectif et livrables: Maintenir et faire évoluer la plateforme Cloud AWS et l’usine logicielle du groupe. Définir et implémenter des pipelines CI/CD efficaces sous GitLab CI. Garantir la fiabilité, la sécurité et la performance des environnements de production. Participer à la conception d’architectures cloud optimisées (coûts, résilience, scalabilité). Fournir un support technique de référence aux équipes Dev. Compétences attendues: AWS (EKS, EC2, S3, IAM, CloudFormation) : excellente maîtrise des services cloud et des bonnes pratiques de déploiement. Kubernetes : expertise dans la conception, la gestion et l’optimisation de clusters. Terraform : création et automatisation de l’infrastructure as code. Docker : maîtrise de la conteneurisation et de l’orchestration des applications. CI/CD (GitLab CI) : création de pipelines de déploiement automatisés et sécurisés. Linux / scripting (Bash, Python) : forte autonomie sur les environnements système. FinOps et observabilité : bonne compréhension de l’optimisation des coûts et de la supervision. Culture développement : capacité à comprendre les contraintes logicielles et à accompagner les devs. Télétravail : Flexible – idéalement 2 à 3 jours sur site par semaine à Amiens, sinon full remote possible pour un profil expert. Type de contrat : Mission freelance / longue durée (8 mois renouvelables) MERCI DE POSTULER UNIQUEMENT SI VOUS RESPECTEZ LE TJM INDIQUÉ
Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
Publiée le
Apache Spark
Hadoop
Python
3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre d'emploi
DevOps Confirmé / Référent Technique Supervision & Logs - Expert Checkmk & Industrialisation
Publiée le
Ansible
API REST
Bash
24 mois
Île-de-France, France
Télétravail partiel
Rejoignez l'équipe IT de notre client Leader mondial, au cœur de ses systèmes critiques, au sein d'une petite équipe de 3 personnes. Nous recherchons un(e) Ingénieur(e) Confirmé(e) doté(e) d'un grand recul et d'une âme de Lead pour assurer l'excellence opérationnelle et l'évolution des plateformes stratégiques : le Monitoring Checkmk et le Puit de Logs ElasticSearch . 🎯 Vos Responsabilités et Enjeux Clés En tant que Référent Technique, votre mission se déploiera sur trois axes : Expertise Cœur de Métier (Monitoring & Logs) : Administrer, maintenir en conditions opérationnelles (MCO) et faire évoluer les plateformes Checkmk et ElasticSearch/ELK . Développer des plugins/extensions Checkmk en Python ou Bash pour garantir une couverture de supervision exhaustive (Systèmes, Réseau, Applicatif). Assurer l'intégration de données via appels API REST pour enrichir la supervision. Mener les diagnostics avancés et le troubleshooting à partir des données de monitoring et de logs. Industrialisation & DevOps (Le Rôle de Lead) : Être le moteur de l' Infra as Code : concevoir et maintenir les Playbooks Ansible pour le déploiement des agents et des configurations (Linux/Windows). Optimiser la chaîne CI/CD via les pipelines GitLab et le Gitflow pour industrialiser les livraisons. Proposer des actions d'optimisation et garantir un haut niveau de disponibilité des services. Encadrement & Projet : Apporter votre recul et votre pédagogie pour la montée en compétence de l'équipe et des clients. Assurer le Suivi de Projet, le Reporting (PowerPoint) et la création de documentations d'administration et client. 🛠️ Votre Expertise Technique Impérative Supervision : Maîtrise d'un outil de monitoring majeur (idéalement Checkmk ou Nagios/Zabbix) et capacité à développer des checks. Industrialisation / IaC : Maîtrise indispensable d' Ansible et des outils Git/GitLab CI/CD . Systèmes : Expertise forte en environnement Linux (RedHat, Debian, etc. – le principal) et bonnes connaissances Windows Server . Scripting : Compétences confirmées en Bash et Python (ou PowerShell). Logs : Connaissances en ElasticSearch/ELK (maintenance et analyse de logs). Réseau & API : Connaissances des protocoles de supervision ( SNMP, TCP/IP, Load Balancer ) et expérience des appels API REST .
Offre d'emploi
Data Engineer Python / AWS
Publiée le
AWS Cloud
PySpark
Python
3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Mission freelance
DevOps
Publiée le
Bash
Git
Google Cloud Platform (GCP)
12 mois
380-410 €
Lille, Hauts-de-France
Télétravail partiel
Objectif global : Développer DevOps – Facturation Electronique Contrainte forte du projet : Maitrise GCP (Google Cloud Plateforme) Connaissances linguistiques : Français Courant (Impératif) Missions Dans ce cadre, tu interviendrais pour : ● Déployer et maintenir les environnements (intégration, recette, production) ● Automatiser les processus de build, de test et de déploiement (CI/CD) ● Concevoir l'infrastructure as code (IaC) via Terraform ● Surveiller les performances, collecter les logs et assurer la supervision ● Documenter les procédures d’exploitation et d’automatisation ● Assurer le support de niveau 3 en phase de run : diagnostic des incidents, résolution des problèmes techniques, amélioration continue de la fiabilité
Offre d'emploi
Ingénieur DevOps (Shell ou Python/Ansible/OpenStack)
Publiée le
Ansible
CI/CD
Shell
3 ans
40k-60k €
120-550 €
Vincennes, Île-de-France
Télétravail partiel
Intitulé du poste : Ingénieur Automatisation Création d’Images OpenStack Mission : Concevoir, maintenir et automatiser la génération d’images systèmes compatibles OpenStack, en s’appuyant sur des outils standards (Packer, Diskimage-builder, etc.), des scripts customs (Shell, Python), et en intégrant ces processus dans une chaîne CI/CD, afin de garantir des images cohérentes, sécurisées, testées et reproductibles. Responsabilités principales : • Concevoir et maintenir des templates de création d’images Linux (Ubuntu, CentOS, Debian, etc.). • Automatiser les processus de build, test, validation et publication d’images OpenStack via des outils comme : o HashiCorp Packer o OpenStack Diskimage-builder (DIB) o Ansible, Cloud-init o Shell ou Python pour des scripts complémentaires (validation, cleanup, tests) • Intégrer ces workflows dans des pipelines CI/CD robustes et traçables (GitLab CI, Jenkins, etc.). • Implémenter des tests automatisés dans la chaîne CI : o Tests de boot (instance up, SSH, cloud-init) o Tests fonctionnels (paquets, services, accessibilité) o Tests de conformité et sécurité (OpenSCAP, Lynis, hardening) o Tests d’intégration sur environnements OpenStack • Gérer les versions, dépendances, métadonnées et publication dans Glance. • Contribuer à la documentation technique et aux bonnes pratiques. • Être moteur dans l’amélioration continue des processus d’automatisation. Environnement Technique : • Outils de build : Packer, Diskimage-builder, virt-install, QEMU/KVM • Systèmes : Ubuntu, Debian, CentOS • Cloud : OpenStack (Glance, Nova, Horizon, Heat) • CI/CD : GitLab CI • Tests & validation o Boot tests, accessibilité SSH, cloud-init o Testinfra, Goss, Bats, Inspec o Lynis, OpenSCAP pour sécurité • Scripting : Shell (bash), Python (scripts de contrôle, parsing, automatisation) • IaC / Config Management : Ansible, Terraform • Versioning / SCM : Git Livrables attendus : • Templates d’images maintenables, versionnés • Pipelines CI/CD avec étapes de test automatisé • Scripts de validation et de déploiement • Documentation des processus, des tests, des résultats / Reporting Compétences requises : Techniques : • Scripting : Shell (bash) et Python (niveau scripting) • Création et durcissement d’images applicatives • Automatisation via Packer, DIB, Ansible • Mise en place de tests automatisés dans CI/CD • Bonnes pratiques CI/CD (GitLab, artefacts, logs) • Connaissances de l’écosystème OpenStack Transverses : • Capacité à documenter et à produire du code lisible • Sens de la rigueur, de l’automatisation et de la reproductibilité • Collaboration avec équipes Dev, SecOps, Ops • Esprit d’analyse et d’amélioration continue • Autonomie • Bonne capacité de communication Profil recherché : • Bac+3 à Bac+5 en informatique ou équivalent • Expérience de 2 ans minimum dans un rôle DevOps, cloud ou build automation • Certifications appréciées : Linux (LPIC, RHCE), OpenStack, GitLab CI/CD
Offre d'emploi
Lead Developer Python - Fintech / Paiement
Publiée le
50k-85k €
75001, Paris, Île-de-France
📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Contexte Rejoignez une fintech en forte croissance, pionnière de l'embedded finance en Europe. L'entreprise accompagne plus de 5000 commerçants et traite plusieurs milliards d'euros chaque année. Elle développe une solution de paiement en magasin robuste, scalable et sécurisée, avec une présence dans 10 pays. Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Outils : GitLab, Postgres Mobile : Kotlin (Android), Swift (iOS)
Offre d'emploi
Ingénieur de production - N3 - NANCY (H/F)
Publiée le
Cloud
DevOps
ELK
3 ans
40k-45k €
380-400 €
Nancy, Grand Est
Télétravail partiel
Description détaillée : Mettre en œuvre l'exploitabilité et le suivi opérationnel des applications banques à distances des applications digitales du groupe : - Internet fixe - Application mobile L’exploitation comprend : - Infrastructure : Legacy / Cloud Privé / AWS / OCP - Automatisation et Industrialisation : BitBucket / Jenkis / XLD & XLR - Intégration sur les différents environnements disponibles - Participation aux projets - Installation des changements à l’aide de nos chaînes CI/CD - Supervision : Zabbix, AppDynamics, Actuator, IP Label Ekara/Newtest - Analyse et Monitoring : ELK, Grafana - KPI : Failles, Certificat, Incident, Supervision, - Astreintes : 7/24 - Installations : Heures Non Ouvrées - Reporting de l’activité Prendre en charge la conduite et mise en oeuvre des projets techniques (Containerisation, migration MyCloud, obsolescence, configurations des infrastructures et des chaines de liaison en relation avec les équipes réseaux sécurité)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Buy real and fake passports, ID cards, driving licenses, SSN
- Recherche d'associés et/ou projets en équipe
- Le trou dans mon CV après un cancer — intrusion ou transparence nécessaire ?
- Prime de cooptation et freelancing
- Société étrangère dgfip s en mele
- Je galère à trouver une mission… alors j’ai créé une app pour survivre 😅
278 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois