L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 267 résultats.
Mission freelance
Lead DevOps / Scrum Master H/F
Publiée le
Agile Scrum
DevOps
Python
1 an
600-650 €
Montreuil, Île-de-France
Télétravail partiel
Vous rejoindrez l'entité au cœur de la transformation technologique du Groupe dont la mission est de concevoir, développer et opérer des plateformes d'infrastructure modernes (PaaS, IaaS, CaaS) pour l'ensemble de nos métiers. Notre client recherche un profil DEVOPS pour renforcer la squad Oracle et assurer le rôle de Scrum Master de la squad pour accompagner les équipes. Ce rôle demande une combinaison de plusieurs qualités : excellence technique, posture d’accompagnement, et plaisir à coder pour les autres.
Offre d'emploi
Développeur Python/DevOps & Chatbot IA
Publiée le
Chatbot
DevOps
Kubernetes
3 ans
40k-73k €
400-580 €
Île-de-France, France
Prestations demandées Missions DevOps / Backend 1. : API et services principaux Développer l’API centrale permettant l’interfaçage entre le chatbot, les assistants métiers et les services de gestion de fichiers. Implémenter le service de gestion des conversations : historique, anonymisation/suppression, continuité conversationnelle. 2. Gestion des fichiers : Concevoir le traitement et le stockage sécurisés des fichiers utilisateurs (txt, PDF, docx, pptx, xlsx). Intégrer des mécanismes d’analyse et d’enrichissement des fichiers pour l’exploitation dans les assistants. 3. Contexte et personnalisation : Développer un module d’analyse et d’enrichissement du contexte (user/entity) pour optimiser la pertinence des réponses. Gérer les prompts : création de templates, favoris, personnalisation par entité ou collaborateur. 4. Orchestration et assistants : Mettre en place un service d’orchestration multi-assistants (agents spécialisés, fallback, exécution d’actions). Développer un système de gestion des widgets et actions (web search, rendu mermaid, outils interactifs). 5. Monitoring et conformité : Implémenter le feedback utilisateur, la collecte de KPIs et le suivi des délais de réponse. Administrer les mécanismes de contrôle d’accès, garde-fous et politiques d’usage (policy-based). Mettre en œuvre les logs applicatifs, l’audit des actions et les traces conformes aux exigences du Groupe (sécurité, conformité, confidentialité).
Offre d'emploi
Développeur Data (Bordeaux)
Publiée le
Apache Kafka
DBT
Microsoft Power BI
3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Offre premium
Offre d'emploi
Ingénieur·e MLOps / IA – Confirmé·e
Publiée le
Amazon SageMaker
DevOps
IA
55k-60k €
Montrouge, Île-de-France
Télétravail partiel
Aneo est une société de conseil hybride fondée en 2002, positionnée à la convergence du conseil stratégique, de l’ingénierie logicielle avancée et de l’accompagnement à la transformation. Nous intervenons sur des problématiques à haute intensité technologique : IA, MLOps/LLMOps, architectures distribuées, performance des systèmes, cloud natif, avec une expertise historique dans les environnements critiques des grandes banques (CIB et DSI associées). Le poste Nous recherchons un·e Ingénieur·e MLOps confirmé·e (avec exposition IA / IA Générative) pour rejoindre la DSI d’une grande banque française , au sein d’une équipe dédiée “Cloud Center of Excellence” (CCoE) . Cette équipe transverse accompagne l’ensemble des projets du groupe sur : l’intégration de modèles IA/ML développés par les data scientists internes, l’industrialisation, la mise à l’échelle, la sécurité et la gouvernance des solutions IA, la structuration des capacités MLOps et LLMOps dans le cloud. Votre rôle est avant tout un rôle d’intégration, d’industrialisation et d’exploitation , pas de conception de modèles. Vous interviendrez sur tout le cycle de vie des modèles à partir de leur transfert par les équipes Data , jusqu’au déploiement en production et leur maintenance opérationnelle. Vos principales missions 1. Intégration et industrialisation des modèles IA/ML Intégration dans le SI des modèles développés par les data scientists de l’entité. Packaging, versionnement, évaluation opérationnelle, optimisation runtime. Développement d’API Rest et de services Python pour exposer les modèles. Industrialisation des POCs internes : analyse de maturité, durcissement, passage en production, conformité sécurité & gouvernance. 2. MLOps / LLMOps – Plateforme & automatisation Définition et mise en œuvre d’une infrastructure MLOps / LLMOps conforme aux standards du groupe. CI/CD modèle, automatisation du cycle de vie, observabilité, supervision, gestion multi-environnements. Coordination étroite avec les équipes Cloud Center of Excellence, Infrastructure et Sécurité pour garantir performance, alignement cloud et robustesse. 3. Gestion et optimisation des embeddings & workloads IA Maintenance, recalcul, cohérence et supervision des embeddings. Suivi qualité / performance des modèles intégrés. Support aux équipes Data pour les bonnes pratiques d’industrialisation. 4. Gouvernance & documentation Participation à la mise en place de standards IA / MLOps au sein de la DSI. Documentation technique et transfert de connaissances aux équipes support Infos pratiques : Rémunération max : 55 - 60 K fixe 2 jours de télétravail Mission basée à Montrouge, notre siège à Boulogne Billancourt Démarrage Janvier 2026
Offre d'emploi
DevOps (H/F)
Publiée le
Administration linux
Administration Windows
Powershell
55k-65k €
Paris, France
Télétravail partiel
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) DevOps (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. Vous interviendrez au sein de la Direction Technique Informatique (DSI-RC), plus précisément dans l'équipe « Réseaux Télécoms et Sécurité » du Pôle « Gestion des infrastructures ». L'objectif principal de cette intervention est de concevoir, suivre et exploiter des solutions d’automatisation afin de simplifier les tâches manuelles sur les infrastructures (Réseaux et Sécurité). Il s'agit d'industrialiser les actions de RUN via le développement de scripts évolués et l'utilisation d'API, dans une optique d'intégration DevOps/SecOps. 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et Automatisation : Développer des scripts et modules pour enrichir les automatisations (Python, PowerShell, API). Concevoir et maintenir des workflows avancés. Mettre en place des scénarios automatisés robustes, optimisés pour la performance et la sécurité. Mettre en œuvre un service d'automatisation DevOps et SecOPs. 🔸 Maintien en Conditions Opérationnelles (MCO) : Assurer le monitoring et le débogage des scripts et des appels API. Auditer et optimiser les services existants. Gérer la documentation technique et la maintenance des workflows. 🔸 Accompagnement et Conseil : Conseiller les équipes internes dans la mise en œuvre de solutions automatisées. Assurer le transfert de compétences et documenter les réalisations.
Offre d'emploi
Ingénieur DevOps IA
Publiée le
Linux
Python
1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
Offre d'emploi
Développeur C# / Python
Publiée le
75017, Paris, Île-de-France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Développeur C # / Python H/F C’est votre m ission Vous êtes passionné·e par le développement logiciel et les environnements .NET ? Ce poste est fait pour vous. En tant qu’ Développeur C # , vous êtes responsable du design , du développement et de la maintenance de notre écosystème applicatif : Côté build : Développer des applications en C# (Avalon) et Python (Flask) . Concevoir et maintenir des API et des outils tactiques pour le Market Risk. Participer à la mise en conformité des solutions avec les standards IT. Intégrer des pipelines CI/CD et déployer via Azure DevOps . Contribuer à l’amélioration continue et à l’industrialisation des processus. Côté run : Assurer la maintenance corrective et évolutive des applications existantes. Diagnostiquer et résoudre les incidents techniques en production. Optimiser les performances et la sécurité des applications. Participer au support technique auprès des équipes internes. Surveiller et améliorer la disponibilité des services dans un contexte DevOps. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements DevOps exigeants. Vous aimez co der proprement et collaborer en équipe sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise du langage C# , Python et du framework .NET Core / .NET Framework (avalon, flask). Expérience avec SQL Server , Entity Framework. Bonne maitrise des environnements Cloud (Azure) et des pratiques DevOps . Familiarité avec Git , CI/CD , Docker , et les tests automatisés. Travail en méthodologie Agile (Scrum) . C’est votre manière de faire équipe : Autonomie et sens des responsabilités. Curiosité et envie d’apprendre. Esprit collaboratif et communication claire. Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Ile de France Contrat : CDI Télétravail : Hybride Salaire : De 50 K€ à 55 K€ (selon expérience) brut annuel Famille métier : Développement de logiciel Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Offre d'emploi
Architecte Oracle DevOps H/F
Publiée le
Oracle
3 ans
Île-de-France, France
Télétravail partiel
la prestation consiste à contribuer à/au(x) : - Déploiement et l’amélioration de l’offre Oracle sur le Cloud privé - Architecture Oracle (Design, mise en place, suivi) - Développement en python/ansible/shell des automatismes (création de DB, patching, réplication dataguard, monitoring, clonage …) - Enrichissement de la documentation et les procédures d’exploitation - Support de niveau 3 sur la solution Cloud privé Oracle - Expertise performance infra (db, os, disque) - Expertise sécurité des données (projets avec les entités sécurité du groupe) - Maintien en condition opérationnelle des infrastructures (serveurs, systèmes d’exploitation, logiciels médians, bases de données, …) - Recueil des requêtes des différentes entités internes en charge de l'exploitation des bases de données afin de proposer les architectures idéales Les expertises attendues pour réaliser cette prestation sont listées ci-après : 1. Compétences en développement (Shell unix, Perl, PHP, Python, git, github) 2. JIRA 3. Oracle
Offre d'emploi
DevOps AWS H/F
Publiée le
DevOps
45k-50k €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Ingénieur IVVQ Réseau DevOps Habilitable - Gennevilliers H/F
Publiée le
Ansible
CI/CD
DevOps
45k-55k €
Gennevilliers, Île-de-France
Dans le cadre du développement et de la validation de solutions de communication de l'un de nos clients grands comptes, nous recherchons un(e) Ingénieur(e) IVVQ Réseau DevOps afin d'assurer la validation des équipements réseau et garantir leur bon fonctionnement dans des environnements complexes et sécurisés. Vos missions : Concevoir et exécuter les plans de test pour les équipements et solutions réseau. Développer des scénarios de test automatisés pour les composants réseau. Valider les fonctionnalités des stations de base. Réaliser des tests d’interopérabilité et de régression. Analyser les anomalies détectées et assurer leur résolution. Documenter les procédures de test et formaliser les résultats. Compétences techniques attendues : Environnements DevOps (CI/CD) Maîtrise de Python , Linux , Ansible Solides connaissances en réseaux IP Expérience avec Docker et l’automatisation des déploiements
Offre d'emploi
Ingénieur DevOps
Publiée le
API REST
AWS Cloud
Github
12 mois
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une Business Unit dédiée à la Data, vous interviendrez sur une plateforme cloud stratégique, utilisée par l’ensemble des profils data : data engineers, data scientists, data analysts et équipes de développement. Votre rôle sera de contribuer à l’évolution, la résilience et la sécurité de l’infrastructure data, tout en apportant un support technique avancé. Votre rôle Vous serez impliqué·e dans trois périmètres principaux : 1. Évolution et exploitation d’une offre de compute Kubernetes (AWS EKS) Faire évoluer le produit selon l’état de l’art et automatiser les fonctionnalités existantes et futures. Analyser, challenger et formaliser les besoins utilisateurs. Automatiser la mise à disposition de ressources et d'accès en self-service. Assurer le maintien en condition opérationnelle (MCO) et le support N3. Suivre les évolutions de Kubernetes et de l’écosystème CNCF. Garantir la sécurité et la conformité des clusters. Améliorer en continu les mécanismes d’observabilité (logs, métriques, alerting). Veiller à la fiabilité, l’évolutivité et la maintenabilité du produit. 2. APIsation de la plateforme Identifier les besoins Ops et les traduire en solutions techniques basées sur des API. Concevoir, développer et maintenir des API robustes et évolutives. Garantir la maintenabilité, la performance et l'interopérabilité entre les services. 3. Animation technique & bonnes pratiques DevOps Mettre en place une automatisation complète de la chaîne de delivery. Garantir la qualité des livrables et standardiser les processus. Automatiser les tâches répétitives ou sources d’erreur. Sensibiliser et accompagner l’équipe sur les bonnes pratiques DevOps. Ce qui fera votre succès Mindset & Soft Skills Proactivité et ownership : être moteur sur l’amélioration continue et l’évolution des produits. Culture de l’automatisation : chercher systématiquement à simplifier et industrialiser. Communication technique pédagogique : capacité à vulgariser, challenger et guider. Exigence sur la sécurité et l’observabilité , intégrées nativement dans les conceptions. Veille technologique active , notamment sur Kubernetes, CNCF et AWS.
Offre d'emploi
TECH LEAD DEVOPS - LYON
Publiée le
CI/CD
Gradle
Groovy
2 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description détaillée de la prestation : Tech Lead: o Garantir la qualité des livraisons de l'équipe (revue de MR, revue des tests,...) o Accompagnement/support technique de l'équipe o Cadrer/spécifier les features (= découpage en US indépendante, compréhensible et de petite taille) PO : o Identifier auprès de nos équipes ENV et APP les automatisations/industrialisations à réaliser o En lien avec la DSIT, identifier les montées de versions logicielles à venir o En lien avec l'équipe DevSecOps, identifier les évolutions à réaliser sur le SI DevOps (suivi de la roadmap) o Planifier et suivre la réalisation/livraison des chantiers Membre CI/CD o Réaliser les US planifiées : développement/TU de jobs jenkins, de rôles Ansible, de scripts shell/python, de scripts gradle,... o Respect du cadre SAfe Agile (cérémonie, processus Jira, ,...) Technos : • DevOps: Jenkins/groovy, gradle, shell/python, ansible, gitlab/gitlab-ci, unix, sql (postgresql) • Documentation/pilotage: Jira/Confluence
Mission freelance
Network Ops Engineer sénior
Publiée le
DevOps
Google Cloud Platform (GCP)
Network
3 ans
100-510 €
Lille, Hauts-de-France
Télétravail partiel
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Offre d'emploi
Ingénieur Devops - Python
Publiée le
Gitlab
Jenkins
Python
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour l'un de nos clients un profil Devops avec des compétences en Python. Etre force de proposition sur les choix techniques, savoir vulgariser et documenter pour les membres de l’équipe • Aider les développeurs à livrer dans les délais et améliorer la qualité des solutions • Orientation client pour saisir les besoins, et les traduire en application technique • Réalisation d’outils d’automatisation, intégration de nouvelles fonctionnalités produits dans le cloud (Gitlab) • Correction des bugs • Développer des scripts ansible, python.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
267 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois