L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 806 résultats.
Offre d'emploi
Ingénieur systèmes et réseaux F/H
Experis France
Publiée le
35k-48k €
Orléans, Centre-Val de Loire
Ingénieur systèmes et réseaux F/H - Orléans Ingénieur Systèmes & Réseaux (F/H) Rejoignez une équipe dynamique de 6 personnes au sein d'une structure en pleine modernisation de ses infrastructures. Vous interviendrez sur un parc technique varié et critique, comprenant notamment des environnements sensibles. 🎯 Vos missions principales En tant qu'Ingénieur Systèmes & Réseaux, vous participez activement à l'évolution, la sécurité et la performance du système d'information : Administration & Exploitation Gestion quotidienne des environnements Linux Debian et Windows Server 2016 à 2019 . Supervision d'un parc composé de 4 serveurs physiques , 80 machines virtuelles Windows et 15 VM Linux Debian . Administration des postes de travail Windows 10 . Gestion de la virtualisation sous Hyper‑V . Projets & Modernisation Participation au pilotage de projets d'infrastructure . Contribution à la refonte réseau récemment engagée. Migration vers de nouveaux serveurs et accompagnement des évolutions technologiques. Mise en place d'infrastructures dédiées à des données sensibles . Sécurité & Supervision Déploiement, configuration et administration de Centreon . Gestion des sauvegardes via Veeam . Participation au changement de solution antivirus et à l'amélioration du niveau de sécurité global.
Mission freelance
Ingénieur de production / DevOps
Ness Technologies
Publiée le
Administration Windows
Azure
DevOps
6 mois
Yvelines, France
🧩 Le contexte Vous intervenez au cœur d’un environnement de production exigeant, au sein d’équipes organisées en mode agile (squads) , avec un fort niveau d’exigence sur la disponibilité, la qualité de service et la sécurisation des opérations . Votre rôle est clé : vous êtes le garant du bon fonctionnement de la production , en lien direct avec les équipes techniques, les métiers et les parties prenantes. 🚀 Vos responsabilités 🔄 Piloter les changements (Change Management) Orchestrer les changements via ServiceNow (Metis) Évaluer les impacts techniques et métiers Sécuriser les mises en production (MEP) Contribuer aux estimations projets Assurer une communication claire auprès des clients et équipes 🚨 Assurer la continuité de service (Incident Management) Prendre en charge les incidents critiques Coordonner les actions de résolution multi-équipes Garantir le respect des SLA Communiquer efficacement en situation de crise (≤ 2h) Participer aux cellules de crise Produire des analyses post-mortem 🔍 Améliorer durablement la production (Problem Management) Identifier les causes racines (RCA) Piloter les plans d’actions correctifs Proposer des optimisations techniques pérennes Réduire la récurrence des incidents ⚙️ Contribuer à la gouvernance & au suivi Maintenir la CMDB à jour Participer aux rituels agiles (daily, backlog, etc.) Alimenter le Product Owner et le management Produire des reportings opérationnels 🛠️ Stack technique Systèmes : Windows, Unix, Linux DevOps : GitLab, Jenkins, Artifactory, SonarQube, Vault ITSM : ServiceNow Méthodo : Agile / Run / Production critique
Offre d'emploi
Coordinateur.trice IT à Lyon
Atlanse
Publiée le
CMDB
Infrastructure
ITSM
1 an
50k-60k €
400-450 €
Lyon, Auvergne-Rhône-Alpes
Vous intervenez en support aux Responsables Informatiques des sites sur le suivi de leur périmètre IT, le traitement des demandes et la coordination des acteurs dans un objectif de qualité de service et de conformité aux standards de la DSI. Missions Coordination du réseau des Correspondants Informatiques (CI) · Assurer les échanges avec les CI par mail et/ou téléphone/Teams · Animer les réunions mensuelles avec les CI (préparation, animation et CR) · Prendre en charge les remontées des utilisateurs via les CI voire les IS Managers · Tenir à jour le référentiel du réseau des CI Analyse et suivi des demandes IT · Suivre les dossiers dans l’outil de ticketing · Traiter les dossiers soumis à la validation du Responsable Informatique : instruction du dossier, vérification du besoin exprimé et de l’adéquation avec la Politique de la DSI et la conformité à la Politique Sécurité du SI · Alimenter le tableau de suivi des validations · Rédiger les réponses aux sollicitations des CI, utilisateurs et IS Manager Gestion des escalades et coordination des parties prenantes · Traiter les escalades · Organiser les points nécessaires avec les infogérants et/ou les équipes internes · Assurer la représentation du client sur site · Rédiger les comptes-rendus de réunions (récurrentes, crises, etc.) Contrôle du parc et mise à jour des référentiels · Contrôler le parc informatique dans les outils des infogérants (CMDB/ITSM) · Réaliser les actions de contrôle et de pointage du parc informatique · Proposer des Plans d'actions et en assurer le suivi · Mettre à jour les référentiels des sites · Réaliser les supports de présentation pour les réunions avec les CI
Offre d'emploi
Pilote d'activité Run _ Orléans
Argain Consulting Innovation
Publiée le
ServiceNow
6 mois
38k-42k €
450-490 €
Orléans, Centre-Val de Loire
Nous recherchons un pilote d'activité RUN pour rejoindre l'équipe qui gère les solutions de protection du SI (Antispam, proxy, vpn, certificats, waf, FW ...). La personne retenue pour ce poste aura pour tâches de : • Dégager de la confiance, de la rigueur, et de la bonne humeur • Répartir efficacement les tâches au sein de l'équipe d'une vingtaine de personnes • Prendre en charge les escalades et demandes de priorisation • Mettre en avant le travail de l'équipe via des kpi d'activité • Animer au quotidien les missions de l'équipe • Garder son calme, monter en stress uniquement lorsque c'est nécessaire (incident de production ou de sécurité) • Remonter les informations pertinentes et factuelles au management • Maintenir la bonne entente au sein de l'équipe de Niort et de Saran (potentiellement Le Mans également) • Soulager le management sur les tâches de run Le travail quotidien du pilote d'activité s'articule principalement sur ces missions : Au fil de l’eau • Cellules de crise : Mise à jour du tableau des cellules de crises, suivi des actions de l'équipe lors des cellules puis des bilans • Hebdo : • Affectation incidents et problèmes : Affectation des nouveaux incidents et des nouveaux problèmes en les priorisant • Emails PP : Suivi, traitement et relance des emails de la liste de diffusion d’équipe • Points RUN : Animation des réunions RUN et vérifications au point du lundi matin : • Faire le tour des changements de la semaine • S’assurer que les astreintes et les pushs FW sont correctement répartis • Partager les faits marquants • Partager les présences/absences de la semaine • Analyse RITM : Animation des points analyse RITM • Réunion d’équipe : Rédiger le CR de réunion d’équipe hebdo • Réunion Partenaire : Point hebdo sur tickets en cours avec partenaires (CISCO principalement) • Mensuel : • KPI mensuels : • Maintien à jour de tableau de bord Servicenow • KPI mensuels • Travail de récupération d’infos auprès de plusieurs personnes/sources + quelques requêtes Splunk • Vérification de la cohérence des chiffres • S'assurer des saisies de CRA • Création de KPI de suivi de la performance collective (voire individuelle) • Reporting QoS : Reporting de Qualité de Service mensuels • Quotidien • Suivi des tickets : Suivre la vie des tickets affectés à l’équipe RUN ticket. Affectation des incidents P2-P3 Le Build est géré par les chefs de projets et n'entre pas dans le cadre des missions du pilote d'activité. Il doit cependant être informé des projets impliquant notre équipe. Une présence de 3 jours par semaine sur site est obligatoire.
Offre d'emploi
Data Engineer
TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL
12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Mission freelance
[SCH] Data Ops - 1468
ISUPPLIER
Publiée le
10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Offre d'emploi
Ingénieur DevSecOps
FED SAS
Publiée le
60k-75k €
75001, Paris, Île-de-France
Fed IT est un cabinet de recrutement dédié aux métiers de l'informatique, des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Dans le cadre du développement de nombreux projets logiciels, le client renforce son département sécurité informatique et recrute un ou une Ingénieur DevSecOps. Le poste est à pourvoir en CDI, et est basé à Paris 17. Rattaché(e) au responsable de la sécurité opérationnelle, vous participerez à la sécurisation et au maintien des standards de sécurité liés au développements logiciels. A ce titre vos principales responsabilités seront les suivantes : - Intégrer la sécurité dès la conception et tout au long du cycle de vie des applications (Shift Left Security). - Automatiser les processus de déploiement, de monitoring et de sécurité (CI/CD, IaC). - Collaborer avec les équipes Dev, Ops et Sécurité pour implémenter les meilleures pratiques DevSecOps. - Configurer et maintenir les outils de sécurité (SAST, DAST, SCA, etc.). - Surveiller et analyser les vulnérabilités, proposer et implémenter des correctifs. - Participer à l'amélioration continue des infrastructures cloud). - Documenter les processus, les bonnes pratiques et les procédures de sécurité.
Offre premium
Offre d'emploi
Cloud Engineer / Administrateur SRE Kubernetes – Expérimenté F/H
Clostera
Publiée le
Google Cloud Platform (GCP)
Kubernetes
54k-65k €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! L’équipe Kubernetes administre, exploite et fait évoluer des clusters Kubernetes dédiés aux différentes équipes produit et métiers. Dans un environnement 100% Cloud (GCP & Azure), l’exploitation suit une approche GitOps avec un fort ancrage open source et CNCF. Le rôle consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes, dans un contexte de production exigeant nécessitant autonomie et maîtrise technique avancée. Mission : Gestion de pods , services , ingresses et namespaces “infra” , avec application des bonnes pratiques sur les manifests applicatifs Provisionnement AKS / GKE et ressources cloud via Terraform Industrialisation des déploiements avec GitLab CI/CD et ArgoCD Facilitation du time-to-market (certificats, DNS, observabilité, enablement fonctionnalités) Exploitation des clusters (upgrades K8s et composants, capacity management, PRA) Mise en place multi-tenant (namespaces, quotas, RBAC, network policies) Déploiement et maintenance de l’observabilité (Prometheus, Grafana, Loki, centralisation logs) Suivi consommation cloud (Azure Monitor, métriques GCP, dashboards) Optimisation des ressources (quotas, scaling, templates, extinction nocturne) Renforcement sécurité Kubernetes (policies, RBAC, audit logs) Gestion des secrets (Vault, Sealed Secrets, services cloud) Application des recommandations RSSI et sécurité Automatisation via scripting (Bash, Python, Go) Mise en place d’alerting avancé et proactif Promotion d’une culture SRE (fiabilité, autoscaling, bonnes pratiques CNCF/CAF)
Mission freelance
DevOps Kubernetes
Tenth Revolution Group
Publiée le
Ansible
Kubernetes
Linux
3 ans
100-450 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre du renforcement de son équipe plateforme, notre client recherche un DevOps expérimenté pour accompagner le déploiement et l’industrialisation d’applications conteneurisées dans un environnement cloud-native orienté production. Missions principales Déployer, administrer et optimiser des clusters Kubernetes Automatiser l’infrastructure et les workflows via Terraform / Ansible Gérer les environnements Linux en production Mettre en place et maintenir les pipelines de déploiement applicatif Participer à l’amélioration continue de la plateforme DevOps Collaborer étroitement avec les équipes de développement (culture DevOps) Stack & Environnement technique Kubernetes (déploiement, scaling, troubleshooting) Terraform & Ansible (Infrastructure as Code, automatisation) Linux (administration système) CI/CD, conteneurisation, monitoring (type Prometheus/Grafana apprécié)
Mission freelance
Tech Lead Python – Scale-up GreenTech – Nantes (H/F)
Tenth Revolution Group
Publiée le
Django
FastAPI
Python
12 mois
400-550 €
Nantes, Pays de la Loire
Le Contexte Rejoignez une Scale-up nantaise en pleine expansion qui place l'innovation durable au cœur de son ADN. Suite à une levée de fonds en Série B, nous doublons nos effectifs techniques pour accélérer le déploiement de notre plateforme SaaS à l’international. En tant que Tech Lead Python , vous serez le garant de l’excellence technique au sein d’une Feature Team de 5 développeurs. Votre rôle ? Transformer des défis métiers complexes en solutions logicielles élégantes, scalables et performantes, tout en faisant grandir vos pairs. L’Environnement Technique Nous évoluons dans un écosystème moderne, orienté vers la performance et la scalabilité : Backend : Python 3.12+, FastAPI, Django. Architecture : Microservices, API First, Event-driven (RabbitMQ / Kafka). Data & Ops : PostgreSQL, Redis, Docker, Kubernetes (EKS). CI/CD : GitLab CI, Terraform, approche Craftsmanship (TDD, Clean Code). Cloud : AWS. Missions Réalisées Sous la responsabilité du CTO, vos missions se décomposent en trois piliers : 1. Leadership Technique & Architecture (50%) Concevoir et valider les choix d’architecture logicielle. Assurer la qualité, la maintenabilité et la sécurité du code (Code Reviews exigeantes). Piloter la résolution des incidents techniques complexes et la dette technique. 2. Mentoring & Excellence Opérationnelle (30%) Accompagner la montée en compétences des développeurs (Pair Programming, ateliers techniques). Diffuser la culture "Craft" et les bonnes pratiques de développement. Participer à l'amélioration continue des process de delivery (Agile/Scrum). 3. Développement "Hands-on" (20%) Développer les fonctionnalités critiques et les briques transverses à forte valeur ajoutée. Réaliser des POCs pour tester de nouvelles technologies ou approches.
Mission freelance
Ingénieur DATA
ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera
1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Mission freelance
SDM Poste de travail (H/F)
Pickmeup
Publiée le
Infrastructure
Réseaux
6 mois
340-460 €
Lyon, Auvergne-Rhône-Alpes
Etre en contact avec les Correspondants Informatiques (CI) par mail et/ou téléphone/Teams Suivi des dossiers dans l’outil de ticketing Traiter les dossiers soumis à la validation du Responsable Informatique (RI) du sous-secteur : Instruction du dossier Vérification du besoin exprimé Vérification de l’adéquation avec la Politique de la DSI et la conformité à la Politique Sécurité du SI. Traitement des escalades, organisation des points nécessaires avec les infogérants et/ou les équipes client Contrôle du parc dans les outils des infogérants (CMDB/ITSM). Représentant client sur site Périodiquement : Animer des réunions mensuelles avec les CI (préparation, animation et CR) Prendre en charge les remontées des utilisateurs via les CI voire les ISM (IS Managers de la DSI) Proposition de Plans d'actions et suivi Actions de contrôle : qualité du Parc informatique, pointage, … Tenue à jour des référentiels de travail : Connaissance et maîtrise du réseau des CI
Mission freelance
Data ingénieur / Software ingénieur
SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark
1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Offre d'emploi
Architecte Cloud / DevOps - F/H
Blue Soft
Publiée le
60k-70k €
Boulogne-Billancourt, Île-de-France
Nous recherchons plusieurs Architectes Cloud / DevOps expérimentés pour intervenir sur des projets stratégiques de transformation cloud au sein de grands environnements complexes. - Localisation : Boulogne-Billancourt ou Lyon - Contrat : CDI de préférence - Télétravail : 2 à 2,5 jours/semaine selon la mission - Démarrage : ASAP / 1 mois - Anglais professionnel requis - Missions longues durées Contexte Dans le cadre de programmes de transformation digitale (migration cloud, modernisation des infrastructures, structuration multi-environnements), vous interviendrez sur des architectures cloud hybrides et/ou cloud-native, avec des enjeux forts de scalabilité, sécurité et gouvernance. Missions principales o Définir et concevoir des architectures cloud (Azure, AWS ou cloud hybride) o Piloter ou accompagner des migrations On-Premise vers le Cloud o Intervenir sur des environnements multi-tenant et complexes o Concevoir des solutions IaaS / PaaS / cloud-native o Mettre en place des architectures scalables, sécurisées et hautement disponibles o Accompagner les équipes techniques (DevOps, infra, applicatif) o Participer aux revues d'architecture et cadrage technique o Produire la documentation (HLD, LLD, DAT...) o Promouvoir les bonnes pratiques (DevOps, Kubernetes, IaC) o Contribuer à l'optimisation des coûts et à la gouvernance cloud Environnement technique o Cloud : Azure, AWS, IBM Cloud o Conteneurisation : Kubernetes, AKS, OpenShift o Infrastructure as Code : Terraform, Bicep o CI/CD : GitLab CI o Systèmes : Linux, Windows Server, VMware o Réseau & sécurité : VNet, RBAC, Firewall, API Management o Outils & frameworks : TOGAF, ESB, Apigee o Scripting : PowerShell
Mission freelance
Ingénieur senior DevOps APIM
NEXORIS
Publiée le
DevOps
Helm
JSON Web Token (JWT)
1 an
500-550 €
Paris, France
L'objectif de la mission est d'intervenir en tant qu’Ingénieur DevOps APIM au sein d’une équipe en charge de l’implémentation, de l’administration et du maintien en condition opérationnelle de plateformes d’API Management basées sur WSO2 et Kong, dans un environnement Cloud et Kubernetes. Les travaux attendus sont : - Mettre en œuvre les solutions d’API Management (WSO2, Kong). - Participer aux rituels Agile (daily meetings, backlog, roadmap). - Déployer et maintenir les plateformes API en environnement Kubernetes. - Implémenter les éléments de backlog définis par le Squad Lead. - Proposer des solutions techniques face aux problématiques rencontrées. - Collaborer avec les équipes produit et techniques. - Contribuer aux démonstrations et formations autour des solutions API. - Participer aux astreintes techniques du socle. - Assurer le support et le bon fonctionnement des plateformes (BUILD & RUN). Livrables attendus sont : - Plateformes API Management opérationnelles et maintenues. - Déploiements automatisés et documentés. - Documentation technique et supports de formation. - Résolution des incidents et amélioration continue.
Mission freelance
[MDO] Développeur C# - min 5 ans XP
ISUPPLIER
Publiée le
C#
8 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Le client recherche un développeur senior autonome , capable de prendre en charge des développements applicatifs complexes et de s’intégrer rapidement dans un projet existant. Minimum 5 ans d’expérience en développement logiciel Forte expertise en C# Expérience en environnement projet Agile Capacité à travailler de manière autonome avec peu de supervision Habitude de reprise et compréhension rapide d’un code legacy ou existant Compétences techniques Maîtrise avancée de C# (obligatoire) Bonne pratique de TypeScript Expérience avec SharePoint Framework (SPFx) Maîtrise des outils DevOps : GitLab CI/CD Azure Artifactory SonarQube Capacité à développer des solutions logicielles scalables et performantes Connaissance des bonnes pratiques de développement (design patterns, clean code)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2806 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois