L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 450 résultats.
Offre d'emploi
Ingénieur OPS- Devops
KEONI CONSULTING
Publiée le
Framework
Kubernetes
Linux
18 mois
20k-60k €
Pessac, Nouvelle-Aquitaine
CONTEXTE Devops- OPS MISSIONS · Mise en place, configuration et administration de clusters Kubernetes · Automatisation de l'infrastructure avec Terraform et Ansible · Intégration et gestion de pipelines CI/CD via GitLab CI · Surveillance et observabilité avec Prometheus, Grafana, Loki, etc · Gestion de la sécurité et des accès (Vault, Keycloak, EDR, BASTION, PRA/PCA) · Administration des environnements cloud GCP, gestion des ressources et de la configuration · Scripting et administration système (Ubuntu, Unix, Shell, etc) · Maintenance et évolution de l'architecture logicielle (notamment microservices, API REST) · Configuration réseau et protocoles selon les besoins de l'application EXPERTISE TECHNIQUE ET/OU METIER NECESSAIRE Virtualisation VMware, KUBERNETES, Gestion de projet, Linux, Ansible, bash, PROMETHEUS, GRAFANA EXPERTISES TECHNIQUES ATTENDUES · Mise en place, configuration et administration de clusters Kubernetes · Automatisation de l'infrastructure avec Terraform et Ansible · Intégration et gestion de pipelines CI/CD via GitLab CI · Surveillance et observabilité avec Prometheus, Grafana, Loki, etc · Gestion de la sécurité et des accès (Vault, Keycloak, EDR, BASTION, PRA/PCA) · Administration des environnements cloud GCP, gestion des ressources et de la configuration · Scripting et administration système (Ubuntu, Unix, Shell, etc) · Maintenance et évolution de l'architecture logicielle (notamment microservices, API REST) · Configuration réseau et protocoles selon les besoins de l'application
Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580
Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark
1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
450 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois