L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 512 résultats.
Mission freelance
Data Analyst – Grafana & InfluxDB H/F
Publiée le
Grafana
InfluxDB
MySQL
6 mois
460-500 €
Paris, France
Télétravail partiel
Dans le cadre d’un remplacement opérationnel , nous recherchons un Data Analyst / BI freelance pour intervenir sur l’exploitation et la visualisation de données opérationnelles issues de capteurs (BMS – Building Management System). Le consultant interviendra principalement sur la gestion et l’évolution des dashboards Grafana , ainsi que sur l’analyse de données time series stockées dans InfluxDB (v3) . La mission est très orientée run et production , avec un objectif de fiabilité, de lisibilité et d’efficacité des visualisations utilisées au quotidien par les équipes. Le consultant travaillera en lien étroit avec les équipes techniques et métiers.
Offre d'emploi
Proxy Product Owner Senior - Sophia Antipolis
Publiée le
MySQL
Spring
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte & Enjeux Dans le cadre d’un projet au sein d’une équipe multisite , nous recherchons un Proxy Product Owner Senior capable d’assurer la continuité opérationnelle et la coordination fonctionnelle entre les équipes métiers, techniques et produit. 🛠️ Missions principales Collaborer étroitement avec le Product Owner et le Product Manager pour construire et affiner la vision produit. Rédiger des User Stories claires et détaillées. Gérer et maintenir le backlog de l’équipe : priorisation, organisation, cohérence globale et roadmap. Garantir la bonne compréhension de chaque User Story tout au long de son cycle de vie : présentation pour estimation, support aux développeurs, validation fonctionnelle, suivi de la stratégie d’automatisation des tests, support aux analyses d’incidents en production. Assurer une synchronisation fluide avec les autres équipes du programme (feature teams, exploitation technique) via : PO Sync, ateliers de conception, comités d’architecture, PI Planning. 📄 Livrables attendus User Stories Dossier de spécification (Confluence) 🧩 Compétences requises Techniques : SQL : Confirmé – indispensable Spring : Junior – un plus apprécié Linguistiques : Français : courant – impératif Anglais : professionnel – souhaité
Mission freelance
Business analyst data / BI
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Offre d'emploi
Data Manager
Publiée le
Dataiku
Microsoft SQL Server
Sass
1 an
40k-45k €
330-540 €
Paris, France
Télétravail partiel
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
Publiée le
Apache Spark
Hadoop
Python
3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre d'emploi
Consultant data MDM F/H
Publiée le
45k-50k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies audacieuses, un accompagnement humain adapté, et une capacité à anticiper les enjeux à venir. Chez Coexya Consulting, nous considérons que les femmes et les hommes sont au coeur de la réussite des projets de transformation. Pour renforcer notre équipe, nous recherchons une personne expérimentée pour un poste de consultant Data MDM F/H. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy et notamment de l'offre MDM, vos missions sont les suivantes : - Contribuer au développement de l'offre Data MDM : participation à la structuration de notre démarche, production de contenus méthodologiques, diffusion de bonnes pratiques, veille. - Intervenir, en particulier sur les aspects fonctionnels et technologiques, sur les phases clés associées à la construction d'un projet MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation. - Mener les ateliers de cadrage puis la définition des modèles de données et des processus de gestion des données référentielles. - Concevoir et préconiser les solutions technologiques répondant aux besoins par un benchmark des solutions du marché. - Echanger avec les équipes techniques. - Identifier les opportunités de missions et de besoins chez vos clients. - Participer aux avant-ventes : rédaction d'offres, soutenances orales, valorisation de notre savoir-faire.
Offre d'emploi
SRE - DevSecOps Senior
Publiée le
Azure Kubernetes Service (AKS)
DevSecOps
Site Reliability Engineering (SRE)
1 an
40k-46k €
590-680 €
Île-de-France, France
Télétravail partiel
Missions principales : · Définir la stratégie SRE et la roadmap de transformation, prioriser les chantiers fiabilité/performance/exploitation plateforme et animer la gouvernance associée. · Mettre en place et piloter SLI/SLO et budgets d’erreur par service, et arbitrer la cadence de mise en production vs la fiabilité utilisateur. · Industrialiser l’automatisation et réduire le toil via Ia CI/CD et runbooks, en standardisant les pratiques d’exploitation. · Structurer l’observabilité, l’alerte et la gestion des incidents, réduire MTTD/MTTR et instaurer des postmortems sans blâme pour l’amélioration continue. · Concevoir et faire évoluer une plateforme fiable (cloud/Kubernetes), définir patterns de résilience, guardrails et capacités multi‑régions/DR. · Conduire le changement organisationnel, former et coacher les équipes, aligner Produit/Dev/Ops et synchroniser les chantiers transverses. · Orchestrer l’astreinte et les opérations 24/7, standardiser les rituels d’exploitation et les niveaux d’escalade. · Optimiser coûts et performances (FinOps), instrumenter la visibilité budgétaire et piloter les arbitrages usage/coûts. · Intégrer sécurité et conformité dans les pratiques SRE et la chaîne de livraison continue. · Piloter le portefeuille projets fiabilité, la gestion des risques, le planning/charges et le reporting exécutif · Accompagner la transition de services (release, Early Life Support), en minimisant l’impact client lors des changements majeurs.
Offre d'emploi
Architecte Réseaux (H/F)
Publiée le
Ansible
Architecture
Azure
36 mois
48k-53k €
500-550 €
Chambéry, Auvergne-Rhône-Alpes
Télétravail partiel
Localisation : Chambéry (2 jours de télétravail par semaine) Démarrage : Dès que possible – préavis gérable Contrat : CDI ou Freelance Rémunération : 48 à 53k€ selon profil / TJM 500-550 Durée : longue visibilité Séniorité attendue : Minimum 5 ans d’expérience sur un poste similaire Nous recherchons un Architecte Réseaux expérimenté pour rejoindre un grand groupe international. Vous serez en charge de piloter l’évolution et l’optimisation du réseau de l’entreprise , en apportant votre expertise technique et votre vision architecturale stratégique . Vos missions : Participer aux projets d’évolution du réseau de l’entreprise Déployer de nouvelles technologies réseau Intégrer de nouveaux périmètres et technologies associées Contribuer à la standardisation et à l’optimisation de l’existant Participer au design et à la conception des architectures Rédiger la documentation technique nécessaire au passage en production Garantir l’excellence opérationnelle du réseau (cadre ITIL / amélioration continue) Assister les équipes de production sur les incidents et demandes complexes Apporter une expertise réseau de niveau 3 Assurer le transfert de compétences vers les équipes support
Offre d'emploi
Architecte GCP
Publiée le
Azure
Datadog
DevSecOps
6 mois
Paris, France
Télétravail partiel
L’ Architecte GCP rejoindra le client au sein de l’équipe Engineering Platform , pour concevoir, automatiser et gouverner les environnements cloud GCP (et partiellement Azure ). Il aura un rôle clé dans la mise en place des landing zones , la définition des standards d’ingénierie , la gouvernance technique cloud et la sécurisation de la plateforme. Ses missions incluent la création de golden paths (templates, pipelines CI/CD, observabilité, sécurité), la standardisation de l’observabilité via Datadog et OpenTelemetry , l’intégration des outils GitHub Actions , SonarCloud et Datadog , et l’accompagnement des équipes de développement dans une démarche DevOps/Cloud Native . Ce poste stratégique requiert une excellente maîtrise de GCP , une approche DevSecOps , des compétences en Terraform , et un leadership technique affirmé dans un contexte de forte industrialisation et de gouvernance cloud à grande échelle .
Offre d'alternance
Alternant Cloud Engineer - AIgmented
Publiée le
Cloud
DevOps
12 mois
Mulhouse, Grand Est
🎯 Mission principale Concevoir, développer et maintenir une infrastructure cloud sécurisée, scalable et industrialisée (CI/CD), basée sur des conteneurs (Docker) et de l’orchestration (Kubernetes), en garantissant la bonne gestion des ressources informatiques et des accès utilisateurs. 🧩 Responsabilités 1. Architecture & développement Cloud Concevoir et mettre en œuvre des architectures cloud (on-premise, cloud public ou hybride). Conteneuriser les applications existantes et nouvelles (Docker). Déployer et maintenir des clusters Kubernetes (K8s) pour les environnements de dev, test et prod. Mettre en place des workflows CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.). 2. Orchestration & gestion des ressources Dimensionner et optimiser l’usage des ressources (CPU, RAM, stockage, GPU si besoin). Gérer les namespaces, quotas, autoscaling (HPA/VPA), nodes pools, etc. Suivre les performances et coûts (monitoring, alerting, dashboards). 3. Cybersécurité & gestion des accès Définir et appliquer les politiques de sécurité (RBAC, gestion des rôles, secrets, certificats). Mettre en œuvre la sécurité des conteneurs (scans d’images, durcissement, politiques réseau). Gérer les identités et accès (IAM, SSO, OAuth2, Keycloak/AD, etc.). Participer aux revues de sécurité et à la gestion des incidents (logs, traces, audits). 4. Supervision, fiabilité & exploitation Mettre en place le monitoring (Prometheus, Grafana, ELK/EFK, OpenTelemetry…). Assurer la haute disponibilité et la résilience (backups, DRP, redondance). Documenter les procédures d’exploitation, de déploiement et de reprise. 5. Collaboration & support Travailler en étroite collaboration avec les équipes de dev, data/IA et produit. Accompagner les développeurs pour adapter leurs applis au modèle cloud natif. Participer à l’amélioration continue des pratiques DevSecOps.
Offre d'emploi
Staff Engineer IA / IA Générative
Publiée le
AWS Cloud
Docker
Git
6 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de l’accélération de sa stratégie autour de l’Intelligence Artificielle et de l’IA Générative, un groupe industriel international de premier plan recherche un(e) Staff Engineer pour renforcer son équipe AI Activation . Vous interviendrez en tant que référent technique transverse sur plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…), avec un double enjeu : accompagner les projets de bout en bout (de la conception à la mise en production), et contribuer à la définition d’un cadre technique commun garantissant cohérence, sécurité, performance et scalabilité des solutions IA du groupe. Vous serez le garant des bonnes pratiques d’ingénierie et de la qualité globale de l’écosystème technique IA. Objectifs et Livrables : Accompagner et encadrer techniquement plusieurs projets IA / GenAI (design, implémentation, mise en production). Définir, formaliser et promouvoir les bonnes pratiques techniques : MLOps, LLMOps, DevSecOps, architectures cloud. Concevoir des architectures de référence pour les solutions IA, robustes, sécurisées, scalables et maintenables. Industrialiser les usages IA : mise en place de pipelines, intégration dans les chaînes CI/CD, automatisation et monitoring des workloads. Assurer la cohérence technique entre les différents projets IA / GenAI portés par le groupe. Contribuer à la construction et à l’évolution du socle commun “AI Platform” sur lequel s’appuient les équipes projet. Encadrer, coacher et faire monter en compétence les ingénieurs data, ML et software (revues de code, pair design, partage de bonnes pratiques). Assurer une veille technologique active sur les briques IA / GenAI (LLM, RAG, orchestrateurs, vector DB, frameworks, etc.) et proposer leur intégration quand pertinent.
Offre d'emploi
Consultant Technico-fonctionnel Salesforce (H/F)
Publiée le
Salesforce Commerce Cloud
1 an
65k-75k €
550-650 €
Paris, France
Dans le cadre de projets stratégiques, nous recherchons un Consultant technico-fonctionnel Salesforce passionné par les environnements exigeants et à forte valeur ajoutée. Vos missions Recueillir et analyser les besoins métiers (CRM, vente, service client, expérience client) Concevoir des solutions Salesforce adaptées aux enjeux du secteur du Luxe Paramétrer et développer sur la plateforme Salesforce Développer des composants Apex et Lightning (LWC/Aura) Participer aux phases de tests, de recette et de déploiement Assurer la maintenance évolutive et corrective Accompagner les utilisateurs et contribuer à la conduite du changement
Offre d'emploi
Architecte Cloud GCP & DevOps
Publiée le
Google Cloud Platform (GCP)
Terraform
2 ans
Paris, France
Télétravail partiel
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Offre d'emploi
Technicien Informatique Itinérant (H/F) - GRENOBLE ( 38 )
Publiée le
24k-27k €
Grenoble, Auvergne-Rhône-Alpes
Technicien Informatique Itinérant (H/F) - GRENOBLE ( 38 ) - Grenoble Pour accompagner notre forte croissance sur nos activités de Field Services, nous recrutons un Technicien/Référent informatique Itinérant (H/F) pour intervenir sur Grenoble et ses alentours. Vous aurez pour principales missions : Qualifier, gérer et résoudre les incidents de premier et second niveau (interventions physiques) Réaliser les demandes nécessitant une intervention physique, selon les procédures en vigueur : déploiement de matériel Retail, déménagement, mise au rebus… Participer à la gestion de parc : suivi du stock, renouvellement du parc postes et périphériques… Analyser et résoudre les incidents liés à la monétique (caisse, terminaux de paiement…) et au matériel Réaliser des opérations de maintenance, réception des pièces détachées et matériels Proposer des évolutions des documentations : procédures, renseignement de la base de ticketing Coordonner les techniciens sur le site lors du déploiement Anticiper les répartitions et changements et veiller à s'adapter, en fonction et escalader au superviseur régional (ou superviseur d'astreinte si nuit) pour déclenchement d'un éventuel backup S'assurer du bon avancement des prestations et alerter la Maîtrise d'Œuvre (MOE) en cas de problème et être le point d'entrée du client (MOE) lors de la prestation en magasin S'assurer de l'atteinte de l'objectif du déploiement S'assurer du respect des process mais aussi être force de proposition pour les faire évoluer Assurer le support technique de l'équipe le cas échéant. Date de démarrage : ASAP Contrat : CDI Permis de conduire obligatoire pour des déplacements quotidiens
Mission freelance
Tech Lead Kubernetes
Publiée le
AWS Cloud
Kubernetes
12 mois
400-550 €
Malakoff, Île-de-France
Télétravail partiel
Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
3512 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois