L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 538 résultats.
Mission freelance
DevOps Senior - Full remote H/F
Comet
Publiée le
Automatisation
AWS Cloud
Azure
1 an
400-530 €
France
Nous recherchons un(e) DevOps Senior pour une mission en 100% remote, au sein d’un projet innovant à fort impact dans le domaine du Green IT pour une mission de 4 jours par semaine sur 1 an. 🚀 Contexte Vous interviendrez sur une plateforme technologique visant à optimiser et réduire l’empreinte environnementale des infrastructures IT , en vous appuyant sur des mesures dynamiques et des logiques d’optimisation avancées (GreenOps / FinOps). 🛠️ Missions principales Architecture & Infrastructure Concevoir et faire évoluer l’infrastructure cloud Déployer et maintenir des environnements robustes et scalables Appliquer les bonnes pratiques DevOps (CI/CD, IaC) Exploitation & Fiabilité Garantir la disponibilité, la performance et la sécurité Mettre en place des outils d’observabilité (logs, monitoring, alerting) Gérer les incidents et améliorer la résilience des systèmes Produit & GreenOps Contribuer à une plateforme orientée optimisation des ressources IT Challenger les choix techniques avec une vision ops / usage réel Participer à des problématiques FinOps, automatisation et performance Collaboration & Support Travailler étroitement avec les équipes produit et tech Documenter l’infrastructure et les bonnes pratiques Accompagner les déploiements chez les clients (y compris on-premise) 🧰 Stack technique Cloud : AWS (principal), Azure CI/CD : GitLab Containers : Kubernetes IaC : Terraform, Terragrunt Packaging : Helm Observabilité : CloudWatch, Elastic Data : PostgreSQL, DuckDB, MongoDB Langages : Python, Java
Offre d'emploi
GitOps Engineer
KLETA
Publiée le
Git
GitLab CI
Helm
3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un GitOps Engineer pour concevoir, industrialiser et fiabiliser les processus de déploiement des plateformes cloud native. Vous analyserez les pratiques existantes, identifierez les points de friction et proposerez des trajectoires d’amélioration basées sur les principes GitOps. Vous guiderez la mise en place de chaînes d’automatisation fondées sur Git comme source unique de vérité, en utilisant des outils tels qu’ArgoCD, Flux, Helm et Kubernetes Operators. Vous serez responsable de la standardisation des manifests, de la structuration des dépôts, du versioning et de la gestion des environnements (dev, staging, prod). Vous travaillerez étroitement avec les équipes Cloud, DevOps et SRE pour garantir des déploiements reproductibles, traçables et sécurisés. Vous intégrerez également des mécanismes de contrôle, de validation et de rollback automatisé afin de renforcer la résilience opérationnelle. Enfin, vous participerez à l’amélioration continue des pratiques d’automatisation et à la diffusion de la culture GitOps au sein des équipes.
Mission freelance
[FBO] Ingénierie Cloud / SRE Kubernetes Massy - 1514
ISUPPLIER
Publiée le
7 mois
500-600 €
Massy, Île-de-France
Description: L’équipe OneCloud Kubernetes a pour mission d’administrer, exploiter et faire évoluer des clusters Kubernetes dédiés aux différentes équipes produits et métiers. Dans un environnement 100 % Cloud (GCP & Azure), l’exploitation s’inscrit dans une approche GitOps, avec un fort ancrage open source et CNCF. La prestation consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes opérées par l’équipe OneCloud. Elle s’inscrit dans un contexte de production exigeant, nécessitant une forte autonomie sur les environnements cloud ainsi qu’une bonne maîtrise de l’écosystème Kubernetes et de ses outils. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Gérer pods, services, ingresses et namespaces “infra”, et appliquer les bonnes pratiques sur les manifests applicatifs. ● Provisionner AKS/GKE et les ressources cloud via Terraform, en s’alignant sur les standards CSP. ● Industrialiser les déploiements as code avec GitLab CI/CD et ArgoCD. ● Faciliter le time-to-market des équipes (certifi cats, DNS, observabilité, enablement fonctionnalités). ● Opérer les clusters (upgrades K8s et composants, capacity management, PRA). ● Mettre en place le multi-tenant (namespaces, quotas, RBAC, network policies). ● Déployer l’observabilité (Prometheus, Grafana, Loki, centralisation logs). ● Suivre la consommation cloud (Azure Monitor, métriques GCP, dashboards). ● Optimiser les ressources (quotas, scaling, gabarits, extinction de nuit). ● Renforcer la sécurité Kubernetes (policies, RBAC, audit logs). ● Gérer les secrets (Vault, Sealed Secrets, services natifs cloud). ● Appliquer les recommandations RSSI et suivre les pratiques de sécurité. ● Automatiser via scripting (Bash, Python, Go). ● Mettre en place un alerting avancé et proactif. ● Promouvoir une culture SRE (fi abilité, autoscaling, bonnes pratiques CNCF/CAF). MÉTHODES, ORGANISATIONS ET INTERACTIONS. ● Communiquer clairement et effi cacement à l’écrit comme à l’oral. ● Analyser les situations avec recul et esprit critique. ● Proposer des solutions concrètes et adaptées. ● Respecter les engagements et les délais. ● Maintenir un haut niveau d’exigence et de qualité. ● Collaborer activement et favoriser l’intelligence collective. ● Partager les connaissances et faire progresser l’équipe. ● Adopter une posture d’amélioration continue. ● Synthétiser pour faciliter la prise de décision. ● Gérer les situations complexes avec calme et méthode. ● Influencer de manière transverse et adapter son message aux interlocuteurs. ● Faire preuve d’autonomie et de sens des priorités. RÉFÉRENCES. Les éléments suivants seront particulièrement appréciés dans le cadre de la prestation : ● Formation Bac+5 (école d’ingénieur ou université) orientée informatique, ou expérience équivalente. ● Expérience de 3 à 7 ans en Cloud engineering Administrateur / SRE Kubernetes. ● Une expérience dans le secteur du retail / grande distribution constituerait un avantage.
Offre d'emploi
Ingénieur Kubernetes Senior
VISIAN
Publiée le
Argo CD
Kubernetes
1 an
Île-de-France, France
Ingénieur Kubernetes Senior (Build & Run)Contexte Recherche un Ingénieur Kubernetes orienté Data expérimenté capable de concevoir, implémenter et administrer une infrastructure Kubernetes from scratch et d'assurer l'exploitation en mode GitOps. Missions Implémentation et administration avancée de Kubernetes : déploiement et gestion d'un cluster Kubernetes de bout en bout, sans dépendance aux interfaces graphiques. Automatisation et industrialisation : mise en place de pipelines CI/CD avec GitOps (ArgoCD, FluxCD, etc.). Sécurisation et monitoring : intégration des meilleures pratiques de sécurité, SSO, gestion des secrets (Vault). Optimisation et haute disponibilité : mise en œuvre de stratégies de scaling, monitoring avancé (Prometheus, Grafana), et gestion de la résilience. Support et RUN : assurer le maintien en conditions opérationnels en mode GitOps, sans aucune intervention manuelle.
Offre d'emploi
Gestionnaire d'applications Salesforce Marketing Cloud confirmé
SARIEL
Publiée le
Gitlab
Javascript
Salesforce
12 mois
40k-57k €
350-440 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un Gestionnaire d’applications confirmé sur Salesforce Marketing Cloud (4-10 ans d’expérience). Objectif Global : Administrer et développer sur Salesforce Marketing Cloud Les livrables sont Développements Salesforce Administration Salesforce Documentation Compétences techniques Administration Salesforce Marketing Cloud - Confirmé - Impératif AMPSCRIPT - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Mission : Gestionnaire d’Application SFMC Au sein du Domaine Client & Marketing de notre client, vous travaillerez au sein d’une Équipe d’Experts Techniques en charge du maintien en condition opérationnelle des Applications du Domaine, plus particulièrement vous interviendrez sur le CRM Salesforce. Vous travaillerez en étroite collaboration avec la Responsable d’Application CRM, les Chefs de Projet, l’Intégrateur de la Solution, les équipes de Production, et les Gestionnaires d’Application du Domaines et des Applications connexes au CRM. Vos principales missions sont : - Contribuer au maintien du fonctionnement de la plateforme en étant garant de la performance et de l’intégrité des données - Qualifier les tickets de support - Assurer le traitement et le suivi des tickets sur son périmètre - Procéder à l’escalade des tickets : Escalade Intégrateur / Editeur - Réaliser les développements demandés par le métier. - Réaliser les paramétrages / configurations et le déploiement en Préproduction / Production des releases Salesforce - Faire le suivi journalier des flux de données et réaliser d'éventuels reprises de données - Gérer les paramètres de sécurité et effectuer régulièrement des audits de la plateforme - Effectuer le suivi de l’usage des gouverneurs limites de la plateforme et communiquer régulièrement la tendance de leur évolution - Tenir à jour la documentation du système et les politiques / procédures Salesforce et dossier d’exploitation - Contribuer au maintien et au transfert des connaissances techniques et fonctionnelles nécessaires à la pérennité de la Solution - Contribuer aux activités de maintenance et de support d’autres applications du Domaine - Éventuellement, assister le Responsable d’Application dans la rédaction des spécifications techniques et fonctionnelles - Éventuellement, assurer le backup du Responsable d’Application quand cela est nécessaire - Possibilité d’astreintes Profil : Formation Universitaire/Gestion des systèmes d'information (BAC +4/5). Expérience : - Expérience professionnelle confirmée sur Salesforce Marketing Cloud - Certifications Administrateur et Développeur sur Salesforce - Idéalement, expérience sur des outils de CI/CD (GitLab) - Maîtrise SQL, AMP Script, Javascript Qualités requises : Travail en équipe, Communication développée, Forte capacité d’écoute, Autonomie, Capacité d’analyse et de synthèse, Démarche d’amélioration continue. Définition du profil ANALYSE Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Données complémentaires Date de démarrage 25/05/2026 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine La sous-traitance (freelance, ESN ou autre) sur ce projet est Autorisée Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision
Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker
6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Mission freelance
LUXEMBOURG - Lead / Senior Salesforce Dev – Spécialiste nCino & Financial Services Cloud
ABALSIA CONSULTING
Publiée le
Apex
API REST
CI/CD
12 mois
Luxembourg
Lead / Senior Salesforce Dev – Spécialiste nCino & Financial Services Cloud Nous recrutons un profil technique solide pour piloter l'implémentation de la solution nCino au sein d'un environnement bancaire exigeant. Tes responsabilités clés : Core Dev : Expertise Apex (classes, tests) et interfaces modernes en Lightning Web Components (LWC). Architecture & Intégration : Conception et consommation d'APIs REST/SOAP pour connecter Salesforce aux systèmes tiers. DevOps & Qualité : Mise en place et suivi des pipelines CI/CD (AutoRabit, Copado ou similaire). Métier : Collaboration directe avec les équipes IT et Métiers sur les flux Crédit. Tes atouts pour réussir : Certification nCino 301 ou Platform Developer. Expérience en milieu bancaire confirmée. Culture de la sécurité et du patching en production. Poste basé à : LUXEMBOURG Démarrage : ASAP
Offre d'emploi
Ingénieur Sécurité Cloud F/H
Centhys
Publiée le
35k-55k €
Lille, Hauts-de-France
En collaboration avec les équipes Cloud, votre rôle s'articulera autour de deux axes principaux : La définition et l'amélioration du cadre de sécurité : • Auditer les règles de sécurité existantes • Standardiser les pratiques de sécurité Cloud • Définir et formaliser les règles de sécurité GCP • Définir les indicateurs de conformité permettant de démontrer le bon niveau de sécurité • Mettre en place le reporting sécurité et en assurer le suivi La conformité et l'accompagnement des équipes : • Accompagner les équipes dans l'adoption des bonnes pratiques • S'assurer que les équipes Cloud appliquent et respectent les règles de sécurité • Participer à la conduite du changement liée à la mise en œuvre des standards de sécurité Référence de l'offre : ject4kyz3t
Offre d'emploi
Développeur Fullstack Python / IA (FastAPI – React – LLM – Docker)
Etixway
Publiée le
CI/CD
Django
Docker
12 mois
40k-55k €
450-500 €
Paris, France
Dans le cadre du renforcement d’une équipe technique, nous recherchons un développeur confirmé pour intervenir sur des projets applicatifs en forte évolution, intégrant des technologies modernes et des solutions d’intelligence artificielle. Vous participerez à l’ensemble du cycle de développement, de la conception à la mise en production, dans un environnement exigeant mêlant développement fullstack, intégration de services IA/LLM et pratiques DevOps. À ce titre, vos principales missions seront : Concevoir, développer et intégrer de nouvelles fonctionnalités (backend et frontend) Développer et maintenir des API en Python (FastAPI ou Django) Participer à l’intégration de solutions basées sur des modèles d’intelligence artificielle (LLM, APIs IA, LangChain, etc.) Assurer la maintenance évolutive et corrective des applications Optimiser les performances et la qualité du code Contribuer aux pipelines CI/CD et aux pratiques DevOps (Docker, Kubernetes) Rédiger et maintenir la documentation technique (architecture, API, procédures de déploiement) Vous évoluerez dans un environnement technique moderne, avec des enjeux forts autour de la qualité logicielle, de la sécurité et de la performance, notamment sur des problématiques de recherche documentaire (Elasticsearch) et de déploiement sur cloud souverain.
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Mission freelance
Développeur Java Fullstack Senior – Nord (59)
ASAP TECHNOLOGIES
Publiée le
Angular
Ansible
Back-end
1 an
Lille, Hauts-de-France
Dans le cadre d’une mission chez un client final anonyme , nous recherchons un Développeur Java Fullstack confirmé pour intervenir sur un projet de développement et de modernisation applicative. Missions Participer aux ateliers de recueil des besoins avec les équipes métiers et les Product Owners Traduire les besoins fonctionnels en spécifications techniques Contribuer aux choix techniques et à la conception des modèles de données Participer aux estimations de charge et au découpage des User Stories Réaliser les développements back-end en Java / Spring Boot Réaliser les développements front-end en Angular Corriger les anomalies et faire évoluer les fonctionnalités existantes Rédiger la documentation technique et fonctionnelle Écrire les tests unitaires et participer aux revues de code Préparer les livraisons et accompagner les mises en production Assurer le support technique lors des recettes et incidents de production Environnement technique Back-end : Java, Spring Boot, Spring, Hibernate Front-end : Angular, JavaScript, JSP, Thymeleaf Bases de données : Oracle, MySQL Outils : Git, Jira, CI/CD, Ansible
Offre d'emploi
Ingénieur Infrastructure Backup & DevOps (N4)
AVA2I
Publiée le
Cloud
Commvault
DevOps
12 mois
Île-de-France, France
Contexte Dans une équipe IaaS (Backup & Restore), le consultant participe à la transformation des infrastructures de sauvegarde vers un modèle automatisé, industrialisé et Cloud (IBM). Environnement : NetBackup, TSM/TSM-VE, VEEAM, Commvault. Missions Assurer le support expert N4 sur les environnements Backup/Restore Automatiser les tâches récurrentes (Ansible, Python) Contribuer à l’Infrastructure as Code (Terraform) Participer aux projets Cloud et DevOps Industrialiser et optimiser les solutions existantes Rédiger documentation et procédures Participer à une squad Agile Backup Compétences clés Indispensable Terraform (maîtrise pratique) Fortement souhaité Ansible (automatisation, playbooks) Python (scripting, API, automatisation) Outils Backup : NetBackup / TSM / VEEAM / Commvault Connaissance Cloud / IaaS / DevOps
Offre d'emploi
Ingénieur DevOps - GCP (F/H)
K-Lagan
Publiée le
DevOps
Google Cloud Platform (GCP)
1 an
Nantes, Pays de la Loire
Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? 🚀 Chez K-LAGAN, nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé. Aujourd’hui, nous recherchons un.e DevOps (F/H) pour rejoindre l’un de nos clients basé à Nantes . 🎯 Contexte Vous intervenez au sein d’une équipe en charge de la plateforme cloud sur GCP , dans un environnement en forte évolution. L’objectif : fiabiliser, industrialiser et faire évoluer les infrastructures vers une approche Platform Engineering, au service des équipes de développement. Vous contribuez directement à la mise en place de standards, d’outils et de bonnes pratiques pour améliorer la scalabilité et la performance des environnements. ⚙️ Vos missions Automatiser le déploiement des infrastructures via Terraform Concevoir et maintenir des playbooks Ansible Gérer le provisioning d’infrastructures IaaS sur GCP Participer à l’industrialisation des environnements (CI/CD, monitoring, sécurité) Contribuer à l’évolution vers un modèle Platform Engineering Accompagner les équipes de développement dans l’usage de la plateforme Être force de proposition sur les bonnes pratiques DevOps 🛠️ Stack technique Cloud : GCP Infra as Code : Terraform Configuration management : Ansible CI/CD : GitLab CI / Jenkins (ou équivalent) Conteneurisation : Docker, Kubernetes (idéalement) Scripting : Bash / Python
Offre d'emploi
Ingénieur DevSecOps Cloud AWS- KBS
KEONI CONSULTING
Publiée le
AWS Cloud
Cloud
Grafana
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur DevSecOps Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur DevSecOps est Responsable de l'industrialisation des pipelines de livraison et de l'intégration des pratiques de sécurité tout au long du cycle de développement et de déploiement sur infrastructure AWS. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation EXPERTISE & Compétences clés attendues : · Maîtrise des outils CI/CD (GitLab CI, GitHub Actions, ArgoCD) · Infrastructure as Code avec Terraform et gestion des modules réutilisables · Orchestration de conteneurs Kubernetes (EKS) : nodes, autoscaling, namespaces, ingress · Sécurité applicative intégrée : scan de vulnérabilités (Trivy, Snyk), SAST/DAST · Gestion et gouvernance des images Docker (registry, policy, scan) · Implémentation des principes Zero Trust, IAM Roles et RBAC Kubernetes · Gestion des secrets et rotation de clés (AWS Secrets Manager, KMS) · Monitoring et observabilité (CloudWatch, Prometheus, Grafana, OpenTelemetry) · Conformité réglementaire : RGPD, CNIL, Cloud Act · Rédaction de runbooks d'exploitation et documentation des procédures CI/CD
Mission freelance
Directeur de Programme - Transformation Cloud Interne & Industrialisation
CAT-AMANIA
Publiée le
Helm
Jenkins
Kubernetes
6 mois
400-550 €
Île-de-France, France
L'objectif est de déployer une plateforme Cloud interne automatisée permettant d'industrialiser le delivery IT, de réduire le Time-to-Market de 50 % et de maîtriser les coûts d'exploitation face à une croissance forte des environnements (passage de 29 à 52). Missions principales Cadrer et piloter la feuille de route stratégique de l'automatisation du Cloud interne. Mettre en place et animer la gouvernance du programme (COTECH/COMEX). Coordonner les équipes transverses : DevOps, Sécurité, Réseau, DBA et Virtualisation. Piloter la création d'une Marketplace IT en self-service (catalogue IaaS/PaaS). Garantir l'adoption des pratiques GitOps et l'industrialisation des déploiements (environnements conteneurisés et virtualisés). Assurer le suivi de la performance via des indicateurs précis (KPIs de sécurité, d'automatisation et de traçabilité). Profil recherché Expertise avérée dans le pilotage de programmes de transformation Cloud de grande envergure. Capacité démontrée à évoluer dans des contextes complexes avec une forte exposition politique (Gouvernance de type C-Level). Solide culture technique sur les environnements automatisés et les méthodes de déploiement moderne. Environnement technique cible Orchestration & CI/CD : Airflow, Terraform / OpenTofu, Ansible, AZD, Jenkins. Cloud & Conteneurisation : Kubernetes (TKGS), GitOps (Argo CD, Helm, Kustomize). Virtualisation & Stockage : vSphere, ARIA Automation, VCF, Vault / OpenBao.
Mission freelance
Data Engineer expérimenté (H/F) - Nantes
CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3538 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois