Trouvez votre prochaine offre d’emploi ou de mission freelance IBM Cloud
Votre recherche renvoie 19 résultats.
Mission freelance
Architecte Sécurité & Réseau Cloud - SRE
Publiée le
12 mois
350-490 €
75001, Paris, Île-de-France
Télétravail partiel
Mission principale : Vous jouez un rôle central dans la définition de la posture de sécurité et de la connectivité d'un environnement cloud critique. Vous concevez des architectures robustes intégrant les principes de Security by Design et de Zero Trust , en fournissant aux équipes les fondations nécessaires pour opérer des services fiables et sécurisés à grande échelle. Vous êtes également garant de la déclinaison des exigences de sécurité fonctionnelle dans le système d'information. Responsabilités clés : Architecture sécurisée Cloud : Élaboration des documents d'architecture (HLD, DAT) pour les composants sécurité (IAM, PKI, gestion des secrets…) et réseau (segmentation, peering, firewall, WAF). Stratégie IAM : Définition des politiques d'accès (humains et machines), mise en œuvre du principe de moindre privilège, gestion des revues d'accès sur des environnements cloud et solutions d'IAM open source. Gestion des flux réseau : Conception d'une stratégie de flux Nord-Sud et Est-Ouest entre les différentes couches applicatives. Sécurisation des communications : Définition des standards de chiffrement (mTLS, VPN…), gestion des données en transit et au repos. PKI & gestion des certificats : Pilotage du cycle de vie des certificats via des outils de gestion de secrets. Patterns & automatisation : Création de modules IaC réutilisables pour les contrôles de sécurité, en lien avec les équipes infrastructure. Tests de sécurité : Conception et supervision de campagnes de tests (scénarios, exécution, post-mortem) en collaboration avec les équipes SRE, développement et résilience IT. Veille & conseil : Appui stratégique auprès des référents sécurité sur les menaces émergentes et les mesures de mitigation. Profil recherché : Expertise technique : Solide maîtrise des environnements cloud (notamment IBM Cloud), des outils de sécurité (HashiCorp, HSM Thales, PKI, WAF, IDS/IPS, etc.) et des protocoles réseau (TCP/IP, BGP). Automatisation & IaC : Expérience confirmée avec Terraform et outils d'automatisation de la sécurité. Connaissances spécifiques appréciées : Openshift, Istio, SPIRE, Keycloak, Directlink, Keyprotect, Workload Protection. Soft skills : Rigueur, esprit analytique, capacité à vulgariser des sujets complexes, sens du collectif. Expérience : Minimum 8 ans dans des environnements critiques, avec une forte composante architecture sécurité cloud.
Offre d'emploi
Ingénieur Devops
Publiée le
Ansible
Terraform
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste : Ingénieur DevOps Le poste vise une prestation technique pour installation/migration/support/automatisation des applications au sein du Technology Office d'un groupe bancaire majeur. Missions principales : Phase d'étude : Accompagnement et orientation des intervenants (CDP, architecture et sécurité) Apport d'expertise sur les technologies utilisées Compréhension des résultats de scan de sécurité sur diverses vulnérabilités Contribution à la compréhension du schéma d'architecture Notions de sécurité requises : scan Xray, Sysdig, Tanium Connaissances technologies : Nginx, Drupal PHP, Apache Tomcat, Java Phase d'implémentation : Contribution à la mise en œuvre du projet technique sur environnements de production et non-production Réalisation des tests et validation des environnements Mise en place de Pipeline CI/CD Gestion des espaces DevOps avec : CI/CD : GitLabCI, Digital AI, Jenkins, ArgosCD Cloud : IBM Cloud (PaaS/IaaS) Conteneurisation : Kubernetes, Openshift, Chart Helm, Docker Gestion des secrets : HVAULT Gestion des bases de données en mode service (PostgreSQL, Oracle, SQL Server, MongoDB)
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Offre d'emploi
DevSecOps MicroSeg
Publiée le
Ansible
Argo CD
GitLab CI
3 ans
Île-de-France, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement des pratiques DevSecOps et de la mise en œuvre d’une stratégie Zero Trust , le client recherche un ingénieur DevSecOps confirmé pour assurer : la sécurisation des environnements applicatifs et d’infrastructure, la mise en œuvre de solutions d’automatisation , le maintien en condition opérationnelle (MCO) des plateformes, et l’ amélioration continue des processus CI/CD . La mission s’inscrit dans un environnement multi-cloud et hybride (Cloud, Linux, Windows Server) , soumis à des exigences de conformité et de sécurité élevées . Anglais courant (contexte international) Périmètre et Responsabilités Cybersécurité Application des principes Security by Design dans tous les développements et déploiements. Implémentation du modèle Zero Trust via la solution Illumio (micro-segmentation). Suivi de la conformité aux standards internes et réglementations en vigueur. Automatisation et Industrialisation Développement de scripts Python et de playbooks Ansible pour l’automatisation des opérations. Gestion de l’infrastructure as code via ArgoCD et Helm Charts . Conception et optimisation de pipelines CI/CD sous GitLab CI (build, test, déploiement). Exploitation et Support Maintien en condition opérationnelle (MCO) des environnements Linux/Windows/Cloud. Diagnostic et résolution des incidents techniques (support N2/N3). Mise en place et supervision du monitoring via Dynatrace et ELK Stack . Élaboration de reportings et tableaux de bord (PowerBI, Dataiku, Snow). Relation client et communication Reporting régulier sur l’état des environnements et les indicateurs de performance. Collaboration étroite avec les équipes de développement, sécurité et exploitation. Contribution aux comités de suivi et à la documentation technique. Langages & Automatisation Python (confirmé) Bash / PowerShell Ansible (expertise confirmée) Outils & Intégration GitLab CI (CI/CD) Kubernetes (IKS, ROKS) ArgoCD, Helm Charts Plateformes & Environnements Linux (distributions Enterprise) Windows Server (contextes critiques) IBM Cloud : ROKS / IKS Sécurité Illumio (micro-segmentation / Zero Trust) Outils SAST / DAST Conformité et sécurité applicative ( Security by Design ) Supervision & Reporting Dynatrace, ELK Stack Dataiku, PowerBI, Snow, PowerPoint
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Création de site Wordpress : BIC ou BNC ?
- Calcul de l'indemnité de la rupture conventionnelle
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
19 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois