Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
ADMINISTRATEUR SAP BC H/F
AMAGO IT recherche pour l’un de ses clients Grands Comptes un Administrateur SAP BC expérimenté afin de renforcer une équipe d’exploitation Vos missions : - Assurer la MCO des environnements SAP : ECC, CRM, BW - Gérer les incidents et demandes sur les infrastructures SAP clients - Être force de conseil auprès des équipes (conduite Applicative, TMA, Systèmes…) - Réaliser des audits et émettre des préconisations techniques (performances, sécurité, robustesse) - Concevoir et déployer des architectures SAP complexes - Superviser les systèmes (capacity planning, reporting, surveillance proactive) - Participer à l’amélioration continue, à l’automatisation et à la veille technologique Environnement technique : SAP : ECC, S/4, BW (7.3 à 7.5), SOLMAN, CRM Bases de données : Oracle 11g–19c, SAP HANA, MaxDB, SQL Server Scripting : Bash, Shell, PowerShell Contraintes : astreintes et interventions HNO possibles
Mission freelance
Tech Lead Tanzu Kubernetes
Contexte: Le client recherche un Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description: Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables: Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables. Compétences: Expertise sur Kubernetes (en particulier sur Tanzu Kubernetes Grid (TKG) et Amazon EKS.) Maîtrise des chaînes CI/CD (Jenkins, ArgoCD, etc.). Solide expérience en DevOps et GitOps. Maîtrise des outils Infrastructure as Code. Connaissances avancées en sécurisation, résilience et supervision des environnements Kubernetes. Capacité à transmettre les connaissances et à accompagner la montée en compétences des équipes internes. Compétences clés: Obligatoire: - Kubernetes Important: - Systèmes & OS / LINUX - GitHub - Deploiement via TKGS - VMware VSphere - Tanzu Kubernetes Intéressant: - Jenkins - Méthode agile - G
Mission freelance
Expert Technique Sénior H/F
Objectif de la mission Apporter une expertise technique transverse au sein de la direction DSP pour : Expertiser les besoins techniques en collaboration avec les architectes (BUILD & RUN) Définir et valider le sizing des socles infrastructures et middleware Garantir la cohérence technique entre les différentes briques (OS, middleware, supervision, réseaux…) Participer à la construction du CAPA planning et aux comités techniques Assurer le support technique pendant les phases BUILD et RUN Contribuer aux livrables techniques (DAT, DEX, DIN) Participer aux rituels Agile / SAFe (Big Room, PI Planning, Daily, etc.)
Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
Mission freelance
Consultant Cybersécurité
L'un de nos clients (secteur bancaire ) recherche pour une durée de 3 mois un(e) Consultant Cybersécurité H/F L’équipe RSSI a planifié la réalisation de six tests d’intrusions sur la fin de l’année 2025. Pour mener à bien ces tests d’intrusion, l’équipe RSSI souhaite se faire accompagner par une personne qui aura en charge de les piloter de bout en bout, de leur cadrage à leur restitution. La réalisation des pentests sera confiée à des équipes de pentesters. Vos missions : - Le pilotage des tests d’intrusions - Le pilotage des exercices de crise Compétences attendues : - Réaliser des analyses de risques de sécurité informatique, à partir d’un dossier de conception technique, à partir de la description d’une infrastructure technique (matérielle et/ou logicielle), à partir d’un contrat de prestation, à partir de la description d’un processus métier, à partir d’un rapport d’audit de sécurité informatique, à partir d’un rapport d’incident informatique, etc. ; - Définir des exigences de sécurité informatique et/ou des mesures de mitigation des risques à partir d’une analyse de risques de sécurité ; - Produire ou Mettre à jour les documents de politique de sécurité des SI à partir des exigences réglementaires / interbancaires / contractuelles ; - Produire ou Mettre à jour les documents de politique de sécurité des SI à partir des principes de conception sécurisée, des patterns d’architecture de sécurité, des principes de développement sécurisé, des principes d’exploitation sécurisée, des principes de protection des données personnelles, etc. ; - Produire des supports de communication adaptés aux enjeux de sécurité, adaptés aux décisions attendues, et adaptés public visé ; - Animer des séances de sensibilisation et/ou de formation et/ou de vulgarisation des politiques de sécurité des SI ; et apporter des réponses adaptées aux questions de l’auditoire ; - Cadrer et Réaliser (éventuellement avec l’aide d’un prestataire spécialisé) un contrôle de sécurité informatique (test d’intrusion, revue de code source, revue de configuration, revue d’architecture, revue de processus, etc.) ; - Produire ou Mettre à jour une cartographie des risques de sécurité informatique, à partir d’un dossier de conception technique, à partir de la description d’une infrastructure technique (matérielle et/ou logicielle), à partir d’un contrat de prestation, à partir de la description d’un processus métier, à partir d’un rapport d’audit de sécurité informatique, à partir d’un rapport d’incident informatique, etc. ; - Rédiger des chapitres relatifs à la sécurité des SI du Rapport Annuel de Contrôle Interne ; - Concevoir et Réaliser un contrôle permanent de niveau 2 sur un / des contrôle(s) de niveau 1 relatifs à la sécurité des SI ; - Construire une feuille de route de sécurité informatique ; - Emettre un avis argumenté du niveau de sécurité informatique. Connaissances techniques : - Méthode(s) d’analyse de risque de sécurité informatique (ISO 27005, EBIOS, EBIOS Risk Manager, Mehari, AMDEC, ou toute autre méthode équivalente) ; - Référentiels de maîtrise des risques de sécurité informatique (facteurs de risques de l’ACPR, ISO 27001, NIST cyber security framework, NCSC cyber assessment framework, fiches de sécurité de la CNIL, règles d’hygiène informatique de l’ANSSI, OWASP, ou tout autre référentiel équivalent) ; - Les contraintes induites sur la sécurité des traitements et des données (Disponibilité, Confidentialité, Intégrité, et Traçabilité) par l’architecture des (sous-)systèmes d’informations : architecture en couches des échanges (modèle OSI), architecture urbanisée, architecture multi-tiers, architecture orientée services, architecture orientée messages, transactions ACID et non-ACID, client léger / riche / lourd, machine virtuelle & réseau virtuel, architecture conteneurisée, etc. ; - Les principes de conception sécurisée : séparation des taches, Bell-Lapadula, Biba, moindre privilège, Rôle Base Access Control, « fail-secure », point de défaillance unique, défense en profondeur, disproportion entre attaque et défense, tiers de confiance, etc. ; - Les cas d’usage de la cryptographie et leurs conditions d’utilisation : créer un secret de session, sceller des données, protéger un mot de passe, contrôler l’intégrité d’une donnée, authentifier la provenance d’une donnée, authentifier le consommateur d’un service, garantir la non-répudiation d’une action, partager une donnée avec une communauté de parties-prenantes, partager une donnée avec une seule partie-prenante, etc.
Mission freelance
Consultant Expert Active Directory / M365 / MIM / Windows Server 2022 (H/F)
Nous recherchons un consultant expert Microsoft Infrastructure pour intervenir sur un projet de grande envergure autour d’un environnement Active Directory mondial. Contexte : L’infrastructure compte près de 600 Domain Controllers répartis sur 70 domaines AD . Le consultant aura pour mission d’assurer la fiabilité, la sécurité et l’évolution de cette infrastructure critique, dans un modèle hybride (remote + présence sur site à Paris). Missions principales Administration et optimisation d’un environnement Active Directory complexe. Support et gestion des services liés : DNS, GPO, réplication, authentification. Gestion et supervision des identités via Microsoft Identity Manager (MIM) . Contribution à l’exploitation et à l’évolution des environnements Microsoft 365 et Windows Server 2022 . Documentation, coordination avec les équipes globales et participation aux audits techniques.
Mission freelance
POT8649 - Concepteur / Développeur Sénior Python / Java / Kafka / AWS sur Saint Denis
Almatek recherche pour l'un de ses clients, un Concepteur / Développeur Sénior Python / Java / Kafka / AWS sur Saint Denis. Contexte : Les compétences portent la vision technique de l’application. Le Consultant travaillera en étroite collaboration avec les contributeurs de l’application : le RMOE, Le Tech Lead AWS, la RSIA, le RMOA et les AMOA, l’intégrateur, Conduites Techniques et Fonctionnelles, architectes techniques, la cyber et équipes transverses sur les sujets techniques. Pendant la phase d’intégration, le consultant prendra connaissance du contexte fonctionnel et de l’environnement technique. Pour se faire, il pourra s’appuyer des documents qui sont, entre autres : Les Spécifications techniques (PTI, DEX, PAS…) Le Dossier d’architecture technique Schéma des composants AWS Modèle de données (DynamoDB) Documents de migration PKI et décommissionnement des HSM en cours… Les normes d’exploitation et de cybersécurité Les audits… Activités : Ci-dessous la synthèse des rôles que recouvrent la mission : Appuis du RMOE et Tech Lead sur l’architecture de l’application au travers de connaissances : Dans les différents domaines techniques de l’application : Java, Python, Base de données (DynamoDB) Des mécanismes de sécurité des échanges informatiques et de cryptographie (gestion des certificats, gestion des clés de chiffrement, TLS, EJBCA, Cloud HSM) De connaissance du milieu des réseaux & Telecom (VPN, gestion des VIP, MPLS, fonctionnement du TCP-IP) Sur AWS (lambdas, Terraform, EC2, SQS, S3, Cloudwatch…) EJBCA Développement et maintenance de l’outil (résolution d’anomalies). Déploiement des versions applicatives Recette Technique sur les environnements bas Réaliser les installations ou migrations et garantir le run des lots techniques. Gestion du processus d’Intégration Surveillance de la bonne exécution de l’applicatif sur les environnements bas Traitement et suivi des incidents hors production et en production Exploitation de la base de données Rattrapage et rechargement de données Elles apportent leur expertise dans le cadre d’améliorer la qualité de service et pendant de la gestion des incidents et crises. Chiffrage des évolutions techniques et fonctionnelles et favoriser la solution la plus simple. analyser les performances de l’application et apporter des solutions ou préconisations d’optimisations. Participer et alimenter de façon active les ateliers techniques nécessaires (Daily, COPROJ technique, COMOP PKI, ateliers avec DPO, Cyber, et sur le décommissionnement de l’IoTEvent et IoTAnalytics ) Suivi et participer de façon active à mise en place d’une supervision sur AWS (des logs, alertes, suivi des couts...) Créer, prioriser et suivre les tickets techniques sur JIRA, Documenter les processus, Mise à jour des procédures techniques d’installation (PTI), d’exploitation (PTE), de bascule lors de migrations (PTB) ainsi que les procédures de reprise lors des PRA (PTR), DEX, DAL, PTE... Participer aux instances techniques Ces activités seront assurées : Dans le respect du Schéma Directeur et du Plan de Transformation SI. En assurant la conformité des livrables aux politiques et standards. En respectant les exigences de niveaux de services, de performance. Dans une optique d’amélioration continue.
Offre d'emploi
Tech Lead DBA F/H
En tant que Tech Lead DBA, vous êtes le référent technique sur l'ensemble des sujets liés aux bases de données majoritairement SQL Server et Oracle. Vous pilotez les choix d'architecture, garantissez la performance, la sécurité et la disponibilité des données, dans un contexte international, tout en accompagnant les équipes projets et les autres DBA. Vos responsabilités incluent : Architecture & Design : Définir les standards et bonnes pratiques (on-premise et cloud). Participer à la conception d'architectures de base de données robustes, scalables et sécurisées. Contribuer aux projets de transformation (migration vers le cloud, modernisation des bases, etc.). Exploitation & Performance : Superviser la performance des bases (tuning, indexation, partitionnement). Mettre en place les éléments de monitoring et d'alerting en adéquation avec les outils présents (datadog/foglight) Gérer les incidents de production de niveau 3. Etre garant des documentations techniques Sécurité & Conformité : Garantir la sécurité des données (droits d'accès, chiffrement, RGPD). Participer aux audits et à la mise en conformité des environnements. Leadership & Coordination : Encadrer techniquement l'équipe de DBA (4 personnes). Être l'interlocuteur privilégié des équipes projets, infrastructure et sécurité. Assurer une veille technologique et proposer des axes d'amélioration continue.
Mission freelance
Intégration avec Expertise AD/Windows
🎯 Missions principales 🔹 En avant-projet Étudier l’impact non fonctionnel des changements dans le SI (sécurité, exploitation, supervision…). Définir les exigences d’intégration et d’exploitation . Élaborer la stratégie de tests techniques (intégration, exploitation, sécurité, spécifiques). Estimer la charge et les activités d’intégration nécessaires en phase de réalisation. 🔹 En projet (phase BUILD) Vérifier la conformité du déploiement des environnements techniques. Réaliser, en environnement de test représentatif, l’ intégration technique des solutions d’infrastructure . Garantir la conformité des livrables aux spécifications et aux standards d’architecture du groupe. Concevoir, exécuter et documenter les tests techniques et non fonctionnels . Produire les rapports de qualité technique et prononcer la conformité via PV présenté en CAB . Livrer la solution validée à l’exploitation et accompagner la mise en production . Assurer le transfert de connaissances aux équipes d’exploitation. Apporter un support en phase de VSR (Vérification de Service Régulier). 🔹 En parallèle (amélioration continue) Participer à l’ optimisation et l’industrialisation du patrimoine d’intégration (tests, exigences, livrables). Améliorer la standardisation des processus d’intégration technique. Activités spécifiques liées à l’AD Accompagner les équipes techniques dans l’intégration des applications dans l’Active Directory . Assurer la création, administration et mise à jour des GPO . Garantir la conformité des intégrations AD aux politiques de sécurité et aux standards du SI.
Mission freelance
Data Engineer Azure/Snowflake
Au sein de la DSI d’un grand groupe international, vous intégrerez le pôle Data Engineering & Analytics pour contribuer à la construction et à l’industrialisation d’une nouvelle plateforme de données hébergée sur Azure et Snowflake . L’objectif : fiabiliser les pipelines de données, automatiser les déploiements et améliorer la performance et la gouvernance de la donnée dans un contexte cloud. Missions : Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark / dbt (Python) . Orchestrer les flux via Azure Data Factory et assurer leur intégration dans la plateforme Data. Intégrer et exploiter des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et maintenir l’infrastructure via Terraform (IaC) . Mettre en place des pratiques CI/CD avec Azure DevOps . Automatiser les tâches récurrentes (PowerShell, Azure CLI). Participer à la modélisation des données (3NF, étoile) avec PowerDesigner . Contribuer à la mise en œuvre d’architectures data de type Data Warehouse et Data Lake . Suivre la qualité, la traçabilité et la conformité (RGPD) des données. Optimiser la performance et les coûts Snowflake. Documenter et partager les bonnes pratiques au sein de l’équipe Data.
Mission freelance
Data engineer GCP SPARK PYTHON
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.