L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 633 résultats.
Mission freelance
DÉVELOPPEUR BACKEND Kotlin / Spring Boot / AWS
Publiée le
AWS Cloud
12 mois
450 €
Longpont, Hauts-de-France
Télétravail partiel
CONTEXTE Dans le cadre de la création d’un nouvel outil backend cloud-native, nous constituons une squad backend de 4 développeurs (1 senior, 3 profils mid/junior). L’équipe est chargée de concevoir, développer et déployer une plateforme scalable, observable et sécurisée, intégrée à l’écosystème AWS. L’objectif est de livrer une première version robuste en 3 à 4 mois, avec des standards élevés de qualité, de maintenabilité et de sécurité. Vous intervenez au sein d’une équipe pluridisciplinaire composée de : 1 Architecte 1 DevOps 1 Product Owner 4 Développeurs Backend MISSIONS PRINCIPALES Conception et développement Concevoir et développer un orchestrateur et des APIs backend en Java 21 / Kotlin avec Spring Boot Implémenter une architecture cloud-native orientée microservices Développer et maintenir des services AWS Serverless (Lambda) en TypeScript, Python ou Go Assurer la gestion de la persistance des données via AWS RDS (modélisation, performances, sécurité) Participer à la mise en place et à l’exploitation des flux ETL via AWS Glue Cloud et infrastructure Déployer et exploiter les applications sur un cluster Kubernetes Configurer, maintenir et améliorer les pipelines CI/CD via GitLab Contribuer aux choix d’architecture (scalabilité, résilience, optimisation des coûts) Observabilité et reporting Mettre en place la collecte, l’analyse et l’exploitation des logs via la stack ELK (Elasticsearch, Logstash, Kibana) Intégrer et exploiter Datadog pour le monitoring applicatif et l’alerting Contribuer à la conception et à l’alimentation des dashboards de suivi et de reporting Qualité et collaboration Écrire un code propre, maintenable, testé (tests unitaires) et documenté Participer activement aux revues de code et aux décisions techniques Documenter les choix techniques et fonctionnels dans Confluence Travailler en méthodologie agile (Scrum / Kanban) avec Jira SPÉCIFICITÉS SELON LE NIVEAU Développeur Senior Forte capacité à prendre des décisions techniques et à challenger les choix d’architecture Excellente communication orale et écrite pour échanger avec les parties prenantes (PO, architecte, DevOps) Capacité à accompagner et faire monter en compétences les profils mid/junior Développeur Mid / Junior Participation active au développement et à la qualité du code Montée en compétences progressive sur l’architecture, le cloud AWS et les bonnes pratiques backend ENVIRONNEMENT TECHNIQUE Langages : Kotlin, Java 21, TypeScript, Python, Go Framework : Spring Boot Cloud : AWS (Lambda, RDS, Glue) Conteneurisation / Orchestration : Kubernetes CI/CD : GitLab Observabilité : ELK, Datadog Méthodologie : Agile (Scrum / Kanban) Outils collaboratifs : Jira, Confluence
Mission freelance
Developpeur Fullstack Java/Python/Next.js
Publiée le
J2EE / Java EE
Python
React
210 jours
550-610 €
Paris, France
• Développer de nouvelles fonctionnalités de l’application • Maintenir la solution existante (amélioration continue) • Participer à l’élaboration de l’architecture applicative des solutions avec l’ensemble des parties prenantes (développeurs, architectes, équipe sécurité et infrastructure) • Participer à la conception technique (analyser les besoins et rédiger les exigences techniques) • Être garant des bonnes pratiques de développement (revue de code, etc) • Travailler en étroite collaboration avec l’ensemble des parties prenantes des sujets
Offre premium
Mission freelance
Coordinateur technique Infogérance Cloud Privé / AWS Nantes
Publiée le
AWS Cloud
Azure
VMware
3 mois
630-750 €
Nantes, Pays de la Loire
Télétravail partiel
Missions principales : De challenger/vérifier les services des fournisseurs cloud privé/public sur les aspects techniques Appréhender les services proposés par les fournisseurs cloud privé/public, évaluer leurs impacts sur les services IT de l'entreprise pour améliorer la qualité du service délivrée à nos clients Accompagner les utilisateurs IT dans l’usage des catalogues de services des fournisseurs D’assurer le rôle de backup du service manager Coordonner les activités du fournisseur avec les différents services de l’entreprise pour les demandes hors catalogue de services Suivre, établir des reporting et donner de la visibilité sur les consommations de nos Cloud Public (AWS et Azure) S’assurer que les demandes de contrôle et reporting (niveau d’obsolescence, la conformité, la sécurité, les audits, …) sur les infrastructures cloud Privé/public soient bien réalisées
Offre d'emploi
Analyste Soc Niveau 2 Soc Analyst L2 H/F
Publiée le
Security Information Event Management (SIEM)
SOC (Security Operation Center)
1 an
40k-50k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte du poste Nous recherchons un(e) Analyste SOC Niveau 2 pour rejoindre notre Cyber Defense Center dans le secteur transport / logistique. Vous aurez pour mission de protéger les infrastructures IT et de répondre aux incidents de cybersécurité au sein d'un environnement dynamique et motivant. Vous serez rattaché(e) au SOC Manager. Missions principales Protection des infrastructures Participer à un SOC 24x7 (suivi des alertes selon le principe follow the sun). Analyser, contextualiser et surveiller les alertes provenant de plateformes de sécurité avancées. Diagnostiquer et investiguer les événements de sécurité, communiquer les résultats et escalader si nécessaire. Traiter les demandes de services de sécurité et fournir un support en Incident Response (IR). Amélioration continue du SOC Affiner et ajuster les Use Cases SOC. Concevoir, maintenir et améliorer les playbooks SOC, les procédures opérationnelles standard (SOP), et les processus. Développement et apprentissage Participer à des sessions de threat hunting et à des simulations d'Incident Response. Collaborer avec le SOC RUN Lead pour améliorer continuellement le service. Soutenir le Manager sur diverses tâches et projets. Les missions sont indicatives et peuvent évoluer selon les besoins opérationnels.
Mission freelance
LEAD DEVOPS SRE ANGLAIS COURANT (600€ MAX)
Publiée le
Kubernetes
1 an
400-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un architecte de données pour concevoir, optimiser et maintenir des modèles conceptuels et logiques de produits de données. Pour ce poste, vous devez savoir analyser les exigences système et mettre en œuvre des méthodes de migration pour les données existantes. Vous maîtrisez les techniques d'analyse prédictive et de visualisation des données à l'aide des outils appropriés. Vous serez notamment chargé de concevoir, d'architecturer et de développer des opérateurs et des API OpenShift pour gérer notre infrastructure de données. Développer des solutions d'hébergement pour les producteurs de données. Concevoir et développer des opérateurs et des API Golang Openshift pour gérer la plateforme de données. Installer et configurer les systèmes d'information pour garantir leur bon fonctionnement. Analyser les exigences structurelles des nouveaux logiciels et applications. Concevoir des modèles de données conceptuels et logiques, ainsi que des organigrammes. Améliorer les performances du système en effectuant des tests, en dépannant et en intégrant de nouveaux éléments. Optimiser les solutions de données existantes et nouvelles. Définir les procédures de sécurité et de sauvegarde. Collaborer avec le département Data Science pour identifier les besoins futurs.
Mission freelance
Expert Cloud Azure
Publiée le
Automatisation
Azure
Cloud
12 mois
600-680 €
Saint-Denis, Île-de-France
Nous recherchons un Expert Cloud Azure confirmé pour accompagner la mise en œuvre et l’optimisation des infrastructures cloud. Vous serez intégré à l’équipe infrastructure/cloud et interviendrez en étroite collaboration avec les architectes, développeurs et responsables métiers. Mission : Architecte Cloud Azure Réaliser le provisionning des nouvelles ressources. Automatiser le provisionning . Optimiser les ressources cloud en termes de coûts, de performance et de résilience . Challenger les architectures applicatives et les fonctions azure utilisées. Implémenter les bonnes pratiques de sécurité et de gouvernance ( RBAC , Azure Policies, Azure Blueprints…). Automatiser les déploiements via des outils comme Terraform , ARM Templates ou Bicep Assurer une veille technologique constante sur l’écosystème Azure Assurer le MCO Azure Support N3
Offre d'emploi
Ingénieur Firewall Fortinet/Palo Alto Secteur Bancaire
Publiée le
Firewall
Fortinet
Palo Alto
12 mois
48k-55k €
450-550 €
Île-de-France, France
Télétravail partiel
Expertise technique mise au service des projets métiers dans les phases de définition des architectures ; Études sur les évolutions des infrastructures de sécurité des réseaux ; Participation active au travail de veille technologique/roadmap ; Participer aux tests et mises à jour des nouvelles versions ; Maintien en conditions opérationnelles des composants de sécurité sur la base du comportement du parc existant et en lien avec les fournisseurs et constructeurs (propositions d’amélioration, d’évolution,) ; Support de niveau 3 sur les infrastructures de sécurité des réseaux ; Gestion de la conformité des équipements de sécurité. Experience dans l’assistance et le conseil dans la mise en oeuvre des solutions techniques sur le périmètre des pare-feux Experience dans les propositions de solutions pour améliorer les performances des systèmes, leur automatisation et résoudre des problèmes de production complexes Experience dans la veille technologique sur le domaine des pare-feux et de la sécurité des réseaux Experience dans l’analyse d’impacts (en phase avant-projet) dont l’impact des nouvelles solutions/technologies dans le SI Experience dans la définition du socle technique qui répond aux exigences du SI Experience dans l’évolution de l’architecture des infrastructures pour qu’elle réponde aux besoins des utilisateurs Experience dans la préconisation des choix techniques en s’engageant sur un fonctionnement en service régulier Maitriser les pratiques et méthodologies d’alignement & de mise en cohérence du SI / de l’architecture technique avec la stratégie Métier Forte expertise dans la qualification des systèmes/versions d’un point de vue technique et fonctionnel Maitriser la rédaction des spécifications technico-fonctionnelles Connaître et vérifier l’application des normes (sécurité informatique, qualité..) Maîtriser l’anglais à l'oral et à l'écrit Compétences souhaitées : Forte maîtrise dans la technologie des pare-feux Palo-Alto Forte maîtrise dans la technologie des pare-feux Fortinet Maîtrise avancée des pare-feux Juniper (JUNOS, ScreenOS) Maîtrise intermédiaire de l’outil TUFIN Maîtrise intermédiaire des produits F5 Maîtrise intermédiaire de Ansible Maîtrise intermédiaire de Terraform Maîtrise avancée des filtrage applicatif/WAF Maîtrise avancée d’ IPS/IDS Connaissance des SDN (Cisco ACI, Vmware NSX…) Connaissance de 802.1... Maîtrise avancée de SSL/TLS Connaissace de Radius Connaissance de OSPF Connaissance de BGP Connaissance de VXLAN Maîtrise avancée de Juniper NSM/Space Forte maîtrise de Palo Alto PANORAMA Forte maîtrise de Forti Manager Connaissance de HP Openview NNM Maîtrise de Linux
Offre d'emploi
DevOps Azure / SAP Cloud / Prod & Applicatif
Publiée le
Azure DevOps
36 mois
40k-55k €
400-550 €
Paris, France
Déployer et administrer les infrastructures SAP Cloud sur Azure (IaaS / PaaS). Automatiser les processus de build, test et déploiement via des pipelines (Azure DevOps, Jenkins, GitLab CI/CD…). Conteneuriser les applications (Docker) et gérer les orchestrateurs (Kubernetes / AKS). Maintenir et améliorer les environnements Java et Groovy utilisés pour les scripts d’intégration et d’automatisation. Assurer la supervision, le monitoring et la sécurité des environnements Cloud. Collaborer avec les équipes de développement SAP, Java et les architectes Cloud. Participer à la mise en œuvre des bonnes pratiques DevOps (IaC, CI/CD, Observabilité). Rédiger la documentation technique et contribuer à la standardisation des processus. Bac +5 en informatique (école d’ingénieur ou université). Expérience confirmée (5 ans minimum) sur un poste DevOps Cloud, idéalement dans un environnement SAP Cloud ou Java. Bonne maîtrise de l’écosystème Azure et des concepts DevOps (CI/CD, IaC, Observabilité, Sécurité). Connaissance des architectures hybrides SAP Cloud / On-Premise appréciée. Sens de la collaboration, rigueur et autonomie. 3 jours sur site par semaine Connaissance / Expérience sur des problématiques E-COMMERCE
Offre d'emploi
DevOps
Publiée le
Datadog
Docker
Github
12 mois
38k-42k €
300-350 €
Lezennes, Hauts-de-France
Au sein de notre agence lilloise, pour le compte de notre client spécialisé dans la Grande Distribution, nous recherchons un DevOps (H/F). La mission est basée à Lézennes (59) . Contexte : En tant qu'Ingénieur DevOps, votre mission principale consiste à fluidifier, automatiser et sécuriser le cycle de vie des applications, de la conception au déploiement en production, incluant l'intégration et l'exploitation. Vous serez garant(e) de la fiabilité, de la performance et de la scalabilité des systèmes, tout en favorisant une collaboration efficace entre les équipes de développement et d'opérations. Plus particulièrement, vos tâches seront les suivantes : • Participer à la définition des architectures techniques et des stratégies DevOps pour les produits du domaine. • Mettre en œuvre les principes de l'Infrastructure as Code (IaC) pour le provisionnement, la configuration et la gestion des environnements (développement, test, production). • Intégrer les bonnes pratiques de sécurité (DevSecOps) dès la phase de conception. • Déployer, gérer et maintenir les applications sur des plateformes conteneurisées • Assurer le Maintien en Condition Opérationnelle (MCO) et la supervision proactive des infrastructures et applications. • Mettre en place et optimiser les systèmes de monitoring, d'alerting et de logging pour garantir la haute disponibilité et la performance. • Développer des scripts et outils d'automatisation pour optimiser l'ensemble des processus (tests, déploiements, opérations, gestion des données). • Industrialiser les processus pour garantir la compatibilité multi-BU, la scalabilité et la reproductibilité des solutions. • Contribuer à l'amélioration continue des outils, des plateformes et des pratiques DevOps au sein de l'équipe et du domaine • Travailler en étroite collaboration avec les équipes de développement, les Product Owners et les équipes opérationnelles. • Partager les connaissances et accompagner les équipes sur les bonnes pratiques DevOps. • Promouvoir une culture d'amélioration continue, de partage et de responsabilité collective. • Intégrer des stratégies de tests automatisés (unitaires, d'intégration, de performance, de sécurité) dans les pipelines CI/CD. • Identifier, mettre en œuvre et suivre les KPI techniques liés à la performance, la fiabilité et la sécurité des applications. • Optimiser les performances des applications et des infrastructures.
Offre d'emploi
Ingénieur DevOps
Publiée le
Ansible
CI/CD
Git
6 mois
Pays de la Loire, France
Télétravail partiel
Vous interviendrez au sein d’une équipe DevOps chargée de moderniser et d’industrialiser un environnement hybride combinant datacenter on-premise et cloud privé. Votre rôle consistera à développer, maintenir et fiabiliser l’Infrastructure as Code, tout en optimisant les pipelines CI/CD et en automatisant les workflows opérationnels. Vous participerez à l’amélioration continue de la plateforme, au renforcement de la sécurité, au monitoring et à la performance globale des services. En collaboration avec des ingénieurs et architectes, vous contribuerez à structurer les bonnes pratiques, à fluidifier les mises en production et à garantir la qualité des environnements techniques.
Offre d'emploi
Ingénieur DevOps
Publiée le
6 mois
45k-55k €
350-500 €
Lille, Hauts-de-France
Télétravail partiel
Notre pôle Infra c’est : Intégrer une équipe passionnée et impliquée dans la veille techno Être accompagné(e) dans votre carrière par notre Responsable Technique Adhérer à notre plan d’Excellence via nos process de certifications Participer activement aux réunions techniques de pôle, accéder à nos formations internes (ou en dispenser), partager les best practices Pourquoi nous rejoindre ? Intégrer le groupe Webnet certifié Great Place To Work depuis 2018 Possibilité d’être formé et certifié par Webnet Ambiance conviviale avec des évènements internes récurrents (activités sportives, loisirs etc…) ainsi que la garantie d’un équilibre entre votre vie privée et professionnelle Membre de la charte éthique & diversité (+ 15 nationalités représentées) & Dragon Funding (programme de soutien associatif) Nos petits + : Prime de mission Carte ticket restaurant : SWILE (9€ par jour) 🥣 Des convaincus du télétravail WEBNET c’est : 200 collaborateurs (dragonniers) passionnés avec une expertise de plus de 25 ans en architectures web & mobile, comme en témoignent les plus de 2000 projets d’envergure à son actif que ce soit sur : l’infrastructure systèmes, réseaux, sécurité que sur PHP / Symfony, JAVA EE, Microsoft .NET, Angular, React, IONIC...). Nous avons à cœur de proposer différentes missions à nos collaborateurs (liberté de choix), tout en vous permettant d’évoluer et d’agrandir votre champ de compétences. C’est au travers de différents suivis et échanges que nous regardons avec vous votre carrière et votre évolution opérationnelles et techniques. Nous savons que les technologies évoluent très rapidement, c’est pourquoi, notre catalogue de formation proposent tous les trimestres, 3 formations minimum autour de nos technos phares, dispensées par nos architectes techniques. Webnet aide également bénévolement des associations éthiques et citoyennes dans le développement de leur transformation digitale (programme de mécénat). Afin de rejoindre la DragonForce , voici notre process, vous échangerez avec différents membres de nos équipes. Localisation de l'agence : 55 rue de Luxembourg, Gare Lille Europe
Mission freelance
Network Ops Engineer (réseau & devops)
Publiée le
Administration réseaux
Google Cloud Platform (GCP)
Python
3 ans
100-510 €
Lille, Hauts-de-France
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing), expérience significative sur les services réseaux d’au moins un fournisseur de cloud majeur (GCP, Azure). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
Chef de projet sécurisation de l'AD (Tiering et outillage)
Publiée le
Tiering model
6 mois
400-550 €
Paris, France
Télétravail partiel
Dans le cadre de cette mission, vous serez chargé de piloter et de suivre l’implémentation des mesures de sécurisation de l'Active Directory (AD), avec un focus particulier sur la mise en œuvre du Tiering. Vos responsabilités incluront : Coordination du Projet : Définir, planifier et superviser les différentes étapes du projet de sécurisation de l’AD. Collaborer avec les différentes parties prenantes (équipes techniques, direction, sécurité) pour s’assurer que les objectifs de sécurité sont atteints. Animer des réunions régulières pour suivre l’évolution du projet et traiter les obstacles rencontrés. Suivi de l'État d'Avancement : Mettre en place et maintenir des indicateurs de performance pour suivre l’état d’avancement des initiatives de sécurisation de l’AD. Produire des rapports d’avancement et de résultats pour la direction et les parties prenantes. Expertise Technique : Apporter une expertise technique sur les meilleures pratiques de sécurisation de l’Active Directory et du Tiering. Analyser l’infrastructure actuelle et identifier les vulnérabilités potentielles au sein de l’AD. Formuler des recommandations pour renforcer la sécurité de l'AD, incluant la configuration, les contrôles d'accès et la gestion des identités. Force de Proposition : Proposer des solutions innovantes et des améliorations continues pour optimiser la sécurité de l’AD. Rester informé des évolutions technologiques et des tendances en matière de sécurité liées à l’Active Directory.
Mission freelance
Database administrator
Publiée le
MySQL
Nosql
Oracle
6 mois
Luxembourg
Nous recherchons un(e) Administrateur(trice) de bases de données (DBA) fiable et rigoureux(se) pour garantir l’intégrité, la cohérence et la performance des bases de données qui alimentent notre infrastructure de marché de nouvelle génération dédiée à la distribution de fonds. Évoluant dans un environnement cloud-native et basé sur des microservices, avec des interactions avec des composants blockchain/DLT, ce rôle est essentiel pour assurer la cohérence, la sécurité et la qualité de l’ensemble des données gérées par la plateforme. Le ou la candidat(e) idéal(e) combine une solide expertise technique en administration de bases de données avec de fortes capacités d’analyse et de communication. Il/elle supervisera les modèles de données, garantira la cohérence des données de bout en bout et pilotera les migrations de données clients, en collaboration étroite avec les équipes Produit, Ingénierie, DevOps et Conformité. Responsabilités Gestion des bases de données & excellence opérationnelle Administrer, surveiller et maintenir les bases de données de production, de préproduction et de développement dans un environnement cloud-native. Garantir la cohérence, la consistance et l’intégrité des données à travers les microservices et les flux de données inter-systèmes. Gérer les évolutions de schémas, les mises à niveau, les correctifs et l’optimisation des configurations. Optimiser en continu les performances des bases de données et l’exécution des requêtes pour des charges de travail à haute disponibilité. Gouvernance des modèles de données Maintenir et faire évoluer les modèles de données logiques et physiques de la plateforme en cohérence avec l’architecture produit. Collaborer avec les architectes produit et les ingénieurs afin de garantir la scalabilité et la performance à long terme des modèles de données. Assurer l’application cohérente des conventions de nommage, des définitions de données et des structures relationnelles / NoSQL sur l’ensemble des services. Participer aux revues de conception pour valider les choix de stockage des données et la gestion de leur cycle de vie. Migration et onboarding des données clients Planifier, exécuter et superviser les migrations de données clients, de l’extraction initiale à la transformation, la validation et l’import sécurisé. Concevoir des workflows de migration robustes et des plans de validation pour garantir un onboarding propre et fiable. Développer des outils, scripts et automatisations pour les activités récurrentes de migration de données. Accompagner les clients et les équipes internes sur les questions et incidents liés aux migrations. Qualité des données, conformité & sécurité Mettre en place et superviser des contrôles de qualité des données (intégrité référentielle, détection d’anomalies, règles de rapprochement). Garantir la conformité aux réglementations sur la protection des données (rétention, confidentialité, auditabilité, contrôles d’accès). Collaborer avec les équipes Sécurité et Conformité pour le chiffrement, le masquage et la gestion sécurisée des données. Réaliser régulièrement des tests de sauvegarde, de restauration et de reprise après sinistre pour valider la résilience de l’infrastructure. Collaboration transverse Travailler étroitement avec les Product Owners, Business Analysts et ingénieurs pour comprendre les besoins fonctionnels et techniques liés aux données. Accompagner les développeurs lors des livraisons fonctionnelles (évolutions de schémas, requêtes, contrôles de cohérence). Collaborer avec les équipes DevOps pour intégrer les opérations de bases de données dans les pipelines CI/CD et les frameworks d’infrastructure as code. Apporter une expertise lors des incidents, analyses de causes racines et revues de performance. Compétences clés Expertise solide en bases de données relationnelles (PostgreSQL, MySQL, Oracle…) et/ou NoSQL (MongoDB, CosmosDB, etc.). Très bonne compréhension de la modélisation de données, du design de schémas et des principes de normalisation / dénormalisation. Expérience pratique des migrations de données, outils ETL/ELT et transformations de données structurées. Familiarité avec les services de données cloud-native (Azure SQL) et les bases de données managées. Compréhension des architectures microservices et des patterns de données distribuées. Connaissance des flux de données blockchain/DLT et de la cohérence on-chain / off-chain (fort atout). Maîtrise du SQL, des langages de scripting (Python, Bash…) et de l’optimisation de requêtes. Solides capacités d’analyse et de résolution de problèmes liés aux performances et à la cohérence des données. Sensibilité aux exigences de conformité, de protection des données et d’audit dans des environnements financiers. Expérience requise 4 à 8 ans (ou plus) d’expérience en tant que DBA, Data Engineer ou poste équivalent. Expérience de gestion de bases de données dans des architectures cloud-native et microservices. Expérience avérée en migrations de données et en assurance qualité des données. Une expérience préalable en fintech, services financiers ou secteurs réglementés est un plus. Habitude de travailler avec des équipes transverses et de supporter des environnements de production. Connaissance des pratiques DevOps, de l’automatisation et de l’infrastructure as code appréciée.
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
633 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois