Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 382 résultats.
Freelance
CDI

Offre d'emploi
Backend Python AWS – Serverless / Produit d’hypervision

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Datadog
Python

3 ans
10k-45k €
100-380 €
Nantes, Pays de la Loire
On cherche un backend Python qui sait mettre les mains dans le run autant que dans le code . Le sujet : construire et faire évoluer des outils d’hypervision qui permettent de comprendre, en temps réel, l’état de systèmes complexes (chaînes métier complètes). Pas un projet vitrine. 👉 Un produit utilisé, qui sert vraiment. 🧩 Le contexte Petite équipe (PO, dev front, dev back, ops, agile master) Organisation agile simple, sans surcouche Beaucoup de responsabilités côté backend (logique + infra + déploiement) Tu ne seras pas “le dev backend”. 👉 Tu seras le backend . ⚙️ Ce que tu vas vraiment faire Développer des APIs en Python (propres, maintenables, utilisées) Travailler sur une archi serverless AWS (Lambda, API Gateway, S3, DynamoDB) Gérer l’infra via Terraform (pas juste lire du code) Déployer via Gitlab CI/CD Exploiter des données de monitoring (Datadog) Corriger, améliorer, optimiser → en continu Et surtout : 👉 participer à la création d’un nouveau produit (pas juste maintenir l’existant) 🧠 Stack Python AWS (Lambda, S3, API Gateway, Cognito) DynamoDB Terraform Gitlab CI Datadog 💬 Pourquoi ça vaut le coup stack propre, moderne, sans legacy lourd vraie autonomie impact direct sur le produit environnement où tu peux proposer et changer des choses
CDI

Offre d'emploi
Développeur Java Spring Boot Vuejs - Cloud Aws - Azure H/F

█ █ █ █ █ █ █
Publiée le
Code Review
Java

40k-48k €
Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Systèmes Windows (confirmé)

BEEZEN
Publiée le
AWS Cloud
Azure
Citrix

12 mois
400-450 €
Montargis, Centre-Val de Loire
Je recherhce un Ingénieur Systèmes Windows confirmé Rattachement : Intégré (e) à l’équipe systèmes Windows, rattaché (e) au Responsable Systèmes, il ou elle contribue à la maintenance et à l’évolution du Système d’Information. Description des prestations : Assurer les activités de RUN, incluant la gestion des demandes, des incidents et le maintien en conditions opérationnelles Garantir la continuité de service, la disponibilité et la performance des infrastructures et systèmes Windows Participer aux activités de BUILD (évolution, renouvellement, industrialisation) en complément des missions de RUN Participation aux évolutions, à l’automatisation et à l’industrialisation Contribution à la documentation technique et d’exploitation Expérience et compétence requises : Maitrise powershell Windows Serveur 2012 à 2025 Vmware Active Directory / Entra ID (Azure AD) Solarwind Bastion Systancia Expérience et compétence souhaitées : Cloud : AWS et AZURE Citrix Méthodologie projet Expérience sur un poste similaire pendant au moins 5 ans Savoir-faire requis : Excellentes capacités à acquérir de nouvelles compétences techniques. Bon relationnel, sens de l’écoute et esprit d’équipe Autonomie Capacité à s’intégrer rapidement dans une équipe de production Rigoureux (suivi des procédures, mise à jour de la base documentaire) Lieu de travail : Montargis (45) avec 2j de TT par semaine
CDI

Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)

DCS EASYWARE
Publiée le

Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
CDI

Offre d'emploi
Développeur Python / Appétence DevOps - Télécom - Paris (H/F)

EASY PARTNER
Publiée le
AWS Cloud
DevOps
Python

45k-53k €
Paris, France
Missions principales Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
CDD
CDI
Freelance

Offre d'emploi
Directeur de Programme

R&S TELECOM
Publiée le
AWS Cloud
Azure
FinOps

6 mois
Nanterre, Île-de-France
Contexte de la mission : Au sein d’une équipe de 30 personnes, le consultant assurera la gestion contractuelle et opérationnelle de projets complexes Cloud, en garantissant leur conformité, leur respect des délais et la satisfaction client. Tâches à réaliser : Participation à l'Instruction des Dossiers en Avant-Vente : analyse des besoins du client, anticipation des risques, proposition des solutions adaptées, en collaboration avec les équipes commerciales et techniques. Pilotage de la réalisation des prestations et gestion contractuelle : Pilotage de l’exécution du projet en veillant au respect des engagements contractuels, des délais et des budgets. Coordination des équipes, validation des livrables, ajustement de la stratégie si nécessaire. Gestion contractuelle en veillant à la conformité des clauses, à la gestion des modifications, et à la bonne application des accords. Gestion des risques majeurs, négociation avec les partenaires, adaptation des contrats Communication proactive avec le client pour assurer la conformité et la satisfaction. Management, Relation Client et Contract Management : Développement de relations stratégiques, identification d’opportunités de croissance, gestion des escalades. Coordination et mobilisation des équipes opérationnelles, participation à la stratégie commerciale. Gestion de la conformité contractuelle tout au long du projet, en veillant à l’application rigoureuse des clauses et à la gestion des modifications ou avenants nécessaires. Pilotage financier Gestion financière avancée en élaborant des forecasts précis, en suivant la facturation, en optimisant le cash-flow. Analyse de la rentabilité des projets, anticipation des risques financiers, et négociation avec les parties prenantes. Mise en place d’actions correctives si nécessaire pour respecter les objectifs financiers fixés. Compétences recherchées : Obligatoires : Gestion de projets complexes Cloud, avec une forte maîtrise des risques, du budget et de la relation client. Compétences commerciales solides - Autonomie, rigueur, organisation, qualités relationnelles Compétences techniques Cloud (Niveau pilotage / pas ingénierie) · Cloud Public (AWS, GCP, Azure): Compréhension des services IaaS / PaaS / Stockage / Réseau, Notions de FinOps (analyse coûts, optimisation, anomalies), Lecture d'Architecture Cloud · Cloud Privé : Compréhension des ressources (instances, volumes, réseaux, ...), notions de capacités, quota, sclabilité, Compréhension des périmètres d'infogérance Cloud · Services Managés et Infogérance : Supervision, patching, sauvegarde, PRA/PCA · Notions de Sécurité Cloud (segmentation, durcissement, ..) Expérience nécessaire : 7 ans minimum sur la fonction Langues : Français, Maîtrise de l’anglais opérationnelle à l’écrit comme à l’oral : niveau B1 Date de démarrage : 01/06/2026 Localisation : Locaux situés à Nanterre Possibilité d’interventions hors site Client : OUI, 40% (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : OUI, 1 à 2 fois par an environ Déplacements sur d'autres site client en France : NON Autre matériel requis : OUI ligne mobile avec téléphone mobile
Freelance

Mission freelance
Devops - Lille

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Datadog
Github

1 an
300-450 €
Lille, Hauts-de-France
Tu intégreras l’équipe Ops de la Digital Unit. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Ta mission dans un premier temps sera d’assurer la bonne santé d’un groupe d’applications défini avant de travailler à leur migration et à cible à travailler de manière mutualisée sur tous les projets de la Digital Unit. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
CDI
Freelance

Offre d'emploi
Data intégration Senior (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
Freelance
CDI

Offre d'emploi
Data scientist - (H/F)

CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python

2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Freelance
CDI

Offre d'emploi
Développeur PHP / Symfony – Full Stack

Hexagone Digitale
Publiée le
AWS Cloud
CI/CD
CSS

6 mois
40k-45k €
400-450 €
Île-de-France, France
Contexte Dans le cadre de l’évolution de plateformes digitales liées à la gestion de services en ligne à forte volumétrie, vous intervenez en tant que développeur PHP / Symfony au sein d’une équipe produit. Vous participez à des projets concrets avec des enjeux de performance, de sécurité et d’expérience utilisateur. Missions Analyse des besoins métiers et conception technique Développement backend en PHP / Symfony Participation au développement frontend (ReactJS) Intégration des maquettes Développement et consommation d’API REST Réalisation des tests (unitaires et intégration) Correction des anomalies et optimisation du code Participation aux code reviews Contribution aux bonnes pratiques (CI/CD, qualité, performance)
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
CDI

Offre d'emploi
CONSEILLER, PLATEFORME AWS

Chrome Technologies
Publiée le
AWS Cloud
AWS CloudFormation

Montréal, Québec, Canada
Nous recherchons un Conseiller, Plateforme AWS pour rejoindre notre équipe de conseillers du bureau de Montréal. Ce poste est en mode hybride. Nous prenons en charge les démarches administratives pour obtention d'un permis de travail au Québec. Tâches Relevant du Directeur, Infranuagique, il participera au soutien et à l'amélioration des services infonuagiques, au développement de nouveaux catalogues de produits et au soutien des différentes équipes. Il collaborera avec les autres équipes TI et les fournisseurs, afin de soutenir l'environnement selon les normes et processus établis et d'en assurer la surveillance et le fonctionnement optimal. Le titulaire, en tant que spécialiste, aura pour responsabilité principale d'assurer la stabilité, la disponibilité et la performance des infrastructures infonuagiques AWS. Il participera au soutien et à l'amélioration des services infonuagiques, au développement de nouveaux catalogues de produits et au soutien des différentes équipes, en collaboration avec les autres équipes TI et les fournisseurs. Responsabilités - Concevoir, développer et déployer des solutions d'infrastructure cloud sur AWS; - Effectuer le « mapping » de données pour les transformations vers l'entrepôt de données et ses environnements informationnels; - Assurer la surveillance proactive de l'environnement; - Analyser et diagnostiquer les problèmes liés aux infrastructures infonuagiques et aux services réseautiques; - Participer en tant qu'expert aux projets et initiatives infonuagiques.
Freelance
CDI

Offre d'emploi
Expert Cloud et Nouvelles Technologies

VISIAN
Publiée le
AWS Cloud
Kubernetes

1 an
Île-de-France, France
Missions Participation à la définition et à la mise en œuvre de la stratégie autour de l’adoption de ces nouvelles technologies. Chargé de la prospection de nouveaux services et outillages techniques liés aux nouvelles technologies (Cloud, IA, blockchain …) mis à disposition par le groupe et analyse de leur potentiel d’intégration dans le contexte technique existant. Récolte auprès du groupe et des autres entités d’un grand groupe bancaire les informations sur le périmètre technique d’utilisation et d’exploitation des nouveaux services et outils basés sur des nouvelles technologies. Analyse de leur potentiel d’utilisation et d’exploitation (valeur ajoutée) au sein du SI. Collaboration avec l’équipe Automation, effectuer des premiers tests de provisioning et d’utilisation pour juger de la maturité et la stabilité de ces services et outils. Mise en place au sein du département : Confrontation de la couverture technique et des limitations au regard des exigences techniques et de sécurité. Proposition des solutions pour les intégrer de manière optimale au SI. Identification des besoins de formation des différentes équipes pour faciliter l’adoption des nouvelles technologies associées à ces services et outils. Amélioration continue des services/outils du groupe, participation à la remontée des besoins opérationnels sur les futures évolutions de ces services/outils. Ou
Freelance
CDI

Offre d'emploi
Senior Python Developer

VISIAN
Publiée le
API
AWS Cloud
PostgreSQL

1 an
Paris, France
Missions En tant que Développeur Python Senior, vous serez amené(e) à : Concevoir et implémenter des services backend en Python pour la gestion des actifs, des contrats et des opérations de marché. Développer des API et des pipelines de données pour intégrer les composants applicatifs à l'écosystème d'information global, incluant les applications internes et externes, le hub de données, les autres systèmes de stockage de données et les consommateurs de données. Intégrer des systèmes de messagerie (MQTT, RabbitMQ) pour l'ingestion de données en temps réel. Utiliser PostgreSQL pour la modélisation, l'optimisation et l'intégrité des données relationnelles et de séries temporelles. Exploiter les services AWS tels que RDS, S3, IAM, Lambda, ECS et Docker. Collaborer avec les chefs de produit et les experts métier pour traduire les besoins métier en fonctionnalités logicielles évolutives. Contribuer aux processus de développement agile, notamment la planification des sprints, les rétrospectives et la coordination d'équipe. Participer au processus de mise en production toutes les deux semaines. Assurer le support de niveau 2 sur les applications existantes et sur les mises en production dédiées. Assurer le développement logiciel, le suivi et la mise en œuvre des correctifs, évolutions et adaptations. Fournir des solutions correctives ou des solutions de contournement selon les besoins. Compétences techniques Plus de 6 ans d'expérience en développement Python (développement d'applications). Maîtrise de PostgreSQL, notamment la conception de schémas, l'optimisation des performances et la gestion des données de séries temporelles. Expérience des services AWS (RDS, S3, IAM, ECS, Docker). Expérience des API, des pipelines de données, du streaming et autres paradigmes d'intégration de systèmes. Familiarité avec les méthodes agiles et les environnements de développement collaboratif. Les plus : Expérience avec React ou en développement front-end. Expérience avec FastAPI ou des alternatives (par exemple, Flask, Django). Familiarité avec l'orchestration de conteneurs ou les pipelines CI/CD. Outils et environnement Python PostgreSQL AWS (RDS, S3, IAM, Lambda, ECS) Docker Systèmes de messagerie : MQTT, RabbitMQ Méthodologies agiles
Freelance

Mission freelance
Administrateur de Bases de Données (DBA)

Ness Technologies
Publiée le
AWS Cloud
Azure
Bash

6 mois
Île-de-France, France
Responsabilités principales Déployer et gérer des systèmes de bases de données en cloud, en garantissant un contrôle d'accès sécurisé et efficace. Élaborer, gérer et optimiser les politiques et procédures relatives aux bases de données afin d'assurer la conformité aux normes ANSSI et aux autres bonnes pratiques de sécurité. Préparer et maintenir la documentation nécessaire aux audits, notamment pour répondre aux exigences de l'ANSSI. Agir en tant qu'interlocuteur unique (SPOC) pour tous les sujets liés aux bases de données, en coordonnant avec les différentes équipes pour traiter les problématiques de sécurité. Réaliser des audits de sécurité réguliers et des évaluations de vulnérabilités afin d'identifier et de corriger les failles potentielles des systèmes de bases de données. Développer et maintenir des plans de réponse aux incidents pour traiter rapidement les violations de sécurité liées aux bases de données. Collaborer étroitement avec les équipes informatiques et sécurité pour aligner les opérations sur les objectifs de l'organisation. Assurer la conformité aux réglementations et bonnes pratiques en matière de cybersécurité. Accompagner et former les membres de l'équipe sur les bonnes pratiques et les mesures de sécurité liées aux bases de données. Maintenir les services de bases de données en production en mesurant et surveillant la disponibilité, la latence et la santé globale des systèmes. Piloter la réponse aux incidents liés aux bases de données de manière efficace et durable. Faire évoluer les systèmes de bases de données de façon pérenne via l'automatisation, en promouvant les changements améliorant la fiabilité et la sécurité. Rédiger un code hautement optimisé et fiable pour les solutions de bases de données. Développer et appliquer de manière proactive les connaissances métier liées aux workflows, politiques, configurations et contraintes des bases de données. Soutenir les processus essentiels liés aux bases de données tout en garantissant le respect des standards de qualité. Vos missions au quotidien Évaluer, planifier, concevoir et déployer une infrastructure de bases de données sous forme de solutions hautement disponibles et scalables pour soutenir les applications et services critiques. Rédiger et maintenir des scripts d'Infrastructure as Code (IaC) à l'aide d'outils tels que Terraform et Ansible pour automatiser le déploiement et la gestion des ressources de bases de données. Appliquer les normes ANSSI pour sécuriser les ressources de bases de données et effectuer des audits réguliers afin d'en assurer la conformité. Réaliser la planification de capacité et le dépannage des applications, produits, infrastructures et services de bases de données. Surveiller et observer les applications et l'infrastructure de bases de données. Exploiter des environnements de test selon les bonnes pratiques du secteur pour les pré-tests et les preuves de concept. Diagnostiquer et résoudre les incidents liés aux bases de données dans des environnements cloud. Participer aux tâches d'ingénierie cloud pour gérer et optimiser l'infrastructure, incluant les ressources réseau, les mesures de sécurité et l'automatisation. Participer aux rotations d'astreinte.
1382 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous