Trouvez votre prochaine offre d’emploi ou de mission freelance Terraform à Lille

Votre recherche renvoie 23 résultats.
Freelance

Mission freelance
DevOps (GCP / Terraform / Python / VueJS)

ESENCA
Publiée le
Azure
Google Cloud Platform (GCP)
Python

1 an
Lille, Hauts-de-France
🧭 Contexte & objectif Dans le cadre du développement de plateformes cloud internes, vous participez à la conception et à l’évolution de solutions permettant aux équipes de déployer rapidement leurs environnements sur le cloud public. Ces plateformes, basées sur des principes de self-service , offrent des environnements préconfigurés, sécurisés et automatisés afin d’accélérer le déploiement des applications. 🚀 Missions principales🔧 Développement Concevoir et développer des composants backend (Python) et frontend (VueJS) Développer des solutions d’ Infrastructure as Code (Terraform) sur GCP principalement Participer à l’évolution des plateformes cloud (type Landing Zone) Développer des outils d’ automatisation réseau (firewall, opérations réseau) Implémenter des API et services backend 🏗️ Architecture & conception Proposer des solutions techniques basées sur les services natifs des cloud providers Concevoir des architectures cloud natives, sécurisées et automatisées Participer aux revues de code et d’architecture Contribuer à la définition des standards techniques et bonnes pratiques ✅ Qualité & tests Mettre en place et maintenir des tests automatisés et unitaires Garantir la qualité, la performance et la maintenabilité du code 🛠️ Maintenance & support Corriger les anomalies et bugs Maintenir et améliorer les solutions existantes Accompagner les équipes dans l’utilisation des plateformes 🧠 Compétences techniques🔥 Impératives GCP (niveau expert) Terraform (niveau expert) Python (niveau expert) VueJS / Frontend ➕ Importantes Azure (niveau confirmé) 🌍 Langues Français courant (impératif) Anglais professionnel (souhaité)
CDD
CDI
Freelance

Offre d'emploi
Developer Back end Java 17/21 (Spring boot) & devops

KEONI CONSULTING
Publiée le
Cloud
Postman
Terraform

18 mois
20k-60k €
100-500 €
Lille, Hauts-de-France
Contexte Nous recherchons 1 Dev Back-end Java afin de renforcer l'équipe actuelle. Cette personne pourra intervenir sur les projets au sein du dispositif existant ou le renforcer sur les autres assets, selon la charge de cette période, afin de tenir l'engagement de mise en production MISSIONS Ø Mise en place du socle technique - Choix des librairies nécessaires au projet - Mise en place du socle technique sous Docker - Mise en place des déploiements automatisésEnvironnement technique à maîtriser : o Langages : Java 17/21 o Frameworks : Spring Boot, JUnit, Logback o Serveur d’application : Service manager AWS (Beanstalk) et infra Kub o Industrialisation : Docker, Maven, Gateling o Outils : Datadog, Git LabCi, Jira, Sonar, etc. ○ • Assurer une qualité de code optimale ○ Initie un bon socle ○ S'assure de la mise en place des guidelines ( Quality Gate, % code coverage, pyramide de tests..) ○ Suivi des métriques ○ Garant de la bonne application des pratiques de devs • Fournir une direction technique / architecturale ○ Unifier les pratiques ○ Aider à prendre les bonnes décisions ○ Fluidifier les longs débats, et tranche en cas d'indécision ○ Echange avec les bons partenaires pour coconstruire si besoin • Contrôler la dette technique ○ Sensibiliser alerter en cas d'obsolescence / mauvaise pratiques ○ Suivre, afficher et prioriser la dette technique • Assurer le bon déroulement des Code Review ○ Animer et cadrer les CR (suivre le Time to Review, la Pull Request Size.. ) • Promouvoir la collaboration et l'engagement ○ Accompagne et facilite le partage de connaissance (matrice de compétences, 1to1..) ○ Garant du process d'On-Boarding ○ Crée de la cohésion dans l'équipe ○ Être l'interlocuteur privilégié du PO / Stakeholders en cas de question technique • Déployer de la qualité, rapidement ○ Focus l'équipe sur des solutions rapides, et fiables (KISS, ) ○ Suivi de la fréquence de déploiement, taille de déploiement.. ○ Favorise la collaboration Dev/Ops • Participation au cadrage Technico/fonctionnelle ○ Participation aux études de faisabilité / estimations / planification ○ Réalisation de cadrages fonctionnels et techniques pour les évolutions ○ Réaliser des estimations de charge ou de complexité d’une évolution et des tâches à effectuer ○ Produire les livrables en suivant les pratiques agiles ○ Tests unitaires (TDD) et tests fonctionnels automatisés (BDD) ○ Application packagée (Docker) ○ Documentation technique ○ Analyser les rapports d'intégration continue et actions en conséquence ○ Remonter les alertes et le reste à faire sur ses tâches ○ Contribuer à l’activité d’étude d’architecture technique de l’équipe ○ Être le référent Technique de l'équipe Scrum en lien avec le DevOps et les équipes infra pour les choix techniques mais aussi sur leurs mises en place • Être le garant des process de dev ○ Mettre en place et être le garant des bonnes pratiques de dev ○ Mettre en place des process pour avoir une unicité de pratique au sein de l'équipe (listing de chose à faire lors d'une revue, …) ○ Mettre en place des métriques pour identifier des axes d'améliorations : § Couverture de code par les Test et des TU § Nombre d'aller-retour et Nb de retour sur les revues § Nombre d'anos § Temps passé sur les différentes étapes du Workflow (dev et Test (TU, TA,..) Revue, livraison …) § Réaliser des ateliers d'analyses et de prise d'action d'amélioration Suivi des métriques et des actions d'amélioration 3) Contribution à la vie de l’équipe Ø Vous participez activement à la vie de l’équipe Ø Vous êtes proactif pendant les cérémonies agiles (DSM, rétro, démo, ...) et force de proposition en termes d'amélioration Ø Vous contribuez à l'animation du backlog Produit et technique Ø Vous participez à l’estimation de charge ou de complexité des tâches de l’équipe Ø Vous remontez les alertes et le reste à faire sur ses tâches Ø Vous assurez un transfert de connaissances vers les autres équipes Livrables : Les compétences techniques minimales que nous recherchons sont : - Une maitrise parfaite du Java 17/21 mais aussi des Framework Spring et Spring boot - Frameworks : Spring Boot, JUnit, JAX-RS, Logback - Git LabCi ne sont pas des options ;) PROFIL& COMPETENCES Pour le poste, il convient d'avoir au minimum de 7/8 ans d'expérience sur des postes de développeur prioritairement sur Java 17/21 (Spring boot), avec idéalement plusieurs expériences de lead dev Expert Java dans un contexte Agile très fort mais également une organisation DevOps afin de pouvoir monter les environnements back mais également travailler sur la mise en place et l'Optimisation des pipelines de livraison en Hors Prod et en Prod. Nous travaillerons sur une infra AWS donc il sera obligatoire que le candidat maîtrise l'environnement AWS avec idéalement plusieurs certifications AWS (Architecte Associate, Développer associate, …). Vous aimez apprendre, partager vos connaissances et mettre en application les technologies actuelles et futures. De plus, les compétences suivantes en DevOps seront plus que souhaitables : - Vous connaissez AWS et avez déjà travaillé sur des pipelines de livraison sur AWS - Vous connaissez les logiciels de livraison continue comme Gitlab CI, Jenkins, Artifactory, … - Mais aussi les logiciels intégrer dans les pipelines de livraison pour assurer la qualité/ la sécurité comme Sonar, CheckMark, Vault, … - Vous maitrisez les concepts Cloud et les outils DevOps comme : Terraform, Ansible, Gitlab CI et Docker n'a plus de secret pour vous - Enfin vous maitriser également les outils de testing : PostMan, Selenium ou encore Cucumber
Freelance
CDI

Offre d'emploi
DataOps Engineer - H/F

AMD Blue
Publiée le
Amazon S3
AWS Cloud
CI/CD

3 ans
48k-56k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Ops . Contexte de la mission : Notre client recherche un(e) Senior Data Ops Engineer pour rejoindre son équipe en charge du Datalake. La donnée est au cœur de la stratégie de notre client, guidant chaque décision de la conception à l'expérience utilisateur. L'équipe est responsable de la mise à disposition du stockage, de la robustesse, de la scalabilité et de la gouvernance technique du patrimoine de données. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Gestion du DRP et du PCA. Monitoring et pilotage : Actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails). Support et accompagnement : Expertise sur S3, Glue et Unity Catalog. Infrastructure as Code : Déploiement de nouvelles ressources via Terraform et maintenance de l'existant. Collaboration : Travail en étroite collaboration avec les ingénieurs infra et les équipes ops. Accompagnement et formation : Définition et promotion des bonnes pratiques, conseil lors de la conception des pipelines de données. Développement du futur : Automatisation de la gouvernance (Data contract registry, access management) et déploiement de Unity Catalog (lineage, managed tables, etc.).
Freelance

Mission freelance
Data architecte / Expert Snowflake

Codezys
Publiée le
Apache Airflow
Kubernetes
Python

12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Ingénieur Production

Sapiens Group
Publiée le
AWS Cloud
Azure Kubernetes Service (AKS)
Datadog

12 mois
480-500 €
Lille, Hauts-de-France
Mission principale Au sein d’une équipe agile, l’Ingénieur Production contribue à la conception, à l’industrialisation et à l’exploitation des plateformes applicatives. Il participe à l’automatisation des processus, au déploiement des applications et à la supervision des environnements, tout en accompagnant les équipes dans l’adoption des bonnes pratiques DevOps et Cloud. Activités principales Déploiement et industrialisation Contribuer au développement, à l’évolution et à la maintenance des outils d’industrialisation. Assurer le déploiement des livrables en environnements de préproduction et de production. Concevoir et développer les outils DevOps nécessaires à la livraison du produit, en respectant les standards et bonnes pratiques de l’entreprise. Industrialiser et automatiser les processus d’exploitation afin d’améliorer l’autonomie de l’équipe. Exploitation et supervision Assurer le maintien en conditions opérationnelles de l’application en production. Suivre la qualité de service (QoS) via des outils de monitoring et de supervision. Gérer l’analyse des incidents, le debugging et les investigations techniques. Accompagner les équipes support dans l’analyse et la résolution des incidents. Accompagnement et expertise Accompagner le centre de services (CDS) dans l’intégration et le déploiement des livrables sur le cloud AWS. Assurer un rôle de référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements. Participer à la diffusion des bonnes pratiques DevOps et Cloud au sein de l’équipe et de l’entreprise. Produire et partager la documentation technique (procédures, guides, formations internes, meetups). Compétences Technos principal : K8S, AWS, Terraform, Helm, FluxCD, Datadog, Cloudflare, Keycloak, Contour, Gitlab-CI Technos secondaires : MongoDB, Java, Postman, Docker.
Freelance

Mission freelance
DevOps Azure IaC (H/F) - LILLE

Espace Freelance
Publiée le
Azure DevOps
Terraform

12 mois
400-480 €
Lille, Hauts-de-France
REF : EFN/NCHDU/Lille Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un DevOps Azure IaC (H/F) - LILLE Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Localisation du consultant : Haut-de-France Obligatoire Compétences obligatoires : Azure ; Azure Devops ; Infra as code, terraform, docker, kubernetes Mission : Accompagner les équipes sur l’utilisation des outils et la mise en place des pipelines CI/CD. Conseiller sur les choix techniques et apporter une expertise cloud et conteneurs. Administrer les environnements de développement et de déploiement (Azure, Kubernetes, outils DevOps). Assurer le maintien en conditions opérationnelles et les montées de version des plateformes. Diagnostiquer et résoudre les incidents en recette et en production. Jouer un rôle de référent technique : coordination, documentation, supervision et capacity planning.
Freelance

Mission freelance
Ops engineer - Data Factory (AWS, Databricks)

CAT-AMANIA
Publiée le
Amazon S3
AWS Glue
Databricks

1 an
100-450 €
Lille, Hauts-de-France
Objectifs et livrables Ta mission sera de Garantir la robustesse de la plateforme (DRP, PCA) Monitorer et prendre des actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails) Assurer le support et l'accompagnement sur S3, Glue, Unity Catalog Déployer de nouvelles ressources infra via Terraform et maintenir l'existant Etroite collaboration avec les ops engineer de notre team infra centrale et notre staff ops Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management) Déploiement de Unity catalog et activations de ses nouvelles features (lineage, managed tables etc.)
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
Data engineer

CAT-AMANIA
Publiée le
CI/CD
Databricks
PySpark

1 an
100-450 €
Lille, Hauts-de-France
la data est au cœur de notre stratégie, elle guide chaque décision, de la conception du produit à l'expérience client. Notre équipe Managed tools au coeur de la Data Factory est une brique essentielle de cette mission. Organisée autour des outils de compute, orchestration et expostion, l'équipe Managed tools est chargée de mettre à disposition la stack data pour l'ensemble du groupe Decathlon et d'en assurer sa robustesse et scalabilité. Au sein de la squad Compute nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme.
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Freelance

Mission freelance
Expert Cyber CNAPP

Codezys
Publiée le
CrowdStrike
cyberark
Gestion des accès privilégiés (PAM)

12 mois
Lille, Hauts-de-France
Nous sommes à la recherche d'un consultant expert en cybersécurité pour accompagner notre équipe dans une phase de transition stratégique majeure. Le prestataire aura la double responsabilité de piloter l'implémentation de notre nouvelle solution CNAPP (Cloud Native Application Protection Platform) tout en assurant la maintenance en conditions opérationnelles (MCO) et l'évolution de nos solutions de détection (EDR) et de gestion des accès (PAM). Contexte technique : Environnement hybride combinant des infrastructures On-premises, Azure et GCP. Objectifs et Missions principales Build : Implémentation du CNAPP Design & Déploiement : Concevoir l'architecture de la solution CNAPP adaptée afin de couvrir un périmètre multi-cloud, intégrant CSPM, CWPP et CIEM. Accompagnement : Assister l'équipe de gouvernance cloud dans la définition des politiques de sécurité (guardrails) ainsi que dans l'établissement des frameworks de conformité. Intégration DevSecOps : Incorporer le scan des vulnérabilités et la gestion des secrets dans les pipelines CI/CD afin d'assurer une sécurité intégrée dès la développement. Run & Évolution : Gestion et développement des solutions PAM (Environnement Hybride) Administration : Gérer le cycle de vie des comptes à privilèges élevés tant sur l'infrastructure On-premises que sur les consoles cloud Azure et GCP. Expansion : Poursuivre l'onboarding des comptes critiques et mettre en place le mode Just-in-Time (JIT) pour les accès privilégiés. Maintenance : Garantir la disponibilité des bastions et assurer la gestion sécurisée des coffres-forts de mots de passe. Run & Évolution : Solutions EDR (Endpoint Detection & Response) Maintien en condition opérationnelle : Superviser le déploiement des agents EDR sur l'ensemble du parc (workstations et serveurs). Optimisation : Affiner les politiques de détection afin de réduire le nombre de faux positifs et améliorer la précision des alertes. Ce poste exige une expertise approfondie en cybersécurité, une capacité à conduire des projets techniques complexes et une bonne compréhension des environnements multi-cloud. Le candidat idéal saura conjuguer technicalité, rigueur et esprit d'équipe pour faire face à ces enjeux cruciaux.
Freelance

Mission freelance
Ingénieur Cloud Azure/Windows

Cherry Pick
Publiée le
Ansible
Azure
Terraform

12 mois
530-570 €
Lille, Hauts-de-France
Dans le cadre de la modernisation de notre infrastructure IT, notre client recherche un/une Ingénieur(e) Cloud Azure & Automatisation expert(e) pour piloter l’évolution de nos environnements. Votre rôle sera de transformer notre infrastructure traditionnelle vers un modèle hybride automatisé, sécurisé et performant. Vous serez le garant de la fiabilité des environnements Windows/Azure et le moteur de l'automatisation via les outils d'Infrastructure as Code (IaC). Objectifs et Responsabilités Architecture & Cloud : Optimiser et administrer l'infrastructure Microsoft Azure. Infrastructure as Code (IaC) : Concevoir et déployer les ressources via Terraform ; automatiser la configuration des serveurs avec Ansible . Identité & Sécurité : Gérer et sécuriser l'annuaire hybride ( Active Directory on-premise et Entra ID ), incluant la mise en place de politiques de sécurité (RBAC, Accès conditionnel). Automatisation Système : Développer des scripts PowerShell avancés pour industrialiser les tâches d'administration et améliorer l'efficacité opérationnelle. Gestion de Données : Assurer le maintien en condition opérationnelle et l'optimisation des environnements MSSQL . Agilité : Participer activement aux rituels de gestion de projet Agile pour assurer une livraison continue de valeur
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Cloud Ops Engineer GCP

CAT-AMANIA
Publiée le
AWS Cloud
Cloud Provider
Google Cloud Platform (GCP)

1 an
100-450 €
Lille, Hauts-de-France
Gérer l’organisation des 2 principaux Cloud providers : GCP et AWS Proposer, de part votre expérience sur le Cloud, de nouvelles approches de déploiement, gestion et exploitation de systèmes sur le Cloud. Scripting/automatisation/Infrastructure As Code : industrialisation des solutions avec des outils/langages tels que Terraform, Python, CloudFormation… Développer et mettre à disposition des reporting et tour de contrôle (inventaire et qualité) permettant d’informer nos utilisateurs et notre équipe de la qualité et évolution de nos environnements. Coder des applications (API, orchestration) en Python en utilisant les bonnes pratiques de code. Écrire et sensibiliser aux bonnes pratiques d’utilisation du Cloud avec également la formation de nos équipes techniques. Collaborer étroitement avec nos équipes de sécurité pour la gestion des alertes et du renforcement de nos process techniques et fonctionnels.
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
Freelance

Mission freelance
DevSecOps

HAYS France
Publiée le
CrowdStrike
cyberark
Cybersécurité

3 ans
Lille, Hauts-de-France
Dans le cadre d’une transition majeure sur son périmètre de cybersécurité, l’entreprise recherche un consultant expert en sécurité Cloud et en solutions de protection des accès et endpoints . Le consultant interviendra à la fois sur la mise en place d’une nouvelle solution CNAPP couvrant un environnement multi‑cloud (On‑prem / Azure / GCP) et sur le maintien en condition opérationnelle (MCO) des solutions PAM et EDR de l’organisation. Les responsabilités couvrent à la fois des activités BUILD et RUN , incluant la définition de l’architecture, l’intégration DevSecOps, la gestion du cycle de vie des comptes à privilèges et l’optimisation de la détection des menaces sur le parc endpoints.

Les métiers et les missions en freelance pour Terraform

Ingénieur·e devops (Cloud)

L'ingénieur·e DevOps utilise Terraform pour automatiser le déploiement et la gestion des infrastructures Cloud, garantissant une cohérence et une évolutivité des environnements.

Architecte Cloud

L'architecte Cloud conçoit des architectures robustes et automatisées en utilisant Terraform pour provisionner et gérer des infrastructures multi-clouds.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production exploite Terraform pour standardiser les processus d'infrastructure-as-code et garantir des déploiements rapides et fiables.

23 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous