Trouvez votre prochaine offre d’emploi ou de mission freelance Terraform à Paris

Votre recherche renvoie 42 résultats.
Freelance

Mission freelance
Ingénieur Cloud / Terraform - OpenTofu

Publiée le
Azure
Terraform

3 mois
400-550 €
Paris, France
Télétravail partiel
Missions Dans le cadre de la construction de notre Engineering Platform , nous recherchons un Ingénieur Cloud capable de concevoir et développer des modules Terraform pour déployer des ressources dans Azure, en respectant nos standards de déploiement. Vos missions incluront : Conception & Développement Créer des modules Terraform (inputs, outputs, sous-modules) faciles à utiliser, alignés sur les bonnes pratiques et intégrant la sécurité par défaut. Tests & Déploiement Effectuer des tests automatisés en déployant des applications de test afin de garantir la fiabilité et la conformité des modules. Documentation Rédiger une documentation technique complète pour faciliter l’utilisation des modules Terraform et des blueprints par les équipes produits. Création de Blueprints Développer des blueprints standardisés de déploiement d’applications basés sur les modules Terraform afin de fluidifier et accélérer les mises en œuvre. Support aux équipes Accompagner les product teams dans l’utilisation des modules et blueprints. Techniques Terraform : Expert (impératif) Azure : Confirmé (impératif) OpenTofu : Confirmé (souhaitable) Langues Anglais : courant Français : courant Livrables Code source Documentation technique Documentation fonctionnelle
Freelance

Mission freelance
Ingénieur Cloud/DevOps Senior – Azure/Terraform/OpenTofu

Publiée le
Azure
Terraform

3 mois
550-700 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur Cloud / DevOps expérimenté pour concevoir et développer des modules Terraform dédiés au déploiement de ressources sur Azure , conformément aux standards internes de sécurité et de bonnes pratiques. Le consultant interviendra sur les axes suivants : Conception et développement : créer des modules Terraform complets (inputs, outputs, sous-modules) simples à utiliser et conformes aux guidelines internes. Tests et mise en œuvre : automatiser les tests de déploiement afin de vérifier la fiabilité et la maintenabilité des modules. Documentation : rédiger la documentation technique et fonctionnelle associée aux modules et blueprints. Blueprints : concevoir des modèles standard de déploiements applicatifs basés sur les modules créés. Support aux équipes : accompagner les équipes produits dans l’adoption et l’utilisation efficace des modules et blueprints.
Freelance

Mission freelance
Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci)

Publiée le
Ansible
GitLab CI
Openshift

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci). Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. La chaîne d'outillage est composée des éléments suivants : Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory , Kaniko, Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». mission : Réaliser et modifier différents rôles et playbooks Ansible - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Mise à jour des documents des normes d'utilisation de la brique technique - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées Réaliser et modifier différents modules Terraform - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Réaliser et modifier différents jobs et pipelines Jenkins - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution Réaliser et modifier différents jobs et pipelines Gitlab-CI - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Assurer le support N3 de la chaîne CI/CD • Suivi, mise à jour et résolution des incidents en respectant les processus définis • Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) • Mode opératoire des actions réalisées
Freelance

Mission freelance
Architecte DATA- Data Architecture

Publiée le
DBT
Python
Terraform

18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
CDI
Freelance

Offre d'emploi
Ingénieur Réseau & Sécurité – Cloud & Terraform (H/F)

Publiée le
Azure
Bash
DNS

12 mois
45k-55k €
410-520 €
Paris, France
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Réseau & Sécurité – Cloud & Terraform (H/F) 📍 Lieu : Paris 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins un acteur clé du digital et des services marketing en ligne, en pleine transformation de son SI. L’entreprise modernise ses infrastructures, accélère sa migration vers le cloud public et fait évoluer son WAN pour soutenir ses services digitaux à grande échelle. En tant qu'Ingénieur Réseau & Sécurité, tu intègres l’équipe réseau & sécurité et participes activement aux projets cloud (Azure / GCP), à l’évolution des infrastructures critiques et à l’automatisation via Terraform et du scripting . Tu auras pour missions de : Déployer des environnements cloud Azure / GCP via Terraform . Automatiser les tâches réseau grâce à du scripting (Bash, Python). Contribuer activement aux projets de transformation cloud et WAN . Administrer, exploiter et maintenir les équipements réseau & sécurité. Gérer les incidents, analyser les causes et optimiser les process existants. Superviser les équipements réseau, interpréter les alertes et intervenir rapidement. Traiter les demandes IP/DNS , les ouvertures de flux et les ajustements de load balancing. Garantir la mise à jour et la qualité de l’ inventaire réseau . Rédiger les documentations techniques et les procédures opérationnelles. Participer aux interventions HNO (astreintes possibles). Stack technique : Terraform, Azure, GCP, Bash, Python, Firewall, Switching, Load Balancer, Proxy, NAT, VPN, DNS, Supervision & métrologie, Protocoles TCP/IP (IPv4, ICMP, ARP, TCP, UDP, HTTP/S, FTP, SMTP, DNS), WiFi.
Freelance

Mission freelance
Ingénieur DevOps – Applications Métiers

Publiée le
CI/CD
Docker
Terraform

12 mois
530-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Ingénieur DevOps – Applications Métiers" pour un client dans le secteur de la finance. Description Contexte de la mission Dans le cadre du renforcement de son équipe Infrastructure Build Workplace , le client — acteur majeur du secteur financier — recherche un Ingénieur DevOps spécialisé dans les applications métiers . Cette mission s’inscrit dans une démarche d’ industrialisation, d’automatisation et de modernisation des environnements applicatifs , au sein d’un département Technologie en forte croissance. Rôle et responsabilités En tant qu’ Ingénieur DevOps – Applications Métiers , vous interviendrez sur tout le cycle de vie des applications internes et SaaS, en lien direct avec les utilisateurs métiers et les équipes infrastructure. Vos principales missions seront : Intégrer et gérer le cycle de vie des applications métier (SaaS et internes) en environnement Windows. Recueillir les besoins métiers , animer des ateliers et rédiger les spécifications techniques et fonctionnelles. Déployer, configurer et automatiser les applications via Python3, Docker et PowerShell . Assurer la sécurité et la conformité : gestion des accès, intégration SSO (Azure AD, Okta) , IAM et politiques de sécurité. Piloter les projets techniques : coordination, reporting, suivi des risques et plannings. Rédiger la documentation technique et assurer le transfert de compétences aux équipes internes. Fournir un support niveau 2/3 aux utilisateurs finaux et participer à l’amélioration continue des processus. Profil du candidat Compétences techniques recherchées Domaine Compétences Niveau requis Important : Docker - Terraform - CI/CD Scripting & Automatisation Python 3, PowerShell✅ Confirmé / Expert Conteneurisation Docker✅ Confirmé Sécurité & IAM SSO, Azure AD, Okta✅ Confirmé Collaboration & Gestion Jira, Confluence, Teams, SharePoint✅ Confirmé OS & Environnement Windows, Modern Management✅ Confirmé CI/CD & DevOps Bonnes pratiques d’intégration continue et de delivery🔸 Souhaité 💬 Soft Skills Excellent sens du service et de la communication Capacité à vulgariser les sujets techniques auprès d’interlocuteurs non techniques Autonomie, rigueur et esprit d’équipe Aisance dans l’animation de réunions et la coordination transverse Esprit d’analyse et réactivité face aux incidents
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance
CDI

Offre d'emploi
Consultant Cloud Infrastructure as code

Publiée le
DevSecOps
Python
Terraform

1 an
55k-68k €
400-550 €
Paris, France
Missions principales Piloter la conception, définir et mettre en œuvre l’évolution et l’exploitation des plateformes Cloud AWS/OVHcloud de l’entreprise afin d’assurer disponibilité, sécurité, performance et scalabilité des services. Garantir une gouvernance efficace des environnements Cloud (IaaS, PaaS, SaaS) tout en accompagnant les équipes produit et développement dans leurs besoins d’infrastructure. Mettre en place une veille active pour identifier et intégrer les outils les plus adaptés et les bonnes pratiques de sécurité.
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
DataOps / Ops GCP

Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)

1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Freelance
CDI

Offre d'emploi
Architecte Cloud GCP & DevOps

Publiée le
Google Cloud Platform (GCP)
Terraform

2 ans
Paris, France
Télétravail partiel
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Freelance

Mission freelance
Data Platform Engineer - Terraform

Publiée le
CI/CD
DevOps
JIRA

6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Freelance
CDI

Offre d'emploi
Cloud Architect AWS (H/F)

Publiée le
AWS Cloud
Azure DevOps
Kubernetes

12 mois
40k-83k €
400-750 €
Paris, France
Télétravail partiel
📢 CITECH recrute ! 👍 Vous souhaitez mettre votre expertise Cloud au service d’un projet stratégique de transformation du SI ? Nous avons LA mission pour vous ! Nous recherchons un(e) Cloud Architect AWS (H/F) pour accompagner l’un de nos clients grands comptes dans la migration de leurs applications vers le Cloud AWS 🌩️ Vous interviendrez au cœur d’une équipe internationale de Platform Engineering, avec pour mission de concevoir, sécuriser et industrialiser la plateforme Cloud tout en accompagnant les Feature Teams dans leur montée en compétence 🚀 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Architecture & Accompagnement Cloud 🔸 Concevoir des architectures AWS fiables, sécurisées et scalables (design → run) ; 🔸 Définir les bonnes pratiques d’architecture et accompagner les équipes dans leur adoption ; 🔸 Évangéliser la plateforme interne AWS et favoriser l’utilisation des services standardisés ; 🔸 Contribuer à l’amélioration continue de la plateforme Cloud (retours utilisateurs, nouveaux services, optimisation). Infrastructure as Code & Industrialisation 🔸 Développer et maintenir le code Terraform pour automatiser le provisioning des environnements ; 🔸 Standardiser les modules Terraform et garantir leur qualité ; 🔸 Participer à la création et l’évolution de l’outillage DevOps (CI/CD, sécurité, observabilité). Support avancé & Coaching des équipes 🔸 Accompagner les Feature Teams dans leur migration vers AWS ; 🔸 Aider à la prise en main des outils Cloud internes ; 🔸 Animer des ateliers d’architecture, de bonnes pratiques et de résolution de problématiques complexes ; 🔸 Rédiger les livrables associés : Dossier d’Architecture Technique, code Terraform, guides d’usage. 🎯 Profil recherché
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance
CDI

Offre d'emploi
Expert Sécurité Cloud Azure – Projet International (Terraform / Prisma Cloud / Python) H/F

Publiée le
Azure
Firewall
Proxy

36 mois
50k-65k €
530-600 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet international stratégique, vous interviendrez en tant qu’expert sécurité Cloud Azure pour renforcer la gouvernance et le monitoring des ressources cloud du groupe. Votre mission consistera à concevoir et mettre en œuvre une offre de service sécurité intégrant des contrôles via Azure Policy et Prisma Cloud (CSPM). Vous serez responsable de l’analyse des configurations existantes, de la définition des règles de conformité, de la mise en place d’alertes et d’indicateurs de performance, ainsi que du reporting régulier auprès des parties prenantes. Le projet s’inscrit dans une démarche Agile et implique une forte coordination entre les équipes Dev, Ops et Sécurité.

Les métiers et les missions en freelance pour Terraform

Ingénieur·e devops (Cloud)

L'ingénieur·e DevOps utilise Terraform pour automatiser le déploiement et la gestion des infrastructures Cloud, garantissant une cohérence et une évolutivité des environnements.

Architecte Cloud

L'architecte Cloud conçoit des architectures robustes et automatisées en utilisant Terraform pour provisionner et gérer des infrastructures multi-clouds.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production exploite Terraform pour standardiser les processus d'infrastructure-as-code et garantir des déploiements rapides et fiables.

42 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous