Trouvez votre prochaine offre d’emploi ou de mission freelance Terraform à Paris

Votre recherche renvoie 58 résultats.
Freelance

Mission freelance
Tech Lead - Asset Control & Management

Groupe Aptenia
Publiée le
AWS Cloud
CI/CD
Docker

6 mois
400-650 €
Paris, France

Nous recherchons un Tech Lead capable de piloter la conception et le développement d’applications modernes dédiées à la gestion et au contrôle des actifs. L’objectif : construire des systèmes robustes, scalables et sécurisés, conformes aux politiques cyber du groupe et adaptés aux enjeux de performance et d’automatisation des activités de trading énergie. Concevoir et définir l’architecture globale des systèmes d’Asset Control & Management. Prendre les décisions techniques stratégiques (stacks, frameworks, intégrations). Développer les fonctionnalités cœur, en garantissant un code propre, documenté et maintenable. Superviser les revues de code et faire respecter les standards de qualité. Mettre en place et gérer les pipelines CI/CD (tests, intégration, déploiement automatisé). Travailler étroitement avec les équipes DevOps / Infrastructure (AWS, Docker, Terraform). Gérer les environnements (dev, staging, production) et assurer la stabilité applicative. Encadrer et faire monter en compétence les développeurs juniors et intermédiaires. Collaborer avec les équipes produit, projet et business pour assurer la bonne livraison. Promouvoir les bonnes pratiques d’ingénierie et d’amélioration continue.

Freelance
CDI
CDD

Offre d'emploi
TECH LEAD DevOps

Freelance.com
Publiée le
Ansible
DevOps
Docker

1 jour
40k-80k €
400-650 €
Paris, France

Client : PUBLIC Postes : TECH LEAD DevOps Expérience : +8 ans Localisation : Paris Deadline réponse : ASAP Démarrage : ASAP Durée : Longue Nous recherchons un Tech Lead DevOps expérimenté pour accompagner la transformation et l’industrialisation de nos équipes. Vous serez le référent technique de l’équipe DevOps et aurez un rôle clé dans la définition de l’architecture, la mise en place des bonnes pratiques et le pilotage des projets stratégiques Vos missions principales En tant que Tech Lead DevOps, vous serez en charge de : Définir et faire évoluer l’architecture CI/CD, du design à l’industrialisation. Piloter et encadrer une équipe DevOps (mentorat, code review, accompagnement technique). Déployer et administrer des infrastructures Cloud (AWS, Azure, GCP) et On-Premise (VMware, Kubernetes, OpenShift). Automatiser les déploiements et la configuration via Terraform, Ansible, Helm, Puppet, Chef. Superviser la sécurité des pipelines (secrets management, scans de vulnérabilités, compliance). Garantir la disponibilité, la performance et la scalabilité des environnements. Participer aux choix technologiques et à la veille sur les solutions DevOps/Cloud. Collaborer avec les équipes de développement, sécurité et infrastructure. Stack technique recherchée CI/CD : GitLab CI, Jenkins, GitHub Actions, ArgoCD Conteneurs & Orchestration : Docker, Kubernetes, OpenShift, Rancher Cloud : AWS, Azure, GCP Infrastructure as Code (IaC) : Terraform, Ansible, Helm, Pulumi Systèmes : Linux (Debian, RedHat), Windows Server Monitoring & Observabilité : Prometheus, Grafana, ELK, Datadog Sécurité : Vault, SonarQube, Snyk, Trivy Langages & Scripting : Python, Bash, Go, Groovy Profil recherché Minimum +8 ans d’expérience en DevOps dont au moins 2 ans en tant que Tech Lead / Référent technique Forte expertise sur CI/CD, conteneurisation, cloud et automatisation Leadership technique : capacité à fédérer, mentorat d’équipe Bonne communication et sens du service Capacité à travailler dans des environnements Agile/Scrum

Freelance

Mission freelance
Ingénieur de données GCP (H/F)

SMARTPOINT
Publiée le
Apache Spark
BigQuery
CI/CD

4 mois
400-460 €
Paris, France

Au sein de l'équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d'un productowner, d'un data steward et d'un data ingénieur. Notre technique de stack est principalement constituée de Python, Spark, SQL, dbt, BigQuery, Airflow pour l'orchestration des traitements et Terraform ainsi que Terragrunt pour l'industrialisation. Le stack inclut également d'autres services de la Google Cloud Platform. En interaction avec les membres de l'équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe • Construire et maintenir des pipelines de données robustes et évolutifs • Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures évolutives capables de répondre aux besoins et à l'évolution rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l'évolutivité, la fiabilité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation.

Freelance
CDI

Offre d'emploi
Data Engineer Python/Spark GCP

VISIAN
Publiée le
Apache Airflow
Apache Spark
Google Cloud Platform (GCP)

2 ans
44k-90k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Freelance

Mission freelance
Lead Tech MLOps/ IA Générative / Data

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure
Github
IA Générative

24 mois
Paris, France

Product Owner Technique IA / Machine Learning / GénérativeContexte de la mission Nous recherchons un Product Owner technique pour piloter le développement d’applications de gouvernance des modèles de Machine Learning , ainsi que l’évolution d’une plateforme interne d’IA Générative (LLM Hub) . Ce rôle combine vision produit , leadership technique et collaboration étroite avec des équipes pluridisciplinaires (data, cloud, ML, IA générative). mission de : Structurer et faire évoluer les applications de gouvernance des modèles ML (inventaire, suivi des performances, intégration multi-cloud). Piloter le développement d’une plateforme centralisée de LLMs permettant l’accès à différents modèles (OpenAI, Mistral, Claude, etc.) via Azure et AWS. Définir la roadmap produit , prioriser les évolutions et garantir la cohérence technique et fonctionnelle des produits IA. Périmètres applicatifs1. Applications de gouvernance des modèles ML Objectif : inventorier et suivre les modèles de Machine Learning déployés sur différentes plateformes cloud (Azure ML, Databricks, AWS Sagemaker). Les principales fonctionnalités concernent : L’inventaire automatique des modèles hébergés sur les environnements cloud. La collecte et la restitution des métriques techniques et de performance. L’exposition des données via une API backend et un dashboard frontend en React. 2. Plateforme LLM Hub Objectif : offrir un accès unifié à plusieurs modèles de langage (LLMs) et des outils facilitant l’intégration de l’IA générative dans les applications internes. La plateforme comprend : La centralisation de l’accès aux LLMs via Azure OpenAI, AI Foundry et AWS Bedrock. Le suivi et le reporting de la consommation des modèles, avec une logique d’optimisation des coûts. Le développement de plugins et fonctionnalités clé en main (RAG, Text-to-SQL, WebSearch, chatbot interne, etc.). Le design de futures fonctionnalités : création d’agents, prompts library, guardrails, chatbot low code, packaging d’intégration. Responsabilités principalesVolet Product Owner Identifier et cadrer les besoins des utilisateurs et parties prenantes. Prioriser les sujets et piloter le backlog produit. Définir la vision long terme et les objectifs (OKRs, roadmap). Rédiger et clarifier les besoins fonctionnels pour l’équipe technique. Coordonner les échanges avec les autres PO et le management. Assurer le suivi du budget et des livrables. Volet Technique Participer aux ateliers de conception et aux refinements techniques . Challenger les choix d’architecture et les designs techniques. Garantir la qualité, la sécurité et la résilience des solutions. Assurer une veille technologique continue sur les outils IA, cloud et LLMs. Accompagner les nouveaux arrivants et promouvoir le partage de connaissances.

CDI
Freelance

Offre d'emploi
Expert Multi-Cloud (AWS/Azure/GCP)

KLETA
Publiée le
AWS Cloud
Azure
CI/CD

2 ans
Paris, France

Au sein d’un grand programme de transformation SI d’un acteur majeur du secteur énergétique, vous interviendrez comme Expert Multi-Cloud & Data pour accompagner la conception, le déploiement et l’exploitation de produits numériques et plateformes Data hébergés sur les principaux Cloud Providers (AWS, Azure, GCP et Cloud Souverain). Votre rôle consistera à renforcer les équipes internes sur l’ensemble des volets Cloud : architecture, sécurité, automatisation, observabilité, migration. Responsabilités principales Concevoir et déployer des architectures Cloud hybrides et sécurisées (AWS / Azure / GCP) pour des produits et plateformes Data. Réaliser les études de cadrage , choix technologiques et analyses de faisabilité (techniques et économiques). Définir et mettre en œuvre les solutions d’Infrastructure as Code (Terraform, ARM, CloudFormation, etc.). Participer à l’intégration d’offres Cloud de Confiance et à la migration de plateformes On-Premise vers le Cloud. Contribuer à la stratégie DevSecOps : pipelines CI/CD, qualité, sécurité du code, automatisation. Déployer les outils de supervision, monitoring et observabilité (CloudWatch, Azure Monitor, Prometheus, Datadog, Dynatrace…). Assurer la gestion des incidents et le reporting opérationnel . Mener des actions de formation et transfert de compétences auprès des équipes internes. Participer activement aux cérémonies Agile / SAFe (sprints, rétrospectives, PI planning…).

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France

Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques

Freelance

Mission freelance
Ingénieur Production Data

Tenth Revolution Group
Publiée le
Agile Scrum
AWS Cloud
Data analysis

12 mois
400-550 €
Paris, France

Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.

CDI

Offre d'emploi
DevOps Senior – InsurTech Innovante – Paris (H/F)

EASY PARTNER
Publiée le
AWS Cloud
Cloud Provider
Datadog

75k-80k €
Paris, France

Contexte du poste Rejoignez une insurtech dynamique et innovante située au cœur de Paris, spécialisée dans les solutions de cybersécurité et d'assurance. Forte de son expansion, l'entreprise développe ses propres outils cyber et diversifie ses produits d'assurance sur le marché européen. Intégrez une équipe technique ambitieuse composée de 20 ingénieurs en logiciel, divisée en plusieurs équipes spécialisées, avec un fort accent sur l'autonomie et la collaboration. Le poste à pourvoir s'inscrit dans la croissance de l'équipe infra et rejoindre le DevOps en place pour soutenir cette expansion et garantir la robustesse et l’efficacité de notre infrastructure. Missions Missions principales Superviser et améliorer notre infrastructure AWS en utilisant Terraform pour la gestion des configurations. Gérer les déploiements sur Kubernetes et ECS, en optimisant l'utilisation des ressources (CI/CD, GitHub Actions/GitLab CI). Collaborer avec les équipes de dev pour assurer la fluidité des opérations et le support technique. Missions annexes Participer à la définition des bonnes pratiques en matière de sécurité infonuagique. Contribuer à la refonte de notre système CI/CD actuel pour améliorer l'efficacité et la sécurité des déploiements. Accompagner le développement de nouvelles fonctionnalités liés aux scans cyber et aux analyses de sécurité.

Freelance
CDI

Offre d'emploi
Chef.fe de projet Infrastructure & Orchestration

Atlanse
Publiée le
Ansible
BMC Remedy
Confluence

3 ans
Paris, France

Vous rejoindrez un projet européen stratégique, dédié à la conception et l’exploitation d’une nouvelle infrastructure pour héberger le futur système applicatif. Ce projet implique une collaboration internationale en anglais. Votre rôle Pilotage & Coordination technique Superviser et coordonner les activités liées à l’infrastructure et à l’orchestration Assurer la cohérence des déploiements CI/CD et de l’automatisation Suivre la mise en œuvre des bonnes pratiques de sécurité et de performance Gestion de projet & Communication Planifier et suivre les livrables de l’équipe Assurer la coordination avec les experts techniques et les autres équipes du projet Organiser les réunions de suivi, ateliers et points de synchronisation avec les parties prenantes Qualité & Conformité Vérifier au respect des normes et standards (sécurité informatique, qualité, réglementaire…) Garantir la traçabilité et la documentation des actions et décisions

CDI

Offre d'emploi
Site Reliability Engineer (SRE) Azure (CDI)

Codezys
Publiée le
Bash
DevOps
Github

Paris, France

Lieu : Paris Type de contrat : CDI Démarrage : Dès que possible À propos du poste Nous recherchons un Site Reliability Engineer (SRE) spécialisé Azure pour renforcer notre équipe technique. Vous serez au cœur de la fiabilité, de la performance et de l’automatisation de nos plateformes cloud. Votre mission sera de garantir la disponibilité et la résilience des services tout en apportant une expertise DevOps et une culture forte de l’observabilité. Responsabilités principales Assurer la fiabilité, la performance et la sécurité de nos environnements Azure. Mettre en œuvre et maintenir des infrastructures as code avec Terraform. Définir, suivre et améliorer les SLA, SLO et SLI pour garantir la qualité de service. Déployer et optimiser des pipelines CI/CD avec GitHub Actions. Mettre en place et maintenir des solutions d’observabilité et monitoring (Grafana, Prometheus, alerting). Collaborer avec les équipes de développement pour améliorer la résilience et l’efficacité des applications. Participer à la gestion des incidents et à l’amélioration continue des processus d’exploitation.

Freelance
CDI

Offre d'emploi
DevOps Kubernetes Engineer / SRE

KLETA
Publiée le
Apache Airflow
Apache Kafka
CI/CD

3 ans
Paris, France

Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.

Freelance

Mission freelance
Administrateur Technique plateforme Cloudera

Cherry Pick
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

12 mois
580-600 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Administrateur Technique plateforme Cloudera" pour un client dans le secteur des telecoms Description 🎯 Contexte L’entité Data & AI (230 experts) accompagne Orange Business dans sa transformation autour de la donnée et de l’intelligence artificielle. L’équipe Platform conçoit et maintient les composants techniques qui permettent de démocratiser l’usage de la Data & de l’IA pour les salariés et clients. Au sein de cette équipe, la mission s’inscrit dans le cadre de l’Enterprise Data Hub (EDH), plateforme Big Data B2B d’Orange Business : +180 sources de données intégrées +700 To de données hébergées +100 projets Data supportés Migration et évolution vers le Cloud Azure en cours 🛠️ Missions principales En tant qu’Administrateur Technique Big Data, vous intégrerez l’équipe en charge de l’exploitation et de l’évolution de la plateforme : RUN & Support : gestion opérationnelle de la plateforme Cloudera et des composants Big Data. Déploiement : participation aux déploiements de nouvelles plateformes et environnements. Monitoring & Optimisation : mise en place et suivi des outils de monitoring, tuning des performances. Automatisation : développement de scripts et d’outils pour uniformiser et industrialiser les processus. Documentation & Knowledge sharing : rédaction et mise à jour de la documentation technique. Collaboration internationale : échanges avec des équipes réparties sur plusieurs continents (anglais professionnel).

Freelance

Mission freelance
Ingénieur de données GCP (H/F)

SMARTPOINT
Publiée le
Apache Spark
BigQuery
DBT

6 mois
400-500 €
Paris, France

o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

CDI

Offre d'emploi
Développeur FullStack sénior

Inventiv IT
Publiée le
Architecture
AWS Cloud
DevOps

45k-60k €
Paris, France

Rejoignez la Digital Factory d'INVENTIV IT , une équipe pluridisciplinaire et dynamique , pour intervenir sur des projets clients stratégiques (70% de développement From Scratch et 30% de TMA). Vous serez un pilier technique, essentiel à la conception et à la livraison de solutions logicielles complètes dans un contexte Agile (Scrumban) . 🎯 Votre Rôle et Vos Missions En tant que Développeur Full Stack Senior, vous êtes responsable de la conception et de l'implémentation de la chaîne applicative, du front-end au back-end, dans une logique de qualité et de performance continue. Conception & Architecture : Participer au cadrage et à la conception des projets (majoritairement From Scratch ). Mettre en œuvre des architectures modernes et résilientes : Microservices, Architecture Hexagonale, Event Driven/Serverless . Être force de proposition sur les choix techniques et architecturaux (Back-end Java/Spring Boot et Front-end React/NextJs ). Développement & Qualité : Développer des API REST robustes et des composants Front-end performants, principalement avec React et NextJs . Garantir la qualité du code par l'implémentation de tests (JUnit, Mockito, Cucumber) et la réalisation de Code Review . Assurer la sécurité des applications ( Sécurité applicative ) et l'observabilité/performance des solutions. DevOps & Industrialisation (CI/CD) : Industrialiser la chaîne de déploiement ( CI/CD ) en utilisant des outils de DevOps (Docker, Kubernetes, Gitlab CI/Github Actions). Mettre en œuvre l'Infrastructure as Code (IaC) (Ansible ou Terraform). Déploiement et gestion des ressources sur AWS et/ou Google Cloud . Leadership & Gestion de Projet : Assumer une posture projet/business forte, collaborer étroitement avec l'équipe et les parties prenantes. Évoluer au sein d'une équipe agile ( Scrumban ) avec des sprint planning de 2 à 3 semaines. Possibilité d'assurer un rôle de Tech Lead ou de mentorat, en fonction de votre expérience ( Leadership technique ). 🛠️ Environnement Technique Back-endJava (Expertise demandée 5/5), Spring Boot (4/5) NodeJS/TypeScript (Expertise demandée 5/5). Front-endReact (5/5), NextJs (Back & Front 4/5). Cloud & OpsAWS (5/5), Azure/Google Cloud , Docker/Kubernetes , CI/CD (GitLab CI, GitHub Actions). ArchitectureMicroservices, Architecture Hexagonale , Event Driven (Kafka, RabbitMQ), Serverless (Firebase). Base de DonnéesPostgreSQL , Modélisation SQL. MéthodesAgile/Scrum , Design Thinking .

Freelance

Mission freelance
Expert Réseau & Sécurité / Lead SysOps (Azure) - Logiciel - IDF (H/F)

EASY PARTNER
Publiée le
Azure
IAM
Microsoft Entra ID

6 mois
510-550 €
Paris, France

Missions Administrer, exploiter et optimiser Azure (compute, réseau, sécurité, gouvernance). IAM / Azure Entra ID : MFA, Zero Trust, accès conditionnels, revues d’habilitation. Firewalls ( Palo Alto ) : admin, supervision, MCO, patching. Monitoring & SecOps : Zabbix/Grafana/Otel, gestion alertes, CVE & remédiations , coordination SOC , Defender/EDR. Lead SysOps : planifier/assigner/prioriser, gérer risques, animer le CAB (ITIL). FinOps Azure : reporting coûts, optimisations (réservations/rightsizing). Support N2/N3 + documentation (carto, runbooks), conformité & SLA. Stack technique Must-have : Azure (idéalement AZ-104 / AZ-500 ), Entra ID , Palo Alto , Zabbix / OpenTelemetry / Grafana , PowerShell , Terraform , Ansible , Defender + EDR , ITIL , Jira / Git / Azure DevOps . Nice-to-have : AWS (NFW/WAF/Security Hub), RabbitMQ , SQL Server , FME Flow / GTF , ArcGIS . Environnement indicatif : ~ 130 VMs Azure dont 4 Palo Alto.

Les métiers et les missions en freelance pour Terraform

Ingénieur·e devops (Cloud)

L'ingénieur·e DevOps utilise Terraform pour automatiser le déploiement et la gestion des infrastructures Cloud, garantissant une cohérence et une évolutivité des environnements.

Architecte Cloud

L'architecte Cloud conçoit des architectures robustes et automatisées en utilisant Terraform pour provisionner et gérer des infrastructures multi-clouds.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production exploite Terraform pour standardiser les processus d'infrastructure-as-code et garantir des déploiements rapides et fiables.

58 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous