Find your next tech and IT Job or contract Terraform

Job Vacancy
DATA ENGINEER GCP
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques

Job Vacancy
Expert Cloud AWS
Contexte & Objectifs de la mission Dans le cadre d’un projet de structuration de ses services Cloud, notre client recherche un Expert Cloud Ops AWS confirmé pour accompagner la construction d’une offre managée AWS . Cette mission s’inscrit dans une démarche d’ industrialisation et de sécurisation des services cloud au sein d’un centre de compétences technique. Activités principales Contribution à la conception et au cadrage de l’offre managée AWS Participation à la définition des standards, processus et bonnes pratiques Accompagnement des équipes internes dans la mise en œuvre de solutions AWS sécurisées et automatisées Support technique sur les environnements AWS dans un contexte de production et d’industrialisation Documentation des architectures, déploiements et procédures Compétences techniques requises Expertise confirmée sur AWS (services managés, infrastructure as code, sécurité, réseaux, supervision, etc.) Maîtrise des outils d’automatisation (ex : Terraform, Ansible ) Connaissances en CI/CD , DevOps , et infrastructure as code Connaissances en sécurité cloud , bonnes pratiques AWS (IAM, VPC, KMS…) Maîtrise des environnements Linux Connaissance d’outils de supervision/logs : CloudWatch, Prometheus, Grafana…

Job Vacancy
Administrateur Systèmes & Réseaux H/F
Nous recherchons pour l’un de nos clients spécialisés dans le domaine bancaire un Administrateur Systèmes & Réseaux H/F à Nancy pour une mission démarrant dès que possible. Vos missions principales : Assurer le maintien en condition opérationnelle des serveurs Linux (Redhat), Documents Techniques Architectures, Procédures d'exploitation. Vous installez, mettez en production, administrer et exploiter les moyens informatiques d'un ou plusieurs sites informatiques. Vous participez au bon fonctionnement des systèmes d'information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile), dans un objectif de qualité, de productivité et de sécurité. Vos tâches quotidiennes : Au sein de l’équipe Infrastructure Système Stockage, maintien en condition opérationnelle de 1000 serveurs Linux. Gestion des du patch management, des vulnérabilités. Acteur en niveau 2 et 3 de la résolution des incidents techniques, en collaboration avec les autres équipes du département (DBA, Middleware, etc…). Automatisation des tâches d’administration courante, flows de remédiation, optimisation des infrastructures (ansible, terraform, etc..). Elaboration et validation des documents techniques.
Contractor job
Ingénieur Senior Plateforme Cloud
Vous jouerez un rôle technique essentielpour un projet européen d’envergure: conception, déploiement et maintien de solutions cloud sécurisées, évolutives et automatisées pour des infrastructures de pointe. Ce poste requiert impérativement la citoyenneté de l’Union Européenne (au moins 10 ans) et une parfaite maîtrise de l’anglais. Responsabilités principales Concevoir et déployer des environnements cloud sécurisés et résilients avec Microsoft Azure en appliquant les principes Infrastructure as Code (IaC) . Piloter les déploiements Kubernetes , en garantissant la conception des clusters, leur scalabilité et leur haute disponibilité. Gérer et automatiser le cycle de vie Kubernetes (provisionnement, mises à jour, monitoring, optimisation). Configurer et administrer les Azure Landing Zones , les modèles Bicep et les machines virtuelles pour des charges hybrides et conteneurisées. Implémenter et maintenir les solutions de Gestion des Identités et Accès (IAM) . Appliquer les normes de sécurité et conformité (CIS Benchmarks, NIST SP 800) avec des outils adaptés (comme ACS Operator ). Concevoir et maintenir des pipelines CI/CD avec GitHub Actions et déploiements GitOps via ArgoCD . Automatiser l’infrastructure pour Kubernetes et Azure avec Ansible et Terraform . Collaborer étroitement avec les équipes DevOps, cloud et développement pour garantir la cohérence, la fiabilité et la conformité des déploiements.

Job Vacancy
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .
Contractor job
DATA ENGINEER GCP
Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .
Contractor job
DevOps H/F
Dans le cadre d’une mission au sein d’une équipe OPS Téléphonie & Flux composée de plus de 27 membres, vous interviendrez sur l’évolution des solutions de centre d’appels en environnement hybride (Cloud et OnPrem). Vous serez responsable de l’automatisation des livraisons via Terraform, de l’intégration continue et du déploiement continu (CI/CD), ainsi que de la fiabilité des systèmes en production. Vous collaborerez étroitement avec les équipes de développement et les métiers pour garantir la qualité du service fourni aux utilisateurs. La mission implique une présence régulière sur site à Niort (2 à 3 jours par semaine) et des déplacements ponctuels à Paris. Vous contribuerez activement à l’amélioration continue des outils et processus, dans un environnement technique exigeant et stimulant.

Job Vacancy
Ops Engineer (H/F)
Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce qui t’attend chez nous.. Contexte : dans le cadre d'un renforcement d'équipe, nous recherchons un profil Ops Engineer expérimenté sur AWS pour accompagner la gestion et l’évolution d'une infrastructure cloud. Tes missions … En tant qu’ Ops Engineer (H/F) , tu seras amené(e) à : Concevoir, déployer et maintenir l’infrastructure cloud via Terraform sur AWS . Automatiser les déploiements et le scaling d’infrastructures Kubernetes (EKS) . Garantir la haute disponibilité des services en production. Mettre en place la supervision et le monitoring via Datadog . Implémenter des stratégies de sécurité et conformité dans les pipelines IaC. Gérer le trafic et la sécurité applicative via Cloudflare . Collaborer avec les équipes de développement pour optimiser les CI/CD (GitLab CI) . Participer à la gestion des incidents , au maintien en condition opérationnelle et aux actions d’amélioration continue . Contribuer activement à la vie de l’équipe : cérémonies agiles, backlog, propositions d’amélioration. Démarrage : immédiat Durée de la mission : 1 an Télétravail : 3 jours en distanciel Et toi dans tout ça, tu as : Minimum 7-10 ans d’expérience sur un poste similaire (hors stage et alternance). Une maîtrise avancée de Terraform (modules, expressions, gestion du state). Une expérience confirmée sur AWS . Une bonne connaissance de Linux , GitLab , Python . Une expérience avec Ansible , SSM , LDAP , SMTP , Cloudflare , Datadog , Athena , RPM , CloudFormation . Une connaissance opérationnelle de Kubernetes (EKS) . Une capacité à travailler en équipe, à documenter et à interagir avec des interlocuteurs techniques et métiers. Un anglais professionnel, indispensable dans les contextes internationaux. Ce que tu trouveras chez Winside … 🔥 Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme Un process simple et rapide Un premier échange pour faire connaissance. Un entretien avec notre équipe RH (Perrine ou Malika). Un entretien technique suivi d’un échange avec la direction. Une réponse rapide et voire une proposition d'embauche

Contractor job
Intégrateur Socle LLM
Je recherche un profil Concepteur Developpeur pour une mission à Nantes et un rythme de travail de 3 jours sur site et en 2 jours en TT (non négociable). Compétences INCONTOURNABLES avec au minimum 4 ans d'expérience professionnelle : AWS LLM/NLP PYTHON TERRAFORM Compétences souhaitées : Architecture Logicielle Kube/Docker Java 8+ La prestation doit permettre d'accompagner l'équipe à la mise en place du Socle LLM => Participer à la mise en place d'un Socle LLM permettant de mettre à disposition les LLM identifiés tout en garantissant l'homogénéité de leur usage. La mission consistera donc à définir l'architecture à mettre en oeuvre et à développer les composants qui permettront de qualifier, exposer et instancier les modèles tout en assurant leur supervision.

Contractor job
Ingénieur de Production AWS
Objectif : L'objectif de la mission sera : - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins

Job Vacancy
TECH LEAD DevOps
Client : PUBLIC Postes : TECH LEAD DevOps Expérience : +8 ans Localisation : Paris Deadline réponse : ASAP Démarrage : ASAP Durée : Longue Nous recherchons un Tech Lead DevOps expérimenté pour accompagner la transformation et l’industrialisation de nos équipes. Vous serez le référent technique de l’équipe DevOps et aurez un rôle clé dans la définition de l’architecture, la mise en place des bonnes pratiques et le pilotage des projets stratégiques Vos missions principales En tant que Tech Lead DevOps, vous serez en charge de : Définir et faire évoluer l’architecture CI/CD, du design à l’industrialisation. Piloter et encadrer une équipe DevOps (mentorat, code review, accompagnement technique). Déployer et administrer des infrastructures Cloud (AWS, Azure, GCP) et On-Premise (VMware, Kubernetes, OpenShift). Automatiser les déploiements et la configuration via Terraform, Ansible, Helm, Puppet, Chef. Superviser la sécurité des pipelines (secrets management, scans de vulnérabilités, compliance). Garantir la disponibilité, la performance et la scalabilité des environnements. Participer aux choix technologiques et à la veille sur les solutions DevOps/Cloud. Collaborer avec les équipes de développement, sécurité et infrastructure. Stack technique recherchée CI/CD : GitLab CI, Jenkins, GitHub Actions, ArgoCD Conteneurs & Orchestration : Docker, Kubernetes, OpenShift, Rancher Cloud : AWS, Azure, GCP Infrastructure as Code (IaC) : Terraform, Ansible, Helm, Pulumi Systèmes : Linux (Debian, RedHat), Windows Server Monitoring & Observabilité : Prometheus, Grafana, ELK, Datadog Sécurité : Vault, SonarQube, Snyk, Trivy Langages & Scripting : Python, Bash, Go, Groovy Profil recherché Minimum +8 ans d’expérience en DevOps dont au moins 2 ans en tant que Tech Lead / Référent technique Forte expertise sur CI/CD, conteneurisation, cloud et automatisation Leadership technique : capacité à fédérer, mentorat d’équipe Bonne communication et sens du service Capacité à travailler dans des environnements Agile/Scrum

Job Vacancy
DevOps & Cloud Engineer - GCP
Vous rejoindrez la Direction Digital & Data au sein de l'équipe OPS en charge de la plateforme e-commerce, déployée en mode hybride (on-premise et Google Cloud Platform). En tant que DevOps, vous collaborerez avec les équipes OPS, QA, DEV et Delivery afin d’assurer la performance, la fiabilité et l’évolution de la plateforme. Votre rôle Exploitation & Maintien en condition opérationnelle Diagnostiquer et résoudre les incidents et dysfonctionnements sur l’infrastructure Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participer aux phases de validation technique lors des mises en production ou des évolutions Gestion & Optimisation des infrastructures Configurer et dimensionner les plateformes pour répondre aux besoins de performance et de scalabilité Industrialiser les architectures cibles et automatiser les déploiements via les pipelines CI / CD Veiller à la sauvegarde des données et à la sécurité des accès en appliquant les bonnes pratiques de gestion des droits utilisateurs Pilotage & Suivi des ressources Suivre et optimiser les coûts liés aux composants et applications cloud (FinOps) Proposer des évolutions ou optimisations pour améliorer la fiabilité et l’efficacité des solutions déployées

Job Vacancy
Ingénieur DevOps – Observabilité Dynatrace / Grafana (H/F)
Contexte : Dans le cadre du renforcement de nos équipes techniques, nous recherchons un Ingénieur DevOps spécialisé en observabilité et supervision applicative. Vous interviendrez sur des projets stratégiques visant à améliorer la performance, la résilience et la supervision des systèmes de production. Missions principales : Mettre en place, administrer et optimiser des solutions de monitoring et d’observabilité (Dynatrace, Grafana, Prometheus) Automatiser les déploiements, la configuration et l’exploitation des environnements (CI/CD) Analyser les performances applicatives et systèmes, identifier les points de contention et proposer des plans d’amélioration Participer au design et à l’évolution des architectures cloud / on-premises Contribuer aux bonnes pratiques DevOps (infrastructure as code, automatisation, observabilité by design) Rédiger et maintenir la documentation technique Compétences techniques recherchées : Bonne maîtrise de Dynatrace (supervision applicative, APM, alerting, dashboards) Maîtrise de Grafana et intégration avec Prometheus / autres sources de métriques Expérience sur un ou plusieurs outils de CI/CD (GitLab CI, Jenkins, Azure DevOps, etc.) Compétences en scripting (Python, Bash, PowerShell…) Connaissances des environnements Docker, Kubernetes, Cloud (AWS, Azure ou GCP) Pratique de l’Infrastructure as Code ( Terraform, Ansible ) appréciée

Job Vacancy
Devops (AWS et GCP) (expert dynatrace) full remote
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible

Job Vacancy
Expert Cloud GCP
Vous serez intégré au sein de l’équipe plateforme LandingZone sur GCP fonctionnant en mode agile (PO, Agile Master, Lead Tech). L’équipe est responsable du Build, Run, MCO et astreinte de la plateforme. Vos tâches : Contribuer aux activités de la LandingZone GCP en mode agile (Scrum / Kanban). Définir des solutions techniques alignées avec le backlog priorisé par le PO. Travailler en binôme avec un équipier et en trinôme avec le PO DevSecOps et les architectes Cloud . Assurer un rôle de conseil, vulgarisation et formation auprès des membres de l’équipe. Accompagner et fédérer autour de nouvelles pratiques et outils. Participer au Build / Run / MCO , incluant des astreintes HNO (1 semaine toutes les 6).
Job Vacancy
Data Engineer
Nous recherchons un Data Engineer pour une mission longue. Vous interviendrez dans un environnement cloud GCP moderne, en lien avec les équipes internes et les différents produits data. Ses principales missions incluront : -Conception et déploiement des pipelines data : construire, maintenir et optimiser des pipelines robustes, scalables et documentés. -Orchestration et automatisation : configurer et maintenir des workflows via Airflow et Kedro pour garantir l’intégration et la transformation continue des données. -Industrialisation et infrastructure : assurer le déploiement et la maintenance des environnements via Terraform et Terragrunt, dans le respect des bonnes pratiques CI/CD (GitLab). -Support aux équipes : accompagner les utilisateurs dans leurs usages et le requêtage des données (BigQuery, SQL, Python). -Collaboration et partage : participer aux instances de la communauté data engineering, échanger sur les bonnes pratiques, contribuer à la documentation technique. Environnement technique : Langages: Python, SQL, PySpark // Orchestration & Framework : Airflow, Kedro Cloud : Google Cloud Platform (GCP), BigQuery Infrastructure as Code : Terraform, Terragrunt Versioning & CI/CD : GitLab, GitLab CI/CD // Méthodologie : Agile (Scrum, Kanban)
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Recommendations for the Best Marble Vanity Top Brands
- RECOVER HACKED FUDS GO TO VIRTUAL FUNDS RESURRECTION
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- PYRAMID HACK SOLUTION // TRUSTED EXPERTS FOR FAST AND SECURE RECOVERY
- ETHEREUM & USDT RECOVERY SOLUTION REVIEW: HIRE FUNDS RECLAIMER COMPANY
- HOW CAN SOMEONE RECOVER A STOLEN CRYPTO FROM A SCAMMER'S WALLET? CONTACT FUNDS RECLAIMER COMPANY
Jobs by city
Jobs by country
Contract roles and jobs for Terraform
DevOps Engineer (Cloud)
The DevOps engineer uses Terraform to automate the deployment and management of Cloud infrastructures, ensuring consistency and scalability of environments.
Explore contract role and jobs for DevOps Engineer (Cloud) .
Find out the jobsCloud Architect
The Cloud architect designs robust and automated architectures using Terraform to provision and manage multi-cloud infrastructures.
Explore contract role and jobs for Cloud Architect .
Find out the jobsInfrastructure and Production Manager
The infrastructure and production manager leverages Terraform to standardize infrastructure-as-code processes and ensure fast and reliable deployments.
Explore contract role and jobs for Infrastructure and Production Manager .
Find out the jobs