Find your next tech and IT Job or contract Terraform

Contractor job
DevOps – Microsoft Fabric / Azure
Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.

Job Vacancy
Rouen - Ingénieur DevOps Senior
Profil : DevOps (OPS) senior – 5 à 10 ans d’expérience - 100% Présentiel au démarrage Contexte : Renfort d’équipe avec un profil type SRE. Tâches : Création d’environnements (Terraform, OpenStack) Déploiement automatisé (Ansible) CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision (Prometheus, Grafana, Loki, Promtail) Collaboration avec les équipes de développement Compétences : Requises : Linux (système/réseau), Cloud, Ansible, Grafana, Terraform Souhaitées : Jenkins, Prometheus Appréciées : GitLab, Java, Docker, Kubernetes, Vault, etc.

Job Vacancy
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Contractor job
Développeur KOTLIN (Bordeaux)
En tant que Développeur, et en coordination avec l’équipe, vos missions consisterons : Conception et développement back-end en Kotlin (Ktor) : Implémenter des microservices containerisés dans un environnement AWS . Concevoir et exposer des API REST performantes et sécurisées. Développer dans une architecture orientée événements (SNS / SQS). Gestion et intégration de l’infrastructure : Participer au déploiement via Terraform (Infrastructure as Code). Maintenir et optimiser les pipelines d’intégration et de déploiement. Base de données et interopérabilité : Concevoir et interroger des modèles de données sous MongoDB . Interagir avec des lambdas TypeScript (AWS Lambda) pour certaines intégrations. Collaboration et organisation : Travailler en autonomie forte (un seul autre back-end dans l’équipe). Collaborer étroitement avec les devs front et mobile pour assurer la cohérence des flux de données. Contribuer aux choix techniques et à la mise en place des bonnes pratiques.

Contractor job
Devops
Vous venez renforcer l’équipe Observabilité en charge des outils de Log Management, monitoring, alerting, tracing pour le groupe. En pleine refonte de sa stratégie, l’équipe Observabilité met à disposition des Feature Teams les outils nécessaires à la supervision de l’état de santé et la compréhension du comportement de leurs applications, hébergées on-premise ou dans le cloud, ou consommées en SaaS. L’équipe offre aux Dev et Ops du groupe une plateforme d’observabilité intégrée qui s’appuie sur les solutions leaders du marché. Elle leur fournit également son support au quotidien dans l'utilisation des outils et le respect des bonnes pratiques de l'observabilité. Votre mission : Vous participez de manière active à la construction et l'évolution de la plateforme d'observabilité, de la collecte (logs, métriques, traces) à l'exploitation dans les backends: - Design, intégration, templatisation, déploiement, paramétrage, supervision des composants de la plateforme (déployés sur k8s ou consommés en SaaS). - Développement en Go et Python de composants custom - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme. - Accompagnement, conseils, support aux utilisateurs dans l'utilisation de la plateforme d'observabilité et sur l'amélioration de la performance des applications/projets métiers (à l'international) - Rédaction de la documentation et les dossiers d’exploitation afin de former et de transférer les compétences aux équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures orientées cloud et on premise. Vous disposez des compétences techniques suivantes : - Maîtrise de Kubernetes - Maîtrise de GCP, connaissances Azure - Maîtrise de Terraform/AWX/ArgoCD - Connaissances en développement GO et Python - Culture SRE et SLO - Connaissances en instrumentation d’applications et observabilité via Opentelemetry, Datadog, Grafana Loki/Mimir, Centreon

Contractor job
Intégrateur de production N1/N2 h/f
Les missions sont les suivantes: Superviser et contrôler l’exécution des flux applicatifs et batchs. Traiter les incidents N1/N2 (escalade si nécessaire, respect des SLA). Suivre et réaliser les actions techniques liées aux changements planifiés. Appliquer les consignes d’exploitation et procédures établies. Effectuer le contrôle post-mise en production et assurer le reporting. Participer aux HNO/astreintes selon planning. Respecter normes, consignes de sécurité et bonnes pratiques en environnement de production.

Job Vacancy
Data Engineer Pyspark/AWS
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/AWS Missions: Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Contractor job
Ops Engineer – Réseau & Cloud (Infrastructure & Automatisation)
En tant que Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall) et cloud (Landing Zone). - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau et cloud. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau et au cloud. - Appliquer les mises à jour et les correctifs de sécurité. - Participer a l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau et cloud. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Expérience significative sur au moins un fournisseur de cloud majeur (GCP, Azure). - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).

Contractor job
Deux profils DevOps / Administration Système sur Orléans
Almatek recherche pour l'un de ses client, Deux profils DevOps avec des compétences en Admin Sys sur Orléans. Descriptif: Missions principales : Déployer et maintenir les outils DevOps (CI/CD, automatisation, supervision). Administrer des environnements systèmes Linux et Windows, virtualisés et conteneurisés. Piloter des projets techniques complexes (refonte d’architecture, migration vers le cloud, sécurisation des systèmes d’information). Intégrer les exigences de cybersécurité dans les projets et infrastructures. Coordonner les acteurs techniques et fonctionnels autour des enjeux SSI. Technologies et outils utilisés chez Assu : DevOps & Automatisation : GitLab CI/CD, Ansible, Terraform Systèmes & Conteneurs : Linux (Debian, RedHat), Windows Server, Docker, Kubernetes Virtualisation & Cloud : VMware, Hyper-V, Azure, AWS Supervision & Monitoring : Centreon, Grafana, Prometheus Cybersécurité : SIEM, EDR, PKI, IAM Profil recherché : Expérience confirmée en environnement DevOps et en administration système. Maîtrise des outils d’automatisation, de supervision et de déploiement. Expérience dans la conduite de projets techniques complexes et structurants. Intérêt marqué pour la cybersécurité et les enjeux SSI. Capacité à fédérer les équipes et à gérer les priorités dans un environnement exigeant. Idéalement il faut que le profil s'installe dans la région.

Job Vacancy
Strasbourg - Ingénieur DevOps Senior
Profil : DevOps (OPS) senior – 5 à 10 ans d’expérience - 100% Présentiel au démarrage Contexte : Renfort d’équipe avec un profil type SRE. Tâches : Création d’environnements (Terraform, OpenStack) Déploiement automatisé (Ansible) CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision (Prometheus, Grafana, Loki, Promtail) Collaboration avec les équipes de développement Compétences : Requises : Linux (système/réseau), Cloud, Ansible, Grafana, Terraform Souhaitées : Jenkins, Prometheus Appréciées : GitLab, Java, Docker, Kubernetes, Vault, etc.

Contractor job
Devops senior - Azure/OVH/Linux - Full remote - H/F
Contexte de la mission Rejoignez une entreprise innovante dans le secteur digital, en pleine transformation et croissance de son infrastructure. Basée à distance avec des activités de production hébergées principalement sur OVH et des environnements non-produits sur Azure, notre société recherche un DevOps Senior pour intégrer une équipe dynamique. Actuellement composée d'un junior, six administrateurs systèmes avec un accent sur l'automatisation, et soutenue par un DBA, l'équipe est en expansion. Le départ imminent d'un expert senior crée une opportunité unique d'apporter vos compétences techniques pointues à cette mission critique. Votre rôle sera central pour soutenir l'évolution de l'infrastructure et assurer la stabilité des projets en cours. Cette mission DevOps Senior est idéale pour les professionnels aimant les challenges techniques et ayant une forte autonomie. Missions principales : - Prendre en charge la réarchitecture de l'infrastructure sur OVH - Assurer la passation avec le profil sortant - Participer activement à l'automatisation des opérations, incluant gestion des certificats et secrets. - Développement et optimisation d'outils internes en Python - Evolutions Ansible et Terraform - Collaborer avec l'équipe existante pour raffiner le monitoring et éviter les alertes inutiles. - Soutenir le DBA dans l'amélioration de l'hébergement des bases de données. Environnement technique : - Plateformes : OVH pour la production, Azure pour les environnements hors production. - Intégrations : HAProxy, Prometheus, Loki, Grafana, PostgreSQL.

Job Vacancy
ingénieur DEVOPS CLOUD expérimenté
3 besoins Devops lieu : Rouen, Strasbourg, Clermont-Ferrand Profil demandé : Ingénieur SRE, SysOps, intégrateur CLOUD ou DevOps (intervention en 100% présentiel les 3 premiers mois, puis deux jours de télétravail possibles à l’issue) Expérience : > 5-8 ans Date de début : Immediat un candidat qui prendra en charge certaines activités d’exploitation BUILD et le RUN pour des applications déployées sur le Cloud de l’état (Nubo). Il sera amené à participer au projet dès son démarrage et sera donc associé à la phase de définition de l'architecture. Il travaillera en binôme avec les ingénieurs de production du Centre Ops pour leur apporter son expérience et pour leur permettre de monter en compétence sur les technologies OPS. Mission : Construction des environnements (Terraform) sur un cluster OpenStack Déploiement automatisé des outils (Ansible) Mise en place de pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki) Échanges réguliers avec les développeurs des applications Compétences attendues : Exigées : Linux (système et réseau), Cloud public ou privé, Ansible, Terraform, Grafana, Jenkins Souhaitables : Prometheus, GitLab Appréciées : Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP, Openstack, Loki, Promtail Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises

Contractor job
DevOps Cloud Azure / Expertise Azure Firewall
Dans le cadre d’une mission pour notre client, nous recherchons un ingénieur DevOps expérimenté spécialisé Cloud Azure avec une expertise confirmée sur Azure Firewall . Au sein d’une équipe experte Kubernetes & Cloud, la mission vise à définir les patterns d’architecture Cloud, renforcer la sécurité (Azure & Kubernetes) et accompagner les applications dans leur transition vers le Cloud. Missions principales Concevoir et déployer une architecture Azure Firewall intégrée à la Landing Zone (hub & spoke, politiques de sécurité, DNAT/SNAT). Automatiser le déploiement, la configuration et la gestion d’Azure Firewall via Terraform (Infrastructure as Code). Mettre en place et maintenir des pipelines CI/CD (GitLab CI, Azure DevOps, Jenkins…) pour l’industrialisation. Implémenter des tests d’infrastructure (policy-as-code, tests de connectivité, conformité). Construire et exécuter un plan de migration de l’existant vers la nouvelle infrastructure sécurisée. Documenter les architectures techniques , rédiger les runbooks, partager les bonnes pratiques et accompagner les équipes utilisatrices. Livrables attendus Architecture détaillée Azure Firewall & Landing Zone (HLD/LLD). Modules Terraform & pipelines CI/CD opérationnels. Jeux de tests d’infrastructure et rapports de conformité. Plan de migration détaillé (inventaire, stratégie, rollback). Dossier d’exploitation & guide des bonnes pratiques.

Contractor job
Développeur Python
Notre futur.e Software Engineer interviendra au sein de l’équipe Network Content Delivery, composée de Tech Lead, Engineering Manager, et Software Engineers. Cette équipe a pour objectif de garantir le fonctionnement des produits Load Balancing, Content Delivery Network (CDN) et Anti-Bot, en gérant l’installation, la configuration, la mise à jour, la sauvegarde et le support. Le but de ces produits est d’exposer des ressources (web sites, applications, API) en optimisant la sécurité et augmentant le delivery, de manière provider agnostic. Tu devras : -Contribuer à l'automatisation des tâches manuelles de support et d'administration des solutions. -Construire et exploiter des infrastructures sécurisées et résiliantes multi-providers. -Analyser, paramétrer et coder les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures -Identifier et gérer la dette des développements existants. -Intégrer notre cycle de run et élaborer des mesures correctives pour résoudre les root causes des incidents.

Contractor job
Data Engineer AWS Senior – (PySpark )
Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

Job Vacancy
Ingénieur DevOps Senior - Lille
Profil : DevOps (OPS) senior – 5 à 10 ans d’expérience - 100% Présentiel au démarrage Contexte : Renfort d’équipe avec un profil type SRE. Création d’environnements (Terraform, OpenStack) Déploiement automatisé (Ansible) CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision (Prometheus, Grafana, Loki, Promtail) Collaboration avec les équipes de développement Compétences : Requises : Linux (système/réseau), Cloud, Ansible, Grafana, Terraform Souhaitées : Jenkins, Prometheus Appréciées : GitLab, Java, Docker, Kubernetes, Vault, etc.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
Contract roles and jobs for Terraform
DevOps Engineer (Cloud)
The DevOps engineer uses Terraform to automate the deployment and management of Cloud infrastructures, ensuring consistency and scalability of environments.
Explore contract role and jobs for DevOps Engineer (Cloud) .
Find out the jobsCloud Architect
The Cloud architect designs robust and automated architectures using Terraform to provision and manage multi-cloud infrastructures.
Explore contract role and jobs for Cloud Architect .
Find out the jobsInfrastructure and Production Manager
The infrastructure and production manager leverages Terraform to standardize infrastructure-as-code processes and ensure fast and reliable deployments.
Explore contract role and jobs for Infrastructure and Production Manager .
Find out the jobs