Find your next tech and IT Job or contract GitLab CI

Contractor job
Développeur Java 11+, Spring Boot; Kafka; ITIL; Architecture distribuée; Scrum, SAFe
Développeur Java / Kafka / Architecture distribuée Mission principale : Contribuer au développement des composants techniques, en particulier sur des architectures distribuées. Compétences techniques requises : · Maîtrise de Java 11+ , Spring Boot · Connaissance approfondie de Kafka et des systèmes de streaming de données · Expérience en architecture distribuée et microservices · Pratique de l’ agilité (Scrum, SAFe) · Connaissances souhaitées : Docker, Kubernetes, GitLab CI/CD

Contractor job
Lead Dev Front Angular Lyon /bla
Lead Dev Front Angular Lyon expérimenté ou senior, minimum 3 ans d’expérience. JIRA / Confluence / ITZMI Forte expérience recommandée sur Angular RxJS, Signal, Lazyloading, Testing, Architecture Standalone, scalabilité, performance, SC SS Gitlab CI Connaissances en UI/UX Idéalement, une expérience dans le secteur de l’énergie Lead Dev Front Angular expérimenté ou senior, minimum 3 ans d’expérience. JIRA / Confluence / ITZMI Forte expérience recommandée sur Angular RxJS, Signal, Lazyloading, Testing, Architecture Standalone, scalabilité, performance, SC SS Gitlab CI Connaissances en UI/UX Idéalement, une expérience dans le secteur de l’énergie

Job Vacancy
Devops
Dans le cadre d’un vaste programme de modernisation des infrastructures et de digitalisation des services, nous recherchons un Ingénieur DevOps confirmé pour rejoindre une équipe technique au cœur de la transformation du système d’information. Votre rôle sera d’assurer la fiabilité, l’automatisation et la continuité des déploiements sur des environnements complexes et critiques. Missions principales Mettre en place, maintenir et faire évoluer les pipelines CI/CD (GitLab CI, Jenkins, etc.) Automatiser le déploiement et la configuration des environnements via Terraform, Ansible ou Puppet Gérer les environnements conteneurisés (Docker, Kubernetes, OpenShift) Assurer la supervision, la sécurité et la performance des plateformes en production Contribuer à la standardisation et à l’industrialisation des pratiques DevOps au sein des équipes projets Participer à la culture d’amélioration continue, au monitoring et à la résilience des systèmes Stack technique CI/CD : GitLab CI, Jenkins, Nexus, SonarQube Infrastructure as Code : Terraform, Ansible, Puppet Conteneurisation / Orchestration : Docker, Kubernetes, OpenShift Systèmes : Linux (RHEL, Debian), scripting (Bash, Python) Observabilité : Prometheus, Grafana, ELK / OpenSearch Cloud & virtualisation : OpenStack, VMware (connaissance souhaitée)

Contractor job
POT8661 - Un LeadDev Front Sénior sur Lyon
Almatek recherche pour l'un de ses clients Un LeadDev Front Sénior sur Lyon. Compétences requises : JIRA / Confluence / ITZMI Forte expérience recommandée sur Angular RxJS, Signal, Lazyloading, Testing, Architecture Standalone, scalabilité, performance, SC SS Gitlab CI Connaissances en UI/UX Idéalement, une expérience dans le secteur de l’énergie. Almatek recherche pour l'un de ses clients Un LeadDev Front Sénior sur Lyon. Compétences requises : JIRA / Confluence / ITZMI Forte expérience recommandée sur Angular RxJS, Signal, Lazyloading, Testing, Architecture Standalone, scalabilité, performance, SC SS Gitlab CI Connaissances en UI/UX Idéalement, une expérience dans le secteur de l’énergie.
Contractor job
Développeur Senior Java / AWS (Asset Control & Management)
Rejoindre l’équipe en charge du développement et de la maintenance de la solution Asset Control & Management , dans un environnement Cloud AWS. Tu participeras activement au développement backend Java , à la mise en place des pipelines CI/CD et à la stabilité des microservices . Langage : Java 17 / 21 Frameworks : Spring Boot / Spring Batch / Spring Cloud Architecture : microservices Messaging : Kafka Infrastructure as Code : Terraform CI/CD : Jenkins, GitLab CI/CD Cloud : AWS (Lambda, ECS, EKS, S3, RDS, CloudWatch) Conteneurisation : Docker, Kubernetes Qualité / Monitoring : SonarQube, Grafana, ELK Stack Méthodologie : Agile / Scrum
Contractor job
[FBO] Développeur PHP Symfony Senior - LYON - 936
Contexte de la mission Analyse d'applications et développements pour montée de version (ex : PHP 5 à PHP8) Développement : Migration des applications d'un environnement VM vers Kubernetes • Tests • Documentation Environnement Technique - PHP 5 --> PHP 8 - MS SQL - VM Windows Server 2012 --> Kubernetes - CI/CD : Gitlab CI - SonarQube - Symfoy - Expérience de développeur aguérris sur les technologies PHP Symfony = OBLIGATOIRE - Une expérience de migrations vers des infrastructures Kubernetes = serait un plus Démarrage ASAP, profil uniquement lyonnais (habitant déjà à Lyon).

Contractor job
Ingénieur Devops SI
CRITERES DE CHOIX -Gestion des environnements de production - Déploiement et automatisation des déploiements - Langage de programmation : Java, JavaScript Object Notation (JSON) - Intégration continue - Infrastructure critique -Outils DEVOPS : Jenkins, Git, CI/CD - Connaissance sur l’architecture cloud - Linux - Industrialisation (Kubernetes, gitlab-ci, helm) - Docker - Mise en place de processus de tests automatiques - Réalisation de phases de test - Responsable sur les livraison et mise en Production. - Installation d’une plate-forme de production fiable - Gestion du stockage de données - Bases de données MongoDB - Kafka - Infra : Bonnes connaissances des fonctionnalités et de l’architecture des systèmes d’information.

Job Vacancy
Expert DevSecOps / IaC Multi-Cloud
Au sein de l’équipe produit Cloud, l’expert DevSecOps intervient sur la mise en œuvre, l’automatisation et la sécurisation des déploiements applicatifs dans un contexte multi-Cloud (AWS/Azure/GCP). Missions principales Concevoir et maintenir les pipelines CI/CD (GitLab CI, Jenkins). Mettre en œuvre les pratiques Infrastructure as Code (Terraform, Ansible). Intégrer la sécurité code (SAST/SCA, SonarQube, Checkmarx). Gérer les environnements dev, recette, prod. Industrialiser les tests, quality gates et rollbacks. Contribuer aux démarches FinOps / optimisation. Documenter et transférer les bonnes pratiques aux équipes internes.

Job Vacancy
Tech Lead Data
Missions principales Piloter la conception et la mise en œuvre de l’architecture Data sur Google Cloud Platform (GCP) . Concevoir, développer et maintenir des pipelines d’ingestion et de transformation de données internes et publiques. Garantir la fiabilité, la performance et la scalabilité des flux de données au sein de la plateforme. Mettre en place et industrialiser les environnements d’exécution via GKE , Terraform , et les outils d’orchestration ( Argo Workflow , Airflow , etc.). Développer et documenter des modèles de données avec DBT (ou SQLMesh ). Intégrer des solutions d’ingestion automatisée de données à l’aide de Python et d’outils tels que Fivetran ou Rclone . Gérer le cycle de vie du code et des déploiements via GitLab CI/CD . Collaborer avec les équipes Data Science et R&D pour comprendre leurs besoins et traduire ces besoins en solutions data robustes. Promouvoir les bonnes pratiques en ingénierie de données, sécurité et gouvernance. Compétences techniques requises GCP (BigQuery, GCS) et SQL : maîtrise indispensable. Kubernetes (GKE) et Terraform : expérience solide en déploiement et automatisation. DBT ou SQLMesh : conception et maintenance de modèles de données. Python : développement de scripts et pipelines d’ingestion. Outils d’ingestion : Fivetran, Rclone ou équivalents. Orchestration de workflows : Argo Workflow, Airflow ou outils similaires. CI/CD : GitLab CI ou pipelines équivalents. Compétences appréciées : Connaissance d’ Azure et de Databricks . Expérience avec des mécanismes de Change Data Capture (DataStream, Debezium, etc.). Profil recherché Formation : Bac +5 ou équivalent (ingénierie, informatique, data). Expérience : minimum 5 ans en Data Engineering, dont une expérience significative sur GCP. Langues : maîtrise de l’ anglais indispensable (environnement international).

Job Vacancy
Ingénieur DevOps - SI médical H/F
Contexte de la mission : Dans le cadre d'un projet au sein du domaine médical, la mission se déroule au sein d'une infrastructure Kubernetes de production «on premise». L'objectif est d'assurer la mise à jour et l'évolution de composants clés (registry Harbor, reverse proxy Traefikee, authentification LDAPs vers OIDC) et de mettre en place les procédures associées pour garantir la pérennité des opérations. Le consultant interviendra également sur des activités de support et de développement autour des environnements DevOps, en lien direct avec les équipes Data Science et Infrastructure.L'environnement technique inclut Kubernetes, Ansible, Helm, GitLab CI, Docker, Artifactory, Python, R, ainsi que des outils de gestion de workflows (Prefect, Dagster, HTCondor). Responsabilités : Mettre à jour le registry Harbor (2.2 vers 2.14) et le reverse proxy Traefikee dans le cluster Kubernetes, avec documentation des procédures associées ; Mettre en place une nouvelle méthode d'authentification de LDAPs vers OIDC ;Assurer le support DevOps des utilisateurs Data Science (applications, workflows, environnements) ; Contribuer aux projets DevOps sur les thématiques Helm, GitLab CI, Docker, Artifactory, Python et R ; Apporter un soutien au support infrastructure Kubernetes/Ansible ; Garantir la fiabilité et la continuité des services pendant les absences des référents internes.

Job Vacancy
Ingénieur DevOps GCP – Île de France (H/F)
🔍 Contexte de la mission Dans le cadre de l’ouverture vers le Cloud et de la modernisation de ses infrastructures, une équipe produit « Digital Backbone » recherche un Ingénieur DevOps confirmé afin de contribuer au design, à la construction et aux opérations de la plateforme Cloud . L’objectif est d’assurer la mise en place de services GCP sécurisés et performants, tout en facilitant les échanges de données entre les applications internes et les environnements cloud publics. ⚙️ Objectifs et principales missions Participer à la mise en place des services Cloud GCP pour les environnements intranet et usines. Automatiser les déploiements via Ansible et Terraform . Mettre en œuvre une chaîne CI/CD complète (développement → production). Assurer le monitoring et la supervision des services déployés. Gérer des environnements Docker et garantir leur sécurité et performance (FinOps) . Fournir un support de niveau 3 (L3) et accompagner le RUN de la plateforme. 📦 Livrables attendus Plateforme Cloud GCP opérationnelle et documentée. Documentation technique et tableaux de bord de supervision. Support et accompagnement des équipes projets. Application des principes de Site Reliability Engineering (SRE) . 💡 Compétences techniques requises Compétences impératives : Cloud public GCP et services managés. Automatisation via Ansible et Terraform . CI/CD : GitLab CI, Jenkins (GitLab CI fortement apprécié). Linux , Docker , Git . Expérience avec Kubernetes et les architectures microservices. Notions de monitoring/performance (Prometheus apprécié). Compétences optionnelles : Développement Python ou Java . Expertise Ops et CI/CD en environnement RUN. Connaissance des bonnes pratiques SLO / SLI / SLA . 📍 Secteur : Industrie | Localisation : Ile de France (TT : 3j/semaines) 🕓 Mission longue durée – Démarrage ASAP

Job Vacancy
DATA ENGINEER GCP (480€ MAX)
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets

Job Vacancy
Devops (AWS et GCP) (expert dynatrace) full remote
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
Job Vacancy
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Job Vacancy
Développeur Java / DevOps AWS (salarié)
Au sein de l’équipe technique, vous participez à la conception, au développement et au déploiement d’applications Java hébergées sur AWS . Vous contribuez à l’industrialisation des processus DevOps (CI/CD, conteneurisation, infrastructure as code) et à la mise en place de solutions Cloud performantes et sécurisées. Concevoir, développer et maintenir des applications Java / Spring Boot . Participer à la conception des architectures Cloud AWS (ECS, Lambda, S3, RDS…). Mettre en place et maintenir les pipelines CI/CD (Jenkins, GitLab CI, GitHub Actions). Automatiser les déploiements et configurations via Ansible , Terraform ou CloudFormation . Superviser et améliorer les performances applicatives via Grafana , CloudWatch , ou Prometheus . Contribuer à la sécurité, la fiabilité et la scalabilité des environnements de production. Collaborer avec les équipes de développement, d’exploitation et d’architecture. Participer à la documentation technique et à la veille technologique DevOps/Cloud.

Job Vacancy
Ingénieur DevOps Cloud Senior – Déploiement d’applications IA générative (H/F)
Offre d’emploi : Ingénieur DevOps Cloud – Déploiement d’applications IA générative (H/F) Lieu : Toulouse Télétravail : Non Contrat : Nature du contrat à définir Rémunération : Selon profil et expérience Démarrage : ASAP Expérience requise : profil confirmé de plus de 5 ans d'expérience en DevOps & Cloud Contexte de la mission Nous recherchons un Ingénieur DevOps Cloud pour un projet stratégique auprès d’un grand acteur industriel. La mission consiste à déployer et industrialiser des applications d’IA générative sur les trois environnements Cloud internes du client : 1 Cloud basé sur Microsoft Azure , 1 Cloud basé sur Google Cloud Platform , 1 Cloud souverain 100% interne Vous interviendrez en étroite collaboration avec le Tech Lead IA et les équipes internes afin de garantir des déploiements robustes, sécurisés et industrialisés. Rôle & Missions principales Déployer des applications d’IA générative développées en interne ou publiques (Docker) sur les 3 Clouds du client Réaliser les déploiements et la configuration via Kubernetes et Helm Industrialiser les déploiements avec des pipelines GitLab CI Adapter les solutions aux spécificités des environnements Cloud internes Mettre en place du monitoring applicatif (RAM, CPU, usage disque, erreurs, temps de réponse, volumétrie de requêtes…) avec Grafana ou solutions natives Gérer le code, les scripts et fichiers Helm sous Git Documenter les bonnes pratiques, capitaliser les retours d’expérience (REX) et contribuer à l’amélioration continue Stack technique Clouds : Azure (TDP), GCP (S3NS), Cloud souverain interne Conteneurisation & orchestration : Docker, Kubernetes, Helm CI/CD : Git, GitLab CI Monitoring : Grafana (ou équivalent disponible sur plateforme) IA générative : intégration et adaptation de modèles/applications
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Recommendations for the Best Marble Vanity Top Brands
- RECOVER HACKED FUDS GO TO VIRTUAL FUNDS RESURRECTION
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- PYRAMID HACK SOLUTION // TRUSTED EXPERTS FOR FAST AND SECURE RECOVERY
- ETHEREUM & USDT RECOVERY SOLUTION REVIEW: HIRE FUNDS RECLAIMER COMPANY
- HOW CAN SOMEONE RECOVER A STOLEN CRYPTO FROM A SCAMMER'S WALLET? CONTACT FUNDS RECLAIMER COMPANY
Jobs by city
Jobs by country