Trouvez votre prochaine offre d’emploi ou de mission freelance GitLab CI

Votre recherche renvoie 277 résultats.
CDI

Offre d'emploi
Ingénieur DevOps – Nantes (H/F)

AUBAY
Publiée le
DevOps
Java
Python

40k-50k €
44000, Nantes, Pays de la Loire
Tu veux rejoindre un projet d’envergure ? Tu aimes travailler au croisement du développement, du cloud et de la production ? Aubay Solutec Grand Ouest cherche un(e) Ingénieur DevOps / Intégration Applicative pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. Intégré(e) à une squad Agile, tu joueras un rôle clé sur l’ensemble du cycle de vie applicatif, de la conception au run, en intervenant sur des infrastructures Cloud Native. Tes responsabilités : Prendre en charge des projets de bout en bout : études, conception, automatisation, déploiement et suivi post-mise en production. Concevoir, déployer et maintenir des architectures Cloud (AWS / GCP selon les projets). Mettre en place, fiabiliser et automatiser les environnements via Terraform , Ansible et les outils IaC Cloud Natif. Définir et industrialiser les pipelines CI/CD (GitLab CI/CD, Jenkins, Digital AI, Nexus/Artifactory). Assurer l’intégration et la gestion des images Docker au sein des écosystèmes Kubernetes / Helm . Garantir la stabilité, la résilience et la sécurité des produits en production ; contribuer activement à la résolution d’incidents. Déployer et améliorer les outils de supervision / monitoring : Dynatrace, ServiceNow, ELK, SonarQube . Rédiger une documentation claire et fiable pour les équipes métiers et les équipes d’exploitation. Participer à la montée en compétences des squads métier (présentations, démonstrations, bonnes pratiques). Contribuer à l’amélioration continue des pratiques DevOps (automatisation, observabilité, fiabilité, tooling). 🧰 Ton environnement technique · Docker, Kubernetes (GKE / Cloud), Helm · Terraform, Ansible, GitLab Ops · GitLab CI/CD, Jenkins, Digital AI, Artifactory, Nexus, SonarQube · AWS, GCP (selon projets) · Python, Shell · Spark3 / Hadoop, pipelines IA / LLM (selon contexte) · Agile (Scrum / SAFe)
Freelance

Mission freelance
245738/Techlead Java

WorldWide People
Publiée le
Java

6 mois
Nantes, Pays de la Loire
Techlead Java Profil recherché Expérience Minimum 6 à 8 ans d’expérience en développement Java. Expérience significative en environnement agile. Première expérience confirmée en Lead ou Référent Tech (squad ou projet). Soft Skills Leadership naturel & posture pédagogique Sens du service et orientation client Capacité à challenger & vulgariser Communication claire et constructive Proactivité et autonomie 🧲 Plus-values appréciées Kafka / Event streaming Websphere / AEM (selon périmètre) CI/CD avancé (GitLab-CI, Docker/K8s maîtrisés) Niveau d’expertise OPEN / Infrastructures pour 📍 Localisation & Modalités Nantes Télétravail possible Dans le cadre de la transformation digitale de nos clients , nous recherchons un Tech Lead capable d’assurer la direction technique d’une squad agile et de garantir la qualité, la performance et la maintenabilité des solutions applicatives. Selon le client, la mission peut s’inscrire : au sein d’une Tribe orientée parcours clients, en environnement agile @Scale Objectifs et livrables Technologies & Compétences Requises Langages & Framework Java 8 / 11 / 17 (selon client) Spring / Spring Boot Spring Batch API REST / SOAP Design Patterns, POO Environnements & Intégration Docker, Kubernetes Microservices Architecture hexagonale, Event-Driven Architecture [Laabidi Sa...nversation | Teams] Kafka (souhaité) Bases de Données Oracle PostgreSQL MongoDB Outils Dev & Craft GitLab, GitLab CI Jenkins Maven SonarQube, IQServer, SysDig (qualimétrie) Tests Junit, Mockito Tests unitaires & intégration TDD (souhaité) Méthodologies Scrum, SAFE / Agile à l’échelle Mode Produit, refactoring continu 📌 Missions principales 🎯 Leadership Technique Être le référent technique de la squad. Challenger, simplifier et valider les solutions techniques proposées. Garantir la cohérence technique globale du périmètre applicatif. 🧩 Conception & Développement Participer à la conception, l’estimation et la réalisation des User Stories. [Laabidi Sa...nversation | Teams] Développer, tester (TU, TI), intégrer et déployer les composants. Participer au cadrage de l'architecture et aux choix techniques. 🛡️ Qualité, Sécurité & Maintenabilité Garantir des standards de développement et sécurité (Oauth2/JWT, bonnes pratiques). Optimiser la performance, la robustesse et la maintenabilité. Assurer la documentation technique. 🤝 Support & Collaboration Accompagner l'équipe dans la montée en compétences. Assurer le support technique Run/Build (selon client). Collaborer avec PO, Scrum Master, testeurs, ITO/Risque Relais selon squads. 🧪 Tests & Intégration Participer aux campagnes de tests. Déployer les composants sur les environnements Dev / Qualif / Prod. Contribuer à l’amélioration continue de la squad.
Freelance

Mission freelance
242994/Développeur Java confirmé / senior - secteur énergie - Lyon

WorldWide People
Publiée le
Angular
Java

6 mois
400 £GB
Lyon, Auvergne-Rhône-Alpes
Développeur Java confirmé / senior - secteur énergie - Lyon Profil souhaité : 5 ans d'expériences ou plus Statut ingénieur (bac +5) A déjà participé à des projets de bout en bout en collaboration avec les équipes métier A déjà une expérience sur un projet de développement porté par AWS A déjà une expériences réussi dans le secteur de l'énergie La maitrise des bonnes pratiques de développement est un plus (Craftsmanship, clean code etc.) Technologies Java (21 et versions antérieures) Spring boot (3.4 et versions antérieures) Angular (19) Plateforme : Cloud AWS, Gitlab CI, Docker, Kubernetes Architectures : Microservices Pratiques agiles : DevOps, SAFe light Outils : IntelliJ, Atlassian, Confluence, Teams Contexte de la mission : Dans le cadre d'un projet (mode build) dans le domaine de l'énergie à Lyon. + 5 ans attendu. Participation active aux rituels agiles (daily, les rétrospectives, le poker planning ) Réalisation du développement, des tests et de la livraison des codes assignés sur les environnements appropriés. Validation technique et soutien lors des phases de recette métier. Actualisation de la documentation requise selon les standards documentaires définis. Profil souhaité : 5 ans d'expériences ou plus Statut ingénieur (bac +5) A déjà participé à des projets de bout en bout en collaboration avec les équipes métier A déjà une expérience sur un projet de développement porté par AWS A déjà une expériences réussi dans le secteur de l'énergie La maitrise des bonnes pratiques de développement est un plus (Craftsmanship, clean code etc.) Technologies Java (21 et versions antérieures) Spring boot (3.4 et versions antérieures) Angular (19) Plateforme : Cloud AWS, Gitlab CI, Docker, Kubernetes Architectures : Microservices Pratiques agiles : DevOps, SAFe light Outils : IntelliJ, Atlassian, Confluence, Teams
Alternance
CDI

Offre d'emploi
data scientist, concepteur-développeur bi F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
DevOps
Docker

Croissy-Beaubourg, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
CDI - SRE AWS (H/F)

BLOOMAYS
Publiée le
AWS Cloud
CI/CD
Site Reliability Engineering (SRE)

60k-85k €
Paris, France
Environnement Cloud & Production Critique Contexte : Au sein d’une organisation internationale disposant d’un écosystème digital à forte exposition, vous rejoignez l’équipe Infrastructure. Votre rôle est central dans la garantie de la fiabilité, de la performance et de la disponibilité des services numériques en production. Vous travaillez en étroite collaboration avec les équipes de développement afin de concevoir, déployer et maintenir des systèmes répondant à des standards élevés de qualité, sécurité et résilience. Missions principales : 1. Pilotage de l’infrastructure au sein des feature teams Intégré à une ou plusieurs équipes produit, vous êtes responsable du backlog infrastructure associé. À ce titre, vous : Gérez les sujets d’infrastructure dans les backlogs produits Collaborez avec les Product Owners et Tech Leads pour définir la stratégie technique locale Participez aux rituels agiles des équipes Consolidez et pilotez la capacité de traitement des sujets infra Priorisez les demandes de Build en fonction des enjeux business et techniques 2. Build & Infrastructure as Code Concevoir et déployer l’infrastructure nécessaire aux applications (serveurs, bases de données, réseau, etc.) Garantir la qualité, la stabilité et la sécurité des environnements déployés Mettre en œuvre et maintenir l’Infrastructure as Code Valider les Merge Requests liées à l’infrastructure Adapter la répartition des sujets en fonction de la maturité technique des équipes Encourager le partage de connaissances (pair programming, mentoring) 3. Observabilité & Performance Concevoir et maintenir les systèmes de monitoring et d’alerting Contribuer aux tests de performance Améliorer la fiabilité, la disponibilité et la scalabilité des services Planifier et optimiser la capacité des infrastructures 4. Incident Management & Production Gérer les incidents en environnement de production critique Participer aux analyses post-mortem et à l’amélioration continue Mettre en place des plans de reprise d’activité (Disaster Recovery) Garantir la conformité aux standards de sécurité 5. Automatisation & Optimisation Automatiser les tâches répétitives Optimiser les coûts cloud et l’utilisation des ressources Maintenir une documentation claire et à jour Accompagner et former les développeurs sur les bonnes pratiques SRE Environnement technique Cloud & Containers AWS, Kubernetes, Docker Infrastructure as Code & Automation Terraform, Helm, Kustomize, Ansible CI/CD & GitOps GitLab CI, Jenkins, ArgoCD Observabilité Prometheus, Grafana, Loki, Tempo Data & Messaging PostgreSQL, MySQL, MongoDB Kafka / systèmes de messaging Sécurité Vault, gestion d’identité (OIDC / SSO)
Freelance

Mission freelance
DevOps Terraform (Domaine Bancaire)

JobiStart
Publiée le
Terraform

3 ans
400-550 €
Paris, France
Spécialiste de l'Infrastructure as Code (IaC), vous pilotez l'automatisation du provisionnement des ressources cloud et on-premise. Votre mission principale est de concevoir et maintenir des modules Terraform réutilisables, sécurisés et conformes aux normes bancaires. Vous intégrez ces déploiements dans des pipelines CI/CD (GitLab CI, GitHub Actions) pour permettre une livraison continue et sans erreur des infrastructures applicatives. Vous gérez le state management, les environnements multi-cloud et travaillez sur l'automatisation du réseau et de la sécurité (Vault, Sentinel). Vous accompagnez les équipes de développement dans leur transition vers le "Self-Service Infrastructure" tout en garantissant la conformité avec les exigences de régulation financière.
Freelance
CDI

Offre d'emploi
Développeur Backend - Kotlin

VISIAN
Publiée le
AWS Cloud
Java
Kotlin

1 an
Paris, France
Contexte Les plateformes de référence pour la centralisation, la distribution et l'exposition via API de l'ensemble des offres fournissent aux applications clientes un accès unifié à un catalogue multifournisseurs, un moteur de recherche d'itinéraires multimodal, la distribution des offres. Ces plateformes reposent sur un ensemble d'APIs simples à intégrer, permettant la construction d'interfaces de mobilité en marque blanche couvrant l'ensemble du parcours utilisateur. Le domaine Moteur Distribution s'organise en 4 équipes de delivery travaillant sur la refonte du moteur d'offres et du moteur de booking. Besoin – Mission Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte, afin de travailler sur les problématiques dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
CDD
CDI
Freelance

Offre d'emploi
Kubernetes cloud builder, Ingénieur GitOps -REMOTE

KEONI CONSULTING
Publiée le
Gitlab
Kubernetes
Linux

18 mois
20k-60k €
100-500 €
Paris, France
CONTEXTE CaaS‑CNP est un écosystème de clusters Kubernetes hébergés sur des CSP (Azure AKS) et On‑Prem (OpenStack), construit sur Kubernetes open‑source et utilisant des technologies IaC comme Cluster‑API et Flux. Dans le cadre du programme Move2Cloud, l’équipe CaaS‑CNP a pour objectif de délivrer des clusters Kubernetes en tant qu’équipe Platform Engineering, sur plusieurs zones d’hébergement Azure, avec un ensemble de composants logiciels et d’opérateurs. L’orchestration de tous les composants est gérée par Flux (GitOps) et Cluster‑API, avec un packaging complet basé sur Helm. L’équipe CaaS‑CNP intervient sur : La conception des solutions (urbanisation Cloud/Kubernetes, conception GitOps globale, gestion de la sécurité, intégration logicielle et opérateurs) L’implémentation des solutions (Cluster‑API, Flux, intégration logicielle), en mutualisation avec d’autres projets transverses L’exploitation des clusters CaaS‑CNP (production, cycle de vie Kubernetes et composants logiciels) MISSIONS Pour cette mission, vous serez intégré(e) à l’équipe Core CaaS‑CNP, sur les activités BUILD. Nous attendons des compétences en administration Kubernetes, Infra‑as‑Code et GitOps. Une expérience en administration Azure AKS sera appréciée. EXPERTISE TECHNIQUE ET MÉTIER REQUISE Kubernetes cloud builder, Ingénieur GitOps Domaine : Implémentation Autres compétences Anglais : Intermédiaire Orientation client : Nécessaire Certifications : Kubernetes Astreintes / interventions programmées : Non LIVRABLES SLA Design et développement d’intégrations de la stack K8s via Helm, Flux, Cluster‑API Pipelines CI/CD pour le développement de tests automatisés d’infrastructure Documentations techniques et utilisateurs Contribution au build/run de clusters de production (mises à jour, support infra) Contribution aux user stories JIRA, issues GitLab EXPERTISES TECHNIQUES ATTENDUES Administration Kubernetes Infrastructures Cloud (Azure AKS, OpenStack) Cluster‑API Flux (GitOps) GitLab, pipelines CI/CD Helm Observabilité (Prometheus, Alertmanager, Grafana, Loki) Hashicorp Vault Méthodologies Agile
CDD
CDI
Freelance

Offre d'emploi
DATA  Engineer GCP 2

KEONI CONSULTING
Publiée le
Architecture
Python
SQL

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
CDI
Freelance

Offre d'emploi
Expert technique / Développeur MuleSoft (H/F)

AVA2I
Publiée le
CI/CD
Intégration
Java

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de la modernisation de son système d’information , un acteur majeur du secteur de l’énergie , évoluant dans un environnement grand compte , renforce ses équipes d’intégration applicative. Le poste s’inscrit dans des projets à forts enjeux métiers et techniques, avec des flux critiques , une forte volumétrie d’échanges et des exigences élevées en matière de sécurité, performance et disponibilité . Objectifs du poste Concevoir, développer et maintenir des API et flux d’intégration robustes et scalables Participer à la modernisation du SI via une approche API-led connectivity Garantir la qualité, la fiabilité et la performance des échanges inter-applicatifs Être un référent technique MuleSoft au sein des équipes projet Responsabilités principales Développement & intégration Concevoir et développer des APIs REST / SOAP sous MuleSoft Implémenter des Experience APIs, Process APIs et System APIs Développer des flux d’orchestration, de transformation et de routage Assurer l’intégration avec des systèmes legacy et des applications métiers Architecture & performance Appliquer les patterns d’intégration (API-led, Pub/Sub, orchestration) Garantir la performance, la résilience et la scalabilité des flux Mettre en œuvre la sécurité des échanges (authentification, autorisation, chiffrement) Participer aux réflexions d’architecture d’intégration Qualité & delivery Réaliser les tests unitaires et techniques (MUnit) Garantir la qualité du code et les bonnes pratiques de développement Participer aux revues de code et à la documentation technique Contribuer aux mises en production et au support applicatif (run) Run & amélioration continue Intervenir sur la supervision, le monitoring et la gestion des incidents Analyser les dysfonctionnements et proposer des améliorations Participer à l’industrialisation des développements et des déploiements CI/CD Environnement technique MuleSoft Anypoint Platform (Studio, Monitoring) DataWeave 2.0 API REST / SOAP, Webservices Java / J2EE XML, JSON, XSLT, XPath CI/CD : Git, Maven, Jenkins / GitLab CI Conteneurisation : Docker Messagerie : JMS, AMQP, Kafka Bases de données / SQL Cloud (AWS apprécié) Observabilité : Datadog
CDI

Offre d'emploi
Développeur Python / IA

CAT-AMANIA
Publiée le
Agent IA
DevOps
Python

40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Freelance

Mission freelance
Tech Lead Java/ angular (H/F)

ALLEGIS GROUP
Publiée le
Angular
AWS Cloud
DevOps

6 mois
100-550 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) avec une forte culture Cloud/AWS et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Déployer et exploiter les applications sur AWS : Farget, Lambda, S3, CloudFront, RDS/Aurora, API Gateway, VPC. • Automatiser l’infrastructure via IaC (Terraform, CDK), y compris la création, la mise à jour et la maintenance des environnements. • Mettre en place les standards de qualité et de sécurité (tests, scans, bonnes pratiques AWS, IAM, secret management). • Contribuer au monitoring et à l’observabilité (CloudWatch, Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps, AWS et outils d’industrialisation.
Freelance
CDI

Offre d'emploi
Développeur Python Backend et Terraform DEVOPS

VISIAN
Publiée le
pytest
Python

1 an
40k-45k €
400-600 €
Île-de-France, France
Descriptif du poste Une filiale d'un grand groupe bancaire, au cœur de la transformation technologique du Groupe. Notre mission est de concevoir, développer et opérer des plateformes d'infrastructure modernes (PaaS, IaaS, CaaS) pour l'ensemble de nos métiers. Nous cherchons un profil DevOps pour renforcer la squad Serveur, en tant que développeur Python backend et Terraform. Le rôle que nous recherchons demande une combinaison de plusieurs qualités : excellence technique, posture d'accompagnement, et plaisir à coder pour les autres. Compétences techniques Compétences indispensables C'est le socle non négociable. Nous attendons une maîtrise solide ou un niveau expert sur ces sujets. Expertise approfondie et pratique de Python Excellente maîtrise de Pytest et de son écosystème Solide expérience en automatisation de tests d'API REST Maîtrise de Git et des pipelines CI/CD, notamment GitLab CI Maîtrise des commandes de base Linux et du scripting shell Maîtrise des pratiques BDD (Gherkin) Compréhension des principes d'ingénierie logicielle (DRY, Abstraction, Idempotence)
CDI

Offre d'emploi
Tech Lead Drupal H/F

DCS EASYWARE
Publiée le

Aube, France
Nous recherchons pour notre client Nantais, un·e Tech Lead Drupal H/F passionné·e pour rejoindre nos équipes et jouer un rôle clé dans la réussite de nos projets digitaux. Véritable expert·e technique et référent·e pour les développeur·euse·s, vous occupez une place centrale entre le·la développeur·euse senior et le·la manager. Voici les missions que nous souhaitons vous confier : ‐ Accompagner techniquement l’équipe de développement pour créer et gérer les solutions Drupal répondant aux besoins de notre client, ‐ Assurer les revues de code tant au niveau des nouveaux développements que des maintenances correctives et évolutives des sites web existants, ‐ Gérer le déploiement des sites web sur les différents environnements de dev, recette et production sous AWS (Gitlab, CI, Ansible, Terraform , test automatisé, …), ‐ Collaborer avec l’ensemble des membres des différents services techniques et métiers (SSI, Infra, Data, …), ‐ S’engager sur le respect des bonnes pratiques et la mise en oeuvre des principes de sécurité, ‐ Être force de proposition sur des solutions innovantes tant au niveau des sites web que des environnements de développement et de déploiement.
Freelance

Mission freelance
244983/Architecte Technique OpenShift et RedHat LYON

WorldWide People
Publiée le
Openshift

6 mois
400-450 €
Lyon, Auvergne-Rhône-Alpes
Architecte Technique OpenShift et RedHat LYON Les principales missions de l’Architecte Technique sont : · Concevoir et participer à la mise en place des architectures, des procédures, des méthodes et outils des applications & services de son domaine d’expertise, dans le respect des normes de sécurité et des standards du SI · Conseiller et assister les acteurs du SI, dans les différentes phases de mise en place ou d’évolution de son domaine d’expertise · Identifier les impacts des évolutions demandées, participer à la mesure de ces impacts au travers de tests techniques (performance, robustesse…) et préconiser les solutions et modalités requises pour les déployer · Participer à l’enrichissement et à la validation des dossiers d’architecture · Rédiger des documentations techniques à destination des différents acteurs de son périmètre · Participer aux comités d’architecture du SI, instance de validation des choix techniques des équipes projet ainsi qu’aux comités d’architecture transverse afin de promouvoir les bonnes pratiques et retours d’expérience · Optimiser les ressources informatiques afin de réduire leurs coûts d’exploitation et minimiser leur empreinte environnementale · Assurer des missions de veille technologique à des fins d’innovation · Transmettre les connaissances pour assurer une continuité en cas d’absence Objectifs et livrables Objectifs · Industrialisation des scripts de déploiement de l’environnement de Performances sur le cluster Open Shift Hors Production · Mise en place de la métrologie de l’infrastructure et leur analyse à l’issue des campagnes de performance · Travaux d’optimisation de l’infrastructure notamment lors des campagnes de performances et des traitements de reprise de données Livrables attendus · Documents d’études/synthèse, REX et bilans · Développement de scripts pour faciliter le déploiement de ces améliorations, dans le respect des normes et procédures du SI Matériel · Documentation technique d’installation · Participation à la mise à jour du Dossier d’Architecture Technique Détails relatifs au chantier Description détaillée Maintien en conditions opérationnelles des clusters Open Shift Objectifs · Prise en charge des montées de version du socle technique et des versions applicatives · Centralisation et rationalisation des logs dans la solution Entreprise, voire expérimentation OpenTelemetry · Support des équipes de déploiement · Mission d’expertise auprès des équipes d’exploitation en cas d’incident… · Estimations et optimisations FinOPS de l’infrastructure · Prise en compte des transformations sur les standards (GitLAB/CI, OpenStack…) Une connaissance parfaite d'OpenShift et RedHat est indispensable. Livrables attendus · Rapport d’audit et procédures d’installation/déploiement · Compte-rendu de suivi d’incident et retours d’expérience Compétences demandées LINUX Expert WINDOWS Confirmé OPENSHIFT Expert BEHAT Expert AWS Expert AWS ROSA Confirmé UNIX Expert SOLARIS Expert
277 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous