Trouvez votre prochaine offre d’emploi ou de mission freelance GitLab CI
Votre recherche renvoie 277 résultats.
Offre d'emploi
Developer Back end Java 17/21 (Spring boot) & devops
KEONI CONSULTING
Publiée le
Cloud
Postman
Terraform
18 mois
20k-60k €
100-500 €
Lille, Hauts-de-France
Contexte Nous recherchons 1 Dev Back-end Java afin de renforcer l'équipe actuelle. Cette personne pourra intervenir sur les projets au sein du dispositif existant ou le renforcer sur les autres assets, selon la charge de cette période, afin de tenir l'engagement de mise en production MISSIONS Ø Mise en place du socle technique - Choix des librairies nécessaires au projet - Mise en place du socle technique sous Docker - Mise en place des déploiements automatisésEnvironnement technique à maîtriser : o Langages : Java 17/21 o Frameworks : Spring Boot, JUnit, Logback o Serveur d’application : Service manager AWS (Beanstalk) et infra Kub o Industrialisation : Docker, Maven, Gateling o Outils : Datadog, Git LabCi, Jira, Sonar, etc. ○ • Assurer une qualité de code optimale ○ Initie un bon socle ○ S'assure de la mise en place des guidelines ( Quality Gate, % code coverage, pyramide de tests..) ○ Suivi des métriques ○ Garant de la bonne application des pratiques de devs • Fournir une direction technique / architecturale ○ Unifier les pratiques ○ Aider à prendre les bonnes décisions ○ Fluidifier les longs débats, et tranche en cas d'indécision ○ Echange avec les bons partenaires pour coconstruire si besoin • Contrôler la dette technique ○ Sensibiliser alerter en cas d'obsolescence / mauvaise pratiques ○ Suivre, afficher et prioriser la dette technique • Assurer le bon déroulement des Code Review ○ Animer et cadrer les CR (suivre le Time to Review, la Pull Request Size.. ) • Promouvoir la collaboration et l'engagement ○ Accompagne et facilite le partage de connaissance (matrice de compétences, 1to1..) ○ Garant du process d'On-Boarding ○ Crée de la cohésion dans l'équipe ○ Être l'interlocuteur privilégié du PO / Stakeholders en cas de question technique • Déployer de la qualité, rapidement ○ Focus l'équipe sur des solutions rapides, et fiables (KISS, ) ○ Suivi de la fréquence de déploiement, taille de déploiement.. ○ Favorise la collaboration Dev/Ops • Participation au cadrage Technico/fonctionnelle ○ Participation aux études de faisabilité / estimations / planification ○ Réalisation de cadrages fonctionnels et techniques pour les évolutions ○ Réaliser des estimations de charge ou de complexité d’une évolution et des tâches à effectuer ○ Produire les livrables en suivant les pratiques agiles ○ Tests unitaires (TDD) et tests fonctionnels automatisés (BDD) ○ Application packagée (Docker) ○ Documentation technique ○ Analyser les rapports d'intégration continue et actions en conséquence ○ Remonter les alertes et le reste à faire sur ses tâches ○ Contribuer à l’activité d’étude d’architecture technique de l’équipe ○ Être le référent Technique de l'équipe Scrum en lien avec le DevOps et les équipes infra pour les choix techniques mais aussi sur leurs mises en place • Être le garant des process de dev ○ Mettre en place et être le garant des bonnes pratiques de dev ○ Mettre en place des process pour avoir une unicité de pratique au sein de l'équipe (listing de chose à faire lors d'une revue, …) ○ Mettre en place des métriques pour identifier des axes d'améliorations : § Couverture de code par les Test et des TU § Nombre d'aller-retour et Nb de retour sur les revues § Nombre d'anos § Temps passé sur les différentes étapes du Workflow (dev et Test (TU, TA,..) Revue, livraison …) § Réaliser des ateliers d'analyses et de prise d'action d'amélioration Suivi des métriques et des actions d'amélioration 3) Contribution à la vie de l’équipe Ø Vous participez activement à la vie de l’équipe Ø Vous êtes proactif pendant les cérémonies agiles (DSM, rétro, démo, ...) et force de proposition en termes d'amélioration Ø Vous contribuez à l'animation du backlog Produit et technique Ø Vous participez à l’estimation de charge ou de complexité des tâches de l’équipe Ø Vous remontez les alertes et le reste à faire sur ses tâches Ø Vous assurez un transfert de connaissances vers les autres équipes Livrables : Les compétences techniques minimales que nous recherchons sont : - Une maitrise parfaite du Java 17/21 mais aussi des Framework Spring et Spring boot - Frameworks : Spring Boot, JUnit, JAX-RS, Logback - Git LabCi ne sont pas des options ;) PROFIL& COMPETENCES Pour le poste, il convient d'avoir au minimum de 7/8 ans d'expérience sur des postes de développeur prioritairement sur Java 17/21 (Spring boot), avec idéalement plusieurs expériences de lead dev Expert Java dans un contexte Agile très fort mais également une organisation DevOps afin de pouvoir monter les environnements back mais également travailler sur la mise en place et l'Optimisation des pipelines de livraison en Hors Prod et en Prod. Nous travaillerons sur une infra AWS donc il sera obligatoire que le candidat maîtrise l'environnement AWS avec idéalement plusieurs certifications AWS (Architecte Associate, Développer associate, …). Vous aimez apprendre, partager vos connaissances et mettre en application les technologies actuelles et futures. De plus, les compétences suivantes en DevOps seront plus que souhaitables : - Vous connaissez AWS et avez déjà travaillé sur des pipelines de livraison sur AWS - Vous connaissez les logiciels de livraison continue comme Gitlab CI, Jenkins, Artifactory, … - Mais aussi les logiciels intégrer dans les pipelines de livraison pour assurer la qualité/ la sécurité comme Sonar, CheckMark, Vault, … - Vous maitrisez les concepts Cloud et les outils DevOps comme : Terraform, Ansible, Gitlab CI et Docker n'a plus de secret pour vous - Enfin vous maitriser également les outils de testing : PostMan, Selenium ou encore Cucumber
Offre d'emploi
DevSecOps
CAT-AMANIA
Publiée le
DevSecOps
Sécurité informatique
40k-70k €
Levallois-Perret, Île-de-France
Intégration sécurité : · Intégrer la sécurité dans les pipelines CI/CD (toolchain) · Configurer les outils SAST, SCA. Support technique (git, workflows git, GitLab ci, Jenkins). Gestion des vulnérabilités : · Identification · Assessment & prioritization · Remediation & mitigation. Support technique. · Traceability. Maintenir l'alimentation du dashboard centralisé (python) · Follow-up and control. Suivre la gestion des vulnérabilités avec les tribes, et entités à l'international (en anglais). Communiquer et remonter les infos aux RSSI entités · KRI Conformité : · Assurer la conformité aux standards de sécurité sur le domaine AppSec · Traduire les exigences sécurité en contrôles opérationnels · Revoir et rédiger les guidelines, modes opératoires pour l'AppSec Animation de la communauté des security champions · Définir et expliquer le role security champions Sensibiliser les équipes aux bonnes pratiques · Produire les ateliers AppSec pour la bonne mise en oeuvre des guidelines · Produire et dispenser les formations au développement sécurisé (français, anglais, Spring, Java, React, Angular)
Mission freelance
Développeur Python / Django (3 ans d’expérience)
Signe +
Publiée le
Python
12 mois
320-360 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des applications web performantes et sécurisées basées sur Python et le framework Django, avec une forte interaction front-end en JavaScript. Responsabilités Développer des applications web en Python avec le framework Django Concevoir et exposer des API REST (Django REST Framework) Participer à l’architecture technique et aux choix technologiques Développer et maintenir les interfaces front-end en JavaScript Assurer l’intégration front / back Rédiger des tests unitaires et fonctionnels Optimiser les performances des applications Participer aux revues de code Corriger les anomalies et assurer la maintenance évolutive Collaborer avec les équipes produit, UX/UI et DevOps Compétences techniques requises Backend Maîtrise de Python Expérience solide avec Django (minimum 3 ans) Bonne connaissance de Django REST Framework Conception et consommation d’API REST ORM Django Gestion des bases de données (PostgreSQL, MySQL) Frontend Bonne maîtrise de JavaScript (ES6+) Expérience avec un framework JS (React, Vue.js ou Angular – selon contexte) HTML5 / CSS3 Dev & Outils Git Docker (apprécié) CI/CD (GitLab CI, GitHub Actions, Jenkins…) Méthodologies Agile (Scrum, Kanban) Profil recherché 3 ans d’expérience minimum en développement Python/Django Autonome sur le développement back-end Capacité à comprendre et manipuler du code front-end JavaScript Esprit d’analyse et rigueur Bonne communication et esprit d’équipe Formation Bac +3 à Bac +5 en informatique ou équivalent Environnement technique type Python 3.x Django / Django REST Framework JavaScript (framework moderne) PostgreSQL Docker Git
Offre d'emploi
Consultant DataOps / Administrateur Hadoop
Craftman data
Publiée le
Ansible
CI/CD
Docker
La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Mission freelance
Lead / Développeur Senior Backend .Net
Cherry Pick
Publiée le
.NET
12 mois
550-600 €
Paris, France
Lead / Développeur Senior Backend .Net Contexte Le projet démarre mi-avril avec une phase de setup dès mi-mars (Sprint 0). Nous recherchons un Lead/Développeur Senior Back (.NET Core) pour accompagner ce lancement. Missions Participer à la phase de cadrage et au Sprint 0 Contribuer à la conception technique de la solution Back-end / API Développer les fonctionnalités liées au tunnel de souscription en ligne Garantir la qualité, la robustesse et la standardisation du produit Back-end Travailler en collaboration avec : PO / BA Architecte Équipes internationales Participer aux revues de code Utiliser les outils DevOps standards (GitLab, CI/CD) Être à l’aise avec les assistants de développement Environnement technique Back : .NET Core Infra & DevOps : AWS Kubernetes GitLab Jira Une appétence DevOps est un plus. Profil recherché Hard skills Expérience significative en développement .NET Expérience en tant que Lead Expérience en environnement structuré / produit Bonne compréhension des architectures modernes (Microservices, API) Sensibilité Cloud (AWS) appréciée Expérience CI/CD Soft skills (critères clés) Forte curiosité Intérêt pour le produit Capacité à monter en compétence sur un domaine fonctionnel Bon relationnel et esprit collaboratif À l’aise dans un environnement international Bon niveau d’anglais Une expérience en finance est un plus mais non obligatoire. Organisation Équipe cible : 7 dev + 2 QA Encadrement technique expérimenté Collaboration avec des équipes internationales Méthodologie Agile
Offre d'emploi
Expert technique & Développeur MuleSoft (H/F)
AVA2I
Publiée le
API REST
CI/CD
J2EE / Java EE
3 ans
Île-de-France, France
Dans un contexte de modernisation du système d’information et de forte exposition aux flux d’échanges applicatifs , un grand acteur du secteur de l’énergie renforce son expertise autour de la plateforme MuleSoft Anypoint . Le poste s’inscrit dans des trajectoires de migration , d’ industrialisation des échanges et de montée en maturité API , au sein d’un environnement complexe et à forts enjeux. Mission principale : Concevoir, développer et maintenir des solutions d’intégration robustes et évolutives basées sur MuleSoft Anypoint Platform, en garantissant la qualité, la performance, la sécurité et la disponibilité des flux applicatifs. Responsabilités : Expertise MuleSoft Être référent technique sur la plateforme MuleSoft Anypoint Définir et faire évoluer les standards d’architecture, de développement et de sécurité Accompagner les équipes projets dans les choix techniques Participer aux revues de conception et de code Développement & intégration Concevoir et développer des API REST / SOAP Implémenter les patterns d’intégration ( API-led connectivity, orchestration, pub/sub ) Réaliser les mappings et transformations ( DataWeave 2.0 ) Mettre en œuvre la gestion des erreurs et les tests unitaires ( MUnit ) Architecture & plateforme Contribuer à la définition de l’ architecture cible d’intégration Participer au design des couches Experience / Process / System APIs Intégrer les contraintes de sécurité, performance, résilience et scalabilité Travailler avec les équipes APIM, IAM, réseau et cloud (AWS le cas échéant) Industrialisation & exploitation Mettre en place et maintenir les pipelines CI/CD (Git, Maven, Jenkins/GitLab CI) Accompagner la mise en production et le run Contribuer au monitoring, logging et alerting (Anypoint Monitoring, Datadog) Participer à la gestion des incidents et à l’amélioration continue Migration & transformation Participer aux projets de migration de flux existants Analyser l’existant et proposer des trajectoires de transformation Capitaliser sur les retours d’expérience et documenter les solutions
Offre d'emploi
Platform Engineer Elastic Expérimenté
Deodis
Publiée le
DevOps
Elasticsearch
Site Reliability Engineering (SRE)
36 mois
40k-45k €
480-530 €
Montpellier, Occitanie
Mission à Montpellier, 3 jours sur site, 2 jours de télétravail / semaine En tant que Platform Engineer, au cœur du dispositif d’ingénierie de plateforme, aura un rôle clé dans la construction, l’évolution et la sécurité et l’opérabilité de notre stack technique. Dans une logique Platform-As-A-Product pour mettre à disposition des équipes internes (devs, ops, data, etc…) un environnement cohérent, standardisé et automatisé, en production. Nous exploitons la solution d’Elastic au travers de 4 plateformes Elastic Cloud Enterprise avec 600 machines virtuelles dont 400 déploiements de la Stack Elastic. Nous exploitons la solution Grafana au travers de 4 plateformes avec 6 000 utilisateurs dont 2 000 utilisateurs mensuels sur l’environnement de production. Voici les principales responsabilités : 1. Automatiser & Industrialiser l’infrastructure Maintenir et faire évoluer l’infrastructure virtualisée et conteneurisée (VMs, Kubernetes). Implémenter des workflow GitOps robustes avec ArgoCD, Gitlab CI et Ansible. Gérer le cycle de vie des environnements techniques (dev, test, recette, prod), depuis le provsionning jusqu’à la décommissions. Support les équipes via la plateforme Accompagner les équipes tech dans l’onboarding, l’usage des outils, le déploiement des applications. Assurer un support niveau plateforme, incluant le diagnostic, l’amélioration continue et la documentation claire. Participer à la co-construction des « golden paths» pour les cas d’usage récurrents (déploiement, logs, monitoring, intégration). Concevoir des abstractions réutilisables Créer des blueprints, templates et modules pour accélérer les déploiements et éviter les duplications. Maintenir un portail interne de la plateforme, pour exposer ces composants, documentations, et automatisations. 4. Assurer la sécurité et la conformité Intégrer les exigences de CyberAct et autres réglementation de sécurité dans les pipelines et l’infrastructure. Automatiser les contrôles de conformité (analyse d’images, gestion des secrets, règles de sécurité Kubernetes, audit trail) Participer à la mise en œuvre des politiques de contrôle d’accès et à leur revue régulière. 5. Fiabiliser la plateforme Travailler sur la résilience, l’automatisation des redémarrages, la capacité à rollback, et la haute disponibilité. Contribuer au traitement des incidents, aux post-mortems et à la réduction du MTTR. Participer à la définition et au suivi d’indicateurs de performance SLOs, taux de succès des déploiements, couverture, IaC, etc.)
Mission freelance
QA Automaticien Senior / SDET – Mobile & Web (Freelance)
Tenth Revolution Group
Publiée le
Appium
Cypress
Docker
1 an
450-580 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre du renforcement de ses équipes, notre client recherche un(e) QA Automaticien Senior / SDET pour intervenir sur un produit web & mobile à forte volumétrie d’utilisateurs . Vous intégrerez une équipe senior , dans un environnement technique exigeant, avec de forts enjeux de qualité, de fiabilité et de scalabilité. Vos missions Définir, mettre en place et faire évoluer la stratégie de tests automatisés (UI, API, E2E) Automatiser les tests web et mobile (iOS / Android) Garantir un haut niveau de qualité sur un produit à fort trafic Intégrer les tests dans les pipelines CI/CD Collaborer étroitement avec les équipes Produit et Développement Être force de proposition sur les bonnes pratiques QA (BDD, standards, outillage) Contribuer ponctuellement aux tests de performance Environnement technique (ou équivalent) Automatisation : Playwright, Cypress, Selenium Mobile : Appium (ou équivalent) API : Postman, Newman CI/CD : GitLab CI, GitHub Actions, Jenkins Conteneurisation : Docker Performance : JMeter, Gatling, k6
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Mission freelance
QA Lead – Test Automation
Tenth Revolution Group
Publiée le
Karate
Playwright
Postman
8 mois
500-580 €
Paris, France
Notre client accélère la transformation digitale de ses activités (Services, billing & customer platforms). Nous recherchons un·e QA Automaticien·ne capable de concevoir, industrialiser et faire évoluer une stratégie de test end‑to‑end sur des environnements à fortes exigences de fiabilité , intégrant flux de données , processus de facturation et intégrations multi‑SI . En lien étroit avec les équipes Produit, Développement, Data et Run, vous : Définissez la stratégie de tests (UI / API / E2E / Data), le périmètre d’automatisation et les critères de qualité (KPI, SLO). Concevez & maintenez les frameworks d’automatisation (tests régression, smoke, intégration) et industrialisez leur exécution via CI/CD . Automatisez les tests UI et API , orchestration des suites dans les pipelines (feature, release, nightly). Sécurisez les processus billing/facturation et data‑flows (cohérence, intégrité, non‑régression, performance de bout‑en‑bout). Améliorez en continu la qualité (code review, flakiness, coverage, temps d’exécution) et outillez l’observabilité (reporting, dashboards). Partagez les bonnes pratiques (BDD/TDD, 3 Amigos) et accompagnez la montée en compétences des équipes. Stack & outils (idéalement maîtrisés) Automatisation : RobotFramework (gros +), Selenium , Playwright , Cucumber/BDD , Karate / REST Assured , Postman Gestion de tests : Xray , Squash TM , HP ALM CI/CD & DevOps : GitLab CI , Jenkins , Git , Docker (Kubernetes bienvenu) Perf & Observabilité : JMeter (Gatling/LoadRunner appréciés), dashboards / reporting (Allure, Datadog/Splunk/Kibana) Data & intégrations : SQL (Oracle/PostgreSQL), contrôle d’intégrité des données (cohérence inter‑systèmes) Nice to have : Kafka/logs analysis, RPAFramework, Terraform/AWS
Mission freelance
Un Tech Lead Sénior Java/kafka/Scala sur Massy
Almatek
Publiée le
Apache Kafka
J2EE / Java EE
Scala
215 jours
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Tech Lead Sénior Java/kafka/Scala sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ? Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. ? Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. ? Expérience significative dans le domaine de la Data et du Cloud (GCP ou AWS), en particulier les services tels que Cloud Storage, BigQuery, Dataproc, Kubernetes, et d'autres outils pertinents pour la gestion et le traitement de données à grande échelle ? Bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. ? Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. ? Bonne connaissance de l’environnement Linux et des outils de ligne de commande. ? Connaissance approfondie des concepts d'architecture microservices et des bonnes pratiques de développement. ? Expérience dans l'écriture de tests unitaires et d'intégration pour garantir la qualité du code. ? Connaissance sur Kafka-stream, spring boot, ? Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires. MÉTHODES, ORGANISATIONS ET INTERACTIONS. ? Excellente communication écrite et orale : Bonne communication écrite et orale en français pour des interactions fluides avec le métier. ? Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. ? Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. ? Capacité à respecter les délais tout en maintenant des standards élevés. ? Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs NIVEAU ET TYPE D’EXPERTISE REQUIS. ? Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente ? Expérience de plus de 7 ans en Scala/Java ? Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus. MATÉRIEL. Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : ? OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) ? RAM : minimum 16 Go, idéalement 32 Go ou plus ? Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus ? S’assurer que le/la consultant(e) puisse installer les outils et applications et effectuer les paramétrages nécessaires au bon déroulement de sa mission.
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Mission freelance
[FBO] Ingénieur DevOps - Orchestration GPU - Paris - 1264
ISUPPLIER
Publiée le
10 mois
400-475 €
Paris, France
Secteur bancaire. Résumé Compétences techniques requises Orchestration GPU : Expérience avec des solutions d'orchestration GPU (Run.ai, ClearML, Volcano...) Containerisation : Docker, Kubernetes, OpenShift (5+ ans) Infrastructure : OpenShift, infrastructure on-premise, notions AWS/GCP Automatisation : GitLab CI/CD, Jenkins, Kestra est un + Monitoring : Prometheus, Grafana, ELK Stack Scripting : Python, Bash, Go est un + Compétences souhaitées : Expérience avec Run.ai ou KAI Scheduler serait un plus Expérience et intérêt à la gestion de plateforme en production (MCO/MCS) Connaissance des architectures IA/ML et des frameworks (Transformers, TensorFlow, PyTorch) Expérience en environnement bancaire ou secteur régulé Certification Kubernetes (CKA/CKAD) ou Openshift serait un plus Maîtrise des outils Atlassian (Jira, Wiki) Maitrise de l’agilité Soft skills Autonomie et proactivité dans un environnement complexe Capacité à travailler en équipe pluridisciplinaire Excellent relationnel pour accompagner les utilisateurs métier Rigueur et respect des procédures de sécurité Expérience : expérimenté ou + • Les astreintes (HNO, etc…) : oui • La possibilité de renouvellement : Oui • Type de besoin : nouvelle position • Type de projet (support / maintenance / implementation /…) : Implémentation • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Offre d'emploi
Développeur Backend Kotlin
VISIAN
Publiée le
Amazon DynamoDB
AWS Cloud
Kotlin
1 an
Paris, France
Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte entre Nantes et Paris, afin de travailler sur les problématiques Paiement dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Mission freelance
Ansible technical architect
Gentis Recruitment SAS
Publiée le
Ansible
Linux
Microsoft Windows
3 mois
Luxembourg
Contexte Dans le cadre du développement et de la standardisation de la plateforme d’automatisation, la mission vise à accompagner la conception, l’implémentation et l’extension des solutions d’Infrastructure as Code (IaC), ainsi que l’intégration de solutions techniques via l’automatisation. Missions principales Concevoir et implémenter une plateforme d’automatisation robuste et évolutive Étendre la couverture Infrastructure as Code (IaC) Standardiser et industrialiser les processus d’automatisation existants Piloter des projets d’intégration de solutions techniques via l’automatisation Participer à la définition de l’architecture technique Assurer la cohérence et la conformité des environnements techniques Contribuer aux pratiques Agile et à l’amélioration continue Compétences techniques Expertise Ansible (Expert – utilisation continue) Architecture IT (Expert – expérience 1 à 3 ans) Gestion de projets IT (Expert – expérience 1 à 3 ans) Intermédiaire Python (expérience récente – cette année) GitLab (CI/CD – cette année) Enterprise Vault (cette année) Linux (1 à 3 ans) Windows (1 à 3 ans) NAS (1 à 3 ans) OpenShift (expérience régulière) Méthodologie Agile (1 à 3 ans) Environnement technique Automatisation : Ansible CI/CD : GitLab Systèmes : Linux & Windows Conteneurisation / Orchestration : OpenShift Scripting : Python Stockage : NAS Archivage : Enterprise Vault Profil recherché Solide expertise en automatisation et Infrastructure as Code Forte capacité d’architecture et de vision transverse Expérience confirmée en gestion de projets IT Capacité à travailler en environnement Agile Esprit d’analyse, rigueur et orientation résultats Bonne capacité à standardiser et industrialiser des processus techniques
Offre d'emploi
Ingénieur DevOps – Nantes (H/F)
AUBAY
Publiée le
DevOps
Java
Python
40k-50k €
44000, Nantes, Pays de la Loire
Tu veux rejoindre un projet d’envergure ? Tu aimes travailler au croisement du développement, du cloud et de la production ? Aubay Solutec Grand Ouest cherche un(e) Ingénieur DevOps / Intégration Applicative pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. Intégré(e) à une squad Agile, tu joueras un rôle clé sur l’ensemble du cycle de vie applicatif, de la conception au run, en intervenant sur des infrastructures Cloud Native. Tes responsabilités : Prendre en charge des projets de bout en bout : études, conception, automatisation, déploiement et suivi post-mise en production. Concevoir, déployer et maintenir des architectures Cloud (AWS / GCP selon les projets). Mettre en place, fiabiliser et automatiser les environnements via Terraform , Ansible et les outils IaC Cloud Natif. Définir et industrialiser les pipelines CI/CD (GitLab CI/CD, Jenkins, Digital AI, Nexus/Artifactory). Assurer l’intégration et la gestion des images Docker au sein des écosystèmes Kubernetes / Helm . Garantir la stabilité, la résilience et la sécurité des produits en production ; contribuer activement à la résolution d’incidents. Déployer et améliorer les outils de supervision / monitoring : Dynatrace, ServiceNow, ELK, SonarQube . Rédiger une documentation claire et fiable pour les équipes métiers et les équipes d’exploitation. Participer à la montée en compétences des squads métier (présentations, démonstrations, bonnes pratiques). Contribuer à l’amélioration continue des pratiques DevOps (automatisation, observabilité, fiabilité, tooling). 🧰 Ton environnement technique · Docker, Kubernetes (GKE / Cloud), Helm · Terraform, Ansible, GitLab Ops · GitLab CI/CD, Jenkins, Digital AI, Artifactory, Nexus, SonarQube · AWS, GCP (selon projets) · Python, Shell · Spark3 / Hadoop, pipelines IA / LLM (selon contexte) · Agile (Scrum / SAFe)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
277 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois