Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 254 résultats.
Offre d'emploi
Data Architecte
Publiée le
24 mois
45k-50k €
322-500 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
3. Compétences requises - Expérience : o 7 à 12 ans en ingénierie/architecture data avec DWH (Kimball/Inmon), BI, Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. o Modélisation sémantique, data contracts, performance engineering, dbt/metrics layer, GCP + on-premise, IaC/CI-CD pour la data. - Livrables clés : o Architecture one-pager, data contracts, ADRs/HLD, modèle sémantique & arbre de KPIs, runbook/SLOs, modèle de coûts. 4. Gestion des parties prenantes - Collaboration étroite avec les parties prenantes métiers, delivery leads et product owners pour recueillir les besoins, prioriser les fonctionnalités à forte valeur ajoutée, et présenter régulièrement les avancées à la direction. Résumé : Ce SOW définit une mission de Solution Data Architect axée sur la conception, la gouvernance et l'optimisation de solutions data avancées, avec une forte exigence de qualité, de documentation, de collaboration transverse et d'innovation technologique. Lieu : Velizy Lieu d'exécution : Vélizy avec possibilité de télétravail (max 2 jours/semaine).
Mission freelance
Software Engineer Java (H/F)
Publiée le
1 mois
400-500 €
Paris, France
Télétravail partiel
Notre client, acteur international majeur du e-commerce et des solutions SaaS, renforce actuellement ses équipes techniques dans un contexte de forte croissance et d’innovation. Le département Tech, qui regroupe plus de 350 collaborateurs, est au cœur de la stratégie de développement du groupe. Avec la montée en puissance de l’intelligence artificielle et l’évolution rapide du marché digital, de nouveaux produits et projets internes sont lancés. Pour accompagner ces transformations, notre client recherche plusieurs Développeurs Java expérimentés afin de soutenir les équipes existantes sur les applications cœur métier. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * Concevoir et développer des fonctionnalités backend (et ponctuellement front) sur des applications en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code livré. * Collaborer étroitement avec les équipes design, architecture, infrastructure et data. * Contribuer à la mise en œuvre des bonnes pratiques de développement (tests, CI/CD, revue de code). ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Offre d'emploi
Leader Technique Full stack Java - Nantes (F/H)
Publiée le
J2EE / Java EE
Java
45k-60k €
Nantes, Pays de la Loire
Télétravail partiel
Tu es prêt(e) à prendre le lead technique dans une Squad agile? 💡On cherche un(e) Leader Technique Full Stack Java pour booster des services digitaux : Espace Client, CRM, communication multicanale… tout pour améliorer l’autonomie et l’expérience utilisateur. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ce que tu fais au quotidien: Encadrement technique de la Squad : montée en compétence, bonnes pratiques, qualité du code. Support à la réalisation technique : sécurité, performance, provisioning, flux, simplification des solutions. Onboarding & formation des nouveaux développeurs ou montées en compétence ciblées. Engagement agile : estimation des US, sprint planning, participation aux cérémonies agiles, refinements. Documentation technique : architecture, exploitation, installation, artefacts (DoR, DoD…). Veille technologique et méthodologique. Développement actif de fonctionnalités : respect des normes, sécurité, prise en compte des enjeux data. 🔍 Stack technique: Langages : Java 11/17/21 Frameworks : Spring Boot, Spring Batch, REST, orchestration BPMN Architecture : Microservices, architecture hexagonale, TDD, DDD, Event-Driven Tests : Junit, Mockito, Selenium, Gherkin, Cucumber Messaging : Kafka Conteneurisation & CI/CD : Docker, Kubernetes, Helm, Jenkins Outils dev : GitLab, Maven, IntelliJ, SonarQube BDD : MongoDB (NoSQL) Cloud & Stockage : Cloud public ou privé, stockage objet type Amazon S3 Monitoring : Outils de supervision type Kibana Fontend : Web Components, Angular, HTML/CSS Protocoles : MTLS, OAuth2, JWT Agilité : Méthodologie Agile (Scrum) Outils projet : Jira, Confluence
Mission freelance
Architecte Technique - Solutions d'encaissement (H/F)
Publiée le
Intégration
Systèmes embarqués
6 mois
400-650 €
Massy, Île-de-France
Nous recherchons, pour l’un de nos clients grands comptes, un(e) Architecte Technique spécialisé dans les systèmes d'encaissement. Au sein d’une équipe pluridisciplinaire d’experts technologiques, design et product management, vous contribuerez à concevoir et développer des outils digitaux innovants destinés aux collaborateurs en magasin. En tant qu’Architecte Solution spécialisé dans les systèmes d’encaissement, vous jouerez un rôle clé dans l’optimisation et la transformation digitale des opérations de paiement. Vous serez responsable du développement et de l’intégration de solutions performantes pour les terminaux de point de vente (POS), le self-scanning et les caisses automatiques, afin d’améliorer l’expérience client tout en renforçant l’efficacité opérationnelle. Vous interviendrez aussi bien sur des développements internes que sur l’intégration d’applications éditeurs dans le système d’information. Votre environnement technique et vos expertises Maîtrise des bonnes pratiques et concepts de sécurité informatique Expertise en intégration continue (GIT, Jenkins, Sonar) et déploiement continu (Ansible, Terraform) Expérience avec les environnements Cloud (Azure, GCP) Réalisation de tests de charge et analyse de performance applicative Mise en place de monitoring dans des environnements complexes Solide background technique : architectures microservices, orientées événements, data Maîtrise des solutions de queueing (RabbitMQ, Kafka) pour la gestion des événements transactionnels Travail avec API Gateway et API REST pour les communications inter-systèmes Une expérience en architecture encaissement (POS, self-scanning, self-checkout) est un atout majeur Pratique des méthodes Agile et outils associés (JIRA, Confluence) Vos responsabilités clés Référent technique : Apporter une expertise transverse et partager les bonnes pratiques Proposer des améliorations techniques (monitoring, CI/CD, sécurité, automatisation) Contribuer à la roadmap stratégique des systèmes d’encaissement Participer activement aux task forces techniques Piloter la performance et la résilience des systèmes (tests de charge, actions correctives) Accompagnement des projets : Participer à toutes les phases des projets, du cadrage à la mise en production Réaliser des études de faisabilité et analyses de cohérence avec le SI existant Conception d’architecture : Concevoir l’architecture globale des solutions d’encaissement Challenger les éditeurs et proposer les meilleures options d’intégration Documenter les choix techniques dans des DAT (Documents d’Architecture Technique) Coordination inter-équipes : Collaborer avec les leads solution et équipes techniques (réseau, infra, sécurité) Garantir la conformité des solutions aux normes de sécurité et aux spécifications
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
Développeur d’opérateur Kubernetes - (H/F)
Publiée le
Kubernetes
1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte de la Banque un Développeur d’opérateur Kubernetes. Vous rejoindrez une équipe spécialisée dans l’automatisation et l’intégration d’un écosystème complexe autour de Kubernetes / OpenShift. Vous interviendrez notamment sur : Le développement d’opérateurs Kubernetes (en Go ou Python) pour l’intégration d’outils tels que : ArgoCD, HashiCorp Vault, JFrog Artifactory, Prometheus, Kafka, ElasticSearch, ServiceNow, Sysdig, etc. La création et l’automatisation d’applications ArgoCD à partir du RBAC Kubernetes, pour accélérer le déploiement applicatif et la mise en conformité. La contribution à la sécurisation et à l’industrialisation du provisionnement des clusters OpenShift. Le soutien à l’équipe projet dans l’écriture de code d’intégration entre OpenShift et les outils d’administration du Cloud.
Mission freelance
Techlead devops (H/F) - Tours
Publiée le
Angular
Centreon
Hadoop
3 mois
400-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Vos missions Fournir aux équipes agiles un environnement technique performant et des méthodes de développement robustes. Piloter et suivre des chantiers techniques (gestion d’obsolescence, migration, interventions spécifiques). Gérer et faire évoluer les infrastructures (systèmes, environnements, réseaux, conteneurisation, etc.). Assurer un rôle de référent technique sur plusieurs technologies clés du périmètre. Contribuer au support technique (analyses, qualification, gestion d’incidents, post-mortems). Apporter votre expertise sur : L’impact des nouvelles solutions ou technologies sur le SI. Les choix d’architecture et d’outillage, en lien avec les autres pôles d’expertise. Environnement technique Web & API : Spring Boot, Angular, PostgreSQL Flux temps réel : EMS, REST, SOAP, Kafka Flux batch : Spring Batch, Spring Boot Données : Hadoop, Spark, Datahub, Datalake, OpenShift AI Conteneurisation : OpenShift Observabilité : Centreon, Dynatrace, Grafana, Prometheus, OpenSearch Authentification : Keycloak CI/CD : GitLab, Jenkins (ou équivalents)
Mission freelance
Développeur Java Angular Aix en Provence/la
Publiée le
Angular
Java
6 mois
320-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Développeur Java Angular Aix en Provence Fullstack Expérience souhaitée : 7 ans Angular : 3/4 ans Compétences techniques nécessaires : Développement Back-end (5 ans minimum) : Java, Quarkus Développement Front-end (mise en œuvre): Angular ou autre framework front-end CI/CD : maîtrise complète de l’un des outils (Jenkins, GIT CI/CD ou autre) Virtualisation : Environnement Kubernetes, Docker Pratiques : Clean code Compétences techniques qui seraient un avantage : Développement data : Hadoop, Spark, Kafka, Redis, Elastic Développement Back-end : Kotlin CI/CD : maîtrise des outils Jenkins ou Concourse Méthodes projet : Agilité pratiquée Développeur Java Angular Aix en Provence
Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark
Publiée le
Apache Spark
Big Data
Cloudera
3 ans
Paris, France
Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP
Mission freelance
Développeur Java Angular Aix en Provence/la
Publiée le
Angular
Java
6 mois
320-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Développeur Java Angular Aix en Provence Fullstack Expérience souhaitée : 7 ans Angular : 3/4 ans Compétences techniques nécessaires : Développement Back-end (5 ans minimum) : Java, Quarkus Développement Front-end (mise en œuvre): Angular ou autre framework front-end CI/CD : maîtrise complète de l’un des outils (Jenkins, GIT CI/CD ou autre) Virtualisation : Environnement Kubernetes, Docker Pratiques : Clean code Compétences techniques qui seraient un avantage : Développement data : Hadoop, Spark, Kafka, Redis, Elastic Développement Back-end : Kotlin CI/CD : maîtrise des outils Jenkins ou Concourse Méthodes projet : Agilité pratiquée
Mission freelance
Cybersecurity Architect (H/F) – Basé à Paris
Publiée le
Architecture
1 an
400-570 €
Paris, France
Description du poste Nous recherchons un Architecte Cybersécurité , basé à Paris , pour accompagner les projets dans l’intégration de la sécurité dès la conception. Le poste s’inscrit dans un contexte international , couvrant un périmètre étendu : Cloud, Data, IA, Applications et Infrastructures . Missions principales Conseiller et accompagner les équipes projets dès les phases de design et de choix techniques . Définir et maintenir des guidelines de sécurité robustes et évolutives. Participer aux revues d’architectures (infrastructure, plateformes, applications). Contribuer aux audits techniques et à la définition de nouvelles architectures sécurisées . Diffuser la culture sécurité au sein des équipes internes et assurer un rôle de référence technique . Travailler en lien étroit avec les équipes internationales sur les projets stratégiques du groupe . Stack & Environnement technique Cloud : AWS, GCP Infrastructure as Code , Kubernetes , Containers , Serverless API Management , CI/CD , GitOps Protocoles d’authentification : SAML, OAuth2.0, OIDC… Data Platform : ETL, Kafka, Datalake, IoT, Réseau (VPN, WAF, PAM…)
Mission freelance
Architecte MongoDB / Azure
Publiée le
Azure
Mongodb
3 mois
650-700 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte MongoDB / Azure" pour un client dans le secteur de l'immobilier Description 🎯 Contexte de la mission Le Groupe, acteur majeur de l’immobilier en France, regroupe de nombreuses activités : promotion, construction, gestion de patrimoine, hôtellerie, restauration, foncier d’entreprise et administration de biens. La DSI, structurée autour de pôles spécialisés (sécurité, architecture, production, métiers et projets transverses), pilote l’ensemble des systèmes d’information du groupe. Dans le cadre de la digitalisation réglementaire de la facturation (PDP – Plateformes de Dématérialisation Partenaires) , le groupe doit mettre en place une nouvelle base NoSQL centralisée pour assurer la conformité, la traçabilité et la supervision des flux de facturation multi-métiers. Ce projet, baptisé DIABI , s’appuiera sur MongoDB Atlas sur Azure et s’interfacera avec les PDP satellites via l’ESB Snaplogic . L’objectif est de garantir la robustesse, la sécurité et la performance de cette solution critique, tout en assurant une gouvernance et une exploitation optimales. ⚙️ Rôle et responsabilités En tant qu’ Architecte MongoDB Atlas sur Azure , vous serez en charge de concevoir et piloter la mise en œuvre de l’architecture technique complète de la plateforme NoSQL. Vos principales missions seront : Concevoir l’architecture cible MongoDB Atlas sur Azure : topologie, interconnexion réseau, haute disponibilité, sauvegarde et reprise après incident. Définir le modèle de données et les schémas documentaires adaptés aux formats de facturation (Facture X) et aux contraintes réglementaires. Implémenter la sécurité : chiffrement (at rest / in transit), BYOK / Azure Key Vault, RBAC / AD / IAM, audit et journalisation. Superviser l’intégration des flux avec les pipelines Snaplogic, Kafka ou Azure Data Factory. Mettre en place l’observabilité et le monitoring via Grafana / Azure Monitor (métriques, alerting, dashboards). Optimiser les performances : indexation, sharding, tuning des agrégations et requêtes. Connecter MongoDB à Grafana et Power BI pour la visualisation et la gouvernance des données. Rédiger les livrables techniques (architectures, runbooks, plans de tests, schémas de données, règles de sécurité). Accompagner les équipes internes dans la prise en main et le run de la solution.
Offre d'emploi
Ingénieur Big Data DevOps
Publiée le
Apache NiFi
3 ans
Île-de-France, France
Télétravail partiel
Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.
Offre d'emploi
Tech lead Databricks
Publiée le
Databricks
PySpark
Python
6 mois
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Nous recherchons un Tech lead pour accompagner notre client (leader sur le marché international de services de paiement) sur ses projets. L’objectif : concevoir et développer un framework d’ingestion scalable sur Databricks (PySpark, Delta Lake) Vos missions : · Implémenter des pipelines d’ingestion standardisés batch et temps réel (streaming) depuis différentes sources (fichiers, bases de données, APIs, Kafka, etc.). · Mettre en place un framework de contrôle qualité des données ainsi que les mécanismes de monitoring / alerting. · Encadrer techniquement l’équipe, assurer les revues de code et diffuser les bonnes pratiques. · Gérer les workflows GitHub, les stratégies de versioning et les pipelines CI/CD. · Documenter les choix techniques, processus et composants développés. · Collaborer avec les équipes produit, data engineering et métier dans un environnement international anglophone. · Être force de proposition sur les choix d’architecture et l’évolution du framework.
Mission freelance
Expert BigData / Cloud Data Engineer Senior
Publiée le
Cloud
6 mois
160-650 €
Île-de-France, France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site Les astreintes (HNO, etc…) : Oui
Mission freelance
Concepteur Développeur Codeur Expérimenté
Publiée le
Azure
Kubernetes
6 mois
280-400 €
Bordeaux, Nouvelle-Aquitaine
orte expérience en développement JAVA/.NET, et en conception technique, permettant d'intervenir en parallèle sur 2 périmètres technologiques différents Capacité à s'approprier rapidement un périmètre applicatif (autonomie et proactivité) Capacité à travailler en équipe et à collaborer avec des product managers. Rigueur, autonomie et sens de l’initiative Curiosité et envie de monter en compétences sur les technologies modernes. * Développement back-end : maitrise du développement en JAVA 21 et SPRING boot maitrise du développement en ASP .NET CORE 8 et ASP .NET FRAMEWORK 4.8 * Base de données : bonne connaissance de SQL Server et MongoDB Messaging : expérience avec Kafka * Architecture et environnements : compréhension de l’architecture microservices, DDD (Domain-Driven Design), REST, Design First * Outils et environnements : connaissances en Kubernetes et maîtrise d’Azure DevOps Observabilité : utilisation de Grafana * Méthodes et outils : Maîtrise de Git (indispensable) / Expérience avec l’outil de gestion de projet JIRA / Capacité à travailler en environnement Agile/Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
254 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois