Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Votre recherche renvoie 289 résultats.
Freelance

Mission freelance
Responsable de Domaine – Socles Industriels & Cloud.

Groupe Aptenia
Publiée le
Apache Kafka
API
CI/CD

2 ans
460-600 €
Paris, France
Dans le cadre du renforcement de sa Direction des Systèmes d’Information, un grand groupe mutualiste du secteur de la protection sociale recherche un Responsable de Domaine – Socles Industriels & Cloud . Rattaché au Département Socles et Cloud , ce rôle est central pour assurer la continuité, la performance et l’évolution des socles industriels mis à disposition des équipes de développement et projets applicatifs. Le responsable de domaine pilote à la fois : la gestion opérationnelle et managériale des équipes, la stratégie technologique des socles, la transformation Agile & DevOps , la maîtrise budgétaire des plateformes et outils. Missions principales Gestion opérationnelle et managériale Management et animation de 3 équipes (environ 20 collaborateurs , internes et prestataires ESN). Développement des compétences, accompagnement et maintien d’un climat collaboratif. Pilotage de la relation avec les prestataires. Garantie de la continuité de service et du support aux équipes de développement. Pilotage des socles industriels Évolution des technologies communes de développement : Frontend / IHM Services Backend APIs Traitements Batch Supervision des solutions d’intégration : ESB API Management Kafka Pilotage des plateformes CI/CD & DevSecOps : GitLab / GitLab CI SonarQube Nexus Snyk Gestion des outils collaboratifs DSI : JIRA Confluence Automatisation des déploiements : Ansible Orchestration des releases (CloudBees CD/RO) Accompagnement & transformation Accompagnement des équipes dans l’appropriation des socles et bonnes pratiques. Évolution des paradigmes d’architecture : APIsation Micro-services Plateformes de conteneurs Identification des besoins émergents et propositions d’évolutions technologiques. Pilotage budgétaire Élaboration, suivi et optimisation des budgets projets . Gestion du budget MCO des plateformes et outils. Contribution à l’optimisation des coûts et à la rationalisation des usages. Contribution à la feuille de route DSI Participation active à la définition de la roadmap technologique . Veille technologique continue. Représentation des socles industriels auprès des autres départements DSI et des métiers.
Freelance

Mission freelance
Data Engineer - IA (Bordeaux)

Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT

12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
CDI

Offre d'emploi
Ingénieur Etudes et développement

CAT-AMANIA
Publiée le
Apache Kafka
API REST
Docker

Lille, Hauts-de-France
LE PROJET Dans le cadre du gain d'un projet stratégique pour CATAMANIA pour l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons plusieurs développeurs Confirmés et Séniors au sein de notre agence Lilloise. L'objectif est de mettre en place d’un Centre de Compétences en vue de créer une nouvelle brique applicative permettant d’«arrimer » des flux de paiement, des clients directs et prestataires externes au nouveau processeur.​ Cela implique :​ De reprendre des flux en place (conversion au format du processeur) et de la basculer vers la nouvelle brique applicative. D’optimiser les processus d'émission (Domaine émission). De gérer des données et des contestations (Domaines Acquisition et Contestation)​. ​ Réalisation de la nouvelle brique permettant de traiter plusieurs typologies de flux en entrée et en sortie (API / flux JSON, API SOAP, fichiers plats, fichiers XML, flux temps réel via Kafka, messages asynchrones MQ) dans un écosystème réglementé et sécurisé (PCI SSF, ISO 20022, chiffrement, traçabilité). Cette brique embarque des services de traitement de flux (chiffrement, conversion, dédoublonnage, routage, supervision, etc.) dans un contexte de très fortes volumétries impliquant performance, scalabilité et résilience.​ ​ TECHNOLOGIES DU PROJET : JAVA 21, SPRING BOOT 3, ARCHITECTURE MICROSERVICES, API REST, KAFKA, OPENSHIFT (KUBERNETES, DOCKER), XLD, XLR VOTRE MISSION… UNE FOIS INTÉGRÉ(E) DANS NOS ÉQUIPES ! Comprendre le besoin métier et proposer une conception technique Assurer la conception et le développement avancé en Java Spring microservices sur tous les patterns d’échange définis (API, Kafka, fichiers). Réaliser les développements en s’assurant de la qualité, sécurité et performance par un travail d’équipe et l’élaboration de tests Participer activement aux tests techniques et à l’intégration. Documenter techniquement les solutions développées. Identifier et anticiper les risques Travailler en étroite collaboration avec les équipes MOA, Test et Architecture
CDI
Freelance

Offre d'emploi
Ingénieur Devops Senior

Lùkla
Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Kafka
Apache Maven

2 ans
45k-55k €
450-550 €
La Défense, Île-de-France
Nous recherchons un(e) Ingénieur DevOps Senior. Véritable pivot technique, vous serez le point de contact privilégié pour les sujets opérationnels de déploiement, de gestion d'infrastructure et d'automatisation. Vous évoluerez dans un écosystème complexe (grands comptes) et collaborerez étroitement avec les Product Owners, les Architectes, les Tech Leads et les équipes d'exploitation pour garantir la stabilité et la performance de nos plateformes Pilotage de l’Infrastructure & Déploiement Gestion Cloud (AWS) : commissionnement et décommissionnement des ressources (EC2, RDS, ELB/ALB, S3). CI/CD & automatisation : maintenir et faire évoluer la chaîne Jenkins (jobs, pipelines). Piloter la migration vers GitLab CI. Gestion applicative : installation des composants (JRE, PHP, Apache, PostgreSQL) et déploiement des applications (configuration Zuul). Infrastructure as Code (IaC) : préparation des playbooks Ansible et des Helm Charts pour l'orchestration Kubernetes. Maintien en Condition Opérationnelle (MCO) Analyse & résolution : diagnostic d'incidents de production et optimisation des performances (RAM, CPU, FS, transactions). Garant des process : veiller au respect des bonnes pratiques (Git flow, Nexus) et gérer les ouvertures de flux inter-plateformes. Sécurité & documentation : maintenir à jour les dossiers de configuration, d’exploitation et les images Docker. Collaboration & Conseil Alerter les équipes projets sur les risques de configuration ou de performance. Assurer l'interface avec les équipes d'infrastructure centrales lors des phases critiques de mise en production. Environnement Technique Cloud & Orchestration : AWS (S3, RDS, API Gateway), Docker, Kubernetes (EKS). CI/CD & Qualité : Jenkins, GitLab CI, Maven/NPM, Git, Sonar, Nexus. Observabilité : ELK Stack. Data & Middleware : Kafka (Event-Driven), PostgreSQL 16, Apache, Nginx, Tomcat. Langages & Scripts : Groovy (pipelines), Java (8/17), Helm, Liquibase, Flyway, REST. Sécurité : SSL, OAuth2, SSO, PingID/PingAM.
Freelance
CDI

Offre d'emploi
Développeur Full stack (Java, Angular et Python)

R&S TELECOM
Publiée le
Angular
Apache Kafka
DevOps

12 mois
40k-48k €
400-420 €
Paris, France
Développeur Full stack (Java, Angular et Python) Compétences techniques minimales : Bonne maîtrise du language de programmation Java (17+) Bonne maîtrise du language de programmation Angular Bonne maîtrise du language de programmation Python Connaissance de Kafka, Kafka Connect Connaissance de spring Connaissance d’une base de données relationnelle ou NOSQL Expérience dans des environnements distribués sous fortes contraintes en matière de performance, intégrité et disponibilité Méthodologie agile (SAFE) Méthodologie DevOps
Freelance

Mission freelance
Développeur .NET Core

AGH CONSULTING
Publiée le
.NET
.NET CORE
Agile Scrum

6 mois
300-450 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Développeur(se) .Net Core pour intervenir sur des systèmes complexes, orientés scalabilité , performance et robustesse , au sein d’une organisation Agile. A ce titre, vos principales missions seront les suivantes : -Concevoir et développer des applications back-end .NET supportant de gros volumes de données -Participer aux choix d’ architecture microservices (DDD, REST, Design First) -Garantir la qualité , la performance et la maintenabilité des solutions -Contribuer activement aux pratiques Agile / Scrum -Être force de proposition sur les aspects architecture, observabilité et performance
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Freelance
CDI

Offre d'emploi
Développeur fullstack Java VueJS

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
CDI
Freelance

Offre d'emploi
Consultant DevOps GCP H/F

Le Groupe SYD
Publiée le
Ansible
Apigee
Git

36 mois
45k-53k €
480-550 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : Jusqu’à 2 jours/semaine 📝Contrat : CDI ou Indep/Portage 👉 Contexte client : Tu rejoins un acteur majeur du secteur technologique et des services cloud , au cœur d’une équipe Plateforme spécialisée dans l’industrialisation et la sécurisation des environnements d’échanges critiques. L’objectif : renforcer la résilience, automatiser l’exploitation et accompagner les évolutions d’infrastructures complexes intégrant des briques telles que Kafka, Apigee, SFTP, Bucket GCP ou encore MailGun . Tu auras pour missions de : Améliorer l’industrialisation, l’automatisation et la supervision des plateformes d’échanges : Kafka, Apigee, SFTP, Bucket GCP . Travailler sur la résilience des environnements Kafka / Apigee / SFTP et accompagner les projets de migration Kafka (Move2Paris) . Participer aux sujets d’intégration autour de l’ IA avec APIGEE (MCP Server) et d’autres plateformes Google Kafka. Intégrer un nouveau périmètre dans l’équipe : MailGun (Canon à mail) . Concevoir et maintenir des pipelines CI/CD via Git, Argo , Infrastructure as Code avec Terraform , et automatisations via Ansible . Développer des scripts (Shell, Python) pour automatiser, superviser et fiabiliser l’exploitation. Contribuer à la sécurisation, à la montée en robustesse et au monitoring des plateformes. Participer à la rédaction des procédures, documentations techniques et guides d’exploitation . 🧰 Stack technique : Cloud / Plateforme : GCP, Bucket GCP, Kafka, Apigee, SFTP, MailGun, Cloudflare Infra as Code : Terraform CI/CD : Git, Argo Conteneurisation / Orchestration : Kubernetes Automatisation : Ansible Scripting : Shell, Python
Freelance

Mission freelance
248360/Redéveloppement d'un Modèle Industriel Stratégique en Python - Dunkerque

WorldWide People
Publiée le
Python

6 mois
400-550 €
Dunkerque, Hauts-de-France
Redéveloppement d'un Modèle Industriel Stratégique en Python Dunkerque - f orte compétence en Python, Azure DevOps, Azure Pipelines, Kafka et RabbitMQ. Contexte de la mission Nous sommes à la recherche d'une expertise en développement Python pour intervenir sur le redéveloppement d’un modèle industriel stratégique. Ce projet s'inscrit dans un contexte de traitement de l’obsolescence, où il est crucial de réécrire un modèle existant en Python. L'objectif est de maintenir les performances et le périmètre fonctionnel actuels tout en produisant un code documenté et conforme aux standards techniques internes. L'environnement de travail mêle informatique, big data et informatique industrielle, nécessitant une forte compétence en Python, Azure DevOps, Azure Pipelines, Kafka et RabbitMQ. Une compréhension des mathématiques appliquées, des environnements industriels et des anciens socles techniques comme Fortran sera un atout précieux. Objectifs et livrables Nous visons à atteindre les objectifs suivants : Réécriture complète du modèle existant en Python tout en maintenant les performances actuelles. Production d'un code documenté et conforme aux standards techniques internes. Intégration fluide avec les outils Azure DevOps et Azure Pipelines. Utilisation efficace de Kafka et RabbitMQ pour la gestion des messages. Appréciation des mathématiques appliquées et des environnements industriels pour une meilleure compréhension du projet. Capacité à comprendre et à travailler avec d'anciens socles techniques comme Fortran. Compétences demandées Azure DevOps Confirmé RabbitMQ Avancé Fortran Élémentaire Mathématiques appliquées Avancé Azure Pipelines Confirmé Python Confirmé Kafka Avancé Langues Niveau de langue Français Bilingue
Freelance

Mission freelance
dev. .NET

W Executive France SAS
Publiée le
.NET

3 ans
Bordeaux, Nouvelle-Aquitaine
Bonjour, je recherche pour l'un de mes clients un(e) dev. .NET. Skills : .NET - AWS - Kafka ou RabbitMQ - Event-DRIVEN - anglais Mission : -concevoir et développer des services backend asynchrones et scalables -mettre en place et maintenir des architectures orientées événements (Event-Driven Architecture) -implémenter des calculs de probabilités et traitements en temps réel sur des flux de données -intégrer et exploiter des systèmes de messagerie et de streaming (Kafka, RabbitMQ) -déployer et maintenir des applications sur AWS N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance

Mission freelance
[SCH] Développeur Python – Redéveloppement de Modèle Industriel Stratégique - 1391

ISUPPLIER
Publiée le

10 mois
350-400 €
Dunkerque, Hauts-de-France
Dans le cadre du traitement de l’obsolescence d’un modèle industriel stratégique, notre client recherche un Développeur Python afin de prendre en charge la réécriture complète d’un existant vers un socle Python moderne. L’objectif est de conserver le périmètre fonctionnel et les niveaux de performance actuels, tout en produisant un code robuste, documenté et aligné avec les standards techniques internes. La mission s’inscrit dans un environnement mêlant informatique industrielle, data et systèmes distribués, avec une forte interaction avec des outils comme Azure DevOps, Azure Pipelines, Kafka et RabbitMQ. Une appétence pour les mathématiques appliquées et la compréhension d’anciens socles techniques, notamment Fortran, seront particulièrement appréciées. Missions : -Réécrire un modèle industriel existant en Python -Garantir le maintien du périmètre fonctionnel et des performances actuelles -Produire un code documenté, maintenable et conforme aux standards internes -Participer à l’analyse de l’existant et à la compréhension du modèle source -Intégrer les développements dans un environnement Azure DevOps / Azure Pipelines -Mettre en œuvre les échanges de données et de messages avec Kafka et RabbitMQ -Contribuer aux phases de tests, validation et optimisation -Participer à l’amélioration de la qualité, fiabilité et traçabilité du code -Interagir avec les équipes projet dans un contexte industriel et technique exigeant -Comprendre et exploiter, si nécessaire, des briques techniques plus anciennes comme Fortran Profil attendu : -Expérience confirmée en développement Python -Bonne maîtrise des environnements Azure DevOps et Azure Pipelines -Expérience avec des systèmes de messaging comme Kafka et RabbitMQ -Bonne compréhension des problématiques de performance et de maintenabilité du code -Appétence pour les mathématiques appliquées et les modèles techniques complexes -Expérience ou capacité à appréhender des environnements industriels / scientifiques -Connaissance d’un ancien socle comme Fortran appréciée -Capacité à produire de la documentation technique claire -Rigueur, autonomie et capacité d’analyse -Très bon niveau de français requis
Freelance

Mission freelance
Développeur Senior C++ – Secteur Télécom - Montpellier (H/F)

EASY PARTNER
Publiée le
C/C++
Linux

1 an
470-550 €
Montpellier, Occitanie
Missions Développement et maintenance de logiciels backend en C++ Refactoring et simplification de composants existants Analyse des logs de production Debug et résolution d’incidents en environnement Linux Participation à l’amélioration de l’architecture technique Collaboration avec une équipe expérimentée sur des systèmes critiques Environnement technique Langages C++ (moderne C++ (+11) Perl Systèmes Linux (Debian / Ubuntu) Technologies appréciées Python (FastAPI / Flask) SQL (MySQL / MariaDB) Docker Outils / Ecosystème Grafana ClickHouse Kafka
Freelance
CDI

Offre d'emploi
Développeur SENIOR C# .Net Core TDD BDD (9 ans et plus)

Digistrat consulting
Publiée le
.NET
.NET CORE
C#

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 🤝Description détaillée Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur c# backend ayant pratiqué les méthodes TDD et BDD. Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra.
CDI

Offre d'emploi
Développeur Java EE (H/F)

Amiltone
Publiée le
Java

30k-35k €
Avignon, Provence-Alpes-Côte d'Azur
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet de développement back-end. - Concevoir, développer et maintenir des applications en respectant les spécifications - Participer au Code Review avec les autres développeurs du projet - Ecrire de tests unitaires et fonctionnels durant vos développements - Travailler en collaboration avec une équipe agile et participer aux réunions techniques La stack technique : - Java (8/11/17) - SpringBoot - Hibernate - SQL - Microservice - Kafka - API Rest
289 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous