Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Votre recherche renvoie 39 résultats.
Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)
EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark
1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Senior DevOps / Platform Engineer
KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD
3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
Développeur EBX Senior
EMGS GROUP
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
450-550 €
Paris, France
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Offre d'emploi
INGENIEUR DEVOPS/SRE & EXPERT PUPPET/RUBY H/F
AXONE BY SYNAPSE
Publiée le
Apache Kafka
AWS Cloud
Azure
55k-60k €
Paris, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour un poste en CDI un Ingénieur DevOps / SRE & Expert Puppet & Ruby H/F . Vous intégrerez une équipe technique engagée et interviendrez directement sur des environnements de production critiques. Votre rôle consistera à garantir la disponibilité, la sécurité et la performance des systèmes tout en contribuant activement à leur automatisation. En véritable acteur DevOps, vous participerez à l’amélioration continue des processus, à l’industrialisation des déploiements et à la fiabilisation des infrastructures. Vous serez également impliqué dans la mise en œuvre de pratiques avancées telles que le Zero Downtime Deployment et l’Infrastructure as Code. Objectif et livrable: Garantir la stabilité et la disponibilité des plateformes Automatiser les processus d’exploitation Fiabiliser les déploiements applicatifs Maintenir une documentation technique claire Améliorer en continu les performances systèmes Compétences attendues: Puppet (expert) : gestion de configuration à grande échelle, modules avancés, Hiera, rspec-puppet Ruby (confirmé) : scripting, développement de providers Puppet, automatisation avancée Linux (Debian) : administration système avancée et troubleshooting CI/CD : Git, GitLab CI, pipelines automatisés Infrastructure as Code : Terraform Conteneurs : Docker, Kubernetes Bases de données : MySQL, MongoDB, Elasticsearch, Kafka Cloud : AWS / Azure / GCP / OpenStack
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Mission freelance
Architecte Entreprise SI (Secteur Industrie / Energie)
ARGANA CONSULTING CORP LLP
Publiée le
Amazon S3
Apache Kafka
API
12 mois
750-800 €
Paris, France
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. Missions principales 1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats Profil recherché Expérience : 10+ ans en architecture d’entreprise ou applicative Expérience confirmée en environnements multi-filiales / multi-BU Connaissance des grands groupes industriels, agroalimentaires ou énergétiques appréciée Langues : français courant, anglais professionnel Mobilité : déplacements ponctuels à Bruz (banlieue de Rennes)
Offre d'emploi
Développeur SENIOR C# .Net Core TDD BDD (9 ans et plus)
Digistrat consulting
Publiée le
.NET
.NET CORE
C#
3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 🤝Description détaillée Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur c# backend ayant pratiqué les méthodes TDD et BDD. Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra.
Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)
ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark
Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Mission freelance
ETL Talent Team Lead
K2 Partnering Solutions
Publiée le
CRM
ETL (Extract-transform-load)
Talend
1 an
Paris, France
Nous recherchons un(e) ETL Talent Team Lead pour rejoindre les équipes de notre client. Début : Mai 2026 Durée : 12 mois + Extension Lieu : Paris (Hybride : 2 jours sur site / 3 jours télétravail) Description de la mission Au sein de l’équipe Architecture et Intégration, vous pilotez les lignes de services ETL et Data Streaming dans un contexte international. Pilotage : Encadrement technique d'une équipe de développement internationale (Build/Run). Cadrage technique : Analyse des besoins clients, design d'architecture et conception technique des flux. Administration : Suivi opérationnel et maintien en condition opérationnelle (MCO) des plateformes Talend Cloud (hybride) et Kafka Confluent Cloud . Support & Maintenance : Suivi de l'existant sur les domaines CRM, PIM et Annuaire. Gouvernance : Définition et partage des bonnes pratiques de développement et de configuration. Compétences Requises Talend : Maîtrise de Talend Data Integration Studio V8. CRM : Expérience sur l'intégration avec Salesforce. Anglais : Capacité à travailler quotidiennement dans un contexte multiculturel. Compétences Techniques (Skills) Data : Kafka, SQL et bases de données. Développement : Java (8+), JSON, XML, CSV. Outils & Environnement : Gitlab, Linux/Unix. API : Conception et intégration de flux API.
Mission freelance
Telecom OSS/BSS End-to-End Solution Designer
Signe +
Publiée le
Kubernetes
8 mois
400-550 €
Paris, France
Le Telecom OSS/BSS E2E Solution Designer est responsable de la conception de bout en bout des architectures OSS/BSS dans le secteur télécom. Il assure le lien entre les besoins métiers, les contraintes techniques et les standards télécom afin de garantir des solutions scalables, intégrées et alignées avec les standards du marché . 🧩 Périmètre fonctionnel OSS/BSS📦 BSS (Business Support Systems) Product catalog & offer management CRM & customer lifecycle Order Management (Lead to Order / Order to Cash) Billing, charging, rating, invoicing Revenue assurance & payments 📡 OSS (Operations Support Systems) Service design & inventory Provisioning & activation Network & service assurance Fault, performance & SLA management 🔗 Cross-cutting Intégration (API, ESB, events) Data & analytics Sécurité & conformité Scalabilité & performance 🛠 Responsabilités principales Concevoir des architectures OSS/BSS end-to-end Traduire les besoins business, réglementaires et opérationnels en architecture solution Définir : architectures logiques et physiques blueprints solution flux de données et intégration Concevoir les patterns d’intégration : API REST Event-driven architecture Middleware / ESB / Kafka Garantir la conformité aux standards télécom Réaliser les analyses d’impact (produits, transformation, migration) Participer aux phases : RFP / chiffrage présentation solution Assurer la gouvernance d’architecture (HLD / LLD) Accompagner les phases UAT, go-live et hypercare 🧠 Compétences techniques requises 8+ ans d’expérience en architecture OSS/BSS télécom Maîtrise des processus télécom : Lead to Order (L2O) Order to Cash (O2C) Expérience sur plateformes COTS : Amdocs, Netcracker, CSG, Ericsson, Oracle, Huawei (au moins une) Intégration : API REST Event-driven (Kafka) ESB / middleware Architecture : microservices cloud / hybrid / on-prem data models & canonical models
Mission freelance
Ingénieur C / Go – Systèmes Télécom (Parsing & Protocoles) - Paris/Montpellier (H/F)
EASY PARTNER
Publiée le
C/C++
Go (langage)
Linux
1 an
450-550 €
Paris, France
🧩 Contexte Dans le cadre de la modernisation de systèmes critiques, un acteur majeur du secteur télécom recherche un Ingénieur C / Go pour intervenir sur des logiciels d’interconnexion entre infrastructure réseau et systèmes d’information. Le périmètre couvre des flux internationaux liés au roaming , utilisés pour : la facturation inter-opérateurs la détection de fraude le suivi en temps réel de la consommation 👉 Il s’agit d’un environnement très technique , manipulant des données complexes à bas niveau. 🎯 Mission Vous interviendrez sur un logiciel existant (déjà en production), avec pour objectifs : Comprendre et s’approprier le fonctionnement du système Analyser et manipuler des flux de données binaires Participer à la migration vers une nouvelle infrastructure Assurer la stabilité et la continuité de service Collaborer en binôme avec un ingénieur interne 👉 Pas de refonte immédiate : priorité à la prise en main, compréhension et migration 🔧 Environnement technique Langages : C (principal), Go Systèmes : Linux (Debian / Ubuntu) Parsing : formats binaires (ASN.1, BER, DER ou équivalents) Backend : APIs / Webservices Outils : Git, SQL, Python, Docker, Kafka (selon environnement)
Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris
Almatek
Publiée le
Git
6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Mission freelance
[LFR] Expertise DB2 Mainframe Linux/Unix/Windows, Confirmé à Paris - 1499
ISUPPLIER
Publiée le
10 mois
250-435 €
Paris, France
recherche d'une expertise DB2 Mainframe et LUW pour rejoindre notre équipe de DBA Étude. L’administration, le suivi des performances et le support autour des environnements DB2 (z/OS et LUW), en interaction directe avec les équipes d’intégration, de développement et de production. Un aspect important de la mission consistera à assurer les évolutions en termes de structures, ainsi qu’à valider et customiser les requêtes SQL avant passage en production. Les missions sont : Administration & optimisation : Assurer une gestion des bases DB2 sur mainframe (db2Z) et Linux/Unix/Windows (db2_luw). Maîtriser la suite BMC (Catalog Manager) et DataStudio pour une gestion avancée des bases. Suivi et amélioration des performances : Auditer et formuler des recommandations techniques pertinentes. Validation et exécution de requêtes SQL : Contrôler, valider et exécuter les requêtes SQL avant leur mise en production. Garantir leurs performances. Accompagnement et conseil : Conseiller et assister les différentes équipes dans les démarches BDD. Pilotage des livraisons et déploiements : Superviser la cinématique des livraisons en lien avec l’intégration et assurer la cohérence des déploiements. Support production, suivi de démarrage & gestion des incidents : Intervenir lors des incidents critiques : analyse, diagnostic, résolution collaborative. Surveillance avancée des actions et réplications : Anticiper et mesurer les impacts des évolutions sur la réplication (change data capture) pour garantir la cohérence des flux. Communication, formation et gestion du stress : Qualités relationnelles et pédagogiques pour assurer la synergie et l’anticipation en environnement exigeant. Compétences attendues : Mainframe : IBM z/OS Expertise DB2 : DB2 z/OS et DB2 LUW Outils d’administration : BMC Catalog Manager, DataStudio Maîtrise SQL : optimisation, revue et validation de requêtes Surveillance et tuning : veille sur les performances / tuning Release Management : gestion de la chaîne de livraison et de déploiement Suivi de production & incidents Communication : capacité d’écoute, de conseil et de formation Compétences appréciées : Liquibase Réplication & change data capture Multi-SGBD : Oracle, PostgreSQL, Redis, MongoDB, MySQL, Elasticsearch, Kafka Culture DevOps & CI/CD Profil recherché : Expérience de 5 ans minimum sur un poste similaire. Type de prestation (Client / Hybrid / Remote) : Client Nombre de jours/semaine ou par mois chez le client : 3 jours / semaine
Offre d'emploi
Développeur Full-Stack .NET React - Paris H/F
Webnet
Publiée le
.NET
.NET CORE
React
48k-58k €
Paris, France
Dans le cadre d'un projet chez l'un de nos clients grands compte, nous sommes à la recherche d'un Développeur FullStack .Net React. Intégrez une équipe agile au cœur des sujets métiers finance. Vous participerez à la conception et au développement de solutions de type intranets internes. Vos missions Recueillir les besoins utilisateur Les traduire sous forme de User Stories et Defects Participer à la conception et aux développements Développements de composants en C# .net Développements d'IHM en React.js Approche TDD et tests fonctionnels automatisés Utilisation des Design Patterns Participer à l'amélioration des pratiques et process Automatisation du processus de packaging et release (passage progressif au continuous delivery) Détection et résolution des problèmes du service Stack technique C#/.NetCore, Entity Framework, SQL Server 2022, React.js, javascript. Excellente compétence React requise. Des connaissances Kafka et/ou Elastic Search seront un plus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
39 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois