Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Votre recherche renvoie 170 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert Kafka/Elastic

CS Group Solutions
Publiée le
Apache Kafka
Elasticsearch

6 mois
300-3k €
Niort, Nouvelle-Aquitaine

Nous recherchons un Expert Kafka/Elastic Contexte: Dans le cadre de l’évolution de son système d’information, le client a identifié le besoin de s’adjoindre l’expertise d’une société de prestation de services disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. Prestations attendues: Assister et conseiller dans le choix et l’utilisation des méthodes Informer sur les évolutions Former aux nouvelles technologies et systèmes Participer aux études et développement & conduite d’études ponctuelles Gérer des normes, méthodes, outils et référentiels Mettre en place les normes, méthodes et outils et en vérifie l'application Certifier des composants et applications développées Expertises attendues: Apache Kafka Confluent sur Kubernetes Openshift. Stack Elastic type ELK sur Elastic Cloud Enterprise. Socle Ansible/Python pour l’industrialisation des solutions. Prometheus/Grafana pour la supervision. C35 Ecosystème comprenant des outils open-sources comme AKHQ ou KafkaGitops. Livrables attendus: Dossiers d'expertise Référentiels domaine d'expertise

Freelance

Mission freelance
Architecte Kafka

BEEZEN
Publiée le
Apache Kafka
Microsoft SQL Server

12 mois
600-800 €
Paris, France

Bonjour, je recherche pour un de mes clients un ARCHITECTE KAFKA Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership. Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3. Outils : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW)

Freelance

Mission freelance
Pilote / POA (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Oracle
UNIX

2 ans
450-600 €
Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Pilote / POA (H/F) à Ville de Paris, Île-de-France, France. Contexte : Fonctionnement : sur site à Paris + Télétravail Les missions attendues par le Pilote / POA (H/F) : Description du profil : Le pilote organise la mise en oeuvre d’un chantier transverse. Il accompagne également le client dans la mise en place des processus de modernisation et de développement technologique des applications. 3 à 5 ans minimum d'expériences professionnelles Activité principale : Piloter les événements de production (incidents, crise, patch urgent…) et réaliser les premières analyses. o Suivi des indicateurs de bon fonctionnement o Gestion de la relation avec les SI partenaires o Point d’entrée pour l’infogérant en production o Facilitation de la continuité de service en pilotant des MeP, reporting et indicateurs Activité secondaire : Assurer le rôle d’interlocuteur avec les différentes parties prenantes (PO, OI (IPI, SN1, SN2)), Mettre en place et suivre les plannings de déploiement sur les différents environnements, Piloter les MEP en facilitant au mieux la continuité de service et la communication Assurer le reporting lié à la production, Suivre les indicateurs de bon fonctionnement du SN1&SN2 technique Suivre les indicateurs de bon fonctionnement du SN3 délégué aux équipes, Participer aux réunions opérationnelles de pilotage avec les équipes. Stack technique du projet : Principales : Java (8 minimum), Java EE (CDI, JAX-RS, JMS), Spring (Spring Core au minimum), Maven, Jenkins, Ansible, Git, Shell, VirtualBox, Docker Souhaitées : Base de données relationnelles (Oracle), Kafka, Systèmes Unix (RHEL), Notions en sécurité (structure d’une PKI, protocole TLS) Expérience de systèmes de supervision (ex. Grafana, InfluxDB, Prometheus, Collectd, Telegraf, AppDynamics, JmxTrans, Micrometer, etc…)

Freelance

Mission freelance
Consultation POA - Pilote/POA - Niveau 2 (Confirmé) F/H

SMARTPOINT
Publiée le
Apache Kafka
Grafana
Java

12 mois
350-400 €
Île-de-France, France

Activité principale : Piloter les événements de production (incidents, crise, patch urgent…) et réaliser les premières analyses. o Suivi des indicateurs de bon fonctionnement o Gestion de la relation avec les SI partenaires o Point d’entrée pour l’infogérant en production o Facilitation de la continuité de service en pilotant des MeP, reporting et indicateurs Activité secondaire : Assurer le rôle d’interlocuteur avec les différentes parties prenantes (PO, OI (IPI, SN1, SN2), de l’OIT), Mettre en place et suivre les plannings de déploiement sur les différents environnements, Piloter les MEP en facilitant au mieux la continuité de service et la communication Assurer le reporting lié à la production, Suivre les indicateurs de bon fonctionnement du SN1&SN2 technique délégué à l’OI-ERDF/OIT, Suivre les indicateurs de bon fonctionnement du SN3 délégué aux équipes, Participer aux réunions opérationnelles de pilotage avec les équipes. Stack technique du projet : Principales : Java (8 minimum), Java EE (CDI, JAX-RS, JMS), Spring (Spring Core au minimum), Maven, Jenkins, Ansible, Git, Shell, VirtualBox, Docker Souhaitées : Base de données relationnelles (Oracle), Kafka, Systèmes Unix (RHEL), Notions en sécurité (structure d’une PKI, protocole TLS)Expérience de systèmes de supervision (ex. Grafana, InfluxDB, Prometheus, Collectd, Telegraf, AppDynamics, JmxTrans, Micrometer, etc…) Compétences attendues sur le profil : Qualités relationnelles fortes, capacité à exprimer son ressenti Capacité d'analyse (problématique technique, enchaînement cause / conséquence sur incident à partir d'une vue partielle) et de priorisation Fortes capacités rédactionnelles et de synthèse (REX) La connaissance de l'écosystème Linky serait un plus. Ordonnancement de tâches et coordination d'équipes (exemples : MEP, incidents, etc …) Capacité de réactivité, d’initiative et de disponibilité Fort niveau d’autonomie et d’adaptation pour mener à bien ses activités dans un environnement complexe

Freelance

Mission freelance
Product Owner Data Workato, Mulesoft, Boomi

Freelance.com
Publiée le
Apache Kafka

7 mois
100-450 €
Clichy, Île-de-France

Poste : Integration Product Owner - Junior Expérience : 3 ans et plus TJM d’achat max : 450 (à titre indicatif) Localisation : Clichy, France Deadline réponse : 20/05/2024 Démarrage : 20/05/2024 Freelance Durée mission : 7 mois Contexte de la mission : Nous sommes à la recherche d'un(e) Integration Product Owner pour gérer le backlog Intégration des échanges de données sur les projets Neo O+O. Objectifs/Descriptif de mission : - Faciliter la communication entre les équipes intégration et projet. - Recueillir les besoins et les "réquirements" d'intégration des projets IT Neo. - Élaborer et maintenir le planning en collaboration avec les Business Analysts Intégration. - Analyser les demandes, defecct et incidents, et proposer des solutions - Assurer le respect des processus et bonnes pratiques d'intégration. Profil recherché : - Solides connaissances des échanges de données API et EVENT. - La maîtrise d'outils tels que Workato, Mulesoft, Boomi serait un atout. - Présence requise sur site trois jours par semaine à Clichy/Levallois. TECHNOLOGIES Google Apigee Kafka confluent ServiceNow

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Architecte Java (habilitable)

Agrega
Publiée le
Apache Kafka
Docker
ELK

6 mois
650-680 €
Gennevilliers, Île-de-France

Dans le cadre de cette prestation, les différentes activités à réaliser à chaque Incrément ou Release sont les suivantes : T1 : Élaborer l’architecture logiciel pour le projet et préparer les dossiers de conception et de justification T2 : Coordonner la conception au sein de l’équipe logiciel T3 : Piloter les développements et vérifier leur cohérence avec les principes d’architecture T4 : Garantir le respect des standards du domaine, de la politique de re-use T5 : S’assurer de la consistance et cohérence système et logiciel en liaison avec l’architecte système T6 : Garantir la testabilité de l’architecture. Participer à l’élaboration des plans de test et aux actions correctives nécessaires lors de leur exécution

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Developpeur Full Stack

Enterprise Digital Resources Ltd
Publiée le
Apache Kafka
CI/CD
Docker

7 mois
100-490 €
Hauts-de-France, France

Au sein du Domaine Customer Delivery de la plateforme Supply Chain, nous cherchons un développeur fullstack expérimenté pour notre Transport Management System TMS B2C. Ce produit permet de choisir le transporteur adapté à la commande client et de gérer sa livraison et son tracking. Le contexte est international (déploiement dans différents pays), l'anglais courant est un plus. Le projet pivote et nous devons construire "from scratch" plusieurs composants. Le rôle du développeur dans l'équipe : - dév des features + run de l'existant - capacité / curiosité de comprendre le besoin fonctionnel pour trouver la solution tech qui répond au besoin - connaissances devOps - force de proposition / d'amélioration sur le code / l'architecture applicative / l'organisation de l'équipe - TU + Tests automatisés à systématiser

Freelance

Mission freelance
Consultant/Chef de projet Cloud

GROUPE ALLIANCE
Publiée le
Apache Kafka
Kali Linux
Prometheus

12 mois
410-750 €
Paris, France

Pour le compte de l' un de nos clients dans le domaine assuranciel, nous recherchons un Consultant/Chef de projet Cloud L’objectif de la mission est de définir et de mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh o Recueillir les besoins et les critères permettant de faire le choix de la plateforme de ServiceMesh o Cadrer les principes et accompagner la mise en œuvre au sein de notre solution de gestion de conteneurs o Définir et accompagner la mise en œuvre des principes de développements de l’approche ServiceMesh - Définir les patterns de conception cible des applications comme Circuit Breaker, Canary Deployement, Blue/Green Deployement, A/B Testing, …. - Définir les patterns de conception d’architecture EDA et EventMesh ainsi que leurs déclinaisons opérationnelles o Recueillir les besoins et les critères permettant de faire le choix de la plateforme de gestion des évènements o Cadrer les principes et accompagner la mise en œuvre de la plateforme de gestion d’évènements - Cadrer les principes de recette et de validation de la nouvelle approche de développement qui sera choisie o Définir les principes de migration des anciens patterns de conception /développements vers la nouvelle approche - Former et accompagner le changement chez les parties prenantes - Conception de support de communication La prestation aura lieu principalement à Paris avec des déplacements réguliers sur le site du Mans et d’autres à prévoir de manière moins fréquente sur les sites de Niort, Levallois et Saran

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

Freelance

Mission freelance
Développeur full stack java/vue (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Docker
Java

2 ans
100-440 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack java/vue (H/F) à Lille, Hauts-de-France, France. Contexte : Supply Les missions attendues par le Développeur full stack java/vue (H/F) : Le rôle du dév dans l'équipe : - dév des features + run de l'existant - capacité / curiosité de comprendre le besoin fonctionnel pour trouver la solution tech qui répond au besoin - connaissances devOps - force de proposition / d'amélioration sur le code / l'architecture applicative / l'organisation de l'équipe - TU + Tests automatisés à systématiser Technos : Java 21, Spring boot 3, MongoDB, Postgresql, CI/CD Github actions, Kubernetes, Docker (modifié), Datadog A noter, même si elles ne sont pas encore en place dans l'équipe, des astreintes seront certainement mises en places au cours de l'année.

Freelance

Mission freelance
Architecte Cloud Native (H/F)

LeHibou
Publiée le
Apache Kafka
Cloud
Kali Linux

12 mois
470-550 €
Paris, France

Notre client dans le secteur Assurance recherche un Architecte cloud native H/F Descriptif de la mission : Nous recherchons pour notre client un architecte cloud, afin de l'accompagner dans une transformation visant à devenir un "cloud service provider" pour les métiers et les marques. Lors de cette mission, les 2 capacités essentielles sont : - Celle de maitriser les principes de conception/développement logiciel et des liens avec les composants middleware L’objectif de la mission est de définir et mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh

Freelance

Mission freelance
Assistant technique MCO - Sénior

VISIAN
Publiée le
Apache Kafka
Apache Tomcat
Control-M

6 mois
450-560 €
Marseille, Provence-Alpes-Côte d'Azur

Contexte de la mission Le prestataire s'engage à effectuer les missions décrites dans les "Objectifs et livrables" sur les environnements d’homologation et/ou de production. Ces missions se dérouleront principalement dans le cadre de maintien en conditions opérationnelles et se feront dans le respect : De la documentation et les modes opératoires définis et industriels, Des processus opérationnels ITIL (gestion des incidents, des problèmes, des changements), Des outils et workflows mis en place par la gestion des processus. Objectifs et livrables Les missions que pourront effectuer le prestataire sont les suivantes : Sur les environnements de préproduction : Contribution à la stratégie des tests, traçabilité de ces derniers au sein des outils de support de la qualification Dans le cadre de la préparation de la Mise en Production (MEP) et/ou de Mise en Service (MES) à venir : Contribution au plan de MEP/MES, Répétition des gestes de MEP/MES en respectant les modes opératoires prévus et le cadencement duplan de MEP/MES Rédaction des tâches de changements Exploitabilité de la solution et Validation d'Aptitude au Bon Fonctionnement (VABF) : Procédures standards : Arrêt / Marche des composants, fourniture des logs, etc... Continuité / Disponibilité des composants applicatifs définissant le service concerné Supervision de la plate-forme et des composants applicatifs Stratégie de Sauvegarde et de Restauration Journalisation / Archivage / RGPD Concernant ces derniers points, ils constituent un Document Technique d'Exploitation (DTE) et des consignes opérationnelles qui seront maintenus à jour et communiqués au service ou plus largement au sein de la Direction des Opérations. Sur l'environnement de production : Réalisation de la MEP/MES et support à la Validation de Service Régulier (VSR) des projets Assurer le Maintien en Conditions Opérationnelles (MCO) dans un contexte des engagements de services définis avec les directions métiers : Gestion des incidents de production remontés par le service client, les directions métiers, nos filiales et les clients pro, le domaine Loterie ou la Direction des Opérations, Analyse et escalade en anomalie, voir problème lorsque nécessaire, Suivi des incidents pris en charge et anomalies créées Assurer de traitement de Demandes de Travaux (DMT) spécifiques

Freelance

Mission freelance
Architect KAFKA confluent

Cherry Pick
Publiée le
Apache Kafka
Architecture

12 mois
600-650 €
Paris, France

Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.

Freelance

Mission freelance
DEVELOPPEUR FULL STACK

Coriom Conseil
Publiée le
Apache Kafka
Java
Vue.js

12 mois
100-650 €
Nord, France

VUEJS - Confirmé - Impératif JAVA - Confirmé - Impératif KAFKA - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Portugais Courant (Secondaire) Description détaillée 🎯 VOTRE MISSION En tant que développeur, vos missions sont les suivantes : Participer activement à toutes les étapes d’un cycle agile : Conception, développement, test, déploiement et maintien en condition opérationnelle des fonctionnalités des nouvelles releases Appliquer en équipe les préconisations d'architecture, de sécurité et de performance pour assurer la qualité et la robustesse des développements réalisés Participer avec les coéquipiers à la construction du contenu des prochaines releases Trouver en équipe des solutions techniques pour atteindre les objectifs fixés Documenter les aspects techniques et partager les connaissances avec les développeurs d’autres domaines Contribuer à l'amélioration des processus de delivery des produits en utilisant les outils DevOps et les méthodes agiles ⚙️ ENVIRONNEMENT TECHNIQUE Java 17 et 21 avec Springboot NodeJS avec NestJS VueJS / Typescript React / Typescript BDD PostgreSQL Kafka 🔥 LES PLUS DU POSTE Contexte multi B.U et international Projet stratégique à fort impact et visibilité Télétravail Flexible 🥇 VOTRE PROFIL 3 ans d’expérience minimum souhaitée Solides compétences en développement backend Maîtrise de VueJS Connaissances en NoSQL souhaitées Aptitude à s'adapter à un environnement dynamique et évolutif Bonne humeur et esprit d’équipe 🙂 Pratique de l’anglais (contexte international)

170 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous