Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Mission freelance
Recetteur / Administrateur fonctionnel (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Recetteur / Administrateur fonctionnel (H/F) à Lyon, France. Contexte : Le projet construit l'application de suivi des demandes de travaux, ainsi que l'outil de mobilité des techniciens sur le périmètre. Il se déroule dans le contexte d'une refonte applicative. Plusieurs grands volets fonctionnels sont couverts : - Référentiel du parc des installations - Suivi des mouvements matériels - Gestion des travaux (Prestations & Maintenance) - Outil de mobilité lors des interventions terrain - Solde des prestations en vue de la facturation L’équipe, composée d’une trentaine de personnes, se décompose en : - Une Core team : Architectes logiciels, intégrateurs Devops, automaticiens de tests et administrateurs fonctionnels - Deux feature teams : Product Owner, testeur et développeurs Ces teams sont pilotées par un chef de projet. Les fonctionnalités sont priorisées au travers d'un train SAFe. Les développements sont menés en Kanban et en Scrum selon les équipes Les missions attendues par le Recetteur / Administrateur fonctionnel (H/F) : Activité principale o Ecriture des cas de tests : cas passants, cas non passants, cas aux limites o Appui à la préparation des jeux de données o Réalisation des tests fonctionnels des SI, fourniture des comptes rendus de test (par lot de réalisation) o Appui au pilotage et participation au maintien en condition opérationnelle des SI, analyse des anomalies, évolutions et retour des utilisateurs o Préparation des scenarii de tests à automatiser Activité secondaire o Maintien du référentiel des tests o Participation à l'amélioration continue de la recette o Un plus si il sait automatiser les tests Stack technique de l'équipe Back-end : Java, Spring, Spring boot, Elastic Search, PostgreSQL, Kafka Front-end : Angular, Workers, LocalStorage, IndexedDb, Clé PKI Infrastructure bi-site : Haproxy, Apache, Tomcat, VertX, Jenkins, Ansible, docker Maven, Sonar, Idatha IdathaLog Tests : JUnit, Mockito, Jest, Kotlin

Mission freelance
POT8610-Un Concepteur / Développeur Nuxeo / Java sur Nanterre
Almatek recherche pour l'un de ses clients Un Concepteur / Développeur Nuxeo / Java sur Nanterre. Activités : Le Consultant réalisera les missions suivantes : - Concevoir des projets GED Nuxeo (faire des ateliers de conception, analyser la solution technique, chiffrer, documenter…). Les besoins sont de typess : mise en place de nouvelles GED avec une migration des données, avec l’interfacage avec d’autres application (applications Métier, MS 365, Archivage, Signature Electronique…) - Réaliser la mise en place de GED Nuxeo avec l’interfaçages avec d’autres solutions. Cela nécessite également de l’utisation des composants existants ou développer de nouveaux composants) - Réaliser la migration des GED actuelles (volumétrie : quelques centaines milliers documents à quelques dizaines milliones documents selon les projets) - Réaliser les tests de performances - Accompagner l’équipe à faire la montée en compétences sur Nuxeo et faire du support techique/fonctionnel pour toutes questions d’expertive relatives à cette solution - Maintenir les projets GED Compétences requises : - Pour cette prestation, nous cherchons 2 concepteur-développeur-intégrateur senior avec des compétences suivantes : - Une très bonne maîtrise de Nuxeo sur le paramétrage et le fonctionnement du produit et ses composants afin de pourvoir mettre en place/migrer/maintenir des projets de GED - Une très bonne maîtrise de Java Parallèlement, il faudrait avoir ces compétences suivantes : Une connaissance significative de la conception et du développement, Une maîtrise des outils de devéloppement nécessaires pour les projets GED Nuxeo Angular, JavaScript, PostgreSQL, MongoDB Tomcat, Apache ElasticSearch, OpenSearch Kafka, Zookeeper JUnit, Guice, SoapUI, JMeter Jira, Confluence Une maîtrise des outils de déploiment Devops (automatisation et CICD, Conteneurisation et orchestration etc) sur ces environnements Linux, Windows, cloud AWS, GCP, on premise Compétences organisationnelles et posture : Se focalise sur le besoin utilisateur, possède un esprit agile, Aime partager ses connaissances et a bon un esprit d’équipe, de relationnel Est force de proposition, est à l’écoute et fait preuve d’ouverture d’esprit, Cherche à améliorer la qualité des produits ainsi que les pratiques de l’équipe projet et du pôle, S’adapte au contexte et contraintes du client. Localisation : Nanterre + 2 jrs de TT

Mission freelance
Formation Pulsar & Kubernetes
Contexte client Notre client, une scale-up SaaS spécialisée dans la data marketing (CDP – Customer Data Platform), traite plus d'1 milliard d’événements par jour pour des clients grands comptes. Dans le cadre d’un projet de densification de son infrastructure, il a migré vers Kubernetes et Apache Pulsar (34 000 topics) pour remplacer Kafka. Objectif de la mission Mener un audit technique et animer des ateliers pratiques afin de : Valider les choix d’architecture Kubernetes/Pulsar Anticiper les risques liés à la volumétrie (scaling, mémoire, monitoring) Partager les bonnes pratiques de mise en production Attente forte sur les aspects concrets : pas de théorie, 80 % d’ateliers, 20 % de restitution
Offre d'emploi
Tech Lead Data Engineering Big Data
Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions XXXX Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : · étude et prise en compte des besoins de traitement de la data, · gestion des priorités et de la cohérence des besoins, · choix des outils et solutions · conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes · direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé · suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements · participation et support au delivery nécessitant l’expertise technique et data · veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. · support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA · conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, · développement et intégration de modèles d'IA générative pour des applications spécifiques, · assurer la maintenance et l'évolution des API et des modèles d'IA générative. FORMATION / EXPERIENCE : Bac+5 avec une expérience avérée en tant que Tech Lead Data Engineering COMPETENCES REQUISES / QUALITES REQUISES Savoir Faire : Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … Bonnes compétences en mathématiques et statistiques Connaissances monétiques Savoir Être : Aptitudes à la communication, tant écrite qu'orale, formalisation et partage des concepts techniques complexes de manière claire et concise Esprit critique et capacité d’analyse pour remettre en question et améliorer les solutions existantes. Travail en équipe, réactivité et esprit d’initiative INFORMATIONS COMPLEMENTAIRES : Anglais Début de mission : ASAP Durée de la mission : minimum 1 an

Mission freelance
Développeur Java / Big Data
A ce titre, nous cherchons un profil possédant la double compétence Data engineer et développeur backend Les activités attendues sont: - Ecrire les jobs spark de manipulation des collections de données pour des pipelines d'ingestion, de nettoyage, de preparation, d'enrichissement, de croisement des données - Développer des µService d'accès au données (API REST, serveur graphQL) pour mettre à disposition des applications internes ou directement à des clients externe - Développer jusqu'à la mise en production les traitements Big Data - Assurer la maintenance corrective des solutions Big Data développées - Collaborer avec l’ensemble des interlocuteurs concernés, transverses et métier Compétences attendues Java (J2EE / Jdk 21) Scala Spark / Spark Streaming Parquet Trino Delta Lake Kafka Docker – Kubernetes – Helm - Argo Workflow Web Services Rest / graphQL TU (JUnit / Mockito / PowerMock / ScalaMock) Git / Maven Les capacités d'innovation et de proposition seront appréciées. La maitrise de l'anglais est indispensable. La mission est prévue sur le reste de l'année 2025

Offre d'emploi
Data Engineer confirmé
Site : Vannes, 3 jours sur site par semaine Date de démarrage : asap Nationalité et langues parlées : français Durée mission : jusqu'au 31/12/2025 Mission : intervention pour le compte du Chapitre Data à Vannes Nb années d'expérience : 5 à 7 ans Profil : Data Engineer confirmé Compétences techniques - Langage : Spark - spark streaming et batch (requis), Kafka (apprécié) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Compétences techniques souhaitées – appréciées BDD Teradata, xDI, SQL Data viz : Microstrategy

Mission freelance
Développeur back java (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur back java (H/F) à Lille, France. Contexte : Bonne expérience souhaitée sur la stack ci-dessous : >= 5 ans Les missions attendues par le Développeur back java (H/F) : Technologies Langage : Java 21 et 8 (legacy), Springboot, SpringBatch (Front : VueJS, Vuetify) BDD : SQL (Oracle), MongoDB Sources : Git CI/CD : AzureDevOPS, Azure AKS, Kurbetes, Docker Messaging : Azure Event Hub (AEH), Kafka, Azure Service Bus (ASB) Logs : Azure LogAnalytics Test : Cerberus Outils : IntelliJ, Bruno, Kafbat UI Architecture micro-services Missions Principale : Corriger et améliorer l’existant sur la nouvelle stack technique Sujets fonctionnels : les données de stock des magasins et la RFID les données de ventes Créer/Modifier des APIs et/ou BFFs Modifier/Créer des traitements batchs ou flux « temps réel » Autres : Evolutions/Maintenances Maintien en conditions opérationnelles de l’existant Traitement, modification, débug de batchs java existant Rédaction des tests, mise en place de campagnes (unitaires, automatisées)

Offre d'emploi
Tech lead microservices
Contexte Dans le cadre du renforcement de son pôle technique, une entreprise du secteur de l’efficacité énergétique recherche un(e) Tech Lead Microservices pour encadrer une équipe de développement et piloter la mise en place d’architectures distribuées modernes. Missions principales Leadership technique Définir et diffuser les bonnes pratiques de développement et d’architecture. Encadrer et accompagner l’équipe de développeurs (coaching, revue de code). Garantir la cohérence technique des projets et leur intégration. Conception & développement Concevoir et optimiser des services et API distribués. Participer à la migration d’applications vers une architecture microservices. Veiller à la qualité, la performance et la sécurité des développements. Collaboration Travailler en lien avec les équipes produit et DevOps. Contribuer à l’amélioration continue (tests, CI/CD, monitoring). Participer à la définition de la roadmap technique. Environnement technique Langages back-end : Java / Kotlin / .NET Core / Python (selon projets) Architecture : microservices, API REST, communication asynchrone (Kafka, RabbitMQ) Conteneurisation & orchestration : Docker, Kubernetes Cloud : AWS, GCP ou Azure (usage hybride possible) Bases de données : relationnelles (PostgreSQL, MySQL) et NoSQL (MongoDB, Redis) CI/CD : GitLab CI, Jenkins, ou équivalent Monitoring & observabilité : Prometheus, Grafana, ELK/EFK stack Méthodologies : Agile (Scrum / Kanban), DevOps, Infrastructure as Code (Terraform, Ansible) Collaboration : Git, Jira, Confluence, Slack/Teams

Offre d'emploi
Data Engineer Spark Python
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
concepteurs développeurs intégrateurs Sénior sur l’outil de GED Nuxeo
Nous recherchons 2 profils concepteurs développeurs intégrateurs Sénior sur l’outil de GED Nuxeo (éditeur Hayland) Contexte : Actuellement, l’équipe travaille sur la nouvelle solution Nuxeo, développée par Hyland, dans le cadre d’une stratégie de migration. L’objectif est de transférer l’ensemble des projets GED vers cette nouvelle plateforme. Neuf projets sont concernés, répartis sur plusieurs années, certains contenant plusieurs centaines de milliers de documents, d’autres plusieurs millions. L’équipe à rejoindre est en charge de la conception du Core Model et apporte un support fonctionnel et technique aux autres équipes intervenant sur des projets GED. Ces 2 renforts techniques ont pour objectif de renforcer une équipe en place. Lieu de la mission : 92 - 2 jrs/semaine + TT Réalisation des missions suivantes : - Concevoir des projets GED Nuxeo (faire des ateliers de conception, analyser la solution technique, chiffrer, documenter…). Les besoins sont de types : mise en place de nouvelles GED avec une migration des données, avec l’interfacage avec d’autres application (applications Métier, MS 365, Archivage, Signature Electronique…) - Réaliser la mise en place de GED Nuxeo avec l’interfaçages avec d’autres solutions. Cela nécessite également de l’utilisation des composants existants ou développer de nouveaux composants) - Réaliser la migration des GED actuelles (volumétrie : quelques centaines milliers documents à quelques dizaines millions documents selon les projets) - Réaliser les tests de performances - Accompagner l’équipe à faire la montée en compétences sur Nuxeo et faire du support technique/fonctionnel pour toutes questions d’expertise relatives à cette solution - Maintenir les projets GED Compétences : Pour cette prestation, nous cherchons 2 concepteur-développeur-intégrateur senior avec des compétences suivantes : 1. Une très bonne maîtrise de Nuxeo sur le paramétrage et le fonctionnement du produit et ses composants afin de pourvoir mettre en place/migrer/maintenir des projets de GED 2. Une très bonne maîtrise de Java Parallèlement, il faudrait avoir ces compétences suivantes : • Une connaissance significative de la conception et du développement, • Une maîtrise des outils de devéloppement nécessaires pour les projets GED Nuxeo Angular, JavaScript, PostgreSQL, MongoDB Tomcat, Apache ElasticSearch, OpenSearch Kafka, Zookeeper JUnit, Guice, SoapUI, JMeter Jira, Confluence • Une maîtrise des outils de déploiement Devops (automatisation et CICD, Conteneurisation et orchestration etc) sur ces environnements Linux, Windows, cloud AWS, GCP, on premise Compétences organisationnelles et posture : • Se focalise sur le besoin utilisateur, possède un esprit agile, • Aime partager ses connaissances et a bon un esprit d’équipe, de relationnel • Est force de proposition, est à l’écoute et fait preuve d’ouverture d’esprit, • Cherche à améliorer la qualité des produits ainsi que les pratiques de l’équipe projet et du pôle, • S’adapte au contexte et contraintes du client.

Mission freelance
219150/Développeur Java - Lyon
Développeur Java - Lyon Mission de p lus de 6 mois Connaissances : GIT, Gitlab, Jenkins, DEV/OPS (CI/CD) Langage : JAVA, SQL Frameworks : Spring Architecture API et Microservices Kubernetes Kafka, Elastic/search Jquery Contexte de la mission Dans le cadre d'un projet (mode build) dans le domaine de la finance à Lyon. + 5 ans attendu. Participation active aux rituels agiles tels que les daily, les rétrospectives, le poker planning et les ateliers Réalisation du développement, des tests et de la livraison des codes assignés sur les environnements appropriés (dev, qualif,…) Conception des scénarios et des solutions d'implémentation pour le périmètre défini en conformité avec le cadre d'architecture et les normes Validation technique et soutien lors des phases de recette métier. Maintenance corrective et évolutive du périmètre attribué. Actualisation de la documentation requise selon les standards documentaires définis. Compétences : A déjà participé à des projets de bout en bout (cadrage, fabrication, recette, benchs, livraison en production) Bonne expertise technique et capable de piloter techniquement les développements, livraison et phase de recette Bonne capacité de rédaction documentaire (Spécifications techniques, livrables de livraison ….) Capable de participer aux développements en respectant des normes de dev et socle technique Technologies : Connaissances : GIT, Gitlab, Jenkins, DEV/OPS (CI/CD) Langage : JAVA, SQL Frameworks : Spring Architecture API et Microservices Kubernetes Kafka, Elastic/search Jquery Niveau de compétence KUBERNETES Confirmé JAVA Expert Gitlab CI/CD Confirmé Spring Boot Expert KAFKA Confirmé

Offre d'emploi
Développeur expert API e-commerce - Java 11+ Spring Boot 2+ API Restful
Recherche Développeur expert API e-commerce - Java 11+ Spring Boot 2+ API Restful Contrainte forte du projet E-commerce - Imperatif Java 11+ - Expert - Impératif Spring Boot 2+ - Expert - Impératif API Restful - Expert - Impératif Messaging (Kafka) - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée - Développer de nouvelles API ; - Contribuer à l'amélioration des performances globales de la plateforme ; - Participer à la modernisation de la plateforme (adoption de nouvelles technologies, urbanisation du SI) ; - Garantir la qualité des livrables et participer aux revues de code ; - Participer au Run applicatif de la plateforme (Monitoring, Reporting, Reguls...). Le projet nécessite des astreintes Nombre de jours sur site 3 jours par semaine

Mission freelance
Ingénieur DevOps (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur DevOps (H/F) à Lyon, France. Contexte : Description de l'équipe : L’équipe a la responsabilité d’une application de Business Intelligence qui consolide et restitue les données. Il met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. L’équipe est constituée d'une dizaine de personnes et composée d’un responsable d’équipe, d'un PO, d'un lead tech, de développeurs BI et DevOps. Elle appartient à un train d'applications, et utilise la méthodologie de travail du Scrum à l'échelle : SaFe. Les missions attendues par le Ingénieur DevOps (H/F) : Activité principale : L’activité principale du DevOps est partagée entre activités de build, et activités de run : - Participation à l’amélioration continue de l’infrastructure - Réalisation de pipeline Gitlab CI (release, déploiement) - Réalisation pour maintenir et faire évoluer la CI/CD et l’outillage projet - Amélioration des métriques applicatives et des dashboards de supervision (Grafana) - Maintenance et amélioration de l’Infrastructure-as-code - Estimation des tâches à réaliser et analyse d’impact - Remontée d’alertes - Livraison en recette, production - Rédaction et maintien des documentations techniques - Support et maintenance en condition opérationnel de la PROD Activité secondaire : - Amélioration et exécution des tirs / scénario de performance - Animation de réunions - Lien technique avec les partenaires (transverse, sécurité, exploitation) Stack technique de l'équipe : Obligatoire : Ansible, GitLab CI, Terraform, Linux, Git Bonne connaissance : Grafana, Kafka, Vault Un + : Springboot, Java, Informatica, SQL, Jfrog, PG, Postgres, Python

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Offre d'emploi
Développeur expert API e-commerce - Java 11+ Spring Boot 2+ API Restful
Recherche Développeur expert API e-commerce - Java 11+ Spring Boot 2+ API Restful Contrainte forte du projet E-commerce - Imperatif Java 11+ - Expert - Impératif Spring Boot 2+ - Expert - Impératif API Restful - Expert - Impératif Messaging (Kafka) - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée - Développer de nouvelles API ; - Contribuer à l'amélioration des performances globales de la plateforme ; - Participer à la modernisation de la plateforme (adoption de nouvelles technologies, urbanisation du SI) ; - Garantir la qualité des livrables et participer aux revues de code ; - Participer au Run applicatif de la plateforme (Monitoring, Reporting, Reguls...). Le projet nécessite des astreintes Nombre de jours sur site 3 jours par semaine

Offre d'emploi
Ingénieur·e C# – Calcul distribué & Cloud en finance de marché
Nous intervenons sur des sujets à haute intensité technologique : HPC, IA, architectures distribuées, performance des systèmes de calcul, cloud natif, avec une spécialisation historique dans la finance de marché (CIB) . Nous collaborons avec les grandes banques d’investissement françaises (CA-CIB, BNP-CIB, SG-CIB…) sur des projets critiques en lien direct avec les équipes trading , risk , quant et IT stratégie , au cœur des systèmes de pricing , de calcul de risques et d’ exécution . 🎯 Le poste Nous recherchons un·e ingénieur·e C# confirmé·e ou senior pour renforcer une équipe technique stratégique au sein d’une banque d’investissement de premier plan . Dans un environnement cross-fonctionnel , vous collaborerez avec les IT Quants , les équipes Risk & Pricing , les développeurs de la DSI et les expert·es Infrastructure & Cloud , afin de participer à la modernisation complète du SI. Vos principales missions : ⚙️ Refonte et développement d’une plateforme de calcul de nouvelle génération , intégrant des moteurs de pricing de produits dérivés, des outils de simulation et de risk calculation fortement parallélisés, dans une architecture en transformation vers les microservices et le cloud-native . 📈 Évolution et optimisation des progiciels de marché (X-Asset) utilisés pour le suivi des opérations Front-to-Back-to-Risk , dans un cadre hautement régulé. ☁️ Migration des grilles de calcul on-premise vers le cloud (AWS, GCP, Azure), avec ArmoniK , notre orchestrateur open-source haute performance dédié au calcul financier. 🧠 Analyse de performance, profiling mémoire/CPU , tuning, pour respecter des SLA exigeants dans des environnements batch intensifs ou temps réel. Vous évoluerez dans un environnement agile , exigeant et collaboratif , porté par une culture d’ excellence technique , de craft et de clean code . 🛠️ Environnement technique Langages & Frameworks : C#, .NET Core, ASP.NET, SQL, scripting Python (bonus) Architecture : microservices, API REST, GRPC, message bus (Kafka, RabbitMQ) Cloud & Infra : AWS, Azure, GCP — Kubernetes, Docker, Terraform CI/CD & Qualité : GitLab CI, Jenkins, SonarQube, test coverage, automatisation Pratiques : POO, SOLID, clean code, TDD, code review rigoureuse Calcul intensif & optimisations : HPC, multithreading, SIMD/AVX, vectorisation, gestion fine de la mémoire/cache
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Evolution marché DBA ?
- SASU IR Durée premier exercice comptable
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Quel statut chosir
- Prestataire en développement logiciel: EI en BIC ou BNC ?