Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris

Votre recherche renvoie 53 résultats.
Freelance

Mission freelance
Senior JAVA Developpeur (H/F)

Publiée le
Elasticsearch
Microservices

18 mois
500-550 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
CDI

Offre d'emploi
CDI - Software Backend Engineer - NodeJS/Typescript (H/F)

Publiée le
Architecture
Back-end
Node.js

60k-90k €
Paris, France
Télétravail partiel
En tant que Senior Backend developer (H/F), votre responsabilité principale sera de concevoir et de développer les fonctionnalités, composants et services de l'e-commerce de notre client, en appliquant les best practices de développements et de qualité. Vous travaillerez en direct avec des Product Owners & l'équipe infra (SRE & DEVOPS), dans un environnement agile & cloud AWS. Vous ferez du code review et pair programming au sein de votre équipe. Vous contribuerez aux décisions techniques et fonctionnelles, respecterez les normes de qualité, de sécurité et de performance. Principaux sujets : - Développement de nouvelles features - API, consommateurs kafka - Monitoring avec l'équipe infra - Pair programming, code review - Mise en place des best practices : TDD, DDD, SOLID STACK : NodeJS Typescript APIRest Kubernetes Docker Terraform Kafka Environnement cloud AWS
Freelance
CDI

Offre d'emploi
Développeur fullstack Nest.JS / Angular

Publiée le
Kubernetes

18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Etudes & Développement,Développeur Fullstack Spécialités technologiques : Fullstack, Devops MISSIONS : - Developement : Développer des services applicatifs en respectant les normes mise en place sur le projet. - Base de Données : Gestion et optimisation des bases de données MongoDB, y compris l'écriture et l’optimisation de pipeline mongodb. - Performance & Sécurité : Garantir la performance, la scalabilité et la sécurité des services développées. - Les technologies utilisées sont : TypeScript, NestJS, MongoDB, Angular, Kafka, Lambda, Glue, Jenkins, Git. Expertise souhaitée Compétences Techniques demandées : - Excellente maîtrise de TypeScript, NestJS. - Solides compétences en MongoDB : optimisation, requêtes complexes, indexation, etc. - Expérience avérée en développement frontend avec Angular. - Familiarité avec les architectures microservices et l’utilisation de Kafka pour le traitement des flux de données. - Connaissance des outils et pratiques DevOps (Git, CI/CD, Docker, Kubernetes) est un plus. Compétences Technologies et Outils Angular (3 ans) TypeScript (5 ans) KafkaNest (5 ans) Mongo DB
Freelance

Mission freelance
Lead Développeur Front Angular

Publiée le
Angular
Front-end
TypeScript

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Lead Développeur Spécialités technologiques : Front-End, API Dans le cadre du développement et de l’évolution d’une application stratégique, nous recherchons un Lead Développeur Front Angular (version 21). La mission combine expertise technique front-end, leadership technique et accompagnement de développeurs juniors, au sein d’une équipe agile. MISSIONS Garantir un haut niveau de qualité du front-end (performance, maintenabilité, sécurité). - Structurer et faire évoluer l’architecture Angular. - Encadrer et faire monter en compétences les développeurs juniors. - Être le référent technique front Encadrement : - Encadrer techniquement les développeurs front (juniors et confirmés). - Animer des revues de code, bonnes pratiques et standards Angular. - Accompagner la montée en compétences (mentorat, pair programming). Développement Front-End : - Concevoir et développer des interfaces complexes avec Angular 21 et TypeScript. - Implémenter des architectures front robustes (modules, standalone components, signals, RxJS). - Garantir la qualité du code : lisibilité, testabilité, performance. - Travailler étroitement avec les équipes backend pour assurer une intégration fluide des API. Qualité, performance & sécurité : - Optimiser les performances front (temps de chargement, rendering, gestion des états). - Mettre en place et maintenir les tests (unitaires, intégration, e2e). Environnement technique : - Frontend : Angular 21, TypeScript, RxJS, HTML, CSS / SCSS - Backend (interaction) : NestJS - Messaging / Data : Kafka, MongoDB - Cloud & DevOps : AWS (Lambda, Glue), Jenkins - Outils : Git, CI/CD Expertise souhaitée Expérience : - Déjà une expérience confirmée en qualité de Tech Lead Front Angular Compétences techniques - Excellente maîtrise de Angular (idéalement versions récentes) et TypeScript. - Très bonne compréhension des patterns front-end modernes. - Capacité à concevoir une architecture front scalable et maintenable. - Sensibilité aux enjeux de performance, sécurité et UX.
Freelance

Mission freelance
MOE Expert Technique SAP

Publiée le
Développement
SAP ABAP
SAP Fiori

1 an
Paris, France
𝐏𝐫𝐨𝐣𝐞𝐭 : 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐒𝐀𝐏 𝐄𝐂𝐂 → 𝐒/𝟒𝐇𝐀𝐍𝐀 𝐀𝐜𝐭𝐢𝐯𝐢𝐭é𝐬 𝐩𝐫𝐢𝐧𝐜𝐢𝐩𝐚𝐥𝐞𝐬 : • Accompagner la DSI et les métiers dans la mise en œuvre et l’optimisation de la solution SAP S/4HANA • Garantir la cohérence, l’évolutivité et la performance de la solution sur l’ensemble des processus • Participer à la conception technique, réaliser des POC, valider les livrables et effectuer les tests de non-régression • Assurer le support technique et animer ateliers, comités de pilotage et coordination multi-acteurs • Expertise sur S/4HANA : SAPUI5, ABAP, FIORI, CDS, OData, intégration d’interfaces et mobilité (Kafka, API)
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance

Mission freelance
Développeur Java - Angular

Publiée le
Angular
Apache Maven
Java

12 mois
450-500 €
Paris, France
Télétravail partiel
Renforcement de l’équipe projet Refonte du portail LCL Entreprises (marché des Entreprises) Recherche de 1 consultant développeur Fullstack, avec une appétence pour le Frontend, dont les missions sont les suivantes : Développement des fonctionnalités et évolutions Développement des tests unitaires et d’intégration Correction des dysfonctionnements Revues de code Analyses techniques Déploiement dans les différents environnements techniques Fonctionnement en méthodologie agile Maîtrise technique attendue sur : Java - Angular sont les plus importants Spring-boot - Maven (Java 11/17/+) Typescript - Angular 14/18/+ - Javascript - NodeJS HTML – CSS - SCSS Docker - Kubernetes - Kafka - MongoDB Connaissances appréciées sur : Notions de sécurité Accessibilité (HTML / CSS) Javascript Architecture technique, REST, architecture micro-services Pipelines des déploiements (Kubernetes, Gitlab CI/CD, ArgoCD, Vault) Monitoring (Elk, Grafana, Dynatrace) Oauth2 / Open ID
Freelance

Mission freelance
Business Analyst monétique - Litiges et contestations

Publiée le

12 mois
490-600 €
75001, Paris, Île-de-France
Télétravail partiel
Disponibilité : ASAP Modalité : Freelance ou portage (pas de sous-traitance) Lieu : Paris ou Toulouse - 2 jours de télétravail par semaine (non négociable) Nous recherchons un Business Analyst avec une connaissance obligatoire de la monétique, particulièrement sur la gestion des litiges et contestations. Vous intégrerez une nouvelle équipe produit dédiée au Domaine Opérations Litiges , sur le périmètre de la gestion des contestations. Le projet Smart Contestation est au cœur des évolutions monétiques, tant sur le plan réglementaire (DSP2, VCR, etc.) que dans la mise en place de solutions innovantes pour fluidifier les échanges avec les clients (réduction des délais de remboursement, notifications SMS, solutions selfcare, etc.). Rejoindre cette équipe, c'est travailler sur un applicatif riche fonctionnellement et à la pointe de l'innovation pour les années à venir. En tant que Business Analyst, vous serez le garant du maintien en condition opérationnelle du patrimoine applicatif Smart Contestation. Sur votre périmètre, vous serez responsable de la résolution des incidents, de l'analyse des besoins clients, de la construction des évolutions réglementaires et métier, et devrez être force de proposition d'axes d'amélioration afin d'en diminuer le coût récurrent. Bien qu'à terme vous ayez vocation à prendre en charge l'ensemble des activités gérées par l'équipe produit, l'acquisition de la polyvalence sera progressive. Dans un premier temps, votre activité sera principalement axée sur les travaux d'analyse, d'estimation des coûts et de suivi de construction. Activités principales Dans un environnement multiplateforme et multi-clients , vous interviendrez au sein de l'équipe et serez en lien avec les établissements partenaires. Vos missions : Analyser les besoins et étudier les impacts applicatifs Participer à l'estimation de complexité Rédiger des spécifications fonctionnelles et documents destinés aux clients Prendre en charge les incidents (validation, homologation, production) via Jira, de l'analyse à la résolution, en proposant si possible des solutions de contournement Appliquer un processus industriel de gestion des incidents Communiquer et rendre compte de l'avancement Votre profil Connaissance obligatoire de la monétique (litiges et contestations) Bonne maîtrise de l'environnement Open (Linux, Java, Oracle, PostGre, SQL) Appétence pour la recette fonctionnelle Souhaitables : Connaissance de la méthode Agile. Connaissances de la monétique Appétence pour la recette fonctionnelle Utilisation de Jira et XRay Connaissances techniques suivantes (API Rest, Cloud, Kafka) Compétences comportementales indispensables Travail en équipe, collaboration Curiosité, capacité d'apprentissage Analyse, synthèse, organisation, pragmatisme Prise d'initiative, autonomie, réactivité Bonne communication orale et écrite Sens de la relation client, diplomatie, écoute Gestion des priorités et multitâches Anglais professionnel
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
[SCH] Business Analyst Finance – Paris - 1089

Publiée le

10 mois
350-370 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, tu interviendras au sein du département Alimentations Comptables, International & Projets sur un programme stratégique orienté finance, produits bancaires et transformation SI. Le rôle nécessite un Business Analyst confirmé, capable d’échanger avec les équipes métier, MOA, architectes et développeurs (France & international). Missions : -Recueillir, formaliser et challenger les besoins métiers (ateliers & backlog) -Contribuer au cadrage, rédaction des spécifications fonctionnelles (Générales & Détaillées) -Participer à la priorisation (Agile / incrémental) -Préparer et exécuter les phases de recette (DSI & métier) -Définir et modéliser les données dans un environnement Big Data / Finance -Participer aux travaux de migration et rationalisation du SI Finance -Accompagner les parties prenantes (Métier, MOA, Dev, QA) Profil recherché -Business Analyst Finance confirmé (>5 ans) -Très bonne compréhension des produits bancaires : Produits de marché obligatoire Financement obligatoire Affacturage serait un plus -Aisance en environnement SI Finance, grands comptes, réglementaire -Solides compétences communication, coordination, rédaction Environnement & compétences techniques : -SQL, manipulation et analyse de données -Big Data (Kafka / data lake) – appréciés -Méthodologie Agile (Scrum / Kanban) -Outils : Jira, Confluence -EasyMorph (plus) -Anglais professionnel (écrit + oral)
Freelance

Mission freelance
Développeur expérimenté Spring Batch

Publiée le
Application web
Git
Monitoring

18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Applications Web, Versionning, Gestion de configuration tests unitaires Dans le cadre d’un projet de traitement de flux critiques, l’équipe actuelle composée majoritairement de profils juniors nécessite un renfort expérimenté afin d’accélérer le delivery, stabiliser les développements et renforcer les bonnes pratiques. Un lead tech est déjà en place, mais l’équipe manque de séniorité opérationnelle sur Spring Batch et la conception de traitements robustes et performants. MISSIONS Objectif de la mission - Assurer le développement propre et fiable de jobs Spring Batch destinés au traitement de flux volumétriques. - Structurer les bonnes pratiques de développement (qualité, tests, performance). - Accompagner et faire monter en compétence les développeurs juniors de l’équipe. - Contribuer à la sécurisation des mises en production et à la stabilité de la chaîne de traitement. Rôle & responsabilités : - Concevoir et développer des jobs Spring Batch performants et robustes. - Participer aux ateliers techniques et à la définition des solutions. - Analyser les flux existants, identifier les optimisations possibles. - Assurer un code propre, maintenable, conforme aux standards internes. - Effectuer les tests unitaires, d’intégration et de charge liés aux batchs. - Supporter l’équipe dans la résolution d’incidents et l’amélioration continue. - Encadrer techniquement les profils moins expérimentés (pair programming, revue de code). - Collaborer étroitement avec le lead tech Environnement technique : - Java 17 - Spring Batch (compétence clé) - Kafka - Oracle 19c - Outils annexes (CI/CD, Git, monitoring…) selon stack interne Expertise souhaitée Développeur confirmé avec 4 à 5 ans d’expérience minimum. - Maîtrise impérative de Spring Batch (critère déterminant). - Bonne autonomie et capacité à produire rapidement du code fiable. - Capacité démontrée à travailler dans une équipe mixte (junior + lead). - Bon sens de la pédagogie et de la transmission des bonnes pratiques.
CDI

Offre d'emploi
Tech Lead JAVA Senior

Publiée le

45k-70k €
75001, Paris, Île-de-France
Télétravail partiel
Superviser la conception technique et le développement des applications, en garantissant la cohérence architecturale, la qualité du code et le respect des standards d'ingénierie, des processus et bonnes pratiques de l'entreprise (tests unitaires et fonctionnels, code review, pair programming…). Prendre les décisions techniques pour votre squad, arbitrer les choix complexes et fournir un support technique à l'équipe pour résoudre les points bloquants. En tant que responsable hiérarchique , accompagner et coacher les développeurs et QA dans leurs missions, favoriser la montée en compétences et la collaboration. Identifier et mettre en œuvre des améliorations techniques en continu , notamment à travers l'industrialisation et l'automatisation des tests , en collaboration avec les équipes Processus et Méthodes. Assurer la coordination avec le Production Engineer pour garantir l'exploitabilité, la qualité du logiciel et la performance des services. Assurer la mise à jour de la documentation technique sur vos applications et le bon suivi des processus de delivery de l'entreprise (intégration dans la chaîne DevSecOps, outils et bonnes pratiques de test…). Participer aux cérémonies agiles de planification et de delivery des projets et assurer la coordination avec les Product Owners et l'Application Manager (AM) pour garantir la faisabilité technique, le respect du plan de release , l'identification des dépendances et la coordination inter-squads. Compétences clés requises Solide maîtrise des principes d'architecture logicielle et des bonnes pratiques de développement, Expérience sur sur un gros projet de build d'une plateforme de flux avec plusieurs interlocuteurs, Compétences confirmées en technologies Java back-end et front-end modernes, Maîtrise des technologies environnements cloud (incl. Kubernetes, Kafka...) et des pratiques DevOps , Maîtrise des composantes et processus QA et pratiques DevSecOps (automatisation des tests, intégration continue…), Capacité à analyser, arbitrer et décider dans des contextes techniques complexes, Excellentes compétences en communication et collaboration inter-squads , Management opérationnel d'une équipe de développeurs et QA (animation, feedback, accompagnement).
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Freelance

Mission freelance
[SCH] Data Engineer Spark / Scala - 1047

Publiée le

10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
53 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous