Le poste Développeur Big Data Scala / Java (Migration DataHub)
Partager cette offre
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production.
Missions principales :
Étude et conception technique des batchs et pipelines data.
Développement Spark/Scala pour traitements batch et streaming.
Récupération, transformation, enrichissement et restitution des données (ETL/ELT).
Création et publication de batchs Kafka (topics / événements).
Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring.
Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés.
Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3).
Stack technique (obligatoire / souhaité) :
Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé).
Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps.
Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Profil recherché
Profil recherché :
Niveau : confirmé — 3 à 6 ans d’expérience sur des environnements Big Data similaires.
Qualités : , , autonomie, sens du collectif. Capacité à échanger avec des interlocuteurs techniques et fonctionnels.
Environnement de travail
Stack technique (obligatoire / souhaité) :
Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé).
Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps.
Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Développeur Big Data Scala / Java (Migration DataHub)
CELAD
