Job position Data Engineer Scala/Spark.
Share this job
Client : Entreprise de transport
Poste : Architecte technique Senior DSM
Expérience : Plus de 8 ans
TJM d’achat max : 515€
Localisation : Banlieue parisienne
Deadline réponse : 09/12
Démarrage : 01/01/2025
Durée : Mission très longue
DESCRIPTION DE LA MISSION
Objectifs
La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark.
Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes.
Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet.
Description détaillée des tâches qui constituent la mission
Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous.
S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints.
Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories).
Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet.
Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle.
Les sprints s’échelonnent généralement sur 2 semaines.
Contenu général des sprints :
- Développement des US et tests associés ;
- Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ;
- Mise en place du CI/CD sur l’usine logicielle ;
- Mise en place du monitoring ;
Candidate profile
Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) :
Le profil recherché pour la mission est celui d’un Data Engineer Scala/Spark. Une expérience significative est requise pour ce poste.
Il bénéficiera d’un accompagnement du lead technique du projet sur le périmètre et du Chef de Projets Data pour les aspects méthodologie. Ce soutien sera plus important au début de la mission.
Qualités requises
- Excellent relationnel
- Capacité rédactionnelle
- Capacité d’adaptation et de travail en équipe
- Rigueur et esprit de synthèse
- Esprit d’initiative
- Autonomie
Environnement technique :
Compétences requises
• maîtrise de l'API Scala Spark (batch principalement)
• maîtrise des techniques d'optimisation Spark
• expérience dans le traitement de volumétries importantes / complexes
• développement et bonnes pratiques Scala, build Maven
• travail en environnement cloud (idéalement Azure) et écosystème Databricks
Compétences souhaitées
• Connaissance du SI
• Connaissance des outils Datadog, Rundeck
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer Scala/Spark.
Codezys