Job position Data Engineer/ Backend Finances et Risques sur Maison Alfort
Share this job
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort
Contexte
Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG.
Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations.
Exp: 5 à 8 ans
Mission
Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client
Veiller aux bonnes pratiques et normes
Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery
Contribuer au suivi de production et assurer la maintenance corrective
Certifications requises : au moins une
• AWS Solution Architect ;
• AWS Database ;
• AWS Developer ;
• AWS Data Analytics
Méthodologie :
• Agile
• SAFe 5.0
Compétences métier :
• Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges,
• Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux,
• Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée,
• Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité.
Liste des technologies :
Priorité :
- Compétences Back : Java (17+) et springboot, API
- Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark
- Stream Kafka
- Cloud AWS
Kubernetes, Terraform*
*Jenkins*
*Event Kafka*
*MongoDB*
*Python*
Facultative : EKS, DataDog
Points critiques et différenciants
Priorité :
- Compétences Back : Java (17+) et spring
- Compétences Data : Glue, Python, Pyspark
- Stream Kafka
- Cloud AWS
Expert sur python, traitement des données Spark
Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark)
Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL)
Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données.
Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire.
Avoir un mindset agile. Etre ouvert au changement
Avoir des gars autonomes et responsable, proactif, dynamique.
Bon communicant avec les métiers, les PM
Candidate profile
Compétences métier :
• Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges,
• Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux,
• Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée,
• Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité.
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
