Job position DATA ENGINEER
Share this job
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino
- Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect,
Trino).
- Mettre en place des modèles de données optimisés et cohérents avec les standards du socle.
- Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg).
- Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle.
Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et
conformité RGPD.
- Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs).
- Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka.
- Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation,
mentoring).
- Être force de proposition sur l'amélioration continue du socle et des workflows de développement.
- Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des
modèles et des processus.
- Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective).
Les activités confiées supposent la maîtrise de :
- Kafka
- DBT
- Python
- Trino
Candidate profile
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino
- Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect,
Trino).
- Mettre en place des modèles de données optimisés et cohérents avec les standards du socle.
- Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg).
- Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle.
Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et
conformité RGPD.
- Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs).
- Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka.
- Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation,
mentoring).
- Être force de proposition sur l'amélioration continue du socle et des workflows de développement.
- Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des
modèles et des processus.
- Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective).
Les activités confiées supposent la maîtrise de :
- Kafka
- DBT
- Python
- Trino
Working environment
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
-lien masqué-
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
DATA ENGINEER
Signe +
