Job position Data Engineer GCP / Hadoop – Pipelines de données & DatOps
Share this job
Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe.
Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP, et secondairement sur la mise en place d’une plateforme data sur Hadoop.
Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation).
Faire évoluer les outils de gestion et d’automatisation des flux de données.
Collaborer avec les équipes DevOps pour les évolutions de la plateforme.
Participer activement aux rituels agiles et contribuer à l’amélioration continue.
Candidate profile
Expertise confirmée sur GCP (BigQuery, Cloud Storage, SQL, Python orienté objet, Pandas/Dask).
Solide expérience sur Hadoop, Spark, Hive.
Bonnes compétences en scripting (bash), Git et industrialisation.
Expérience en méthodologie agile (Scrum).
Anglais courant (oral et écrit).
Esprit analytique, autonomie, et force de proposition.
Connaissances en Cloud Functions, SAS, Alteryx, ControlM.
Apply to this job!
Find your next career move from +9,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer GCP / Hadoop – Pipelines de données & DatOps
CAT-AMANIA