Le poste Data Engineer GCP / Hadoop – Pipelines de données & DatOps
Partager cette offre
Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe.
Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP, et secondairement sur la mise en place d’une plateforme data sur Hadoop.
Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation).
Faire évoluer les outils de gestion et d’automatisation des flux de données.
Collaborer avec les équipes DevOps pour les évolutions de la plateforme.
Participer activement aux rituels agiles et contribuer à l’amélioration continue.
Profil recherché
Expertise confirmée sur GCP (BigQuery, Cloud Storage, SQL, Python orienté objet, Pandas/Dask).
Solide expérience sur Hadoop, Spark, Hive.
Bonnes compétences en scripting (bash), Git et industrialisation.
Expérience en méthodologie agile (Scrum).
Anglais courant (oral et écrit).
Esprit analytique, autonomie, et force de proposition.
Connaissances en Cloud Functions, SAS, Alteryx, ControlM.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer GCP / Hadoop – Pipelines de données & DatOps
CAT-AMANIA