Le poste DATA ENGINEER Cloud GCP
Partager cette offre
CONTEXTE :
En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers.
Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure.
MISSIONS :
Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en
collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers.
Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform.
En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à :
• La collecte et l’ingestion de différentes sources de données non homogènes
• La mise en place de pipelines de traitement de données
• Le développement des modèles de données
• L’extraction et l’exposition des données du Lakehouse vers d’autres services
• L’industrialisation des projets sur la GCP
• La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
• La participation aux initiatives de gouvernance des données en assurant la qualité, la
fiabilité et l’intégrité des données
• La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Profil recherché
Expertises demandées pour la réalisation de la mission :
Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes :
• Au moins 3 ans d’expérience dans un environnement data
• Compétences solides en data : structures de données, code, architecture
• Connaissance de l’un des Cloud Provider Public : de préférence GCP
• Expériences professionnelles avec les langages SQL et Python
• Références professionnelles sur des projets Big Data : de préférence Pyspark, BigQuery et Airflow
• Expertises dans la mise en place de pipeline ETL / ELT
• Bonnes connaissances de Gitlab et Gitlab CI/CD
• Forte capacité à vulgariser et à communiquer sur des aspects purement techniques
• Pratique des méthodes Agile (Scrum, Kanban)
Environnement de travail
CONTEXTE :
En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers.
Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
DATA ENGINEER Cloud GCP
KEONI CONSULTING