Le poste DATA ENGINEER GCP
Partager cette offre
· Compétences solides en data : structures de données, code, architecture
· Connaissance de GCP
· Expériences professionnelles avec les langages SQL et Python
· Références professionnelles sur Pyspark, BigQuery et Airflow
· Expertises dans la mise en place de pipeline ETL / ELT
· Bonnes connaissances de Gitlab et Gitlab CI/ CD
· La collecte et l’ingestion de différentes sources de données non homogènes
· La mise en place de pipelines de traitement de données
· Le développement des modèles de données
· L’extraction et l’exposition des données du Lakehouse vers d’autres services
· L’industrialisation des projets sur la GCP
· La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
· La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’int égrit é des données
· La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Profil recherché
· Compétences solides en data : structures de données, code, architecture
· Connaissance de GCP
· Expériences professionnelles avec les langages SQL et Python
· Références professionnelles sur Pyspark, BigQuery et Airflow
· Expertises dans la mise en place de pipeline ETL / ELT
· Bonnes connaissances de Gitlab et Gitlab CI/ CD
· La collecte et l’ingestion de différentes sources de données non homogènes
· La mise en place de pipelines de traitement de données
· Le développement des modèles de données
· L’extraction et l’exposition des données du Lakehouse vers d’autres services
· L’industrialisation des projets sur la GCP
· La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
· La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’int égrit é des données
· La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Environnement de travail
· Compétences solides en data : structures de données, code, architecture
· Connaissance de GCP
· Expériences professionnelles avec les langages SQL et Python
· Références professionnelles sur Pyspark, BigQuery et Airflow
· Expertises dans la mise en place de pipeline ETL / ELT
· Bonnes connaissances de Gitlab et Gitlab CI/ CD
· La collecte et l’ingestion de différentes sources de données non homogènes
· La mise en place de pipelines de traitement de données
· Le développement des modèles de données
· L’extraction et l’exposition des données du Lakehouse vers d’autres services
· L’industrialisation des projets sur la GCP
· La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
· La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’int égrit é des données
· La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
DATA ENGINEER GCP
BEEZEN