Le poste Data engineer Snowflake / DBT
Partager cette offre
Mission :
Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international.
Responsabilités :
Conception et développement de pipelines de données (collecte, transformation, valorisation)
Analyse de données complexes en collaboration avec les équipes Data
Maintenance et évolution d’une plateforme data de type Lakehouse
Choix des technologies de stockage et de traitement adaptées
Mise en place de bonnes pratiques (code, architecture, data)
Veille technologique et amélioration continue des outils et pratiques
Profil recherché :
Minimum 5 ans d’expérience en Data Engineering / Big Data
Solide culture technique et capacité à évoluer dans des environnements complexes
Bonne compréhension des enjeux métiers et capacité à vulgariser
Compétences techniques :
Python, SQL
Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent)
Environnement Cloud (AWS idéalement, Azure ou GCP)
DevOps : Docker, CI/CD, environnement Unix
Connaissance des architectures data et idéalement Infrastructure as Code
Langues :
Anglais professionnel requis
Profil recherché
Mission :
Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international.
Responsabilités :
Conception et développement de pipelines de données (collecte, transformation, valorisation)
Analyse de données complexes en collaboration avec les équipes Data
Maintenance et évolution d’une plateforme data de type Lakehouse
Choix des technologies de stockage et de traitement adaptées
Mise en place de bonnes pratiques (code, architecture, data)
Veille technologique et amélioration continue des outils et pratiques
Profil recherché :
Minimum 5 ans d’expérience en Data Engineering / Big Data
Solide culture technique et capacité à évoluer dans des environnements complexes
Bonne compréhension des enjeux métiers et capacité à vulgariser
Compétences techniques :
Python, SQL
Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent)
Environnement Cloud (AWS idéalement, Azure ou GCP)
DevOps : Docker, CI/CD, environnement Unix
Connaissance des architectures data et idéalement Infrastructure as Code
Langues :
Anglais professionnel requis
Environnement de travail
Mission :
Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international.
Responsabilités :
Conception et développement de pipelines de données (collecte, transformation, valorisation)
Analyse de données complexes en collaboration avec les équipes Data
Maintenance et évolution d’une plateforme data de type Lakehouse
Choix des technologies de stockage et de traitement adaptées
Mise en place de bonnes pratiques (code, architecture, data)
Veille technologique et amélioration continue des outils et pratiques
Profil recherché :
Minimum 5 ans d’expérience en Data Engineering / Big Data
Solide culture technique et capacité à évoluer dans des environnements complexes
Bonne compréhension des enjeux métiers et capacité à vulgariser
Compétences techniques :
Python, SQL
Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent)
Environnement Cloud (AWS idéalement, Azure ou GCP)
DevOps : Docker, CI/CD, environnement Unix
Connaissance des architectures data et idéalement Infrastructure as Code
Langues :
Anglais professionnel requis
Postulez à cette offre !
Trouvez votre prochaine mission parmi +10 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data engineer Snowflake / DBT
PARTECK INGENIERIE