Le poste DATA ENGINEER GCP
Partager cette offre
Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative.
Missions principalesConcevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources.
Participer à la mise en place de l’architecture Data sur environnement cloud GCP.
Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation.
Préparer et structurer les datasets destinés aux usages IA / LLM.
Optimiser les performances des traitements et les coûts d’infrastructure cloud.
Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données.
Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD.
Collaborer avec les équipes techniques et métiers dans un environnement Agile.
Bac+5 en informatique / data engineering ou équivalent.
Minimum 5 ans d’expérience sur des environnements Data complexes.
Très bonne maîtrise de Python (POO) et SQL.
Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions.
Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow.
Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform.
Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation.
Intérêt pour les sujets IA générative et modern data stack.
Anglais professionnel courant.
GCP (BigQuery, GCS, Cloud Run, Vertex AI)
dbt, Dagster
GitLab CI/CD
Docker, Terraform
Data multi-sources : CRM, social data, advertising, analytics
Mission longue durée
Démarrage : juin 2026
Localisation : région parisienne
Télétravail hybride (2 jours/semaine)
Profil recherché
Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative.
Missions principalesConcevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources.
Participer à la mise en place de l’architecture Data sur environnement cloud GCP.
Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation.
Préparer et structurer les datasets destinés aux usages IA / LLM.
Optimiser les performances des traitements et les coûts d’infrastructure cloud.
Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données.
Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD.
Collaborer avec les équipes techniques et métiers dans un environnement Agile.
Bac+5 en informatique / data engineering ou équivalent.
Minimum 5 ans d’expérience sur des environnements Data complexes.
Très bonne maîtrise de Python (POO) et SQL.
Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions.
Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow.
Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform.
Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation.
Intérêt pour les sujets IA générative et modern data stack.
Anglais professionnel courant.
GCP (BigQuery, GCS, Cloud Run, Vertex AI)
dbt, Dagster
GitLab CI/CD
Docker, Terraform
Data multi-sources : CRM, social data, advertising, analytics
Mission longue durée
Démarrage : juin 2026
Localisation : région parisienne
Télétravail hybride (2 jours/semaine)
Environnement de travail
Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative.
Missions principalesConcevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources.
Participer à la mise en place de l’architecture Data sur environnement cloud GCP.
Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation.
Préparer et structurer les datasets destinés aux usages IA / LLM.
Optimiser les performances des traitements et les coûts d’infrastructure cloud.
Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données.
Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD.
Collaborer avec les équipes techniques et métiers dans un environnement Agile.
Bac+5 en informatique / data engineering ou équivalent.
Minimum 5 ans d’expérience sur des environnements Data complexes.
Très bonne maîtrise de Python (POO) et SQL.
Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions.
Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow.
Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform.
Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation.
Intérêt pour les sujets IA générative et modern data stack.
Anglais professionnel courant.
GCP (BigQuery, GCS, Cloud Run, Vertex AI)
dbt, Dagster
GitLab CI/CD
Docker, Terraform
Data multi-sources : CRM, social data, advertising, analytics
Mission longue durée
Démarrage : juin 2026
Localisation : région parisienne
Télétravail hybride (2 jours/semaine)
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
DATA ENGINEER GCP
PARTECK INGENIERIE