L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 14 résultats.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
DATA ENGINEER GCP
Publiée le
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Offre d'emploi
DATA ENGINEER GCP
Publiée le
DBT
Google Cloud Platform (GCP)
3 ans
40k-45k €
400-500 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un data GCP. Contexte Dans un contexte de modernisation des plateformes data, vous intervenez sur la conception, le développement et l’industrialisation de pipelines data cloud natifs sur GCP , au service des équipes métiers et analytics. Missions principales Concevoir et maintenir des pipelines de données batch et streaming sur GCP Modéliser, transformer et optimiser les données dans BigQuery Mettre en place des transformations analytiques avec dbt (tests, documentation, lineage) Développer des traitements serverless via Cloud Functions Gérer les flux d’ingestion et de stockage dans Cloud Storage Participer à l’industrialisation (CI/CD, monitoring, coûts, performance) Collaborer avec les équipes BI, Data Analysts et métiers Stack technique GCP : BigQuery, Cloud Storage, Cloud Functions Transformation : dbt Langages : SQL (avancé), Python DataOps : Git, CI/CD, monitoring Architecture : Data Warehouse / ELT cloud Compétences requises Très bonne maîtrise de SQL Expérience solide sur BigQuery et les architectures data GCP Bonne compréhension des enjeux de performance et de coûts Capacité à travailler dans un environnement cloud industrialisé
Mission freelance
Senior Data Engineer GCP
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Mission freelance
Data Engineer GCP / Big Data (H/F)
Publiée le
Google Cloud Platform (GCP)
Java
Spark Streaming
3 mois
Paris, France
Télétravail 100%
En tant que Data Engineer, vous serez responsable de : Conception & Développement (Big Data / Java / Spark) – 40% Développer et optimiser des traitements Big Data en Java et Spark. Créer, maintenir et améliorer des pipelines de données robustes et scalables. Assurer la qualité, la performance et la fiabilité des traitements batch et streaming. Cloud Engineering – GCP (DataProc / Workflows / Cloud Run) – 30% Concevoir et maintenir des solutions data sur GCP. Déployer et orchestrer les traitements via DataProc, Workflows et Cloud Run. Optimiser les coûts, la sécurité et les performances des environnements GCP. Data Warehousing – BigQuery – 15% Modéliser, structurer et optimiser les tables BigQuery. Mettre en place des requêtes performantes et adaptées aux usages analytiques. Assurer la gouvernance et la qualité des données. Systèmes & DevOps – 5% Intervenir sur des environnements Linux. Contribuer au monitoring et à l’amélioration continue des systèmes. Outils complémentaires – 10% Participer à l'infrastructure-as-code via Terraform. Déployer et automatiser via GitHub Actions. Contribuer aux bonnes pratiques CI/CD.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Mission freelance
Data Engineer/ Expert GCP
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Mission freelance
Data Engineer – Snowflake / GCP (urgent)
Publiée le
Apache Airflow
DBT
Python
3 mois
350-450 €
Roubaix, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer expérimenté pour intervenir sur la conception, le développement et la maintenance d’ infrastructures et pipelines de données au sein d’un environnement data moderne et exigeant. 🎯 Contexte de la mission : Vous serez responsable de garantir des données fiables, sécurisées et optimisées pour des usages analytiques et opérationnels. Les activités d’ ingestion, transformation, stockage et mise à disposition des données seront au cœur de votre rôle. ⚙️ Vos missions principales : Concevoir et développer des pipelines de données performants et scalables . Assurer la qualité, la cohérence et la sécurité des données. Optimiser les bases de données et les flux de traitement. Collaborer étroitement avec les Data Scientists, Data Analysts et équipes métiers . Mettre en place des outils de monitoring, gouvernance et observabilité . Garantir la conformité RGPD des traitements de données.
Offre d'emploi
Recrutement CDI – Data Engineers (CDI) | GCP / AWS / Azure
Publiée le
AWS Glue
Azure Data Factory
Google Cloud Platform (GCP)
Paris, France
Télétravail partiel
Recrutement – Data Engineers (CDI) | GCP / AWS / Azure Dans le cadre de nos ambitions de croissance pour l’année 2026 , nous renforçons activement nos équipes Data afin d’accompagner le développement de projets stratégiques auprès de nos clients grands comptes. Cette dynamique nous conduit à recruter plusieurs Data Engineers en CDI , intervenant sur des environnements cloud modernes et à forte volumétrie de données. Nous focalisons aujourd’hui nos efforts sur le recrutement de consultants correspondant au profil type suivant : Data Engineer disposant de 3 à 7 ans d’expérience , avec une expertise sur GCP, AWS ou Azure . Le candidat devra maîtriser les fondamentaux du Data Engineering : conception et mise en œuvre de pipelines de données, ingestion et transformation des données, modélisation, optimisation des performances, ainsi que les langages SQL et Python . Une capacité à intervenir sur des environnements complexes et à forte volumétrie est attendue, tout comme une aisance dans les échanges avec les équipes métiers et IT.
Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance
Publiée le
Architecture
BigQuery
Cloud
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
14 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois