Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Lille

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 74 résultats.
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
Développeur Fullstack Java (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Google Cloud Platform (GCP)
Java
Kubernetes

12 mois
400-410 €
Lille, Hauts-de-France
Pour notre client, nous recherchons un développeur Fullstack , idéalement avec des compétences DevOps , dans le cadre d’un programme de refonte des parcours clients sur site web et l’application mobile . Le développeur intégrera l’une des feature teams du centre de développement digital (Direction Delivery Front) . Ces équipes travaillent notamment sur : la gestion du compte client l’e-merchandising les parcours clients les éléments de préparation de la commande e-commerce L’équipe est responsable d’un ensemble de composants techniques et fonctionnels associés à la solution e-commerce , reposant sur les principes MACH . Les applicatifs sont hébergés sur GCP et orchestrés via Kubernetes (K8S) . Organisation de l’équipe Chaque feature team est constituée de : 1 Product Owner 4 à 6 développeurs Le développeur s’intégrera dans une équipe produit auto-gérée , fonctionnant en Agile avec des rituels Scrum . Les pratiques DevOps sont privilégiées : l’équipe assure le BUILD et le RUN du produit (support de dernier niveau). Missions Le développeur aura pour mission de : Développer les nouvelles fonctionnalités du produit Intégrer son code dans la chaîne d’intégration continue (CI) Réaliser les tests unitaires (manuels et automatisés) Déployer ses développements sur les différents environnements (intégration, qualification, production) Participer au maintien et à la mise en place des outils nécessaires à la production (CI, environnements hors production et production) Contribuer à la mise à jour et à l’amélioration des outils et processus de production du centre de développement
Freelance

Mission freelance
Dev fullstack Expert

HAYS France
Publiée le
Google Cloud Platform (GCP)
Python
Test unitaire

3 ans
100-450 £GB
Lille, Hauts-de-France
Compétences techniques : Python - Expert - Impératif VueJS - Confirmé - Impératif GCP - Confirmé - Impératif Test unitaires / automatisés - Expert - Impératif Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités : Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. -Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance

Mission freelance
Concepteur Développeur

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Java
Kubernetes

12 mois
400-500 €
Lille, Hauts-de-France
Code fonctionnel Documentation Tests unitaires Compétences techniques Java Webflux - Expert - Impératif GCP/Kubernetes - Confirmé - Impératif Framework Front type vueJS/AngularJS/ReactJS - Confirmé - Important Architectures microservices - Expert - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Nous recherchons 1 développeur fullstack avec idéalement des compétences devOps éprouvées Ce développeur intégrera l'une des feature teams du centre de développement digital. Parmi ces dernières : gestion du compte client, de l'emerchandising, des parcours ou des éléments de préparation de la commande ecommerce L’équipe a en charge un ensemble de composants techniques (principes MACH) et de fonctionnalités associés à la solution ecommerce. L'hébergement des applicatifs est réalisé sur GCP (K8S) Chaque feature team est constituée de: - 1 PO - 4 à 6 développeurs Le développeur s'intégrera dans une équipe produit auto-gérée, qui fonctionne en agilité dans la gestion de son backlog qui s’anime autour de rituels Scrum. Les pratiques devOps sont privilégiées, l'équipe assure le BUILD et le RUN du produit (support de dernier niveau)
Freelance

Mission freelance
Développeur Front-end Senior - React & Next.js

CAT-AMANIA
Publiée le
Docker
Google Cloud Platform (GCP)
Javascript

1 an
100-500 €
Lille, Hauts-de-France
Une nouvelle plateforme est le pilier de notre stratégie de contenu et d'expérience. Nous souhaitons exploiter un CMS Headless pour alimenter nos interfaces, ce qui nous permet d'innover rapidement et de proposer des expériences riches et flexibles à nos utilisateurs. Objectifs et livrables En tant que Développeur Front-end Expert, vous serez référent technique sur l'ensemble de la stack Front-end. Vos missions principales incluront : Conception et développement des composants et des pages de notre nouvelle plateforme en utilisant Next.js et React . Intégration avancée et optimisation des données provenant de Contentstack et d'autres APIs, en assurant la performance (Core Web Vitals) et la maintenabilité du code. Définition et mise en place des meilleures pratiques de développement (qualité de code, tests, documentation, revue de code) au sein de l'équipe. Encadrement technique des développeurs plus juniors et contribution active à l'architecture Front-end (Micro-Frontends, Monorepo si applicable). Garantir l'industrialisation des applications dans un contexte de fort trafic et de haute disponibilité.
Freelance

Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java

3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Freelance

Mission freelance
Responsable d’Applications Supply Chain

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL

1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et développer de nouveaux algorithmes de Machine Learning afin d’enrichir et d’améliorer un système de recommandation à fort impact business. 📦 Livrables attendus Développement d’algorithmes ML opérationnels Prototypes (PoC / MVP) validés techniquement Documentation technique associée Mécanismes d’explicabilité des modèles Recommandations d’optimisation et d’industrialisation 🚧 Contraintes du projet Forte exigence de performance et de robustesse Nécessité d’explicabilité des algorithmes Intégration dans un écosystème data existant Collaboration transverse avec équipes produit et techniques 🧠 Missions principales1. Veille & Innovation Suivre les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative) Identifier les technologies pertinentes pour les cas d’usage recommandation Proposer des approches innovantes adaptées aux enjeux métier 2. Conception & Expérimentation Concevoir des Proof of Concept (PoC) Développer des MVP robustes Tester et comparer différentes approches algorithmiques 3. Analyse de données & Modélisation Explorer et analyser des datasets complexes Identifier patterns et signaux exploitables Concevoir, entraîner et évaluer des modèles de recommandation 4. Explicabilité & Qualité Mettre en place des mécanismes d’interprétabilité Garantir la compréhension des résultats par les parties prenantes Documenter les choix techniques et les performances 5. Collaboration & Intégration Travailler en lien étroit avec Product Owners et équipes data Participer à l’intégration des modèles dans les plateformes existantes Contribuer à l’amélioration continue des solutions IA 🌍 Langues Français courant – Impératif Anglais professionnel – Secondaire
Freelance
CDI

Offre d'emploi
Architecte Technique H/F

Proxiad
Publiée le
Administration linux
Azure
DevOps

3 ans
Lille, Hauts-de-France
🎯 Architecte Technique Système & Cloud / Vision & Impact Ce poste ne consiste pas à “valider des schémas”. Il consiste à structurer une architecture d’avenir. Nous recherchons un(e) Architecte Technique capable d’allier vision stratégique et expertise opérationnelle dans un environnement hybride Cloud privé / Cloud public. Votre terrain de jeu Définir les architectures techniques des nouvelles plateformes Prototyper, challenger, industrialiser Structurer la roadmap Cloud Formaliser les standards et diffuser les bonnes pratiques Accompagner les équipes projets dans leurs décisions techniques Vous êtes le garant de la cohérence et de la pérennité du SI. 🛠️ Stack principale Cloud privé virtualisé, Azure / GCP / OCI, Windows & Linux, automatisation, DevOps, observabilité.
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
CDI

Offre d'emploi
Senior Cloud Engineer / CloudOps GCP H/F

DAVRICOURT
Publiée le
Cloud

60k-65k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Senior Cloud Engineer / CloudOps GCP pour l'un de nos clients. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer l'exploitation, la sécurisation et l'évolution d'une plateforme Cloud multi-environnements (GCP/AWS) au sein d'une équipe Cloud Foundation / CCoE ; - Mettre en œuvre l'industrialisation via Infrastructure as Code (Terraform) et automatisation (Python/Bash) pour des services Cloud "clé en main" ; - Piloter la gouvernance Cloud : organisations, gestion des accès (IAM), standardisation et bonnes pratiques ; - Produire du reporting (inventaire, qualité, conformité), documenter et accompagner les équipes produit sur l'usage des services Cloud. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

74 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous