Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Lille

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 74 résultats.
CDI

Offre d'emploi
Chef de projet applicatif (H/F)

Amiltone
Publiée le
Chef

30k-35k €
Lille, Hauts-de-France
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que chef de projet applicatif, vous assurerez les missions suivantes : -Piloter les projets applicatifs de la phase de cadrage à la mise en production -Recueillir et analyser les besoins des utilisateurs métiers -Rédiger les spécifications fonctionnelles et techniques -Coordonner les équipes internes (développeurs, infrastructure, support) et les prestataires externes -Planifier les différentes phases du projet (planning, budget, ressources) -Suivre les développements, organiser les tests et recettes fonctionnelles Stack technique : -GCP (Google Cloud Platform) & SQL -Keycloak & Protocoles SSO -Gestion de prestataires externes -Python & AppScript
Freelance

Mission freelance
Développeur Fullstack Java/Nuxt (H/F)

ALLEGIS GROUP
Publiée le
Java
Nuxt.js
Spring

3 mois
Lille, Hauts-de-France
Au sein du po le Retail, nous accompagnons nos clients, acteurs majeurs dans le secteur de la grande distribution, du luxe et de l'evenementiel, dans leur programme de transformation digitale. Nous développons et opérons des solutions sur-mesure hebergees sur les trois principaux cloud providers publics (AWS, Microsoft Azure et GCP) Au sein d’un département regroupant des profils aux competences varie es (SRE, DevOps, SysOps, LeadTech, Architecte), nous recherchons un profil développeur full stack afin d’accompagner notre croissance.
Freelance
CDI

Offre d'emploi
Machine Learning/ML Engineer

WINSIDE Technology
Publiée le
Python

3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI

Offre d'emploi
Développeur Php / Symfony (H/F)

Amiltone
Publiée le
PHP
Symfony

35k-40k €
Lille, Hauts-de-France
Missions ? Intégré à nos équipes sur notre Digital Factory ou chez nos clients, vous interviendrez sur un projet de développement Back-End. En tant que Développeur PHP / Symfony (H/F), vous assurez les missions suivantes : Le développement des tâches qui vous sont assignées en respectant les spécifications Le Code Review avec les autres développeurs du projet L'écriture de tests unitaires et fonctionnels durant vos développements L'industrialisation de vos développements via notre PIC (Jenkins) La participation au Daily Scrum Meeting, Sprint Revue, Rétro de Sprint et Planning Poker La stack technique : Back-End (impératif) : Symfony BDD (impératif) : SQL (MySQL, PostgreSQL, SQLServer) et/ou NoSQL (MongoDB, Cassandra, Redis) Outils : Git, Jenkins, Jira , Google Cloud ( impératif)
Freelance

Mission freelance
SRE Observabilité

HAYS France
Publiée le
Datadog
Grafana
Kubernetes

3 ans
100-470 £GB
Lille, Hauts-de-France
Votre mission : - Design, intégration, templating, déploiement, parametrage des composants de la plateforme d'Observabilité - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends pour l'amélioration de la disponibilité et la performance de leurs applications/projets métiers (à l'international) - Rédactions des ADR, de la documentation, des RUN books, afin de diffuser la connaissance auprès des équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures cloud. Vous disposez notamment des connaissances techniques suivantes : - Maîtrise de GCP, Azure serait un plus. - Maitrise avancée de Kubernetes - Maitrise avancée de Datadog, expérience dans un environnement engageant de forts volumes - Bonne connaissance de la plateforme Grafana, build et run en environnement engageant de forts volumes - Connaissances OpenTelemetry - Expérience en instrumentation d’applications - Maîtrise de Terraform/AWX - Connaissances bonnes pratiques de développement, IaC, Python, Go serait un plus - Culture SRE et SLO
Freelance

Mission freelance
Ingénieur Cybersécurité N3 – SIEM / SOC

ESENCA
Publiée le
Cybersécurité
Security Information Event Management (SIEM)

1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et améliorer le dispositif de détection en renforçant le SIEM et les capacités du SOC , notamment via l’onboarding de logs stratégiques “métier” dans un environnement Cloud GCP intégrant un produit métier spécifique. ⚙️ Contexte & Enjeux Dans un contexte de montée en maturité cyber, la mission vise à étendre la visibilité du SOC au-delà des logs d’infrastructure classiques, en intégrant des sources applicatives et métiers critiques dans la plateforme SIEM (Splunk). L’objectif est d’améliorer significativement la capacité de détection des menaces avancées et spécifiques au contexte métier, en transformant les données brutes en mécanismes de détection actionnables. 🧩 Missions principales🔹 Pilotage de l’onboarding des logs Identifier, avec les architectes et responsables sécurité, les applications et produits métiers critiques à intégrer. Prioriser les sources de logs à forte valeur ajoutée en matière de détection. Structurer et piloter le projet d’intégration des nouvelles sources. 🔹 Communication & coordination transverse Faire l’interface entre le SOC et les équipes techniques (développement, infrastructure, Cloud). Formaliser les exigences de logging : format, structure, champs obligatoires, modalités d’envoi. Accompagner les équipes dans l’implémentation technique des flux de logs. Lever les blocages techniques et organisationnels. 🔹 Ingestion & parsing dans le SIEM Intégrer les logs dans Splunk. Développer ou adapter des règles de parsing (TAs – Technology Add-ons). Normaliser les événements pour exploitation SOC (CIM, structuration des champs). 🔹 Développement des mécanismes de détection Traduire les risques métier en cas d’usage de détection. Concevoir des règles de corrélation et alertes pertinentes. Optimiser les détections pour limiter les faux positifs. Produire des dashboards et indicateurs de suivi. 🛠️ Compétences techniques Impératif : SIEM (niveau Expert) Gestion et exploitation des logs (niveau Confirmé) Expérience Splunk (ingestion, parsing, corrélation) Maîtrise des environnements Cloud GCP Important : Détection / Engineering de détection Expérience projet (pilotage, coordination transverse) 🌍 Environnement technique SIEM Splunk Cloud GCP Logs applicatifs et métiers Architecture SOC 🗣️ Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Freelance

Mission freelance
DevSecOps

HAYS France
Publiée le
CrowdStrike
cyberark
Cybersécurité

3 ans
Lille, Hauts-de-France
Dans le cadre d’une transition majeure sur son périmètre de cybersécurité, l’entreprise recherche un consultant expert en sécurité Cloud et en solutions de protection des accès et endpoints . Le consultant interviendra à la fois sur la mise en place d’une nouvelle solution CNAPP couvrant un environnement multi‑cloud (On‑prem / Azure / GCP) et sur le maintien en condition opérationnelle (MCO) des solutions PAM et EDR de l’organisation. Les responsabilités couvrent à la fois des activités BUILD et RUN , incluant la définition de l’architecture, l’intégration DevSecOps, la gestion du cycle de vie des comptes à privilèges et l’optimisation de la détection des menaces sur le parc endpoints.
Freelance

Mission freelance
Machine learning engineer

HAYS France
Publiée le
MLOps
Pandas
Pytorch

3 ans
100-520 £GB
Lille, Hauts-de-France
VOS MISSIONS : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM (RAGGA, ADEO GPT). Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production.
Freelance

Mission freelance
Software Engineer Fullstack (Java / React) - H/F

AMD Blue
Publiée le
Java
React

3 ans
360-430 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Digital . Contexte de la mission : Notre client développe un produit digital Front & Back utilisé par des profils internes pour la stratégie de flux logistiques, ainsi que par des partenaires B2B et des franchises. Dans le cadre d'une accélération de la stratégie de déploiement à grande échelle et d'une croissance significative de l'activité, l'équipe technique s'agrandit. Vous rejoindrez une équipe de 9 personnes (Product Managers, Développeurs, Support Engineer) pour accompagner cette montée en charge. Périmètre technique : Java 21+ / Spring Boot 3+ : Expert React : Confirmé Architecture microservices / REST : Confirmé GCP / Kubernetes / Docker : Confirmé Kafka : Pratique Observabilité (Datadog) : Pratique Descriptif de la mission : Les missions sont : Contribution au développement de nouvelles fonctionnalités. Conception de services résilients, scalables et sécurisés en déploiement continu. Garantie de la qualité du code (code review, pair programming). Partage d'expertise au sein de la feature team pour la conception des solutions. Utilisation des outils collaboratifs (Confluence, Slack, Jira).
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance

Mission freelance
Développeur Fullstack Java/SpringBoot/NuxtJS (H/F)

Cherry Pick
Publiée le
AWS Cloud
Java
Nuxt.js

6 mois
400-450 €
Lille, Hauts-de-France
Au sein du pôle Retail, nous accompagnons des clients majeurs dans les secteurs de la grande distribution, du luxe et de l’événementiel dans leur programme de transformation digitale. Nous développons et opérons des solutions sur-mesure hébergées sur les principaux fournisseurs cloud publics (AWS, Microsoft Azure, GCP). Intégré(e) à un département regroupant des profils aux compétences variées (SRE, DevOps, SysOps, LeadTech, Architecte), vous participerez à la croissance de nos projets en tant que développeur Fullstack. Vos responsabilités En tant que développeur au sein d’une équipe delivery, vous êtes responsable de la qualité, de la performance et de la sécurité des applications du périmètre concerné. Vos missions principales incluent : Participer au cadrage, à la conception et au chiffrage des solutions Développer dans le respect des exigences de qualité (code review, quality gate, DoD) et de performance Assurer la prise en charge et la résolution des incidents et anomalies de production Intégrer et mettre en œuvre les meilleures pratiques de sécurité tout au long du cycle de développement (SAST, SCA, DAST) Conduire et animer des ateliers internes ou avec les clients (points recettes, ateliers de travail)
Freelance

Mission freelance
Tech. Lead .NET

CAT-AMANIA
Publiée le
.NET
Apache Kafka

1 an
100-490 €
Lille, Hauts-de-France
La mission vise à assurer le pilotage technique des applications , avec une forte implication opérationnelle dans le développement (50 à 70 % du temps), tout en accompagnant la montée en compétences de l’équipe et en réduisant la dette technique. L’enjeu principal est : D’améliorer la qualité des données produits De réduire significativement la part du RUN De fiabiliser les déploiements et la performance globale des applications Le rôle couvre à la fois l’architecture, la conception, le développement, la mise en œuvre et l’animation technique de l’équipe. Superviser l’ensemble des développements Réaliser les développements complexes Effectuer les revues de Pull Requests Définir et diffuser les normes de développement Garantir une architecture modulaire permettant des déploiements quotidiens sans régression. Rédiger les ADR (Architecture Décision Records) et les faire valider en comité. Réviser régulièrement la roadmap technique et proposer les ajustements nécessaires. Analyser les applications existantes et identifier les axes d’amélioration (performance, sécurité, maintenabilité). Accompagner le déploiement sur la nouvelle infrastructure GCP.
Freelance

Mission freelance
DEVOPS EXPERT

HAYS France
Publiée le
Datadog
Grafana
Kubernetes

3 ans
100-490 £GB
Lille, Hauts-de-France
Au sein de l'équipe Observabilité d'ADEO, vous êtes acteur dans la construction de la plateforme d'Observabilité composée de plusieurs solutions de monitoring/dashboarding/alerting, log management, APM pour des applications à la fois hébergées on Premise et dans le cloud. Vous vous concentrez sur les composants open source de la plateforme: OpenTelemetry et Grafana (Loki, Mimir, Tempo, alloy, etc...) opérés in-house. Votre mission : - Design, intégration, templating, déploiement, parametrage des composants de la plateforme d'Observabilité - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends pour l'amélioration de la disponibilité et la performance de leurs applications/projets métiers (à l'international) - Rédactions des ADR, de la documentation, des RUN books, afin de diffuser la connaissance auprès des équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures cloud. Vous disposez notamment des connaissances techniques suivantes : - Maîtrise de GCP, Azure serait un plus. - Maitrise avancée de Kubernetes - Bonne connaissance de la plateforme Grafana, build et run en environnement engageant de forts volumes - Connaissances OpenTelemetry - Expérience en instrumentation d’applications - Maîtrise de Terraform/AWX - Connaissances Python, Go serait un plus - Culture SRE et SLO Profil Expérience d'au moins 5 ans dans le domaine des architectures cloud, dont 3 ans sur des sujets d'Observabilité Autonome, rigoureux, curieux, capacité d'analyse, bonnes qualités rédactionnelles et relationnelles. Prérequis : - Anglais - Participation au roulement d'astreintes
Freelance

Mission freelance
DATA ANALYST

Geniem
Publiée le
Python

6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search&amp et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search&amp Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Freelance

Mission freelance
Machine Learning Engineer – IA & MLOps

ESENCA
Publiée le
Github
LangChain
Python

1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

74 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous