Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 400 résultats.
CDI

Offre d'emploi
Data Engineer (4+ ans d'exp)

WINSIDE Technology
Publiée le
Google Cloud Platform (GCP)

40k-54k €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI
Freelance
CDD

Offre d'emploi
Ingénieur DevOps – Cloud Public GCP (Confirmé à Expert)

RIDCHA DATA
Publiée le
Ansible
CI/CD
Google Cloud Platform (GCP)

1 an
Boulogne-Billancourt, Île-de-France
Contexte de la mission Dans le cadre d’un programme de transformation digitale stratégique, l’entreprise recherche un Ingénieur DevOps pour intervenir sur une plateforme digitale centrale hébergée en grande partie sur le cloud public Google Cloud Platform (GCP) . La mission s’inscrit dans un environnement Agile et collaboratif, avec de forts enjeux d’industrialisation, de sécurisation et d’optimisation des infrastructures IT et cloud. Objectifs principaux Industrialiser et automatiser les déploiements d’infrastructures et d’applications sur le cloud public GCP Garantir la stabilité, la sécurité et la performance des environnements IT Optimiser les coûts et l’utilisation des ressources (FinOps) Accompagner la mise en production des services digitaux Missions clés Déployer les infrastructures et services via des outils d’Infrastructure as Code (Terraform, Ansible) sur GCP Mettre en place et maintenir les pipelines CI/CD (GitLab CI) Administrer les environnements Linux/Unix et les ressources cloud GCP Assurer la supervision, le monitoring et la gestion des incidents (RUN) Appliquer les bonnes pratiques de sécurité systèmes, réseaux et cloud Optimiser les performances des infrastructures et des flux réseau Rédiger et maintenir la documentation technique Participer aux démarches d’optimisation des coûts cloud (FinOps) Compétences techniques essentielles Expertise solide en infrastructures IT et cloud public (notamment GCP) Très bonnes compétences en réseaux (architecture, performance, sécurité) Infrastructure as Code : Terraform, Ansible CI/CD : GitLab CI Administration Linux/Unix Sécurité des environnements cloud et pipelines Monitoring et observabilité Compétences complémentaires appréciées Connaissances en IA, Machine Learning et IA générative Maîtrise des méthodologies Agiles (SAFe apprécié) Anglais technique
Freelance

Mission freelance
SRE ou SITE RELIABILITY ENGINEER

HAYS France
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes

3 ans
100-470 €
Lille, Hauts-de-France
Site Reliability Engineer (SRE) Transverse - Plateforme CCDP Au sein de la Customer & Commerce Digital Platform (CCDP), vous interviendrez en tant que Site Reliability Engineer (SRE) Transverse. Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.
Freelance

Mission freelance
Platform Engineer - E-commerce H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
E-commerce
Google Cloud Platform (GCP)

12 mois
580-620 €
France
Platform Engineer Senior – Plateforme e-commerce à fort trafic (Freelance) Contexte Pour notre client, acteur majeur du e-commerce, nous recherchons un Platform Engineer Senior pour accompagner la forte montée en charge de sa plateforme digitale. La plateforme est au cœur du business, avec des enjeux élevés de trafic, performance, sécurité et fiabilité. Le poste est très opérationnel (hands-on), tout en jouant un rôle structurant et transverse. Missions Vous intervenez directement sur la plateforme, avec une répartition cible 80 % opérationnel/20 % structuration . Faire évoluer et fiabiliser le socle plateforme e-commerce en production Intervenir concrètement sur les sujets techniques : cloud, CI/CD, infra, incidents, debugging Construire et dérouler une roadmap plateforme pragmatique (pas théorique) Jouer un rôle de “glue” entre les équipes Dev, DevOps, IT et Produit Définir et mettre en place un Golden Path (standards, patterns, bonnes pratiques) Contribuer aux sujets de sécurité, cache, CDN, performance et observabilité (Cloudflare ou équivalent) Participer à la gestion et à l’amélioration des processus liés aux incidents Produire une documentation utile (plateforme, run, audit, due diligence) Environnement technique Plateforme e-commerce à fort trafic Cloud : Azure et/ou GCP (multi-cloud) Infrastructure as Code : Terraform / OpenTofu CI/CD : GitHub Actions (ou équivalent) Edge / Performance / Sécurité : Cloudflare ou solution équivalente (CDN, cache, WAF) Observabilité / Monitoring : logs, métriques, alerting (Elastic, Prometheus, Grafana, Datadog, etc.) Stack applicative : Back-end : Node.js (connaissance attendue, pas besoin d’être expert développeur) Front : Vue.js / React / Next.js / Nuxt (compréhension des enjeux) Intégrations e-commerce : outils de paiement, OMS, CRM, marketing automation (ou équivalent)
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Freelance

Mission freelance
Data Analyst senior (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
JIRA
Microsoft Power BI

2 ans
400-460 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst senior (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst senior (H/F) : Analyse et modélisation • Analyser les besoins métiers et fournir des recommandations basées sur les données. • Mener des analyses exploratoires pour détecter des tendances et opportunités. Production d’outils d’aide à la décision • Développer des dashboards et outils de visualisation interactifs. • Standardiser les processus de gouvernance des données sur les fronts data. Stratégie et gouvernance • Définir les bonnes pratiques en matière d’accès aux données (Report, Dashboard, Self Service Data…) • Assurer la conformité des analyses aux standards définis par l’entreprise. Accompagnement des équipes • Sensibiliser les équipes métiers à l’exploitation des données. • Former les collaborateurs aux outils de visualisation et d’analyse. Compétences • Analyse : Exploration de données, modélisation prédictive, segmentation. • Techniques : SQL, Python, R, Power BI. • Gouvernance : Qualité des données, standardisation. • Communication : Vulgarisation des résultats analytiques. • Expérience utilisateur : UX/UI, storytelling, accessibilité, Recueils feedback, Design System Indicateurs de performance • Taux de réutilisation des analyses. • Temps moyen de mise en production. • Impact des analyses sur la prise de décision. • Qualité et adoption des outils de visualisation. Data Analyste avec 4 à 5 ans d’expérience minimum dans le domaine de la Supply Chain Solides compétences dans l’analyse, la structuration des données mais également dans la production de KPI et tableaux de bord Capacité à travailler en interaction forte avec les équipes Métiers et Contrôle de Gestion Modalités · Présence sur site obligatoire du lundi au mercredi Environnement technique Cloud & Data : GCP (BigQuery, Dataform) DataViz : PowerBI Gouvernance & Qualité : DataGalaxy Documentation & Pilotage : Confluence, JIRA (Scrum)
CDI

Offre d'emploi
Business Analyst & QA - Domaine Encaissement.

KUBE Partners S.L. / Pixie Services
Publiée le
.NET
Google Cloud Platform (GCP)
JIRA

30k-48k €
Nord, France
Objectif global : Assurer le Build, le Test et le Run de la solution d'encaissement magasins. Contrainte forte du projet : Contexte Retail Omnicanal, équipe Agile. Les livrables sont : Spécifications fonctionnelles et études d'impacts. Cahiers de recette et exécution des tests. Suivi de production et analyse d'incidents. Compétences techniques : SQL - Confirmé - Impératif Jira / Xray - Confirmé - Impératif (Solution d'encaissement) - Confirmé - Important GCP / MongoDB - Junior - Souhaitable Connaissances linguistiques : Anglais Technique ( Apprécié ) CONTEXTE DE LA MISSION Au sein de l'équipe Front Office Magasin (constituée de 12 personnes organisées en mode Agile), vous intervenez sur le périmètre stratégique de l'encaissement. L'équipe est en charge de l'outil d'encaissement de tous les magasins physiques de l'enseigne et de la diffusion des ventes aux différents systèmes d'information. Les sujets concerneront l'ensemble des périmètres autour de l'encaissement et du référentiel des ventes. STRUCTURE DE LA MISSION 40% : BUILD (Gestion de projet & Analyse) Accompagner les équipes métiers dans leurs besoins d'évolutions. Cadrer les besoins métiers et réaliser les études d'impacts. Rédiger les spécifications fonctionnelles. Suivre les actions des autres équipes IT dans le cadre des projets transverses. Suivre les développements et la qualification au sein de l'équipe. Assurer la qualité des livrables et la mise en place de la recette transverse. Suivre les demandes de mise en production. 40% : TESTS (Qualification) Tester les livraisons des versions et hotfixes de l'outil d'encaissement (), du référentiel des ventes et d'autres évolutions du périmètre. 20% : RUN (Maintien en Condition Opérationnelle) Analyse et traitement d'incidents et de problèmes de production (corrections applicatives, gestion des reprises de données). Rétro-analyses ponctuelles via requêtage (SQL).
CDI

Offre d'emploi
Data Analyst H/F CDI UNIQUEMENT

Proxiad
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
SQL

Île-de-France, France
Poste de Data Analyst IT au sein des produits Data Usages Retail. Au sein d'une Squad du produit, elle ou il aura en mission - Recueil et analyse des besoins métiers, ainsi que l’évaluation de leur faisabilité (avec les équipes métiers et les banques) - Proposition de solutions et chiffrage des travaux - Rédaction des spécifications fonctionnelles à destination des Data Engineers - Réalisation de tableaux de bord sur Power BI - Suivi des développements et des recettes (planification et coordination des phases de recette avec les métiers et/ou les banques) - Participation à la maintenance du SI (suivi de production et résolution des incidents) - Support d'expertise : fournir un soutien pour des demandes d'expertises ponctuelles.
Freelance

Mission freelance
Devops Cloud

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

6 mois
400-430 €
Yvelines, France
Bonjour, Je suis à la recherche Devops Cloud: Missions principales : Ø Assurer le support technique N3 pour les développeurs. Ø Analyser, diagnostiquer et éradiquer les incidents. Ø Traiter les aspects techniques et fonctionnels sur tous les environnements (Intégration → Production). Ø Contribuer au support RUN des projets, incluant les astreintes HNO. Ø Poursuivre les actions d’automatisation et de fiabilisation des processus. Ø Concevoir des solutions techniques adaptées aux besoins. Ø Rédiger ou contribuer aux documents de conception générale et détaillée. Analyser les traitements pour réaliser des études détaillées ou des études d’impact
Freelance

Mission freelance
Ingénieur DevOps

JobiStart
Publiée le
DevOps
Google Cloud Platform (GCP)
Python

1 an
400-450 €
Île-de-France, France
Administrer et exploiter les environnements cloud (AWS, GCP) et Kubernetes . Mettre en place et optimiser la scalabilité des applications (HPA). Surveiller et améliorer les performances et la disponibilité des services. Assurer la sécurité des infrastructures cloud et des clusters Kubernetes. Concevoir, maintenir et faire évoluer les pipelines CI/CD . Automatiser les déploiements et la gestion de l’infrastructure ( IaC / GitOps ). Garantir le respect des SLA et appliquer les pratiques SRE (monitoring, alerting, gestion d’incidents). Gérer la mise en cache et la diffusion de contenu via CDN . Participer à la conception d’ architectures cloud natives , résilientes et distribuées. Contribuer à l’ amélioration continue des plateformes et des processus DevOps.
Freelance

Mission freelance
Lead SysOps Linux - GCP H/F

LeHibou
Publiée le
Ansible
Google Cloud Platform (GCP)
Linux

6 mois
520-670 €
Nantes, Pays de la Loire
Notre client dans le secteur Banque et finance recherche un/une Lead SysOps Linux - GCP H/F Description de la mission: Nous recherchons un(e) Freelance pour rejoindre le pôle Infrastructure de notre client spécialiste des solutions de paiement. Missions principales: 1. Leadership & pilotage technique - Encadrer et coordonner l’équipe pour garantir la disponibilité, la sécurité et la performance de l’infrastructure. - En collaboration avec la Head of Infrastructure, définir et prioriser la roadmap technique. - Concevoir et faire évoluer les architectures systèmes et réseaux. - Être référent·e technique et accompagner la montée en compétences de l’équipe. - Organiser les astreintes et piloter la gestion des incidents critiques. 2. Amélioration continue & industrialisation - Industrialiser, standardiser et fiabiliser les pratiques. - Contribuer activement à l’industrialisation et à la scalabilité de l’infrastructure. - Assurer une veille proactive et être force de proposition sur la résilience, la sécurité et la performance. - Encourager et alimenter une dynamique d’amélioration continue. 3. Opérationnel & run - Administrer une infrastructure hybride répartie sur deux datacenters. - Assurer le maintien en conditions opérationnelles, la supervision et l’optimisation des performances. - Participer à la résolution des incidents. - Rédiger et maintenir la documentation technique et les procédures.
Freelance

Mission freelance
DATA ENGINEER GCP

BEEZEN
Publiée le
Google Cloud Platform (GCP)

1 an
Paris, France
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
Ingénieur DevOps / Cloud Kubernetes (GCP)

Groupe Aptenia
Publiée le
DevOps
Google Cloud Platform (GCP)
Kubernetes

6 mois
350-500 €
Paris, France
NATIONALITE FRANCAISE OBLIGATOIRE Participer à la migration des applications vers Kubernetes Concevoir, créer et déployer des clusters Kubernetes Déployer et exploiter des applications conteneurisées sur les clusters Intervenir en amont des projets (architecture, choix techniques, bonnes pratiques) Contribuer à l'industrialisation des déploiements et à la fiabilité des plateformes Travailler sur des outils transverses de l'écosystème DevOps (ex. Nexus) Collaborer avec les équipes internes et les parties prenantes métier Profil recherché Profil DevOps / Cloud avec une expérience confirmée sur Kubernetes Bonne compréhension des architectures cloud et des environnements distribués Capacité à intervenir sur la création et le déploiement de clusters À l'aise avec le déploiement applicatif sur Kubernetes Pas nécessairement orienté "from scratch" infrastructure, mais capable de mettre la main à la technique Ouverture d'esprit et capacité à travailler sur des sujets variés, au-delà du seul cloud Bon relationnel et esprit d'équipe
CDI
Freelance

Offre d'emploi
Data Analyst (H/F)

WINSIDE Technology
Publiée le
Apache Airflow
BigQuery
DBT

1 an
Lille, Hauts-de-France
Nous recherchons un.e Data Analyst passionné.e par la donnée, à l’aise avec les environnements cloud modernes et capable de transformer la data en leviers d’action pour nos équipes métiers. 🎯 Votre mission Au sein de l’équipe Data, vous jouerez un rôle clé dans la construction et l’exploitation de notre plateforme analytique. Votre objectif : transformer des données omnicanales en insights actionnables pour nos équipes internes (marketing, ventes, opérations…). Vos responsabilités : Concevoir et maintenir des dashboards et rapports fiables sous Looker / Looker Studio (et ponctuellement Power BI). Réaliser des analyses avancées pour éclairer les décisions business. Construire, optimiser et documenter des modèles de données dans BigQuery . Écrire du SQL robuste, performant et propre (priorité n°1). Contribuer aux transformations data via dbt et collaborer sur les pipelines (notions d’Airflow). Automatiser des analyses avec Python (pandas, numpy). Travailler en méthodologie Agile avec un Data Product mindset : comprendre les enjeux métiers, proposer des améliorations, challenger les besoins. 🧰 Stack & compétences recherchées 🚀 SQL avancé : très forte maîtrise, optimisation de requêtes 🏗️ Google Cloud Platform – BigQuery 📊 Looker / Looker Studio (et idéalement Power BI) 🧪 Python (pandas, numpy) pour analyses et automatisation 🔄 dbt (modélisation data), notions d’ Airflow Méthodologie Agile 👤 Profil recherché Vous aimez autant plonger dans les données que comprendre les enjeux business . Vous savez traduire un besoin métier en solution analytique claire. Vous êtes rigoureux(se), curieux(se), orienté(e) impact. Vous appréciez travailler en équipe, partager vos connaissances, et améliorer en continu nos produits data.
CDI

Offre d'emploi
Ingénieur DevOps

NEO SOFT SERVICES
Publiée le
Google Cloud Platform (GCP)

45k-50k €
35000, Rennes, Bretagne
Contexte Dans un environnement technologique exigeant et en forte évolution, vous interviendrez sur l’ensemble du cycle de vie des plateformes et des infrastructures, en collaboration étroite avec les équipes de développement, d’exploitation et de sécurité. Mission Vous contribuerez à la conception, à l’évolution et à la sécurisation des plateformes techniques, dans une logique d’automatisation, de performance et de fiabilité des services. Responsabilités Accompagner les équipes de développement dans l’optimisation, la fiabilisation et la sécurisation des environnements. Participer à la définition des architectures techniques et garantir leur évolutivité, leur disponibilité et leur résilience (PRA, haute disponibilité). Automatiser le déploiement et la gestion des infrastructures via une approche Infrastructure as Code (IaC) . Contribuer à l’amélioration continue des plateformes d’hébergement (monitoring, performances, capacité, scalabilité). Piloter ou accompagner des projets de migration Cloud et On-Premise vers des architectures cloud . Intervenir sur la gestion des incidents de production et contribuer à l’analyse des causes racines et aux plans d’amélioration.
Freelance

Mission freelance
Lead Architect IT

Groupe Aptenia
Publiée le
Architecture
AWS Cloud
Azure

3 ans
Île-de-France, France
En tant que Lead Architect IT , vous aurez pour mission de concevoir, déployer et maintenir les infrastructures IT (cloud et on-premise) pour un grand acteur du secteur Bancaire. Votre rôle sera essentiel pour assurer la fiabilité, la scalabilité et la sécurité des plateformes, tout en répondant aux besoins des équipes Data et IA. Design et maintenance des plateformes : ✔ Conception d’architectures techniques : ✅ Définir et documenter les standards et bonnes pratiques pour les environnements cloud (AWS/GCP/Azure) et on-premise. ✅ Garantir l’alignement des infrastructures avec les objectifs stratégiques de l’entreprise. ✔ Maintenance et optimisation des plateformes : ✅ Superviser la maintenance proactive des infrastructures pour en assurer la disponibilité et la performance. ✅ Piloter les évolutions techniques en collaboration avec les équipes opérationnelles. ✔ Collaboration avec les équipes Data et IA : ✅ Fournir des infrastructures adaptées aux besoins des équipes en charge des data assets (jeux de données, modèles analytiques, etc.). ✅ Assurer une communication fluide pour traduire les besoins métiers en solutions techniques robustes.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

400 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous