Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 431 résultats.
CDI

Offre d'emploi
Tech Lead Java/Angular (H/F)

WINSIDE Technology
Publiée le
Angular
AngularJS
Azure

Lille, Hauts-de-France
Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce qui t’attend chez nous.. Contexte Tu interviendras au sein d’une équipe IT spécialisée dans le développement et la maintenance d’applications pour le domaine Capital Market IT, sur des activités Equity. La mission consiste à renforcer et faire évoluer le SI autour des référentiels métiers, en implémentant de nouvelles fonctionnalités pour soutenir la croissance des activités, tout en assurant la stabilité, la maintenance et le support de la plateforme. Tes missions … Participer à la conception et au développement d’applications web performantes en Java et Angular. Implémenter des fonctionnalités robustes, évolutives et sécurisées en lien avec les besoins métier. Collaborer étroitement avec les équipes produit, design et QA pour garantir la qualité des livrables. Optimiser le code et les performances des applications pour une expérience utilisateur fluide. Contribuer aux choix techniques et à l’architecture des projets. Assurer la maintenance évolutive et corrective des applications existantes. Participer aux cérémonies Agile (daily, sprint planning, rétrospective…) et aux revues de code. Être force de proposition sur les bonnes pratiques de développement et les innovations technologiques. Exemples de projets : Développement et mise en production de nouvelles fonctionnalités autour des référentiels Equity Optimisation et stabilisation du SI existant pour supporter de nouveaux volumes et activités Implémentation et maintenance de bases de données PostgreSQL et MongoDB Documentation et automatisation des processus pour améliorer la qualité et la productivité Et toi dans tout ça, tu as : Minimum 5 ans d’expérience en développement Java et Angular (hors stage et alternance). Une maîtrise des frameworks Spring/Spring Boot et Angular (v10+). Une bonne connaissance des architectures REST, des bases de données SQL et NoSQL. Une expérience dans des environnements Agile/Scrum. Une capacité à comprendre les enjeux métier et à les traduire en solutions techniques. Un anglais professionnel pour collaborer avec des équipes internationales. Une communication claire et un vrai esprit d’équipe. Ce que tu trouveras chez Winside … Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme Un process simple et rapide Un premier échange pour faire connaissance. Un entretien avec Perrine côté RH. Un entretien technique suivi d’un échange avec la direction. Une réponse rapide et voire une proposition d'embauche
CDI

Offre d'emploi
Data Engineer – GCP (H/F)

CELAD
Publiée le

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Freelance

Mission freelance
Data Steward / Référent Gouvernance de la Donnée

ESENCA
Publiée le
Data governance
Data quality
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
🎯 Objectif global Accompagner les équipes produits dans l’exposition, la qualité et la gouvernance de leurs données , afin de garantir des données fiables, cohérentes et conformes aux standards définis. 🧩 Contexte et contraintes Enjeux forts de gouvernance et de qualité des données Nécessité d’une modélisation rigoureuse des données Collaboration transverse avec des équipes data et produits digitaux 📦 Livrables attendus Données exposées conformément aux règles de gouvernance définies Règles de qualité des données déployées et opérationnelles Évaluations régulières du respect des règles de gouvernance de la donnée 🛠️ Description de la mission Au sein d’une équipe data transverse, le Data Steward joue un rôle clé dans l’accompagnement des équipes produits digitaux afin d’assurer une gestion structurée, maîtrisée et cohérente des données tout au long de leur cycle de vie. 🎯 Missions principales Accompagner les équipes produits dans l’exposition de leurs données, en garantissant le respect des règles de gouvernance de données établies Contribuer à la définition, à la formalisation et au déploiement des règles de qualité des données Garantir la certification des données exposées , selon les standards et référentiels en vigueur Évaluer le niveau de conformité des données aux règles de gouvernance Participer à l’amélioration continue des pratiques de gouvernance de la donnée, en coordination avec les autres référents data Sensibiliser et acculturer les équipes aux enjeux de qualité, traçabilité et fiabilité des données 🧠 Compétences techniques requises Confirmé – Impératif Gouvernance de données Qualité des données Confirmé – Important Modélisation de données Confirmé – Souhaitable Environnements Cloud (GCP) Outils de visualisation et reporting (Power BI) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Secondaire 🤝 Compétences transverses Capacité d’accompagnement et de pédagogie Sens de la rigueur et de la qualité Esprit de collaboration et travail transverse Capacité d’analyse et de synthèse Orientation amélioration continue
Freelance
CDI
CDD

Offre d'emploi
Senior Platform Engineer / Site Reliability Engineer (SRE)

bdevit
Publiée le
Argo CD
AWS Cloud
CI/CD

36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de nos équipes plateforme, nous recherchons un Senior Platform Engineer / Site Reliability Engineer (SRE) spécialisé en Container as a Service (CaaS) pour un démarrage ASAP . Le poste s’inscrit dans une démarche de construction et d’évolution de plateformes internes à grande échelle. Nous ne recherchons pas un profil Ops traditionnel, mais un véritable Platform Builder , doté d’une forte culture produit et d’une solide expérience en environnements cloud-native en production. Missions Principales : Concevoir, construire et maintenir des plateformes CaaS/PaaS internes basées sur Kubernetes ; Définir et faire évoluer l’architecture des clusters Kubernetes managés ( EKS / GKE ) ; Garantir la sécurité, la fiabilité et la scalabilité des plateformes ; Mettre en œuvre et maintenir l’ Infrastructure as Code (Terraform / Terragrunt) en production ; Déployer et opérer des chaînes GitOps et CI/CD robustes et automatisées ; Accompagner les équipes de développement dans l’adoption de la plateforme (self-service, bonnes pratiques) ; Participer activement à la gestion des incidents (on-call), aux post-mortems et à l’amélioration continue ; Automatiser la remédiation des incidents récurrents et optimiser l’exploitation de la plateforme.
Offre premium
CDI
Freelance

Offre d'emploi
Expert Bases de Données (Cassandra)

Lùkla
Publiée le
Ansible
Azure
Cassandra

3 ans
44k-70k €
400-700 €
Paris, France
Une maison de luxe internationale recherche un Expert Bases de Données afin de renforcer l’animation et l’expertise du domaine Databases au sein de ses équipes. Le poste s’inscrit dans un contexte de croissance des environnements relationnels et NoSQL, avec une présence internationale et des équipes réparties sur plusieurs continents. Le consultant contribuera à garantir la performance, la disponibilité et la sécurité des systèmes de bases de données critiques pour les applications de l’entreprise. Le consultant aura pour principales responsabilités : Administration & Maintenance Installer, configurer et mettre à jour les bases de données relationnelles (PostgreSQL, MySQL, MariaDB) et NoSQL (Cassandra). Assurer la maintenance préventive et corrective des systèmes. Optimisation des Performances Optimiser les requêtes, gérer les index et concevoir des schémas pour assurer une latence minimale. Garantir la performance des bases de données pour des charges applicatives importantes. Haute Disponibilité & Reprise après Sinistre Concevoir et mettre en œuvre des solutions de clustering, de réplication et de sauvegarde robustes. Modélisation & Support Développement Collaborer avec les équipes de développement pour choisir la base de données adaptée à chaque cas d’usage. Participer à l’audit et à la révision de la documentation existante. Sécurité & Conformité Implémenter des contrôles d’accès basés sur les rôles (RBAC), le chiffrement des données et la journalisation des audits. Rédiger une documentation claire et complète des systèmes de bases de données.
CDD
CDI
Freelance

Offre d'emploi
DATA  Engineer GCP 2

KEONI CONSULTING
Publiée le
Architecture
Python
SQL

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance
CDI

Offre d'emploi
Data Engineer Cloud & BI (Finance)

Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)

1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Freelance

Mission freelance
Cloud DevOps – API Management Platform

ESENCA
Publiée le
Argo CD
Azure
Github

1 an
Lille, Hauts-de-France
Attention : mission dans la région lilloise, avec une présence sur site obligatoire, partielle mais régulière. Objectif global Assurer le pilotage et l’évolution d’une plateforme d’API Management à grande échelle, en garantissant performance, disponibilité, sécurité et une expérience développeur optimale. Contrainte forte du projet Connaissance d’un provider d’API Management, idéalement Kong. Description du poste Vous rejoignez une équipe produit en charge d’une plateforme d’API Management combinant des API Gateways et un portail développeur. Cette plateforme permet aux utilisateurs de consommer des API existantes ou d’en exposer de nouvelles, dans un contexte international et multi-environnements. La plateforme héberge plusieurs centaines d’API et supporte des milliards d’appels par semaine. Elle est déployée dans des environnements cloud conteneurisés, multi-tenants et multi-clusters. En tant que Cloud DevOps, vous intervenez sur l’ensemble du cycle de vie de la plateforme, du build au run, dans un environnement technique exigeant. Missions principales Déployer et opérer un portail développeur et des API Gateways dans le cloud Participer à l’industrialisation des déploiements et à l’amélioration continue des pipelines CI/CD Mettre en place et maintenir le monitoring, l’alerting et le respect des SLO Contribuer aux chantiers techniques : intégration d’API Management, service mesh, DRP, FinOps Diagnostiquer et résoudre des incidents dans des environnements complexes à forte charge Participer aux activités de run : support, maintien en conditions opérationnelles et amélioration de l’existant Collaborer avec des équipes internationales dans un contexte distribué Compétences techniques requises Infrastructure & DevOps : Terraform, ArgoCD, Shell, Python Cloud & Conteneurisation : GCP, Azure, Kubernetes, Helm, Aiven Outils & plateformes : GitHub, GitHub Actions, Vault, Artifactory, Jira API Management : Kong ou solution équivalente Observabilité & Run : Datadog, PagerDuty Bonnes connaissances en architecture, systèmes, réseaux et sécurité Compétences linguistiques Anglais professionnel impératif
CDI

Offre d'emploi
Architecte technique Infrastructure (H/F)

Mindquest
Publiée le
Google Cloud Platform (GCP)
Hyper-v
LAN

50000, Saint-Lô, Normandie
Je recherche un(e) Architecte Technique IT pour mon client spécialisé dans le domaine agroalimentaire. Au sein de sa filière IT & Digital Services, vous aurez l’opportunité de travailler sur des projets innovants et de contribuer à la transformation numérique du groupe. Missions : Auditer les solutions informatiques déjà déployées, le réseau, les installations, les plateformes. Collaborer activement au Centre d’Expertise Cloud de l’entreprise. Concevoir et valider l’architecture technique du système d’information. Définir, documenter et mettre en place des standards techniques robustes et évolutifs en adéquation avec l’architecture et la stratégie d’entreprise. Maintenir une veille technologique sur les tendances et solutions du marché. Analyser l’impact des nouvelles solutions/nouvelles technologies dans le système d’information (opérabilité et cohérence globale SI). Préconiser des choix techniques en s’engageant sur un fonctionnement en service régulier Promouvoir l’architecture technique retenue auprès des équipes qui interviennent sur le projet Accompagner les chefs de projet dans le déploiement des solutions techniques et progiciels métier.
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Freelance

Mission freelance
Architecte Sécurité (H/F)

Freelance.com
Publiée le
AWS Cloud
Azure
Cybersécurité

2 ans
400-650 €
Maisons-Alfort, Île-de-France
Poste : Architecte Sécurité Expérience : +8 ans Localisation : Maison-Alfort Rythme : 2 jours sur site (lundi et jeudi) / 3 jours en télétravail Démarrage : ASAP Contexte Nous recherchons un(e) Architecte Cybersécurité pour rejoindre le pôle Expertise de l’équipe Cybersécurité rattachée à la Direction des Systèmes d’Information (DSI). L’équipe Cybersécurité est structurée autour de trois pôles : Gouvernance : supervision des activités cybersécurité et gestion des risques ; Opérations : défense quotidienne du SI, notamment via le SOC ; Expertise : accompagnement des équipes internes à travers une offre Produit (ISP, TPRM…) et une offre Innovation (architecture, doctrine, prospective). Missions Vous accompagnez les équipes agiles afin d’atteindre un haut niveau de sécurité, tant sur les aspects opérationnels que stratégiques. Vos principales responsabilités : Accompagner les équipes dans la mise en conformité sécurité et définir des doctrines et exigences non fonctionnelles ; Réaliser une veille technologique et challenger les solutions en place ; Analyser et challenger les résultats d’audits offensifs (pentests, red team) et accompagner la remédiation ; Contribuer à la stratégie cybersécurité et à l’amélioration continue ; Participer à des sujets transverses selon les priorités de l’actualité cybersécurité. À court terme, vous interviendrez notamment sur : L’accompagnement DevSecOps (Cyber Score, bonnes pratiques) ; Le déploiement et l’acculturation des solutions de cybersécurité (DLP, CNAPP, SSE, VOC, DMARC, cloud souverain…) ; L’encadrement des solutions d’IA générative et d’IA agentique ; Le déploiement de mécanismes de chiffrement à l’état de l’art, incluant la transition post-quantique ; La validation de la conformité cybersécurité des nouveaux socles et applications du SI
Freelance
CDI
CDD

Offre d'emploi
Ingénieur DevOps/SRE

bdevit
Publiée le
AWS Cloud
CI/CD
Dynatrace

36 mois
Île-de-France, France
Contexte : Intégré(e) à une équipe Plateforme / Production / Cloud, vous contribuez à la fiabilisation, l’industrialisation et l’automatisation des plateformes applicatives (on-premise et cloud), dans une logique DevOps & SRE . L’objectif est de garantir la disponibilité des services bancaires tout en améliorant continuellement la résilience, la performance et l’observabilité des systèmes. Missions Principales : - Maintien en conditions opérationnelles des plateformes critiques et des clusters Kubernetes on-premise (OpenShift) et managés (AKS / EKS / GKE) ; - Administration, optimisation et gestion de la haute disponibilité, scalabilité et capacity planning des environnements Kubernetes ; - Gestion des incidents majeurs, analyses RCA et suivi des SLA / SLO / SLI ; - Industrialisation et automatisation des déploiements via CI/CD ; - Mise en œuvre de l’Infrastructure as Code ( Terraform, Ansible, Helm ) ; - Mise en place et optimisation du monitoring et de l’observabilité ( Prometheus, Grafana, Dynatrace, ELK ) ; - Sécurisation des environnements (RBAC, Network Policies, gestion des secrets) ; - Contribution aux exigences et standards de sécurité & conformité bancaire.
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

431 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous