Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 372 résultats.
Freelance

Mission freelance
Lead Analytics Engineer

Deodis
Publiée le
Google Cloud Platform (GCP)

1 an
500-550 €
Île-de-France, France
Poste stratégique au sein d’une équipe Data centrale visant à renforcer l’autonomie des Data Analysts et à améliorer l’exploitation des données dans une organisation décentralisée. La mission consiste à piloter l’évolution d’une plateforme analytics basée sur des technologies modernes (GCP, BigQuery, DBT, BI), assurer la qualité et la modélisation des données, développer des solutions de self-service analytics et accompagner la communauté Data à travers des bonnes pratiques et du management d’équipe. Le rôle inclut également la gestion de la roadmap analytics, l’industrialisation des pipelines de données, l’optimisation des modèles DBT et l’accompagnement des équipes dans un contexte de transition managériale.
Offre premium
CDI

Offre d'emploi
Cloud Engineer / Administrateur SRE Kubernetes – Expérimenté F/H

Clostera
Publiée le
Google Cloud Platform (GCP)
Kubernetes

54k-65k €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! L’équipe Kubernetes administre, exploite et fait évoluer des clusters Kubernetes dédiés aux différentes équipes produit et métiers. Dans un environnement 100% Cloud (GCP & Azure), l’exploitation suit une approche GitOps avec un fort ancrage open source et CNCF. Le rôle consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes, dans un contexte de production exigeant nécessitant autonomie et maîtrise technique avancée. Mission : Gestion de pods , services , ingresses et namespaces “infra” , avec application des bonnes pratiques sur les manifests applicatifs Provisionnement AKS / GKE et ressources cloud via Terraform Industrialisation des déploiements avec GitLab CI/CD et ArgoCD Facilitation du time-to-market (certificats, DNS, observabilité, enablement fonctionnalités) Exploitation des clusters (upgrades K8s et composants, capacity management, PRA) Mise en place multi-tenant (namespaces, quotas, RBAC, network policies) Déploiement et maintenance de l’observabilité (Prometheus, Grafana, Loki, centralisation logs) Suivi consommation cloud (Azure Monitor, métriques GCP, dashboards) Optimisation des ressources (quotas, scaling, templates, extinction nocturne) Renforcement sécurité Kubernetes (policies, RBAC, audit logs) Gestion des secrets (Vault, Sealed Secrets, services cloud) Application des recommandations RSSI et sécurité Automatisation via scripting (Bash, Python, Go) Mise en place d’alerting avancé et proactif Promotion d’une culture SRE (fiabilité, autoscaling, bonnes pratiques CNCF/CAF)
Freelance

Mission freelance
Data Scientist Senior – Recherche Opérationnelle & E-commerce

BEEZEN
Publiée le
Google Cloud Platform (GCP)

6 mois
400-550 €
Île-de-France, France
● Technologies Langages : Python, Java, SQL. Maths & RO : Métaheuristiques, Programmation linéaire, Optimisation combinatoire, Inférence causale. Outils RO : OR-Tools, ou solveurs commerciaux. Cloud & Data : GCP, BigQuery, Docker, Kubernetes, Airfl ow (Cloud Composer). ● Maîtrise impérative de l’environnement GCP. ● Formation : Bac+5 (Master ou École d'Ingénieur) spécialisé en Recherche Opérationnelle, Mathématiques Décisionnelles ou Supply Chain Analytics. ● Expérience : au moins 7 ans en Data Science
CDI
Freelance

Offre d'emploi
Cloud Engineer Sénior – Landing Zone / Cloud Monitoring

Clostera
Publiée le
Google Cloud Platform (GCP)
Grafana
Prometheus

1 an
52k-68k €
480-580 €
Massy, Île-de-France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! La mission porte sur un projet critique visant à mettre à niveau le monitoring de la Landing Zone Cloud . Un état des lieux existant a été réalisé. L’objectif est de corriger, améliorer et fiabiliser les dashboards et le système d’alerting afin de garantir un monitoring conforme aux besoins opérationnels. Ce que vous ferez : Optimisation du monitoring Optimiser les dashboards existants Vérifier la pertinence des indicateurs et alertes Améliorer la réactivité du monitoring Validation et fiabilité Réaliser des tests en conditions réelles : simulations de pannes coupures de services S’assurer que le monitoring reflète fidèlement la réalité Standardisation et harmonisation Uniformiser la présentation des dashboards (L1 / L2 / L3) Améliorer l’expérience utilisateur Adapter les vues aux besoins des différentes équipes Documentation Mettre à jour et enrichir la documentation existante Produire une documentation claire, accessible et évolutive Amélioration continue Travailler en cycles courts (test / correction / amélioration) Proposer des évolutions pour renforcer la fiabilité du monitoring
Freelance
CDI

Offre d'emploi
Ingénieur DevOps - GCP (F/H)

K-Lagan
Publiée le
DevOps
Google Cloud Platform (GCP)

1 an
Nantes, Pays de la Loire
Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? 🚀 Chez K-LAGAN, nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé. Aujourd’hui, nous recherchons un.e DevOps (F/H) pour rejoindre l’un de nos clients basé à Nantes . 🎯 Contexte Vous intervenez au sein d’une équipe en charge de la plateforme cloud sur GCP , dans un environnement en forte évolution. L’objectif : fiabiliser, industrialiser et faire évoluer les infrastructures vers une approche Platform Engineering, au service des équipes de développement. Vous contribuez directement à la mise en place de standards, d’outils et de bonnes pratiques pour améliorer la scalabilité et la performance des environnements. ⚙️ Vos missions Automatiser le déploiement des infrastructures via Terraform Concevoir et maintenir des playbooks Ansible Gérer le provisioning d’infrastructures IaaS sur GCP Participer à l’industrialisation des environnements (CI/CD, monitoring, sécurité) Contribuer à l’évolution vers un modèle Platform Engineering Accompagner les équipes de développement dans l’usage de la plateforme Être force de proposition sur les bonnes pratiques DevOps 🛠️ Stack technique Cloud : GCP Infra as Code : Terraform Configuration management : Ansible CI/CD : GitLab CI / Jenkins (ou équivalent) Conteneurisation : Docker, Kubernetes (idéalement) Scripting : Bash / Python
Freelance
CDI

Offre d'emploi
Business Analyst Technique – Projet Data (H/F)

CELAD
Publiée le
BigQuery
Business Analyst
Google Cloud Platform (GCP)

6 mois
40k-45k €
350-490 €
Trappes, Île-de-France
Vous souhaitez intervenir sur un programme stratégique de transformation digitale à grande échelle dans un environnement industriel innovant ? Nous recherchons un.e Business Analyst Agile technique pour rejoindre une équipe travaillant sur une plateforme nouvelle génération autour de la data et du cloud. Vos missions Au sein d’une équipe Agile, vous interviendrez sur des sujets à forte dimension fonctionnelle et technique : Analyse des besoins métier et cadrage fonctionnel Rédaction des User Stories et spécifications fonctionnelles Analyse des incidents et investigations sur les flux applicatifs Participation à l’évolution de l’architecture cible de la plateforme Validation des flux et tests end-to-end Collaboration avec les équipes Produit, Data, Cloud et Développement Contribution aux bonnes pratiques projet et à l’amélioration continue Environnement technique GCP BigQuery SQL avancé APIs REST JSON GitHub / VS Code Agile / Scrum Gherkin Data Platform & systèmes industriels
Freelance
CDI

Offre d'emploi
Architecte Cloud GCP Sénior

Clostera
Publiée le
CI/CD
Google Cloud Platform (GCP)
Terraform

1 an
58k-70k €
500-600 €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Intervention au sein d’une équipe d’architectes Cloud en charge de définir, structurer et faire évoluer les standards autour de la plateforme Google Cloud Platform . La mission s’inscrit dans un contexte de renforcement de la gouvernance et d’accompagnement des projets sur des environnements à grande échelle. Missions Définition et structuration de la gouvernance GCP (organisation, IAM, policies, billing) Conception de landing zones sécurisées et standardisées Rédaction de documents d’architecture (DAT/DEX) et de patterns Réalisation d’audits d’infrastructures existantes Mise en place de POC sur de nouvelles solutions Accompagnement des équipes projets vers les bonnes pratiques Cloud Contribution à la standardisation et à l’industrialisation des architectures
Freelance
CDD
CDI

Offre d'emploi
Testeur Data confirmé

SARIEL
Publiée le
Azure
Databricks
Google Cloud Platform (GCP)

12 mois
40k-53k €
320-420 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un testeur Data confirmé (4-10 ans d’expérience). Objectif Global : Testeur confirmé avec compétences Data Analyste Contrainte forte du projet Remplacement d'un prestataire en fin de mission Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks ou GCP ou big Query- Confirmé - Important Environnement azure microsoft - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Savoir Faire : - Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste - Profil technico fonctionnel - SQL Server - JIRA/XRAY - Environnement Microsoft azure - DataBricks ou GCP ou big Query - Utilisation de l'IA dans les tests (Génie Code) - Outils de reporting Power BI, Microstratégy Savoir Etre : - Collaboratif - Entraide - Force de proposition - Implication/Engagement - Amélioration Continue - Communication fluide - Qualité organisationnelle Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 08/06/2026 Lieu de réalisation CHATILLON (92) Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Architecte Observabilité

KUBE Partners S.L. / Pixie Services
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes

6 mois
Hauts-de-France, France
Votre mission : - Déploiement, parametrage et administration des composants de la plateforme d'Observabilité - Gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs sur les bonnes pratiques Observabilité et dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends. Vous aidez nos clients internes à améliorer la disponibilité et la performance de leurs applications (à l'international) - Rédactions de la documentation et des RUN books afin de diffuser la connaissance auprès des équipes techniques internes. Environnement technique : Vous disposez notamment des connaissances techniques suivantes : - Maîtrise de GCP, Azure serait un plus. - Maitrise avancée de Kubernetes - Maitrise de Datadog, expérience dans un environnement engageant de forts volumes - Connaissance de la plateforme Grafana OSS, build et run en environnement engageant de forts volumes - Connaissances Centreon - Connaissances OpenTelemetry - Expérience en instrumentation d’applications - Maîtrise de Terraform/AWX - Connaissances bonnes pratiques de développement (Python, Go serait un plus), scripting et IaC. - Culture SRE Profil Expérience d'au moins 5 ans dans le domaine des architectures cloud, dont 3 ans sur des sujets d'Observabilité Vous êtes autonome et impliqué: vous savez faire avancer vos sujets, seul ou en équipe. Rigoureux, curieux, capacité d'analyse, bonnes qualités rédactionnelles et relationnelles. Prérequis : - Anglais Compétences techniques GCP - Confirmé - Important Observabilité (Datadog, Grafana, Centreon, Otel) - Confirmé - Important kubernetes - Confirmé - Important Pratiques DevOps (CI/CD, IaC, ...) - Confirmé - Important Les livrables sont Delivery et configuration des composants techniques de la plateforme d'Observabilité Accompagnement des features teams dans l'implémentation de leur Observabilité Administration et integration des solutions - Participation au roulement d'astreintes
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)

1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Freelance

Mission freelance
DevOps Cloud Engineer GCP / Azure (H/F)

Izyfree
Publiée le
Google Cloud Platform (GCP)
Python
Terraform

3 ans
440-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de l’évolution du produit Landing Zone, nous recherchons un DevOps Cloud Engineer pour participer au développement des plateformes cloud. Nous recherchons un DevOps Cloud Engineer capable de faire évoluer les Landing Zones cloud, avec une forte expertise GCP, Azure, Terraform et automatisation. La Landing Zone permet aux collaborateurs de commander en quelques minutes un espace sur le cloud public, principalement GCP mais aussi Azure, avec une pré-configuration de l’écosystème pour déployer leurs applications rapidement, de manière sécurisée et autonome. Missions contribuer au développement et à l’évolution des Landing Zones cloud automatiser le déploiement des infrastructures via Terraform développer et maintenir des outils d’automatisation cloud, réseau et sécurité implémenter des services backend en Python participer au développement de composants frontend en Vue.js concevoir des solutions cloud natives sécurisées et automatisées participer aux revues d’architecture et de code garantir la qualité, la maintenabilité et la performance des solutions corriger les anomalies et améliorer les plateformes existantes accompagner les équipes techniques dans l’usage des services développés
Freelance

Mission freelance
Data BI Engineer (GCP / Power BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI

6 mois
400-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Bonjour, Je suis à la recherche d’un Data BI Engineer (GCP / Power BI) : Missions principales : Concevoir, développer et maintenir les couches sémantiques sur GCP (BigQuery) Mettre en œuvre les transformations de données à l’aide de dbt et Composer Optimiser les performances, la qualité et la fiabilité des pipelines de données Documenter les modèles de données et les flux Concevoir et produire des rapports et tableaux de bord Power BI Travailler en étroite collaboration avec les métiers pour comprendre et formaliser les besoins Garantir la cohérence des indicateurs et la bonne exploitation des données Suivre les jalons projets et contribuer à l’optimisation de la livraison des solutions Travailler sous la supervision d’un référent d’équipe Faire preuve de proactivité, d’autonomie et de dynamisme dans les sujets confiés Participer aux rituels Agile (sprints, reviews, planning, etc.) Mettre en œuvre et exécuter les tests (Jira Xray) Contribuer à l’amélioration continue des pratiques Data & BI Assurer la traçabilité et la documentation dans les outils projet
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Freelance

Mission freelance
Développeur Senior Java / Python / GCP – Equity Derivatives / Risk & Pricing

Taleo Capital
Publiée le
Google Cloud Platform (GCP)
Java
Python

7 mois
400-550 €
Paris, France
Contexte de la mission Dans le cadre du renforcement d’une équipe IT Front Office internationale, notre client recherche un Développeur Senior Java / Python / GCP pour intervenir sur des applications critiques liées aux dérivés actions , au pricing , au Risk & PnL et aux données nécessaires à la valorisation. Le consultant intégrera une équipe en charge du développement de composants et services utilisés pour l’extraction, le traitement et la mise à disposition de données nécessaires aux calculs de risk , VaR , pricing et valorisation . L’environnement est international, avec des interactions régulières avec plusieurs équipes basées notamment à Paris, Londres, Hong Kong et New York. Missions principales En tant que Développeur Senior, vous interviendrez sur les sujets suivants : Participer au design , au développement et à l’évolution de composants d’une chaîne de Risk & Pricing Développer et maintenir des services autour des données nécessaires au pricing et à la gestion des risques Contribuer à l’évolution de l’architecture applicative sur des environnements critiques Front Office Travailler en collaboration avec les équipes Quants , Compute , Core IT et équipes métiers Intervenir sur des composants existants liés à des progiciels ou plateformes de marché Assurer la mise en place des tests, la documentation technique et la mise en production Participer au monitoring, à l’analyse des besoins, à la maintenance et à la correction des vulnérabilités Assurer le support applicatif et participer ponctuellement à une rotation d’astreintes Être force de proposition sur les choix techniques et les améliorations d’architecture
Freelance

Mission freelance
Product Manager IA

HAYS France
Publiée le
Agent IA
BigQuery
Copilot

3 ans
250-610 €
Lille, Hauts-de-France
Responsabilités principales🔹 Définition de la stratégie IA Définir et formaliser la gouvernance IA du client en collaboration avec les équipes métiers, Digital & Data Construire la trajectoire IA alignée avec les enjeux business 🔹 Pilotage des projets IA Accompagner les équipes métiers dans l’identification des cas d’usage Prioriser et piloter le backlog des initiatives IA Définir les ressources nécessaires (internes / externes) Suivre le delivery et mesurer la création de valeur (ROI, impact opérationnel) 🔹 Travail en écosystème groupe Collaborer étroitement avec les experts IA du client Identifier et favoriser le re-use de solutions existantes au sein du groupe 🔹 Animation et innovation Faire le lien entre les équipes techniques et le terrain Suivre la performance des solutions IA déployées Contribuer à la diffusion de la culture IA et Data
Freelance

Mission freelance
Site Reliability Engineer - SRE

KUBE Partners S.L. / Pixie Services
Publiée le
Bash
Google Cloud Platform (GCP)
Kubernetes

6 mois
430 €
Hauts-de-France, France
Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

372 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous