Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Paris

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 92 résultats.
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Offre premium
CDI
Freelance

Offre d'emploi
Expert Bases de Données (Cassandra)

Lùkla
Publiée le
Ansible
Azure
Cassandra

3 ans
44k-70k €
400-700 €
Paris, France
Une maison de luxe internationale recherche un Expert Bases de Données afin de renforcer l’animation et l’expertise du domaine Databases au sein de ses équipes. Le poste s’inscrit dans un contexte de croissance des environnements relationnels et NoSQL, avec une présence internationale et des équipes réparties sur plusieurs continents. Le consultant contribuera à garantir la performance, la disponibilité et la sécurité des systèmes de bases de données critiques pour les applications de l’entreprise. Le consultant aura pour principales responsabilités : Administration & Maintenance Installer, configurer et mettre à jour les bases de données relationnelles (PostgreSQL, MySQL, MariaDB) et NoSQL (Cassandra). Assurer la maintenance préventive et corrective des systèmes. Optimisation des Performances Optimiser les requêtes, gérer les index et concevoir des schémas pour assurer une latence minimale. Garantir la performance des bases de données pour des charges applicatives importantes. Haute Disponibilité & Reprise après Sinistre Concevoir et mettre en œuvre des solutions de clustering, de réplication et de sauvegarde robustes. Modélisation & Support Développement Collaborer avec les équipes de développement pour choisir la base de données adaptée à chaque cas d’usage. Participer à l’audit et à la révision de la documentation existante. Sécurité & Conformité Implémenter des contrôles d’accès basés sur les rôles (RBAC), le chiffrement des données et la journalisation des audits. Rédiger une documentation claire et complète des systèmes de bases de données.
CDD
CDI
Freelance

Offre d'emploi
DATA  Engineer GCP 2

KEONI CONSULTING
Publiée le
Architecture
Python
SQL

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance

Mission freelance
Ingénieur DevOps / SRE – Cloud & Kubernetes (AWS/GCP)

JobiStart
Publiée le
DevOps

3 ans
400-550 €
Paris, France
L’Environnement de Travail & Le Contexte Vous intégrez une équipe technique de haut niveau au sein d'une structure établie ("Cadre Pro") pour une mission de longue durée . Vous évoluerez dans un contexte Multi-Cloud (AWS & GCP) exigeant, où la performance, la sécurité et la disponibilité sont critiques. Organisation : Travail en mode hybride équilibré ( 2 jours de présentiel / 3 jours de télétravail). Atmosphère : Environnement technique riche, favorisant l'autonomie et l'expertise. 🚀 Votre Mission : Fiabilité, Scalabilité & Automatisation En tant que SRE / DevOps, votre rôle est de garantir la robustesse de l'infrastructure et l'efficacité de la chaîne de déploiement (CI/CD). Infrastructure & Orchestration : Gestion et optimisation des clusters Kubernetes . Mise en place de stratégies de scaling avancé ( HPA - Horizontal Pod Autoscaling) pour absorber les pics de charge. Administration d'environnements Cloud hybrides ( AWS / GCP ). Déploiement & Automatisation (CI/CD) : Industrialisation des pipelines de déploiement via GitHub Actions . Implémentation de l'approche GitOps avec ArgoCD . Automatisation et scripting (notamment en Python ). Performance & Sécurité : Optimisation des performances web et gestion des CDN . Intégration des normes de Sécurité (DevSecOps) dès la conception. Garantie des niveaux de service ( SLA ) et monitoring de la production. Support Applicatif : Accompagnement des équipes de développement sur l'écosystème applicatif (stack incluant PHP ).
Freelance

Mission freelance
Architecte Cybersécurité Senior

Neotrust
Publiée le
Agile Scrum
AI
API

1 an
700-750 €
Paris, France
Type de mission : freelance / indépendant (full time) Client : Grand compte Localisation : Est de Paris Télétravail : Hybride (3 jours de télétravail) Durée de la prestation : mission longue durée (12 mois renouvelable) Début de mission : Dès que possible Description du Besoin Le Client recherche un(e) Architecte Cybersécurité pour renforcer le pôle Expertise de l’équipe Cybersécurité rattachée à la DSI . L’équipe Cybersécurité est structurée en 3 pôles : Gouvernance : pilotage cybersécurité et consolidation de la gestion des risques Opérations : défense au quotidien, notamment via le SOC Expertise : accompagnement des clients internes via une offre Produit (ISP, TPRM…) et une offre Innovation (architecture, doctrine, prospective…) Votre Mission Vous accompagnez les équipes agiles pour atteindre un niveau élevé de sécurité : Accompagnement pragmatique des équipes pour la mise en conformité et la sécurisation des produits Définition de doctrines / exigences non fonctionnelles de sécurité (NFR) Veille technologique et capacité à challenger les solutions et choix d’architecture Analyse critique des résultats pentest / red team et support à la remédiation Contribution à l’ amélioration continue et à la stratégie cybersécurité (sujets transverses possibles) Priorités court terme (dès démarrage) Accélérer le DevSecOps des squads (SSDLC, outillage, usage d’un Cyber Score ) Accompagner l’appropriation de solutions cyber : DLP (Purview et Varonis) , CNAPP, SSE, VOC, DMARC, Cloud souverain… Cadrer / encadrer l’usage des IA génératives & IA agentiques Renforcer le chiffrement “state of the art” et préparer la transition post-quantique Valider la conformité cyber des nouveaux socles et applications du SI Responsabilités clés Conseil & accompagnement des équipes projets / produits (mode agile) Revue d’architecture sécurité (cloud/on-prem, APIs, web, réseau, data) Production de livrables : doctrine, patterns, exigences, avis sécurité, recommandations Interface avec les parties prenantes (DSI, équipes produit, Ops, gouvernance, sécurité) Environnement technologique Sécurité technique : Réseau, API, Web, Systèmes, Cloud Risk & frameworks : ISO, NIST (et assimilés) DevSecOps : SSDLC, SAST, DAST, SCA (Checkmarx), Sécurité Cloud : CNAPP / CSPM (Prisma Cloud) IAM : OIDC, SAML, SCIM Réseau : ADN, SASE (Netskope) Cloud & plateformes : AWS, Azure, GCP, VMware, Kubernetes OS : Linux / Windows / macOS Crypto : PKI, certificats/CLM, KMS/HSM, chiffrement IA : Dust, Mistral, Copilot, MCP, agents Méthodes : Agile / Scrum / SAFe
Freelance

Mission freelance
Chef de projet & Expert Cybersécurité (H/F)

Cherry Pick
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
AWS Cloud

12 mois
600-660 €
Paris, France
Contexte Dans le cadre du renforcement de ses obligations réglementaires et normatives en matière de sécurité des systèmes d’information (ANSSI – OSE, directive NIS/NIS2, norme ISO/IEC 27001), notre client recherche un Expert Cybersécurité & Responsable de Projets Techniques afin d’assurer le pilotage de projets stratégiques liés à la sécurisation des infrastructures Systèmes, Réseaux et Cloud. L’environnement est critique et fortement réglementé. Objet de la mission Assurer le pilotage, la coordination et la mise en œuvre opérationnelle de projets de cybersécurité, en environnements on-premise et Cloud , en lien avec les équipes techniques, sécurité, RSSI et directions métiers. Missions principales 1. Pilotage de projets cybersécurité Planifier et piloter les projets sécurité Superviser les chantiers de sécurisation des infrastructures Coordonner équipes internes et prestataires Animer les comités techniques et comités de pilotage (COPIL) Assurer le suivi des plans de remédiation suite audits (ANSSI, OSE, NIS2…) Produire les supports de pilotage et reporting Accompagner les audits de sécurité Exemples de projets confiés : Pilotage de plans de remédiation sécurité Mise en œuvre de fédérations d’annuaires Segmentation et cloisonnement réseau Mise en œuvre d’architectures réseau et sécurité Déploiement de bastion d’administration Sécurisation de services Web Préparation et suivi des audits de sécurité 2. Expertise technique attendueSécurité Réseau & Infrastructures Pare-feu, segmentation, cloisonnement, durcissement IDS / IPS Bastion d’administration Sécurisation des flux IAM / Gestion des identités IAM et gouvernance des identités MFA, SSO, fédération Active Directory / Azure AD / LDAP Durcissement AD PKI & Certificats Gestion de certificats Chaînes de confiance Gouvernance PKI Sécurité Cloud Azure / AWS / GCP DevSecOps (CI/CD sécurisé, Infrastructure as Code) Bonnes pratiques Cloud Security 3. Reporting & Gouvernance Production d’indicateurs sécurité Analyse et synthèse des risques Support aux comités SSI Alignement avec les exigences réglementaires (ANSSI, NIS2, RGS) Contribution à la conformité ISO/IEC 27001
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes Linux (H/F)

Linkup Partner
Publiée le
Administration linux

1 an
55k-65k €
450-550 €
Paris, France
En tant qu’ Ingénieur Système Linux Senior , vous êtes garant de la stabilité, de la sécurité et de l’évolution des infrastructures systèmes. Vous intervenez sur des environnements critiques, hybrides (Cloud & Bare Metal), dans un contexte exigeant et structuré (ISO27001). Vous êtes capable de prendre de la hauteur , d’avoir une vision globale des architectures et d’être force de proposition sur les choix techniques et stratégiques. Responsabilités principales Administration et maintien en conditions opérationnelles des serveurs Linux Gestion d’infrastructures hybrides : Cloud (GCP) & Bare Metal Conception, mise en œuvre et tests de PRA / PCA Gestion et optimisation des clusters Proxmox Automatisation des processus via scripting (Shell, Python, Ruby) Participation aux audits et maintien de la conformité ISO27001 Gestion des incidents critiques (niveau 3) Contribution aux décisions d’architecture et aux roadmaps techniques Documentation technique et procédures d’exploitation Collaboration avec des équipes internationales (anglais requis) Environnement technique Linux (administration avancée, tuning, troubleshooting) Proxmox VE (virtualisation, clustering, haute disponibilité) GCP (Google Cloud Platform) – environnements Cloud Infrastructures Bare Metal Scripting Shell (Bash) Python Ruby Environnement certifié ISO27001 Mise en œuvre et gestion de PRA / PCA
Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
CDI

Offre d'emploi
CONSULTANT SECURITE CLOUD (H/F)

CyberTee
Publiée le
Cloud

40k-70k €
Paris, France
🚀 Vos missions Intervenir sur des environnements Cloud Public : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) Réaliser des missions de consulting en cybersécurité Cloud Conduire des audits de sécurité techniques et organisationnels Assurer l’assistance technique auprès des équipes clients Réaliser des analyses de vulnérabilités et piloter les plans de remédiation Auditer la sécurité des accès et des identités Cloud (IAM) Définir et mettre en œuvre des politiques de sécurité Cloud Déployer et intégrer des solutions de sécurité (CNAPP, CSPM, CWPP) Animer des formations et actions de sensibilisation à la sécurité Cloud Intervenir sur des environnements Web, Linux, Windows, VMware, Android et iOS 👤 Profil recherché Diplôme d’école d’ingénieur en informatique, télécommunications ou équivalent Minimum 4 ans d’expérience en tant que Consultant ou Expert sécurité (ESN ou grande entreprise) Maîtrise des environnements Cloud : AWS, Azure, GCP Compétences en architecture sécurisée des environnements Cloud Bonne connaissance des solutions CNAPP, CSPM, CWPP Expérience en audit de sécurité et gestion des vulnérabilités Anglais opérationnel à l’écrit et à l’oral Excellentes capacités rédactionnelles 🎓 Certifications appréciées AWS Certified Solutions Architect AWS Security Specialty Microsoft AZ-305 Microsoft AZ-104 Microsoft AZ-500 Microsoft SC-100 Google Cloud Architect Google Cloud Security
CDI

Offre d'emploi
FINOPS CLOUD

CyberTee
Publiée le
FinOps

40k-70k €
Paris, France
🚀 Vos missions Définir et piloter la stratégie FinOps Mettre en place un modèle de gouvernance FinOps (rôles, processus, outils, KPIs) Surveiller, analyser et optimiser les coûts Cloud : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) Contribuer à la définition du budget Cloud et assurer le suivi des prévisions Identifier les anomalies, gaspillages et leviers d’optimisation (right-sizing, réservations, spot instances, etc.) Concevoir des rapports et tableaux de bord de suivi des dépenses Cloud (Power BI, Tableau, Looker, Grafana) Accompagner et conseiller les clients sur les meilleures pratiques, outils et technologies adaptés à leur contexte Réaliser des présentations, démonstrations, POC et pilotes pour valoriser les recommandations Assurer le transfert de compétences aux équipes techniques clientes Réaliser une veille technologique et financière sur les offres Cloud et les tendances FinOps 👤 Votre profil Formation Bac+5 (école d’ingénieur, informatique, finance ou équivalent) Expérience confirmée (3 à 8 ans) en environnement Cloud ou gestion financière IT Solide expertise technique dans les domaines suivants : Cloud computing (IaaS, PaaS, SaaS, AWS, Azure, GCP) Modèles de tarification et de facturation Cloud Administration systèmes (Linux, Windows, virtualisation, web, hardening, scalability) Sécurité et gouvernance Conteneurisation : Docker, Kubernetes Capacité à travailler en équipe avec d’excellentes compétences en communication et présentation Dynamique, curieux(se), organisé(e), rigoureux(se) et force de conviction Volonté d’intervenir sur des projets stratégiques et innovants Anglais professionnel à l’écrit comme à l’oral
CDD
CDI
Freelance

Offre d'emploi
Ingénieur en sécurité Opérationnelle –  IAM cloud Security - N3

KEONI CONSULTING
Publiée le
AWS Cloud
Python
Terraform

18 mois
20k-60k €
100-550 €
Paris, France
Contexte Accompagner Sécurisation du Cloud public Réglé Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maitrise de l'IAM et de l'automatisation, de Terraform et des chaines CI/CD MISSIONS Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : - Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. - Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. - Mise en œuvre des meilleures pratiques et contrôles au travers d’outils tels que AWS SCP, GCP Deny Policy et autres. - Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. - Documenter les processus, les configurations et politiques mises en place. Compétences techniques : IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Dev. Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Définition du profil Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique Données complémentaires
Freelance

Mission freelance
Ingénieur Cloud

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-650 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance

Mission freelance
Architecte IT en Banque - Finance

Mon Consultant Indépendant
Publiée le
Gestion de projet

6 mois
540-600 €
Paris, France
Pour l'un de nos clients du secteur bancaire, nous recherchons un architecte IT end-to-end (data, backend, frontend). Objectifs de la mission : Apporter de l’expertise architecture tout en étant pédagogue (vulgarisation, acculturation des équipes). IT : architecte end to end, maitrise Google Cloud Platform, Data compute (Apache spark, gestion de gros volumes de données), langages : Java et/ou .NET, conteneurisation : OpenShift / Kubernetes et outil agentique. (MANDATORY : SANS CES COMPETENCES, INUTILE DE POSTULER)
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

92 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous