Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 417 résultats.
CDI
Freelance

Offre d'emploi
Ingénieur Sécurité Data (H/F)

AVA2I
Publiée le
AWS Cloud
Cybersécurité
FortiGate

3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Sécurité Data pour renforcer la sécurisation d’un environnement multicloud AWS & GCP . L’objectif est de protéger l’ensemble de la chaîne de valeur Data : ingestion, stockage, transformation et exposition des données, tout en garantissant conformité, traçabilité et résilience des infrastructures. 🏗️ Environnement Technique Cloud : AWS & GCP (environnement multicloud) Plateforme Data : Data Lake / Data Warehouse ETL / ELT Orchestration de flux data Sécurité réseau : Firewalls Fortinet / FortiGate Segmentation réseau & sécurisation des flux inter-VPC / inter-projets CI/CD & approche DevSecOps Supervision & monitoring sécurité 🛠️ Missions principales🔒 Sécurité Cloud & Data Sécurisation des architectures Data sur AWS et GCP Mise en place et contrôle des politiques IAM Gestion des accès aux environnements Data Sécurisation des flux d’ingestion et d’exposition des données Application des standards sécurité groupe 🌐 Sécurité Réseau Administration et configuration des firewalls FortiGate Gestion des règles de filtrage, VPN, NAT, IPS Segmentation réseau et sécurisation des flux inter-environnements Analyse et traitement des incidents sécurité réseau
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
CDI

Offre d'emploi
Data scientist (H/F)

IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Freelance

Mission freelance
Ingénieur Système et Cloud (H/F)

Insitoo Freelances
Publiée le
Administration linux
Google Cloud Platform (GCP)
Microsoft Windows

2 ans
400-500 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur Système et Cloud (H/F) à Hauts-de-France, France. Les missions attendues par le Ingénieur Système et Cloud (H/F) : Missions principales ● Support N2 et N3 de composants d’infrastructure ● Correspondant technique des sujets de transformation applicatif ● Responsable des composants techniques legacy (Poste de vente en magasins en Linux CentOS, Puppet, Gitlab,.. ) ● Force de proposition et ambassadeur sur la mise en place de nouvelles méthodes et outils au service de ○ la meilleur maîtrise du SI (CICD Gitlab,Datadog) ○ la meilleur maîtrise des projets et processus (GLPI, JIRA) ● Communiquer et accompagner les changements auprès des équipes. ● S’assurer de la bonne documentation des développements et projets ● Force de proposition et acteur du choix et de la refonte des devices en magasins (tablette, scan,TPE,...) ● Participation possible à des astreintes Rattachement hiérarchique Le poste est au sein de la DSI, rattaché au Responsable de Production (équipe de 4 personnes) Ses interlocuteurs ● Les équipes DSI des domaines métiers et de production.(helpdesk et securité/réseau) ● Les Partenaires Infrastructure, éditeurs ● Les utilisateurs (Siege, réseau et magasin) ● Les interlocuteurs technique Les compétences principales ● Bonnes connaissances des environnements techniques Linux, Windows, GCP. ● Volonté d’apprendre sur un périmètre technique en transformation ● Prise de recul sur le périmètre legacy ● Curiosité transverse fonctionnelle ● Capacité à prendre des initiatives, autonomie ● Capacité de communication orale et écrite ● Capacité d’écoute ● Bon relationnel et esprit d’équipe ● Curieux sur les nouvelles technologies Expérience Formation supérieure en informatique (Bac + 5) 3 à 5 ans d’expérience dans le monde de la production informatique (Cloud Privé et public GCP) Experience Retail souhaitée
Freelance

Mission freelance
chef de projet technique / Cloud /Devops

Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure

6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
Freelance

Mission freelance
Consultant IT / Chef de Projet IT Transverse

VISIAN
Publiée le
Google Cloud Platform (GCP)

1 an
400-670 €
Île-de-France, France
Contexte Vous interviendrez au sein d’une entité spécialisée dans les activités assurance, retraite et prévoyance , rattachée à un département Projets et Systèmes d’Information . L’environnement est riche, transverse et structuré , avec de nombreuses interactions entre équipes métiers, équipes IT internes et équipes techniques expertes au sein d’un grand groupe. Mission Nous recherchons un consultant IT généraliste et transverse , disposant d’un socle technique solide , capable d’intervenir aussi bien sur : des projets IT structurants , la prise en charge du volet IT de projets d’entreprise , des besoins opérationnels ponctuels émanant des métiers (support aux outils collaboratifs et aux outils du quotidien). La mission comprend également une forte dimension de structuration et documentation des processus IT et des procédures . Le consultant sera force de proposition, capable de : dialoguer avec des équipes techniques expertes , challenger les choix techniques proposés, formuler des recommandations pertinentes, tout en respectant strictement les normes de sécurité et d’architecture en vigueur. Responsabilités principales Pilotage et conduite de projets IT (infrastructure et/ou applicatifs) Coordination entre équipes métiers et équipes techniques Prise en charge du volet IT des projets d’entreprise Support et accompagnement des utilisateurs sur les outils collaboratifs et outils internes Rédaction et mise à jour de la documentation IT (process, procédures, guides) Contribution à l’amélioration continue du SI et des pratiques IT
CDI
Freelance

Offre d'emploi
Chef de projet Migration Cloud GCP (H/F)

AGH CONSULTING
Publiée le
Google Cloud Platform (GCP)

1 an
50k-70k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur majeur des services numériques, accompagne des organisations sur l’exploitation de leurs systèmes d’information critiques et leur transformation numérique sécurisée . Dans ce cadre, il renforce ses équipes et recherche un Responsable projets Migration Cloud expérimenté pour piloter des programmes de Move to Cloud sur des environnements GCP, Azure et AWS . Missions principales Piloter des programmes de migration Cloud de bout en bout (de la phase d’appel d’offres jusqu’à la mise en production et l’acceptation) Définir et sécuriser les stratégies de migration dans des contextes multi-cloud et réglementés Coordonner l’ensemble des parties prenantes : Project Manager, Product Design Authority, équipes d’architecture, de sécurité, partenaires et sous-traitants Garantir le respect des coûts, délais, qualité et conformité des projets Assurer le pilotage global des risques, dépendances et plans d’actions Mettre en place une gouvernance projet structurée (revues, comités, reporting)
Freelance
CDI
CDD

Offre d'emploi
Consultant opérations N3/N4

SARIEL
Publiée le
Architecture
CI/CD
Dynatrace

12 mois
Boulogne-Billancourt, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Consultant opérations N3/N4. Objet de la prestation De façon intégrée et coordonnée aux instances de pilotage de Run en vigueur, la prestation à pour but d’intervenir dans l’amélioration de la qualité, la stabilité et la performance du parc applicatif. Dans ce contexte, la prestation doit contribuer à la prévention, la gestion des incidents, la documentation, le monitoring et l’accompagnement technique. Savoir-faire du prestataire Le prestataire est consulté compte tenu de son expertise technique sur un périmètre technique large et sur son expérience autour des activités de qualité opérationnelle. La connaissance et maitrise de l’outil dynatrace est un pré-requis fort. Savoir-faire nécessaire à la réalisation de la prestation / domaines d’expertise] Maitrise approfondie des solutions digitales étendues : - Architecture technique - Connaissance de l’outil APM Dynatrace - Maitrise des infrastructures IT et réseau - Maitrise d’au moins un language de développement (Java en particulier) - Une connaissance sur tout ou partie des composants suivants : o Infrastructure Google Cloud (GCE, GKE, Cloud Storage , Cloud SQL…) o Capacité à intervenir sur des infrastructures plus anciennes (ex : mainframe) o Plateformes SAAS type Salesforce, APIGEE, SOLACE o Chaines CI/CD et composants associés -Maitrise de l’anglais. Durée de réalisation de la prestation - date de début : 01/03/2026 La prestation sera réalisée en télétravail avec déplacement chez le client sur Boulogne Billancourt deux jours par mois. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Data scientist IA + Python + GCP

emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Freelance

Mission freelance
Architecte technique applicatif (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Architecture
Dynatrace
Google Cloud Platform (GCP)

6 mois
400-580 €
Boulogne-Billancourt, Île-de-France
Objet de la prestation De façon intégrée et coordonnée aux instances de pilotage de Run en vigueur, la prestation à pour but d’intervenir dans l’amélioration de la qualité, la stabilité et la performance du parc applicatif. Dans ce contexte, la prestation doit contribuer à la prévention, la gestion des incidents, la documentation, le monitoring et l’accompagnement technique. Périmètre : • Amélioration de la qualité opérationnelle du parc applicatif o Identification et mise en œuvre des plans d’actions préventifs Exemples (liste non exhaustive) : - Gestion des renouvellements de certificats - Mise en place / mise à jour de règles de bonnes pratiques - Mise à jour des DEX (dossiers d’exploitation) - Identification et traitement des composants obsolètes - Détection et réduction des SPOF (Single Point of Failure) o Identification et mise en œuvre des plans d’actions curatifs - Identification, priorisation et correction des anomalies récurrentes - Analyse des causes racines (RCA) - Définition et suivi de mesures correctives durables o Définition des SLA et mise en place d’un outil de suivi - Proposition et formalisation de niveaux de service (SLA) - Construction d’indicateurs associés (KPI) - Intégration dans les outils internes (ex : dashboards, ITSM) • Monitoring & Communication o Mise en œuvre du monitoring via Dynatrace - Monitoring opérationnel technique (volumétrie, erreurs, latence…) - Monitoring d’usage applicatif o Mise en place d’un système d’alerting - Solution technique - Définition des seuils, règles d’alerte et de diffusion o Communication opérationnelle - Communication régulière vers les équipes applicatives - Animation d’un tableau de bord de la qualité opérationnelle (disponibilité, incidents, risques …) • Mise à niveau documentaire o Cartographie et criticité - Contribution à la mise à jour de la cartographie applicative - Revue de la classification des composants par criticité (technique / métier) o Identification des composants à risque - Risques techniques (obsolescence, dette, SPOF…) - Risques organisationnels (perte de maîtrise, absence de documentation…) o Mise à jour des organisations opérationnelles - Groupes d’escalade - Mailing lists - Contacts support (internes / externes) o Mise à jour des dossiers d’exploitation - Animation des équipes pour récupération et consolidation des informations o Analyse de l’impact métier - Évaluation des impacts business en cas d’incident ou d’indisponibilité - Contribution à la priorisation des actions • Support technique des équipes applicatives - Fiabilisation des composants - Réduction de l’obsolescence - Chantiers techniques et cybersécurité • Mise à niveau du DRP (Disaster Recovery Plan) - Vérification de la complétude et de la conformité - Mise à jour des plans et proposition d’améliorations • Contribution à la gestion opérationnelle des incidents o Qualification et résolution d’incidents - Support aux équipes applicatives DIR SD - Analyse technique détaillée - Identification des actions correctives et préventives o Suivi des incidents infrastructure (pilotés par DIR ICS) - Suivi des RCA infra - Coordination entre DIR SD et DIR ICS o Gestion de la relation avec les supports L1 / L2 / L3 - Coordination opérationnelle Livrables - Plans d’actions détaillés + suivi. - Tableaux de bord / reporting opérationnel. - Dashboards Dynatrace (usage, performance, alerting). - Documentation mise à jour (cartographie, criticité, DEX, contacts). - Supports de communication interne. - Contributions DRP (documents & comptes rendus de tests).
Freelance

Mission freelance
Administrateur Systèmes Confirmé (Windows, Linux, GCP)

Cherry Pick
Publiée le
Administration linux
Administration Windows
Google Cloud Platform (GCP)

6 mois
500-550 €
Rennes, Bretagne
Rattaché(e) à la Direction des Systèmes d'Information d'un Groupe international, vous intégrez l’équipe Infrastructure et Sécurité . Dans un environnement technologique riche (Hybrid Cloud, Open Source, Containerisation), vous êtes le garant de la performance, de la disponibilité et de la sécurité de l’outil de production. Missions : Administration & Optimisation de l’Infrastructure SI Systèmes & Virtualisation : Conception, mise en œuvre et MCO des serveurs (Windows, Linux) et de l'environnement VMware. Stockage & Sauvegarde : Gestion des baies (NetApp, IBM) et pilotage de la stratégie de sauvegarde (Veeam). Cloud & DevOps : Gestion de l’infrastructure sur GCP via Terraform , administration de Kubernetes, et maintien des pipelines CI/CD sur GitLabCI. Environnement Microsoft : Administration de l'AD, Azure AD et Exchange Online. Administration Réseau et Sécurité Réseau : Gestion du LAN/WAN, routage, SDWAN et équipements Cisco (notamment Nexus). Sécurité : Administration et durcissement des solutions de défense (Firewall, Proxy/WAF, PAM, SSE, EDR, SSO). Pilotage de Projets et Expertise Transverse Conduite de projets de la phase de conception jusqu’à la mise en production. Pilotage des prestataires et intégrateurs externes. Rédaction de la documentation technique (architectures, PRA/PCA, procédures d’exploitation). Veille technologique active pour proposer des solutions innovantes. Support et Amélioration Continue Escalade de niveau 2 pour les équipes du Centre de Services Informatiques (CSI). Résolution des incidents complexes (applicatifs, matériels et logiciels).
CDI
Freelance

Offre d'emploi
Consultant DevOps GCP H/F

Le Groupe SYD
Publiée le
Ansible
Apigee
Git

36 mois
45k-53k €
480-550 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : Jusqu’à 2 jours/semaine 📝Contrat : CDI ou Indep/Portage 👉 Contexte client : Tu rejoins un acteur majeur du secteur technologique et des services cloud , au cœur d’une équipe Plateforme spécialisée dans l’industrialisation et la sécurisation des environnements d’échanges critiques. L’objectif : renforcer la résilience, automatiser l’exploitation et accompagner les évolutions d’infrastructures complexes intégrant des briques telles que Kafka, Apigee, SFTP, Bucket GCP ou encore MailGun . Tu auras pour missions de : Améliorer l’industrialisation, l’automatisation et la supervision des plateformes d’échanges : Kafka, Apigee, SFTP, Bucket GCP . Travailler sur la résilience des environnements Kafka / Apigee / SFTP et accompagner les projets de migration Kafka (Move2Paris) . Participer aux sujets d’intégration autour de l’ IA avec APIGEE (MCP Server) et d’autres plateformes Google Kafka. Intégrer un nouveau périmètre dans l’équipe : MailGun (Canon à mail) . Concevoir et maintenir des pipelines CI/CD via Git, Argo , Infrastructure as Code avec Terraform , et automatisations via Ansible . Développer des scripts (Shell, Python) pour automatiser, superviser et fiabiliser l’exploitation. Contribuer à la sécurisation, à la montée en robustesse et au monitoring des plateformes. Participer à la rédaction des procédures, documentations techniques et guides d’exploitation . 🧰 Stack technique : Cloud / Plateforme : GCP, Bucket GCP, Kafka, Apigee, SFTP, MailGun, Cloudflare Infra as Code : Terraform CI/CD : Git, Argo Conteneurisation / Orchestration : Kubernetes Automatisation : Ansible Scripting : Shell, Python
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F

Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)

6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
Data Engineer (1j/ semaine à Toulouse)

Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL

1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

417 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous