Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 422 résultats.
Freelance
CDI

Offre d'emploi
Senior DevOps S3NS

KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation vers des environnements S3NS, nous recherchons un Senior DevOps capable d’accompagner nos clients dans l’industrialisation de leurs plateformes souveraines. Vous interviendrez sur des missions d’audit technique, d’analyse des architectures existantes et de définition de trajectoires d’évolution adaptées aux contraintes S3NS. Vous participerez à la mise en place de pipelines CI/CD conformes aux exigences de sécurité et de gouvernance, ainsi qu’à l’automatisation des déploiements via Infrastructure as Code. Vous contribuerez à la structuration des processus DevOps, à la documentation des standards techniques et à la montée en compétence des équipes client. Votre rôle combinera une forte expertise technique et une dimension conseil, avec la capacité d’expliquer des concepts complexes à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
Freelance

Mission freelance
Security Engineer GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
IAM
Sécurité informatique

12 mois
580-600 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Security Engineer GCP" pour un client dans le secteur de la grande distribution spécialisé Description 🏢 Le Contexte : Vous rejoignez le domaine Cloud Platform Engineering (CPE) , une organisation transverse de près de 200 personnes lancée en 2020 pour construire les fondations technologiques du Groupe. L'objectif de la CPE est de rationaliser le catalogue technique et de fournir des services « clé en main » (Réseaux, Observabilité, FinOps) aux équipes applicatives pour accélérer le développement de nouvelles fonctionnalités. Au sein de ce domaine, la sécurité est un axe stratégique permanent. 🎯 Vos Missions : Stratégie, Architecture et Résilience En lien direct avec le Security Officer du domaine et l’équipe United Security, vous portez la posture de sécurité sur les périmètres Infrastructure et Réseau. 1. Vision & Gouvernance : Définir la vision et la stratégie à moyen et long terme de la sécurité réseau du Groupe. Animer la définition, la communication et l'application des politiques de sécurité. Définir et piloter les indicateurs de sécurité pour donner une visibilité globale sur votre périmètre. 2. Architecture & Projets : Co-construire les solutions techniques au sein des comités d’architecture pour garantir la prise en compte des exigences de sécurité dès la conception. Intégrer les actions de sécurisation dans les roadmaps des responsables produits. Accompagner les équipes opérationnelles dans la mise en œuvre des actions de hardening et de sécurisation. 3. Opérations & Résilience : Garantir la résilience des produits réseaux face aux enjeux métiers. Identifier les risques sur votre périmètre et assurer le suivi de leur traitement avec les parties prenantes. Animer la résolution des incidents de sécurité et piloter les plans d'action post-incident. 4. Sensibilisation & Veille : Porter la culture sécurité, risque et conformité au sein de votre BU et favoriser les bonnes pratiques. Assurer une veille permanente pour identifier les nouvelles vulnérabilités et proposer des solutions technologiques innovantes.
Freelance
CDI

Offre d'emploi
Expert / TechLead GCP - Toulouse

Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)
IAM

6 mois
Toulouse, Occitanie
Nous recherchons un Expert / Tech Lead GCP pour intervenir sur des projets stratégiques à forte valeur. Le rôle combine architecture cloud, DevOps/SRE et sécurité, avec une forte implication sur la conception et le delivery de solutions sur Google Cloud Platform. Vous évoluerez au sein d’une équipe cloud structurée, en lien avec différentes parties prenantes. Expertise GCP, Kubernetes (GKE), Terraform et sécurité (IAM, KMS, Zero Trust) requises. Poste basé en région toulousaine, avec perspective d’intégration en CDI après 6 mois de prestation.
Freelance
CDI

Offre d'emploi
DevSecOps GCP - Transformation

KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps GCP pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité via Security Command Center et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur GCP et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Data engineer Snowflake / DBT

PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT

12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Freelance

Mission freelance
Cloud DevOps Engineer orienté Data (GCP)

Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)

210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Freelance
CDI

Offre d'emploi
Data Engineer GCP/PYTHON

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer GCP pour l'un de nos clients ! Contexte de la mission : Au sein de la Direction Technologie, la Data Factory est en charge du pilotage, de la conception, du déploiement et de l’exploitation des solutions technologiques répondant aux cas d’usage data et aux besoins d’automatisation, à travers des plateformes modernes et performantes. La Data Factory joue également un rôle clé dans le développement des produits data et dans la diffusion des bonnes pratiques au sein des différentes Squads, afin de renforcer la culture data et l’excellence technique. Dans ce cadre, nous recherchons un(e) Data Engineer Confirmé(e) GCP/PYTHON 🎯 Missions principales Le/LA Data Engineer interviendra sur les périmètres suivants : 🔹 Déploiement & Industrialisation Déployer des datasets normés sur les data domains suivants : Utilisateurs, Comportements, Référentiels Concevoir, développer et maintenir des pipelines data robustes, scalables et performants Organiser et structurer le stockage des données Mettre en place des infrastructures évolutives adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD 🔹 Qualité & Gouvernance Mettre en place des contrôles qualité sur les datasets Garantir la fiabilité, l’intégrité et la sécurité des données Participer aux initiatives de gouvernance (Dataplex, catalogage, traçabilité) Assurer la stabilité et la sécurité des environnements 🔹 Collaboration & Support Accompagner les utilisateurs dans l’exploitation et le requêtage des données Participer activement aux phases de conception, planification et réalisation Contribuer à la documentation technique Partager les bonnes pratiques au sein de l’équipe Data Participer aux instances Data Engineering 🔹 Amélioration continue Assurer une veille technologique active Contribuer à l’évolution des standards techniques
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance

Mission freelance
Administrateur Systèmes / Réseaux - (H/F) - Rennes (35)

Mindquest
Publiée le
Administration systèmes et réseaux
Google Cloud Platform (GCP)

3 mois
260-320 €
Rennes, Bretagne
Mon client recherche un Administrateur Systèmes / Réseaux pour une mission freelance à Rennes (35). Contexte : renfort de l’équipe Infrastructure pour back-up l’administrateur en place et sécuriser la continuité de service (run, support, relais sur les sujets infra). Missions : · Administration système : Conception, Mise en œuvre, optimisation et MCO de l’infrastructure SI : · Serveurs (windows, linux) · VM Ware · Stockage (Netapp, IBM) · Sauvegardes (veeam) · Exchange on line, AD, Azure AD · Architecture Open source · Containerisation et orchestration avec Kubernetes · CI/CD sur GitlabCI · Terraform pour gestion d’infrastructure GCP · Administration réseau et sécurité : · Des systèmes de sécurité (FW, Proxy, Reverseproxy, WAF, PAM, SSE, EDR, SSO) · Réseau (Cisco principalement, Nexus), LAN, WAN, Routage, SDWAN · Transverse : · Faire preuve d’expertise afin de proposer les solutions les plus adaptées aux besoins de l’entreprise · Piloter la réalisation par des intégrateurs des projets menés par l’équipe Infrastructure et Sécurité SI · Rédaction et mise à jour des procédures infra : architecture, sauvegarde, réinstallation. · Rédaction et mise à jour des documents à destination du CSI ou de l’exploitation. · Pilotage de projet : · Conduire des projets de la conception à la mise en production. · Reporting projet · Pilotage de prestataires · Rédaction de procédures d’exploitation et de documentation technique · Support utilisateurs : Escalade niveau 2 du CSI et de l’exploitation · Assurer le traitement des demandes utilisateurs escaladées par les équipes support : applicative, matérielle, logicielle. · Assurer une veille technologique afin de trouver des solutions innovantes permettant de répondre aux besoins des utilisateurs
Freelance
CDI

Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)

Codezys
Publiée le
Apigee
Google Cloud Platform (GCP)
Kubernetes

12 mois
Nantes, Pays de la Loire
Expérience Expérience approfondie dans l'optimisation et l'industrialisation de plateformes d'échange telles que KAFKA, APIGEE, Bucket GCP et SFTP, avec un souci constant de sécurisation et de supervision. Capacité à anticiper et intervenir rapidement pour renforcer la résilience de solutions telles qu'APIGEE, KAFKA et SFTP, garantissant leur disponibilité et leur performance optimale. Participation active à des projets de migration, notamment la transition de KAFKA dans le cadre du projet Move 2Paris, afin d'assurer une continuité de service et une modernisation des infrastructures. Implication dans des initiatives liées à l'intelligence artificielle, en utilisant APIGEE (notamment le MCP Server) et d'autres plateformes Google Kafka pour le développement et l'intégration de solutions innovantes. Expérience confirmée en gestion d'incidents et en astreinte, garantissant une prise en charge efficace et rapide des problématiques techniques sur ces plateformes critiques.
Freelance

Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java

3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Freelance
CDI

Offre d'emploi
Data Analytics Engineer – SQL & BigQuery

Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
Freelance

Mission freelance
Lead Data Engineer

LIANEO
Publiée le
Big Data
Dataiku
Google Cloud Platform (GCP)

12 mois
500-600 €
Niort, Nouvelle-Aquitaine
Le contexte Lianeo Lianeo, ESN et cabinet de recrutement spécialisé en logiciel embarqué et systèmes d'informations complexes, recrute pour le compte d'un grand acteur du secteur de l'assurance, reconnu pour sa culture data mature et ses investissements soutenus dans la modernisation de ses systèmes d'information. Le contexte client Le·la candidat·e rejoindra une squad data d'une vingtaine de personnes, responsable du socle data de l'organisation : ingestion, transformation, gouvernance et exposition des données métier. L'environnement technique est centré sur GCP, avec Dataiku comme plateforme IA/data centrale, Tableau pour la couche BI, et Oracle Data Integrator (ODI) en ETL legacy assurant l'intégration avec les pipelines GCP. La squad opère dans un environnement exigeant en termes de volumétrie, de qualité de données et de conformité. Le·la Lead aura un rôle structurant : garant·e de la vision technique, référent·e des choix d'architecture, et interface entre les équipes métier, les product managers et les développeur·euses data. Le projet se déroule à Niort, avec 2 jours de télétravail par semaine. Une présence de 3 jours sur site par semaine est obligatoire. Vos missions Définir et faire évoluer la vision technique du socle data en cohérence avec la stratégie produit Assurer le leadership technique d'une équipe d'une vingtaine de personnes (revues de code, normes, montée en compétences) Piloter les choix d'architecture sur GCP et les intégrations avec les outils data de la stack (Dataiku, Tableau, ODI) Garantir la qualité, la robustesse et la performance des pipelines de données Contribuer activement aux rituels agiles et à la priorisation technique des backlogs Être l'interlocuteur·trice technique de référence pour les équipes métier et les parties prenantes non techniques Identifier et traiter la dette technique, proposer des améliorations continues
Freelance
CDI

Offre d'emploi
Machine Learning Engineer – GenAI / RAG – GCP

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Large Language Model (LLM)

12 mois
38k-60k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet autour de l’industrialisation de solutions d’intelligence artificielle, nous recherchons un Machine Learning Engineer capable de concevoir et déployer des solutions basées sur des LLM et architectures RAG dans un environnement Google Cloud Platform . Le consultant interviendra sur la conception, le développement et la mise en production de solutions d’IA intégrées dans des applications métiers. Missions : Conception et développement de solutions basées sur LLM et RAG Développement et optimisation de modèles de Machine Learning Mise en place de pipelines MLOps Mise en production de modèles ML et GenAI Déploiement de services ML dans un environnement GCP Développement d’API d’inférence et intégration dans des applications métiers Collaboration avec les équipes data, cloud et engineering Compétences techniques Machine Learning / GenAI Python TensorFlow / PyTorch ou équivalent LLM RAG LangChain ou frameworks similaires Cloud & Infrastructure Google Cloud Platform Vertex AI BigQuery Cloud Run ou GKE MLOps Docker Kubernetes CI/CD

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

422 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous