Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Mission freelance
Expertise en sécurité Opérationnelle - N4
Accompagner la mise en œuvre de la sécurité du cloud GCP Contrainte forte du projet Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Le livrable est - Compétences techniques Sécurité GCP - Expert - Impératif Sécurité réseaux (firewall, proxy, NSG, WAF) - Confirmé - Important Dev. Terraform, Python - Confirmé - Important IAM GCP - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Évaluer les services GCP sur les aspects de sécurité selon les règles BPCE IT et identifier les points de contrôle. Implémenter les contrôles de sécurité sur les outils de sécurité (CSPM, Sentinel HashiCorp, outil de gouvernance, …). Qualifier et étudier les évolutions des services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes de sécurité sont signalés. Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations de sécurité. Gérer les incidents et le suivi des non-conformités.

Mission freelance
Data Engineer GCP/Big Query (H/F)
Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud au sein de la Direction Data pour notre client acteur majeur de la grande distribution. Sa mission sera de concevoir et développer les nouveaux flux de données en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers.

Offre d'emploi
Data scientist - Retail - 3 à 5 ans exp.
Contexte Dans le cadre du renforcement des initiatives Data et IA, le Data Scientist jouera un rôle clé dans la réalisation de projets stratégiques à fort impact. Il/elle interviendra sur des problématiques variées telles que : Prédiction du churn Optimisation des campagnes marketing et promotionnelles Analyse du parcours client Recommandation de produits Anticipation de la demande Activation d’audiences Le poste implique une collaboration étroite : Avec les équipes produit pour comprendre les enjeux métiers, commerciaux et opérationnels. Avec les équipes techniques , notamment les Data Engineers, pour identifier, exploiter et valoriser les données disponibles. Missions Le/la Data Scientist interviendra sur l’ensemble du cycle de vie des projets data : 1. Cadrage & Analyse Recueillir et analyser les besoins métiers. Proposer des solutions de Data Science adaptées aux cas d’usage identifiés. Participer à la qualification, priorisation et pilotage des projets IA. 2. Préparation des données Analyser la qualité et la pertinence des données disponibles. Réaliser les transformations nécessaires pour exploiter les données de manière optimale. 3. Modélisation & Industrialisation Développer des modèles prédictifs en mode POC. Industrialiser les solutions avec les outils et bonnes pratiques MLOps. Documenter les modèles et pipelines mis en œuvre. 4. Valorisation & Suivi Créer des reportings adaptés aux utilisateurs (via Looker ou autres outils). Évaluer les performances et les impacts business des modèles déployés. Organiser les instances de suivi projet (comités, revues, etc.). 5. Animation & Collaboration Contribuer à l’animation des sujets IA dans l’organisation. Participer à la montée en compétence de l’équipe Data Science. Livrables attendus Analyses exploratoires et études statistiques Modèles de Machine Learning (prototypes et versions industrialisées) Tableaux de bord et visualisations Documentation technique et fonctionnelle

Offre d'emploi
Ingénieur Production / SRE (H/F)
📍 Brest (29) | CDI | Démarrage : ASAP Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Production pour intervenir chez un de nos clients. Contexte : Pour renforcer une squad Ops (objectif : 4 personnes), nous recherchons un profil capable d'intervenir sur tout le cycle de vie applicatif : du design technique à la mise en production , en passant par le pilotage opérationnel . Un projet majeur est en cours de déploiement sur Google Cloud Platform — toute expérience ou appétence GCP sera valorisée pour faire grandir l’équipe en interne. Vos principales missions : Build - Contribuer à la conception d’architectures robustes et scalables - Participer aux choix techniques et garantir l’exploitabilité - Être l’interface entre Devs & Infra pour une mise en œuvre fluide Run - Assurer le fonctionnement des applications en production - Mettre en place ou améliorer les supervisions - Automatiser les remédiations ou documenter des consignes claires - Gérer les incidents (diagnostic, résolution, RCA) Transverse - Capitaliser votre expertise sur les pratiques SRE et la qualité de service - Participer aux réflexions globales du département (standards, outils, process) - Travailler ponctuellement en heures non ouvrées si besoin

Offre d'emploi
DEVOPS Engineer - Cloud & SRE Foundations
Cherchons un profil senior pour prendre un poste de Tech Expert DevOps chez un de nos clients (mission de pré-embauche ou embauche directe en CDI uniquement). Missions principales : 1. Concevoir, déployer et maintenir les services techniques partagés : Kubernetes (GKE), Apigee, GitHub, Keycloak 2. Définir les standards DevOps et assurer leur adoption au sein des équipes Garantir la fiabilité, la résilience et la performance des plateformes via les pratiques SRE (SLI, SLO, alerting, post-mortems) 3. Automatiser les processus de déploiement et d'exploitation avec des outils d'Infrastructure as Code (Terraform, Ansible, Helm) Concevoir des architectures cloud robustes sur Google Cloud Platform (GCP) et/ou Azure 4. Optimiser les coûts et les performances des ressources cloud 5. Former, accompagner et mentorer les équipes IT sur les pratiques DevOps / SRE 6. Collaborer étroitement avec les équipes sécurité pour assurer la conformité et la robustesse de l'infrastructure

Mission freelance
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Mission freelance
CloudOps AWS et GCP
Notre client recherche un·e CloudOps Engineer pour renforcer une équipe passionnée d’ingénierie cloud. L’objectif : fournir une plateforme robuste, scalable et sécurisée, permettant aux équipes de déployer leurs applications de manière autonome, rapide et fiable. Ce que fait notre client : Rationaliser le catalogue de services cloud afin de simplifier l’expérience des équipes IT. Offrir des solutions “clé en main” pour permettre aux équipes produit de se concentrer sur les fonctionnalités à forte valeur ajoutée. Favoriser la montée en compétences communes afin de faciliter la mobilité entre équipes. Mettre l’accent sur l’Infrastructure as Code, l’automatisation, le DevOps et la veille technologique. Vos missions : Administrer et exploiter les environnements AWS et GCP. Concevoir et déployer des solutions Cloud avec Terraform, Python, Bash, Curl et APIs. Développer et industrialiser des outils de reporting et de pilotage (inventaire, qualité, suivi). Participer au support utilisateurs (“runboy”, 1 semaine par mois max). Documenter, formaliser et former les équipes aux bonnes pratiques. Collaborer avec les équipes sécurité pour renforcer les process et gérer les alertes

Mission freelance
Tech Lead IA-Python/GCP
CONTEXTE: Expérience : 7 ans et plus Métiers Fonctions : Etudes & Développement-developpement Spécialités technologiques : Devops IA generative Monitoring tests unitaires Reporting Compétences Technologies et Outils Google Cloud Platform FastAPI GIT genai Java RESTFul GCP MongoDB Python Spring Boot genai PostgreSQL Méthodes / Normes SAFe TDD Agile Langues Anglais MISSIONS Dans le cadre d'un nouveau programme chez notre client, La Direction Informatique recherche une prestation de lead développement pour contribuer au développement du programme en mettant à disposition de nouveaux types d’agents IA venant enrichir les capacités de la plateforme self-service du client. Il s’agira de développer des solutions innovantes telles que les agents de type Retrieval-Augmented Generation (RAG). En capitalisant sur GCP et les dernières évolutions de GenAI, ces agents IA viennent enrichir les capacités de notre plateforme. Cette dernière permet aux utilisateurs métiers de créer, d’utiliser et de personnaliser des assistants et des workflows intégrant l'IA générative, afin d'améliorer nos processus et systèmes d'information (SI) existants. Le développement est réalisé en Python et Java, les agents IA dans une architecture micro-services et sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La mission concernera principalement : - La mise en place, la maintenance et l’évolution des agents IA : ● Garantir la couverture fonctionnelle et spécialisation de l’agent ● Garantir les capacités de collaboration de l’agent avec d’autres agents ● Garantir l’utilisation de standards lorsque possible ● Gérer les aspects sécurité et ACLs ● Intégrer monitoring et reporting sur l’activité agents IA ● Optimiser performance et coûts de fonctionnement ● Intégrer les mécanismes d’évaluation de la qualité de l’agent ● Garantir le passage à l’échelle de l’utilisation des agents - Garantir la stabilité et scalabilité de la plateforme par la mise en place/optimisation des technologies permettant la scalabilité et monitoring en collaboration avec les DevOps Garantir la remise en marche du SI dans les délais exigés par les projets - Communiquer sur l’état des services et le plan de remise en marche si le cas se présente - Challenger et contribuer à la vision du produit, piloter la conception, le développement, les opérations et garantir le SLA - Collaborer avec les Solution Architect pour l’étude des évolutions demandées par le produit - Identifier et prioriser les services offerts pour répondre aux besoins du client et de la stratégie du groupe - Sécuriser l'alignement organisationnel ainsi que la gestion des dépendances techniques avec les différentes parties prenantes - Assurer une veille technologique pour garantir la pérennité des solutions utilisées - Garantir la cohérence fonctionnelle et la qualité des composants - Garantir la pérennité et la mise à jour des outils et technologies employés - Garantir l’application des bonnes pratiques par l’ensemble des développeurs et le bon fonctionnement en mode agile du projet Livrables - Reporting de l’état des agents IA et technologies utilisés auprès des référents techniques - Capitalisation sur les technologies et sur toute problématique rencontrée par la formalisation dans les standards de l’entreprise (REX, eDEX, knowledge base, ...) - Code des développements demandés, conçus et mis en œuvre en production dans les critères d’acceptation Renault - Code des tests unitaires et d’intégrations automatisés - Documentation du code expliquant les programmes et algorithmes

Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Au sein de la direction DATA, nous sommes à la recherche d'un profil Data Engineer pour contribuer aux opérations de développement d'un projet DATA sous un environnement Google. Les missions attendues par le Data Engineer (H/F) : Sa mission sera de concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données ETL / ELT - Maîtrise du Shell - Connaissance du langage Python et de l’ordonnanceur Airflow - Excellentes connaissances du SQL et des grands principes de modèle de données - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif - Compétences : SQL : Expert GCP Big Query : Confirmé GCS & google cloud function : Confirmé Pyhon/Shell : Confirmé

Mission freelance
219339/Expert GITLAB
Expert GITLAB Malakoff Contexte de la mission Cadre : Remplacement d'un de nos collaborateurs qui part. Ce collaborateur fait partie du département de la "Plateform Engineering" et est un des référent du GitLab de notre client. Le collaborateur recherché devra être le nouveau référent et reprendre ses activités, avec une potentielle passation du de 2 semaines. Le collaborateur sera en charge de la Forge Gitlab du client qui est composé de : 1 Gitlab basé sur AWS avec une dizaines de VM 3500 utilisateurs 1 Gitlab on premise conteneurisé et supporté par de ma machine virtuelle de 1500 utilisateurs 1 Gitlab exposé sur internet destiné aux collaborations de recherche scientifiques avec des acteurs externes Objectifs et livrables L'objectif est de : MCO de ces Gitlabs Faire le Life Cycle Management CICD Tooling Support N2/N3 Partages de modules Il faut que la collaborateur puisse piloter les Gitlab avec une réelle approche d'observabilité (plutôt que le ressenti). Expertises techniques attendues Afin de mener à bien cette mission o, souhaite préciser le niveau d’expertise nécessaire dans les domaines suivants: Méthodologie Devops Ansible, terraform Scripts shell/bash Systèmes d’exploitation Linux. Gitlab-CI / Gitlab registry / Nexus / SonarQube / Gitlab Runner / Gitlab Environnement Tool (GET) Docker, Kubernetes, (Openshift est un plus) Prometheus, Grafana, ELK (globalement, connaitre les outils classiques d’observabilité) Connaissance d’AWS Compétences demandées Ansible Vault Confirmé SONARQUBE Avancé gitlab runner Expert NEXUS Confirmé Gitlab CI/CD Expert GITLAB Expert Surveillance Prometheus Confirmé Infrastructure en tant que code Terraform et Ansible Avancé OPENSHIFT Confirmé KUBERNETES Confirmé DOCKER Avancé Shell Linux Avancé Gitlab Environnement Tool (GET) Expert AWS Avancé ANSIBLE Confirmé Langues Niveau de langue Anglais Couran

Mission freelance
219431/Expert devops GCP - avec experiences autour de Firebase
Expert devops GCP - avec experiences autour de Firebase Contexte de la mission Pour EDF, il s'agit d'integrer une nouvelle et au départ petite équipe (3 personnes) pour la prise en charge de l'administration de la plateforme cloud qui accueille en back-office des traitements d'ingestion/compute de data et en front office des applis web/mobile. Les services Cloud sont sur GCP : Google Cloud Storage, Cloud Composer, Cloud run, Big Query, Cloud SQL, FireBase, IAM, Cloud Logging Monitoring, Cloud Armor WAF, Cloud Load Balancing, Cloud Pub/Sub, Compute Engine, Google App Engine, etc. Mention spéciale sur Firebase qui est clef pour toute la partie front-office et qui necessitera que le profil soit en mesure d'accompagner les équipes sur le sujet Langages de développement : Python, Java, JavaScript Objectifs et livrables Les principaux travaux au cours de la mission : définition et surveillance' des patterns d'intégration, mise en production déploiement et MCO des services cloud via du scripting IaC déploiement logiciels via du scripting type Ansible, Puppet, etc mise en place du scheduling avec Airflow surveillance applicative/monitoring mise en place de la CICD (Gitlab, Jenkins etc) accompagnement aux équipes de réalisation sur l'utilisation de la plateforme Compétences demandées gcp iam Avancé BIGQUERY Élémentaire cloud monitoring Confirmé Cloud Run Élémentaire pubsub Élémentaire FIREBASE Confirmé GCP Confirmé DEVOPS Confirmé Infrastructure en tant que code Terraform et Ansible Confirmé

Mission freelance
CloudOps engineer expérimenté AWS/GCP (H/F) - PARIS
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un CloudOps engineer expérimenté AWS/GCP (H/F) - PARIS Votre mission : Administrer et optimiser les environnements AWS et GCP Concevoir, automatiser et industrialiser les déploiements via Terraform , Python , scripting et APIs Mettre en place reporting, inventaires et contrôles qualité Former et accompagner les équipes techniques sur les bonnes pratiques Cloud Collaborer avec la sécurité pour renforcer les process Participer aux activités Run (1 semaine / mois)

Mission freelance
Développeur full stack Java/Vue (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack Java/Vue (H/F) à Lille, France. Les missions attendues par le Développeur full stack Java/Vue (H/F) : Dans le cadre d'une équipe multi produits composée de 2 POs ,d'un RA, d'un Tech Lead et de 3 devs , le développeur full stack sera amené à : - Maintenir en conditions opérationnelles la version mise en production. - Faire évoluer les produit en fonction des priorités définis par le PO. - Intervenir sur l'application dans son intégralité en suivant les OKRs digitaux. - Rendre évolutive les solutions au fur et à mesure des sprints. - Travailler avec les PO sur les futures demandes des utilisateurs. - Travailler avec le Tech lead pour proposer des solutions techniques répondant aux besoins métier exprimés.
Offre d'emploi
Lead Développeur Sénior - 6 mois - Lille
Lead Développeur Sénior - 6 mois - Lille Un de nos importants clients recherche un Lead développeur Sénior pour une mission de 12 mois sur Lille. Presentiel de 2 jours par semaine requis. Descriptif ci-dessous: Nous recherchons un Lead développeur senior avec une forte appétence DevOps. Dans le cadre du développement et du maintien des solutions mise à disposition des développeurs, l’équipe Delivery Experience recherche un lead développeur. L’usine logicielle est utilisée par plus de 3000 développeurs. L’équipe est composée de plus de 10 personnes, profils tech, développeurs ou experts techniques. Nous recherchons un profil ayant l'habitude de mettre en place des toolchains hautement critique pour les développeurs et en mesure de développer les intégrations nécessaires à base d'API : mise en place golden stack : Go, Python, Java ... enforcement de workflow de build Une astreinte rémunérée est également demandée pour assurer le support 24/7 de l’équipe. Activités autour de la Delivery Experience: Développement et maintien des produits de la Delivery Experience (Software Delivery Toolchain) Collaboration en sous groupes au sein de l’équipe Agilité de développement Support aux développeurs de niveau 1 Capacité à s’adapter Compétences techniques Développeur (javascript, go, python) - Expert - Impératif Github actions - Confirmé - Important AI for Dev - Confirmé - Important GCP - Confirmé - Souhaitable Technique : Golang / Python GitHub / GitHub Actions Github Copilot JFrog Artifactory HashiCorp Vault Terraform Connaissance en Angular / Vu apprécié Connaissances linguistiques Anglais Professionnel (Impératif) Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Tech Lead IA/Python/GCP
Métier et Fonction Études & Développement Développement Spécialités technologiques IA générative Reporting Monitoring Type de facturation Assistance Technique avec un taux journalier Compétences techniques et outils Technologies : Java, Python, genAI, Spring Boot, Google Cloud Platform Méthodes / Normes : SAFe Langues : Anglais Description de la prestation Dans le cadre d’un nouveau programme, la Direction Informatique recherche un lead développement pour concevoir et faire évoluer des agents IA innovants (notamment Retrieval-Augmented Generation - RAG) intégrés à une plateforme self-service. La solution utilise GCP et les dernières évolutions de GenAI pour permettre aux utilisateurs métiers de créer, personnaliser et utiliser des assistants et workflows IA générative, optimisant ainsi processus et systèmes d'information. Le développement en Python et Java concerne une architecture micro-services, avec missions principales de conception, intégration, maintenance, évolution et sécurisation des agents IA. La prestation inclut : Assurer la couverture fonctionnelle, la collaboration entre agents, le respect des standards, la sécurité, le monitoring, et la performance Garantir la stabilité et la scalabilité de la plateforme en collaboration avec DevOps Respecter les délais de remise en marche du SI Contribuer à la vision produit, piloter la conception, valider la qualité, et assurer la veille technologique Livrables attendus Reporting de l’état des agents et technologies Capitalisation des problématiques et solutions dans les standards internes (REX, eDEX, knowledge base) Code développé et en production conforme aux critères d’acceptation Codes des tests unitaires et d’intégration automatisés Documentation technique détaillée des programmes et algorithmes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres