Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)
Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists
Mission freelance
INGENIEUR PRODUCTION SYSTEME CLOUD H/F
Nous sommes actuellement à la recherche d'un ingénieur Production Système Cloud. En tant qu'Ingénieur(e) de Production Système & Cloud, vous jouerez un rôle clé dans le maintien et l'évolution de nos environnements système et cloud, tout en participant à l'amélioration continue. Votre mission principale consistera à assurer la disponibilité, la sécurité et l'optimisation de nos plateformes, en intervenant aussi bien sur des aspects opérationnels (run). /!\: Nous demandons une expérience solide sur les environnements Azure et Microsoft Windows Server.

Mission freelance
Développeur Full Stack
API TU Conceptions techniques Compétences techniques Nodejs / Nestjs - Expert - Impératif React - Confirmé - Impératif Typescript - Confirmé - Impératif Java (J2EE, Spring, ...) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Secondaire) Description détaillée Pour le 13 ocotobre, nous recherchons 1 développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript. Nos développeurs prennent en charge la conception technique, le développement, une partie des tests, et la maintenance des services développés. Caractéristiques du produit: - Animation des prix d'achats des fournisseurs - produit critique déployé - produit Cloud Native sous GCP, avec environ 60% de périmètre métier restant à écrire - refonte V2 technique à lancer en janvier - organisation: 5 développeurs en hybride, 1 techlead, 2 QA/QE, 1 PO, sprints de 3 semaines Qualifications - Confirmé en nodejs (backend) / nestjs / prisma / React / typescript => IMPERATIF - 80% de backend (nodejs / nestjs / prisma) - 20% front au maximum - Il doit s'agir d'un vrai fullstack sur les technos citées, bien que le ratio soit 80/20 entre back et front - Expérience de développement avérée d'API REST dans des SI complexes (transformation digitale de nos domaines métiers) - Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) - Expérience avérée en messaging de type Kafka (Redis est un plus) - Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) - Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure

Offre d'emploi
Développeur back end (java/ KAFKA/GCP)
GCP Confirmé KafkaConfirmé AgileExpert java Expert Spring / Spring Boot Expert REST Expert PostgreSQL Skills & Qualifications + 7 années d'expérience, en tant que backend Java Une expérience sur des infrastructures cloud native Connaissances des principes DDD, SOLID Solide expérience dans la mise en place d’une CI/CD intégration toutes les couches de test : Unit Testing, Acceptance Testing, Integration Testing, Load Testing Bonne connaissance des outils de monitoring et d’alerting La maîtrise des architectures distribuées et Event Driven A l'aise avec l'agilité et les groomings techniques Un profil Craftsmanship/Devops est un plus Environnement Technique Back-end: Java, Spring Boot Database : Postgresql Event & Messaging : Kafka Cloud: GCP, K8S Tooling: Git, Github Action, Docker Monitoring: Datadog Qualité : Junit 5, SonarCloud Front-end : React Js Méthodologie: Agile, Scrum
Offre d'emploi
Chef de Projet Cybersécurité – Convergence IT
Dans le cadre d’un vaste programme de transformation stratégique, notre client, acteur majeur du secteur bancaire, recherche un Chef de Projet Cybersécurité expérimenté. Vous interviendrez sur des projets de convergence post-fusion/acquisition afin de garantir la sécurisation des infrastructures IT et des processus associés. Votre rôle consistera à piloter l’intégration des systèmes en veillant au respect des exigences de cybersécurité, en collaboration avec des équipes pluridisciplinaires (techniques, métiers, RSSI). Vos principales missions seront : Pilotage de projets : planification, suivi et coordination des projets de cybersécurité liés aux opérations de convergence. Analyse des risques : identification des vulnérabilités, évaluation des menaces et proposition de solutions adaptées. Intégration sécurisée : mise en place et supervision des architectures sécuritaires (cloud, on-premise, hybride). Coordination transverse : collaboration étroite avec les équipes techniques et fonctionnelles pour assurer la cohérence des solutions. Veille et conformité : suivi des évolutions technologiques, réglementaires (RGPD, LPM, etc.) et anticipation des nouvelles menaces. Accompagnement au changement : sensibilisation et formation des équipes aux nouvelles pratiques de cybersécurité.

Offre d'emploi
TECH LEAD POWER BI
Bonjour, Pour le compte de notre client, nous recherchons un profil Tech lead Power BI. Profil Hybride : Tech lead Power BI / System Architect (l’activité sera probablement répartie à 50/50 sur ces 2 rôles) Expérience requise : 5-10 ans sur Power BI + une bonne expérience en modélisation avancée, administration Power BI et optimisation complexe Il doit également avoir une expérience de définition d'architecture technique en environnement Power BI - Big Query (Google Cloud Platform). Connaissances techniques : Power BI (Dashboard, Dataset, Dataflow, Power automate et Report builder) Big Query (Google Cloud Platform) ou cloud équivalent Connaissances générales : Base de données relationnelles Modélisation avancée Architecture BI-DWH-serveur Bonnes pratiques de livraison CI/CD Exigences non fonctionnelles dans un environnement BI Approche Security by Design Scope de la mission : Analyse, conception sur les nouveaux besoins de reporting Développements avancés (Dashboard, Dataset, Dataflow, Power automate, Report builder) Définition/diffusion des bonnes pratiques de développement Administration de la plateforme Power BI et des gateway Mise en place des outils d’administration / Monitoring Power BI Audit de programme Power BI Préconisation d’optimisation Power BI Accompagnement des équipes de développement Support Power BI L3 sur les incidents Définition des architectures, Rédaction des documents associés.
Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)
Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Mission freelance
POT8554-Un consultant FinOps cloud expérimenté Sur Guyancourt
Almatek recherche pour l'un de ses clients, Un consultant FinOps cloud expérimenté Sur Guyancourt. Projet : Expertise de l'interface financière avec minimum de 5 ans d'exp sur FINOPS AWS et GCP Etablir et diffuser la vision consommation pour l’entité cliente pour les différents périmètres d’activités infogérés, Analyser les services consommés, s'appuyer sur les sachants techniques pour proposer et valoriser des recommandations d’optimisations sur les volumes concernés afin d'optimiser la facturation et l'empreinte carbone du client Préparer les supports de certains comités de suivi financier et carbone avec le client Accompagner les équipiers dans leur maîtrise de consommation des services et d’optimisation de l’usage des plateformes technologiques, au regard de nos engagements de volumes Accompagner la montée en compétences des équipes sur le FINOPS cloud Public Compétences requises : Profil souhaité : Esprit critique; Conseil et Sens du service; Animation; Prise d'initiative et force de proposition; Bon relationnel Outils informatiques : Excel Connaissances FINOPS AWS et GCP Power BI serait un plus

Mission freelance
Devops GCP (H/F)
Description du poste En tant que DevOps spécialisé sur Google Cloud Platform (GCP), vous jouerez un rôle clé dans l'automatisation, le déploiement et la maintenance des infrastructures cloud. Vous travaillerez en collaboration avec les équipes de développement et d'exploitation pour garantir la disponibilité, la performance et la sécurité des services déployés. Missions principales Concevoir, automatiser et maintenir l’infrastructure cloud sur Google Cloud Platform (Compute Engine, Kubernetes Engine, Cloud Storage, Cloud Functions, etc.). Mettre en place et gérer les pipelines CI/CD pour automatiser le déploiement des applications. Superviser les environnements de production, assurer la surveillance, la gestion des incidents et la résolution rapide des problèmes. Appliquer les bonnes pratiques de sécurité cloud et veiller à la conformité des infrastructures. Collaborer avec les équipes développement pour optimiser les performances et la scalabilité des applications. Rédiger la documentation technique relative aux infrastructures et aux processus. Participer à la veille technologique et proposer des améliorations continues des outils et des processus. Environnement technique Google Cloud Platform (Compute Engine, GKE, Cloud Storage, Cloud Functions, Pub/Sub…). Terraform, Ansible, Cloud Deployment Manager. CI/CD : Jenkins, GitLab CI, Cloud Build. Conteneurs : Docker, Kubernetes. Outils de monitoring : Stackdriver/Cloud Monitoring, Prometheus, Grafana. Gestion de versions : Git, GitLab. Scripting : bash, Python.

Offre d'emploi
DevOps / Administration et MCO de la production
Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.

Offre d'emploi
DATA ENGINEER GCP (450€ MAX)
● Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente ● Expérience de 3 à 7 ans en BigQuery, SQL, DBT, Python, Looker/LookML TEST CODINGAME Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP). Très bonne maîtrise de BigQuery avec une expérience sur des traitements de gros volumes de données. Maîtrise de SQL avancé pour la manipulation, l’analyse et la valorisation de données. Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données. Expérience significative dans la modélisation de données et l’implémentation de couches sémantiques avec Looker/LookML. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Expérience solide avec les systèmes de gestion de version (Git). Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Offre d'emploi
Data Eng GCP Rouen
Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Mission freelance
Développeur Java/Vuejs/Kafka
Votre activité principale est de procéder aux développements dans un contexte de projet Agile. Vous participez à la définition de la vision technique des produits. Pour cela, vous vous appuyez sur votre compréhension des problématiques fonctionnelles et votre expertise technique. Vous élaborez la conception et les spécifications techniques des produits, vous trouvez des solutions permettant d’atteindre les objectifs fixés en équipe et vous évaluez la charge de développement. Vous êtes Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, “Global ready”, “tirs de performances”, “suivi de la perf”). Vous pilotez l'élaboration de la chaîne de développement, d’intégration, de déploiement et d’exploitation selon les pratiques DevOps dans la Google Cloud Platform. Vous participez à l'élaboration de la chaîne de développement, d’intégration, de déploiement et d’exploitation selon les pratiques DevOps dans la Google Cloud Platform. Au sein d’une équipe de développeurs de talent, vous participez à l’amélioration continue des process et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). Vous assurez une documentation complète des développements et des configurations au sein du référentiel documentaire. Vous participez activement au RUN / analyse de problèmes en Production et vous êtes garant des SLO

Mission freelance
Chef de Projet Sénior Data H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de Projet Sénior Data H/F à Lille, France. Les missions attendues par le Chef de Projet Sénior Data H/F : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : • Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences • Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration
Offre d'emploi
Ingénieur DevOps GCP
Pour un de nos clients, nous recherchons un Ingénieur DevOps GCP confirmé pour rejoindre l'équipe dans le cadre d'une mission longue et à pouvoir rapidement. Les missions sont les suivantes : Participer au build et au run de la Landing Zone GCP Accompagner l’onboarding des projets sur GCP Garantir conformité, sécurité et résilience des environnements Cloud Assurer le support run et suivre les projets associés Contribuer à l’industrialisation et l’automatisation des déploiement Travailler en mode poket
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel site remplace monster ?
- Développeur freelance en montée de compétences – Partage & entraide
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Application qui permet d’évaluer n’importe quelle idée de startup
- SASU IR - Prelevement sociaux
- De qui se moque-t-on ?
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres