Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 429 résultats.
Freelance

Mission freelance
Chef de projet & Expert Cybersécurité (H/F)

Cherry Pick
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
AWS Cloud

12 mois
600-660 €
Paris, France
Contexte Dans le cadre du renforcement de ses obligations réglementaires et normatives en matière de sécurité des systèmes d’information (ANSSI – OSE, directive NIS/NIS2, norme ISO/IEC 27001), notre client recherche un Expert Cybersécurité & Responsable de Projets Techniques afin d’assurer le pilotage de projets stratégiques liés à la sécurisation des infrastructures Systèmes, Réseaux et Cloud. L’environnement est critique et fortement réglementé. Objet de la mission Assurer le pilotage, la coordination et la mise en œuvre opérationnelle de projets de cybersécurité, en environnements on-premise et Cloud , en lien avec les équipes techniques, sécurité, RSSI et directions métiers. Missions principales 1. Pilotage de projets cybersécurité Planifier et piloter les projets sécurité Superviser les chantiers de sécurisation des infrastructures Coordonner équipes internes et prestataires Animer les comités techniques et comités de pilotage (COPIL) Assurer le suivi des plans de remédiation suite audits (ANSSI, OSE, NIS2…) Produire les supports de pilotage et reporting Accompagner les audits de sécurité Exemples de projets confiés : Pilotage de plans de remédiation sécurité Mise en œuvre de fédérations d’annuaires Segmentation et cloisonnement réseau Mise en œuvre d’architectures réseau et sécurité Déploiement de bastion d’administration Sécurisation de services Web Préparation et suivi des audits de sécurité 2. Expertise technique attendueSécurité Réseau & Infrastructures Pare-feu, segmentation, cloisonnement, durcissement IDS / IPS Bastion d’administration Sécurisation des flux IAM / Gestion des identités IAM et gouvernance des identités MFA, SSO, fédération Active Directory / Azure AD / LDAP Durcissement AD PKI & Certificats Gestion de certificats Chaînes de confiance Gouvernance PKI Sécurité Cloud Azure / AWS / GCP DevSecOps (CI/CD sécurisé, Infrastructure as Code) Bonnes pratiques Cloud Security 3. Reporting & Gouvernance Production d’indicateurs sécurité Analyse et synthèse des risques Support aux comités SSI Alignement avec les exigences réglementaires (ANSSI, NIS2, RGS) Contribution à la conformité ISO/IEC 27001
Freelance

Mission freelance
Architecte Data - Lyon

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture

6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Freelance

Mission freelance
Service Delivery manager - Aix en Provence

Cherry Pick
Publiée le
Agile Scrum
Architecture
AWS Cloud

12 mois
550-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Service Delivery Manager (SDM) – Environnement Cloud HDS🎯 Contexte de la mission Dans un environnement Cloud soumis à la conformité HDS (Hébergement de Données de Santé) , le SDM accompagne le Customer Service Manager et assure l’interface stratégique entre la DSI Groupe et les Business Units (BU). Il est garant de la qualité de service, du pilotage des prestations et des projets, ainsi que de l’amélioration continue des services fournis. 🏢 Positionnement dans l’organisation Rattaché au Customer Service Manager , le SDM : Est le garant de la relation entre la DSI Groupe et les BU Comprend les enjeux métiers et les contraintes réglementaires (HDS) Coordonne les équipes DSI (infra, cloud, sécurité, exploitation, projets) Assure la qualité de service conformément aux engagements contractuels 🚀 Missions principales1️⃣ Pilotage des prestations Contribuer à la définition des conventions de services (SLA / OLA) Définir, suivre et analyser les KPI de performance Garantir le respect des engagements contractuels Assurer le reporting régulier auprès des BU Participer au suivi financier des services Anticiper les risques impactant la qualité de service Suivre les actions de patch management Alerter sur les risques d’obsolescence 2️⃣ Pilotage & chefferie de projet Participer aux réponses aux appels d’offres Recueillir et formaliser les besoins métiers Consolider les propositions techniques et financières Planifier les projets (planning, charges, jalons) Piloter l’exécution des projets Animer les comités projets (internes et BU) Suivre le respect des délais, budgets et charges Produire et contrôler la documentation projet Piloter la recette et obtenir la validation BU Réaliser les REX (retours d’expérience) Assurer la transition vers l’exploitation Piloter les premiers tests PCA / PRA 3️⃣ Mise en œuvre de l’amélioration continue Identifier les risques liés à la montée en charge, pics d’activité, changements d’usage Analyser les indicateurs de performance Proposer et piloter des plans d’action Être force de proposition pour améliorer la qualité de service Garantir l’optimisation continue des processus DSI 📦 Livrables attendus Tableaux de bord KPI & reporting Comptes rendus de comités (COPIL / COMOP) Planning projets & suivi budgétaire Documentation projet (cadrage, suivi, clôture) Plans d’amélioration continue Rapports PCA / PRA Bilans de projets (REX)
CDI

Offre d'emploi
Consultant DevOps H/F

JEMS
Publiée le

40k-55k €
Montpellier, Occitanie
Nous recherchons un(e) Consultant(e) DevOps confirmé(e) capable d'intégrer le développement, l'assurance qualité et d'orchestrer les problématiques de scalabilité, d'automatisation et d'industrialisation. Votre devise : "réduire les interventions humaines pour améliorer la qualité et accélérer les livraisons" Vos missions seront : • Accompagner l'intégration et le déploiement continue des solutions (CI/CD) • Améliorer les processus, les automatiser et favoriser la qualité • Orchestrer et résoudre des problématiques de scalabilité, d'automatisation et d'industrialisation • Piloter, organiser et automatiser tous les tests afin de garantir le bon fonctionnement des solutions • Vous inscrire dans une démarche d'amélioration continue et d'agilité En tant que Consultant(e) DevOps vous maitrisez : • Des outils de construction et de virtualisation : Jenkins,Docker, Kubernetes • Des outils de monitoring : ELK (elastic, logstach, kibana), Prometheus, grafana, Nagios, Datadog • L'infrastructure as code : Ansible, Terraform • Les langages de programmation java, javascript, python, ruby, C/C++ • Des outils de qualité de code : Sonarqube • Le repository de code : Git, GitHub, SVN, Bitbucket • Les langages de scripting bash, shell, python • Les Systèmes d'exploitation Linux, Windows • Les Cloud provider Microsoft Azure, Google Cloud Platform (GCP),AmazonAWS, IBM • Les méthodes agiles • La sécurité des données Référence de l'offre : xxwfedhl9f
Freelance

Mission freelance
Software Architect Senior – Sales & Omnicanal

CAT-AMANIA
Publiée le
Apache Kafka
Java

3 mois
400-630 €
Lille, Hauts-de-France
Software Architect Senior – Sales & Omnicanal (H/F) Nous recherchons un Architecte Logiciel Senior en freelance pour accompagner la transformation et l'évolution des outils de gestion des commandes omnicanales d'un acteur majeur du retail international. Au sein du domaine Sales, vous jouerez un rôle stratégique dans la conception d'un système critique traitant l'ensemble du processus de commande (web, magasin, vente à distance) et son orchestration. Dans un environnement à forte volumétrie et à haute exigence de performance, vous serez le garant de la cohérence, de la robustesse et de la scalabilité des architectures logicielles. Vos Missions En tant que Software Architect, vous intervenez en accompagnement transverse sur un périmètre composé de 8 feature teams organisées autour de composants clés du Système d'Information. Vision et Architecture Définir et faire évoluer les principes d’implémentation logiciels du domaine. Garantir la cohérence des choix techniques avec les enjeux business. Concevoir des systèmes scalables, résilients et orientés performance. Accompagnement et Leadership Technique Accompagner et challenger les Tech Leads dans leurs décisions techniques. Diffuser les bonnes pratiques d’architecture et de conception. Favoriser la montée en compétence des équipes de développement. Performance et Excellence Opérationnelle Piloter les enjeux de performance (latence, volumétrie, résilience). Animer une culture de la mesure et de l’amélioration continue. Anticiper les points de friction à l’échelle du système global. Collaboration Transverse Travailler étroitement avec les Product Managers, Tech Leads et architectes d’entreprise. Porter une vision claire et compréhensible auprès des parties prenantes et des domaines en interaction. Environnement Technique Vous évoluerez dans un écosystème moderne et distribué : Backend : Java / Spring Boot Frontend : Vue.js (micro frontends) Architecture : Microservices, Event-driven, CQRS Cloud : GCP (Google Cloud Platform) Streaming et Messaging : Kafka Infrastructure : Kubernetes, API Gateway Stockage : Postgres, MongoDB, Opensearch, Big Query Profil Recherché Expérience : Minimum 10 ans en développement logiciel, dont plusieurs années sur des fonctions d'architecture. Expertise technique : Maîtrise impérative des architectures distribuées (flux événementiels, orchestrations synchrones et asynchrones). Performance : Expérience significative sur des systèmes à forte volumétrie et haute disponibilité. Langues : Anglais professionnel impératif. Soft Skills : Leadership d'influence, excellente pédagogie, capacité à convaincre et à aligner des interlocuteurs variés. Modalités de la Mission Type de mission : Freelance Lieu : Poste basé à Ronchin (59) Organisation : Mode hybride (2 jours sur site par semaine minimum) Contrainte projet : Astreintes possibles Code profil : Architecte Applicatif-E (Niveau Expert)
Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
CDI

Offre d'emploi
CONSULTANT SECURITE CLOUD (H/F)

CyberTee
Publiée le
Cloud

40k-70k €
Paris, France
🚀 Vos missions Intervenir sur des environnements Cloud Public : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) Réaliser des missions de consulting en cybersécurité Cloud Conduire des audits de sécurité techniques et organisationnels Assurer l’assistance technique auprès des équipes clients Réaliser des analyses de vulnérabilités et piloter les plans de remédiation Auditer la sécurité des accès et des identités Cloud (IAM) Définir et mettre en œuvre des politiques de sécurité Cloud Déployer et intégrer des solutions de sécurité (CNAPP, CSPM, CWPP) Animer des formations et actions de sensibilisation à la sécurité Cloud Intervenir sur des environnements Web, Linux, Windows, VMware, Android et iOS 👤 Profil recherché Diplôme d’école d’ingénieur en informatique, télécommunications ou équivalent Minimum 4 ans d’expérience en tant que Consultant ou Expert sécurité (ESN ou grande entreprise) Maîtrise des environnements Cloud : AWS, Azure, GCP Compétences en architecture sécurisée des environnements Cloud Bonne connaissance des solutions CNAPP, CSPM, CWPP Expérience en audit de sécurité et gestion des vulnérabilités Anglais opérationnel à l’écrit et à l’oral Excellentes capacités rédactionnelles 🎓 Certifications appréciées AWS Certified Solutions Architect AWS Security Specialty Microsoft AZ-305 Microsoft AZ-104 Microsoft AZ-500 Microsoft SC-100 Google Cloud Architect Google Cloud Security
Freelance

Mission freelance
Cloud Delivery Manager (h/f)

emagine Consulting SARL
Publiée le

12 mois
500-600 €
75000, Paris, Île-de-France
Introduction & Résumé Le/la Cloud Delivery Manager est chargé(e) de superviser et d’optimiser l’environnement de production cloud de l'entreprise, garantissant stabilité, performance et sécurité. Ce poste requiert une expertise en gestion d'environnements cloud ainsi qu'une connaissance approfondie des technologies Azure et GCP. Principales Responsabilités Gestion des Incidents et des Problèmes : Piloter la gestion des incidents, communiquer avec les équipes IT. Gestion des Prestataires : Piloter les relations avec les prestataires d’infogérance. Gestion des Changements : Piloter les demandes de changement et coordonner avec les équipes. Garantie des Livrables de Mise en Production : Assurer le respect des documentations standards. Reporting : Produire des rapports hebdomadaires et mensuels sur l’activité de production. Exigences Clés Diplôme de l’enseignement supérieur en informatique ou domaine connexe. Expérience significative (minimum 5 ans) en gestion d'environnements cloud. Solide connaissance des environnements cloud Azure, GCP. Expérience en gestion d'incidents, problèmes et changements. Expertise en reporting mensuel efficient. Anglais courant. Atouts Souhaitables Certifications cloud (Azure, GCP). Connaissance des architectures PaaS. Connaissance des outils comme ServiceNow. Aptitude à communiquer en anglais technique. Autres Détails Contexte : Au sein de l’équipe IT Production. Environnement Technique : 90% Windows servers, 85% Azure. Connaissance GCP est un plus. Lieu : Paris Démarrage : ASAP Télétravail : 1 jour / semaine Durée : > 12 mois
CDI

Offre d'emploi
Data Scientist - (H/F)

DAVRICOURT
Publiée le

40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Offre premium
Freelance

Mission freelance
Développeur Elasticsearch expert / Node (exp 4+ ans) H/F

WINSIDE Technology
Publiée le
E-commerce

3 ans
520-720 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Développeur.euse Elasticsearch expert.e / NodeJs pour travailler au sein d'une entreprise internationale ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle à minima dans le développement . Tu as 3 ans d'expérience professionnelle à minima en NodeJs . Tu as des connaissances avancées en Elasticsearch. Tu as des connaissances solides en GCP/Big Query . Les bénéfices du poste : Travailler dans un environnement complexe (fort trafic, usage avancé d'Elasticsearch, orienté performance). Mission longue Environnement technique moderne : Elastic Cloud, NodeJs, NestJs, Typescript, GCP, Big Query, etc. Démarrage : rapide. Télétravail : 4 jours par semaine. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance
CDI
CDD

Offre d'emploi
Expert DevOps

bdevit
Publiée le
Ansible
Argo CD
CI/CD

36 mois
Île-de-France, France
Contexte : L’Expert DevOps conçoit, déploie et optimise les infrastructures et pipelines DevOps pour les applications critiques d'une banque de renom. Il automatise les déploiements, supervise les systèmes, pilote les environnements Cloud (AWS, GCP) et garantit la sécurité, la performance et la résilience des infrastructures. Il accompagne les équipes dans l’adoption des bonnes pratiques DevOps et Cloud et participe aux choix techniques stratégiques. Missions Principales : Concevoir, déployer et gérer les clusters Kubernetes et Openshift ; Automatiser les déploiements et la gestion d’infrastructure avec Ansible et Terraform ; Piloter et optimiser les pipelines CI/CD ( GitLab-CI, Jenkins, ArgoCD, FluxCD ) ; Superviser les systèmes avec Dynatrace, Grafana et Prometheus et proposer des améliorations ; Gérer et optimiser les environnements Cloud AWS et GCP , incluant sécurité, résilience et maîtrise des coûts ; Accompagner les équipes de développement et DevOps dans l’adoption des bonnes pratiques et standards ; Participer aux choix techniques stratégiques et définir les standards d’infrastructure et de sécurité ;
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision

Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning

12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Freelance

Mission freelance
POT8949 - Un Consultant Devops sur IDF

Almatek
Publiée le
Python

6 mois
240-390 €
Île-de-France, France
Almatek recherche pour l'un de ses clients Un Consultant Devops sur IDF. DESCRIPTION DE LA MISSION. Intégré(e) dans les équipes Cloud, Ops & DWP le/la consultant(e) aura pour mission aura pour mission de participer à la mise en place et à l’amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kubernetes et GCP. Il/elle sera chargé de l’automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d’infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Posséder une expertise en développement avec les langages Python -Avoir une bonne connaissance des environnements Legacy -Maîtriser les technologies cloud GCP (Google Cloud Platform) incluant les services tels que Kubernetes, Cloud Functions, Pub/Sub, PostgreSQL -Gérer et optimiser l’infrastructure Cloud GCP via Ansible et Terraform - Développer et maintenir des pipelines de données robustes et performants -Être familier avec les concepts de CI/CD (Intégration Continue et Livraison Continue) et les outils associés comme GitLab CICD -Avoir une connaissance des bases de données relationnelles, notamment PostgreSQL -Maîtriser Helm File pour la gestion et la configuration des déploiements Helm dans Kubernetes. -Avoir une bonne compréhension des concepts de sécurité et de conformité dans un environnement cloud -Posséder des compétences en scripting et en automatisation pour la gestion des tâches -Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog...)
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance

Mission freelance
Développeur Search Engine (ElasticSearch & Node.js)

HAYS France
Publiée le
BigQuery
CI/CD
Elasticsearch

1 an
500-680 €
Lille, Hauts-de-France
Nous recherchons un Développeur Search Engine pour rejoindre une équipe composée de deux développeurs et d’un Product Owner. Votre rôle sera de travailler sur l’ amélioration continue du moteur de recherche utilisé par plusieurs plateformes e‑commerce internationales, dans un contexte de fort trafic et de hautes exigences de performance . Il s'agit d’une mission longue, avec une réelle volonté d’investissement et de montée en compétences au sein de l’équipe. Missions principales : Concevoir, développer et optimiser le moteur de recherche basé sur ElasticSearch pour des sites à fort trafic. Implémenter des fonctionnalités avancées pour améliorer la pertinence et la performance des recherches. Collaborer avec l’équipe pour définir les meilleures pratiques de développement et garantir la qualité du code. Exploiter BigQuery pour l’analyse des données et l’optimisation des requêtes. Participer à la mise en place et au suivi de la chaîne CI/CD et des pratiques DevOps . Contribuer à la démarche Software Craftsmanship et aux méthodes Agiles . Stack technique ElasticSearch (niveau expert – usage avancé) Node.js , TypeScript , NestJS Elastic Cloud BigQuery , SQL avancé GCP – Google Cloud Platform CI/CD, Git, automatisation Clean Code, TDD, Craft, DDD Hard skills attendus Très forte expertise en ElasticSearch dans un contexte complexe / high‑traffic. Maîtrise de Node.js et TypeScript . Connaissance approfondie des principes de Software Craftsmanship . Solides compétences en analyse de données / SQL / BigQuery . Maîtrise des pratiques DevOps et de la chaîne CI/CD . Très bonne compréhension des méthodes agiles .
Freelance

Mission freelance
INGENIEUR DE PROD DEVOPS INFRA SENIOR

BEEZEN
Publiée le
CI/CD

1 an
Île-de-France, France
La mission consiste à superviser le fonctionnement des infrastructures et des systèmes. D’assurer la stabilité, le build et l'amélioration continue des infrastructures sur le périmètre Infra core des environnements en centralisé, décentralisé et cloud (GCP, AZURE, Azure Arc , Azure Migrate). Vous interviendrez sur l’industrialisation, l’automatisation, et la fi abilité des environnements de production, garantissant un haut niveau de performance et de disponibilité des applications. Vous serez en charge de la gestion des incidents et des problèmes en production, et de la collaboration avec les équipes d’architecture et de développement pour optimiser la livraison continue et le cycle de vie des infrastructures

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

429 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous