Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 371 résultats.
CDI

Offre d'emploi
Data scientist (H/F)

IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
chef de projet technique / Cloud /Devops

Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure

6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Freelance

Mission freelance
Responsable Infrastructure & Cloud H/F

HAYS France
Publiée le
Administration linux
AWS Cloud
Azure

6 mois
400-620 €
Nantes, Pays de la Loire
Dans le cadre d'une forte croissance de leur solution IoT de contrôle d'accès, notre client recherche un(e) Responsable Infrastructure Cloud expérimenté(e), capable d'allier expertise technique et management d'équipe. Vous aurez pour mission principale de piloter la transformation de l'infrastructure cloud vers une architecture résiliente, scalable et sécurisée. À ce titre, vous définirez et mettrez en œuvre le Plan de Continuité d'Activité (PCA), moderniserez l'architecture cloud (haute disponibilité, performance, optimisation des coûts) et superviserez la gestion opérationnelle : monitoring, alerting, capacity planning et suivi des indicateurs qualité (SLA, SLO, SLI). Vous piloterez également l'analyse des incidents et la mise en place des actions correctives, coordonnerez les évolutions d'infrastructure avec les équipes Web et Support, et serez en charge du choix et du déploiement d'un SOC externe adapté à l'environnement existant. En parallèle, vous encadrerez une équipe pluridisciplinaire composée de profils DevOps, SRE et Administrateurs Systèmes, en veillant à maintenir une dynamique collective ambitieuse et orientée résultats.
CDI

Offre d'emploi
Administrateur systèmes Linux (F/H)

Experis France
Publiée le

Mougins, Provence-Alpes-Côte d'Azur
Nous recherchons un Administrateur Systèmes Linux (F/H) passionné et expérimenté pour rejoindre notre équipe. Si vous êtes motivé par les environnements cloud, l'automatisation et la gestion des infrastructures modernes, ce poste est fait pour vous ! Vos missions : Administration et évolution de systèmes Linux (principalement Ubuntu) Mise en production, maintien en conditions opérationnelles et amélioration continue de l'infrastructure Utilisation d'outils d'automatisation (Ansible, Terraform, Docker) Participation à la migration de l'ensemble du système applicatif vers Google Cloud Platform (GCP) Traitement de données et gestion de bases de données (SQL ou NoSQL) Collaboration étroite avec les équipes de développement pour répondre aux besoins en données
Freelance

Mission freelance
PRODUCT MANAGER CLOUD SENIOR H/F

AXONE BY SYNAPSE
Publiée le
AWS Cloud
Azure
Cloud

6 mois
Paris, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un(e) Product Manager Cloud Senior H/F afin d’accompagner un programme stratégique de convergence cloud. Le contexte est celui de la construction d’une factory cloud de nouvelle génération, pensée from scratch, mais devant composer avec un existant riche, hétérogène et déjà exposé à différents usages. Le poste vise à apporter la vision produit qui manque aujourd’hui entre les équipes techniques, les responsables produit et les entités métier/marketing. La personne attendue devra structurer les priorités de services, orienter les choix d’offres, assurer la cohérence des trajectoires de compatibilité avec le legacy et contribuer à positionner les futurs services dans un environnement interne complexe, multi-entités et fortement stratégique. Objectif et livrable: L’objectif principal est de définir, prioriser et cadrer l’offre de services cloud à construire au sein de la nouvelle factory, en articulation avec les équipes techniques, produit et marketing. Le consultant devra clarifier les services à lancer, leur ordre de priorité, leurs dépendances avec les offres existantes et les contraintes de compatibilité/migration. Livrables attendus: vision produit consolidée sur le périmètre cloud ; cartographie des services cibles et des services legacy à rapprocher ; matrice de priorisation des offres et fonctionnalités ; recommandations de positionnement, de cohérence catalogue et de trajectoire d’exposition API ; contribution au cadrage des interactions entre product management, product owners, architecture et équipes marketing. Compétences attendues: Le poste requiert une combinaison rare de vision produit et de compréhension profonde des environnements cloud. La personne devra savoir analyser un portefeuille de services, comprendre un paysage technologique complexe, arbitrer les priorités et dialoguer avec des profils d’architectes, d’ingénieurs et de responsables produit. Une bonne lecture des enjeux de compatibilité, de migration, de standardisation et de compétitivité est indispensable. Compétences techniques attendues : Product Management senior appliqué à des offres technologiques complexes ; Expérience sur des produits cloud / infrastructure ; Solide maîtrise d’au moins 3 des environnements suivants : IaaS, PaaS, CaaS (OpenStack, Kubernetes, OpenShift) et bonne connaissance des hyperscalers AWS, Azure, GCP ; Storage cloud et appliance (ex. NetApp) ; Bare metal et orchestration / provisioning des ressources bare metal ; Solutions de provisioning déclaratif (SOM/ROM) et intent-based (K8S/CRD, Crossplane, etc.) ; Gestion d’IP Fabric et architecture réseau niveau 2, avec appréciation de la connaissance de switches de vendors spécifiques ; IAM pour clients internes, externes et administration ; Outils cloud couches 3 à 7 : reverse proxy, forward proxy, WAF, NAT Gateway, firewall, etc. ; Outils Ops transverses : Vault, Bastion, DNS, NTP, chaînes CI/CD, etc. ; Composants de chiffrement : KMS, HSM, gestion des certificats ; Outils d’observabilité. Capacité à définir une stratégie produit , piloter une roadmap et produire des livrables structurés ( PRD, PRFAQ, user stories ) ; Analyse de legacy et stratégie de convergence ; Construction de catalogue de services / offres cloud ; Exposition de services et d’API ; Compréhension des environnements d’infrastructure, provisioning et automatisation ; Expérience des méthodologies agiles : Scrum, SAFe, Kanban ; Bilingue français / anglais impératif ; Formation Bac+5 (ingénieur, informatique ou business). Atouts complémentaires : Passage chez un cloud provider, un hébergeur, un éditeur SaaS ou un opérateur télécom.
CDI

Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)

ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Freelance
CDI

Offre d'emploi
DATA ENGINEER JAVA / SCALA ( 460€ max)

BEEZEN
Publiée le
Scala

6 mois
40k-61k €
340-460 €
Île-de-France, France
Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP). Très bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. Maîtrise de SQL pour la manipulation, l’analyse et la valorisation de données. Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données. Expérience avec Pubsub pour la gestion de flux de données en temps réel. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Expérience solide avec les systèmes de gestion de version (Git). Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance

Mission freelance
Cloud Operations Expert (junior) H/F

STHREE SAS
Publiée le

12 mois
Suresnes, Île-de-France
Je recherche un(e) Cloud Operations Expert (junior) pour l'un de mes clients basé à Suresnes. Description du rôle Un Operations Cloud Expert est responsable de la stabilité, de la fiabilité et de la performance des systèmes en production, tout en s'appuyant sur des pratiques DevOps pour automatiser, industrialiser et améliorer l'efficacité opérationnelle. Environnement technique Cloud : Google Cloud Platform (GCP), Amazon Web Services (AWS) Scripting : Shell, Python Outils : Git, GitLab CI, Ansible, Terraform Conteneurs & orchestration : Docker, Kubernetes Plateformes & streaming : App Engine, Kafka Bases de données : SQL (PostgreSQL), NoSQL (Elasticsearch, Couchbase) Monitoring & observabilité : Grafana, Stackdriver, Mesos, PagerDuty, Prometheus, Datadog Réseau : VPN, routage IP, NAT, proxy Méthodologie : Agile Responsabilités principales Superviser et maintenir la disponibilité des systèmes et infrastructures de production Gérer les incidents, le troubleshooting et les analyses de causes racines Garantir la disponibilité, la performance et la fiabilité selon les objectifs SLA/SLO Automatiser les tâches opérationnelles via du scripting et de l'Infrastructure as Code (IaC) Gérer et améliorer les pipelines CI/CD (GitLab CI) Déployer et supporter des applications dans des environnements cloud (AWS / GCP) Réaliser des mises à jour d'infrastructure via des outils IaC comme Terraform Travailler avec des environnements conteneurisés (Docker, Kubernetes) Collaborer avec les équipes de développement pour améliorer la déployabilité et l'exploitabilité Appliquer les bonnes pratiques de sécurité, de sauvegarde et de reprise après sinistre Compétences requises Bonne expérience en exploitation de systèmes de production Expérience confirmée en monitoring et gestion des incidents Compétences en scripting (Bash, Python) Expérience sur des plateformes cloud (GCP ou AWS) Bonne maîtrise des pratiques CI/CD et d'automatisation Expérience avec les systèmes de gestion de versions (Git / GitFlow) Bonne connaissance des architectures conteneurisées et microservices (Kubernetes) Connaissance des bases de données SQL (PostgreSQL) et NoSQL (Elasticsearch, Couchbase) Compréhension des concepts réseau (VPN, routage IP, NAT, load balancing, proxy) Expérience dans un environnement Agile / SAFe Anglais technique courant (lu, écrit, parlé)
CDD

Offre d'emploi
Ingénieur Operations Cloud (h/f)

emagine Consulting SARL
Publiée le

1 mois
425-435 €
92400, Courbevoie, Île-de-France
Un.e ingénieure Operations Cloud est responsable de la stabilité, de la fiabilité et de la performance des systèmes en production, tout en s’appuyant sur des pratiques DevOps pour automatiser, industrialiser et améliorer l’efficacité opérationnelle. Environnement technique Cloud : Google Cloud Platform (GCP), Amazon Web Services (AWS) Scripting : Shell, Python Outils : Git, GitLab CI, Ansible, Terraform Conteneurs & orchestration : Docker, Kubernetes Plateformes & streaming : App Engine, Kafka Bases de données : SQL (PostgreSQL), NoSQL (Elasticsearch, Couchbase) Monitoring & observabilité : Grafana, Stackdriver, Mesos, PagerDuty, Prometheus, Datadog Réseau : VPN, routage IP, NAT, proxy Méthodologie : Agile Responsabilités principales Superviser et maintenir la disponibilité des systèmes et infrastructures de production Gérer les incidents, le troubleshooting et les analyses de causes racines Garantir la disponibilité, la performance et la fiabilité selon les objectifs Automatiser les tâches opérationnelles via du scripting et de l’Infrastructure as Code (IaC) Gérer et améliorer les pipelines CI/CD (GitLab CI) Déployer et supporter des applications dans des environnements cloud (AWS / GCP) Réaliser des mises à jour d’infrastructure via des outils IaC comme Terraform Travailler avec des environnements conteneurisés (Docker, Kubernetes) Collaborer avec les équipes de développement pour améliorer la déployabilité et l’exploitabilité Appliquer les bonnes pratiques de sécurité, de sauvegarde et de reprise après sinistre Compétences requises Solide expérience en exploitation de systèmes de production Expérience confirmée en monitoring et gestion des incidents Compétences en scripting (Bash, Python) Expérience sur des plateformes cloud (GCP ou AWS) Bonne maîtrise des pratiques CI/CD et d’automatisation Expérience avec les systèmes de gestion de versions (Git / GitFlow) Bonne connaissance des architectures conteneurisées et microservices (Kubernetes) Connaissance des bases de données SQL (PostgreSQL) et NoSQL (Elasticsearch, Couchbase) Compréhension des concepts réseau (VPN, routage IP, NAT, load balancing, proxy) Expérience dans un environnement Agile / SAFe Anglais technique courant (lu, écrit, parlé)
Freelance

Mission freelance
Developpeur Python Sophia Antipolis

WorldWide People
Publiée le
Python

12 mois
320-340 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Developpeur Python Sophia Antipolis La mission consiste à faire évoluer un ETL développé en Python et déployé sur Kubernetes. Cet ETL assure l’injection de volumes importants de données dans différentes bases de données • - Synchronisation de différentes bases de données • - Extraction, transformation et mise en forme des données • - Injection massive de fichiers volumineux • - Calcul et production de KPIs Dans un premier temps, l’ETL devra évoluer dans un environnement on-premise afin de répondre aux besoins des applications existantes. Le développeur participera ensuite à la refonte de la solution vers Google Cloud Platform (GCP), notamment autour des services de traitement de données (ex : Dataflow). Responsabilités • - Développer et maintenir des traitements backend en Python • - Assurer le déploiement et l’exploitation des applications sur Kubernetes • - Garantir la performance, la fiabilité et la scalabilité des traitements de données • - Participer aux choix d’architecture et à la migration vers le cloud GCP • - Collaborer avec les équipes fonctionnelles et techniques Pré-requis • - Très bonne maîtrise de Python avec au moins 4 ans d’expérience en développement industriel • - Expérience significative dans le traitement de la donnée • - Appétence pour les aspects fonctionnels et métiers • - Bonne connaissance de Kubernetes (K8S)
CDI

Offre d'emploi
Consultant Informatica H/F

TOHTEM IT
Publiée le

35k-45k €
Toulouse, Occitanie
Nous recherchons un(e) consultant(e) pour initier une équipe (jusqu’à 3 personnes selon les besoins) dédiée au maintien évolutif et correctif des applications décisionnelles RH d’un grand groupe du secteur bancaire. Tu seras en charge de prendre en main l’environnement, aussi bien sur les plans fonctionnels que techniques, et de poser les bases de cette future équipe. Tes missions Gérer le RUN des outils décisionnels RH. Piloter les évolutions (administration du personnel, paie, formation, recrutement, talent management), en lien avec les métiers et les éditeurs. Contribuer à la préparation des recettes fonctionnelles . Développer et maintenir les univers BO ainsi que les rapports associés. Participer à des projets stratégiques comme le Socle Data Groupe (GCP/IDMC). Apporter un support de proximité aux utilisateurs métiers. ️ Ton environnement tech Business Objects BI 4.3 SQL Developer : SQL, procédures stockées, fonctions Bases de données : Oracle , Hive , Indexima Informatica PowerCenter (projet de migration vers Informatica IDMC ) Power BI Google Cloud Platform (GCP) – BigQuery
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

ARGANA CONSULTING CORP LLP
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
CDI

Offre d'emploi
Lead BI (F/H) – Domaine Satellitaire - Toulouse

CELAD
Publiée le

40k-55k €
Toulouse, Occitanie
Nous poursuivons notre développement et recherchons actuellement un.e Lead BI (H/F) capable de prendre à la fois de la hauteur sur les enjeux et de garder les mains dans la donnée pour intervenir chez un de nos clients, dans le secteur satellitaire à Toulouse. Vous interviendrez dans un environnement où la BI est stratégique, avec une vraie marge de manœuvre pour structurer, améliorer et faire évoluer les pratiques. Vos missions : Vous prenez la responsabilité d’un périmètre BI avec une double casquette : technique et pilotage. Concrètement, vous allez : Encadrer et accompagner une petite équipe de 2 personnes (montée en compétences, organisation, priorisation) Concevoir et faire évoluer les solutions de reporting et de pilotage Structurer les flux de données et garantir leur fiabilité Être force de proposition sur les bonnes pratiques BI et data Travailler en lien étroit avec les équipes métiers pour comprendre les besoins et y répondre efficacement Participer aux choix techniques et aux évolutions de l’architecture data Environnement technique : ️ Vous évoluerez dans un écosystème Microsoft complété par des briques cloud et IA : Microsoft Power BI (modélisation, DAX, visualisation) SQL Server Suite Microsoft BI : SSIS, SSAS, SSRS Environnement Google Cloud Platform (GCP) Premiers usages ou projets autour de l’IA appliquée à la data

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

371 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous