Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 373 résultats.
Freelance

Mission freelance
Chef de Projet Data (F/H)

CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)

12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
CDI
Freelance

Offre d'emploi
Expert Cloud AWS GCP S3NS

Ela Technology
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS

1 an
40k-45k €
500-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets stratégiques de transformation cloud, nous recherchons un Expert Cloud confirmé maîtrisant AWS, GCP et S3NS , capable d’intervenir sur des environnements complexes et à forts enjeux. Vos missions1. Architecture & Stratégie de Migration Cloud Accompagner la migration , l’extension ou la création de nouvelles applications sur le cloud public. Réaliser des études comparatives de scénarios : Cloud Public, SaaS ou Retain (non‑migration). Sélectionner les services cloud les plus pertinents en analysant les gains et impacts. Analyser les impacts sur le RUN et le BUILD : performance, observabilité et exploitation. Animer des workshops de cadrage et de recueil des besoins. Concevoir des architectures cloud multi‑niveaux : Intégration au SI Architecture réseau HLD / LLD Piloter des migrations de région cloud. 2. Acculturation Cloud & Amélioration Continue Apporter une expertise cloud transverse auprès des équipes internes et des partenaires du projet. Diffuser les bonnes pratiques cloud via des actions de sensibilisation et d’animation. Participer activement à la communauté cloud du périmètre.
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI

2 ans
309-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Lille, France. Contexte : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Les missions attendues par le Data Ingénieur H/F : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité Intègre les éléments Structure la donnée (sémantique, etc.) Cartographie les éléments à disposition Nettoie la donnée (élimination des doublons, ) Valide la donnée Éventuellement, il crée le référentiel de données SES LIVRABLES : Data Lake approprié et partagé et son dimensionnement Cartographie des données Les éléments permettant de garantir la qualité de la donnée
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique

RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
Freelance

Mission freelance
Expert Looker Core (BI & Big Data)

Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)

4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Freelance
CDI

Offre d'emploi
Techlead Java

Okara
Publiée le
Angular
Apache Kafka
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Tu rejoins un pôle stratégique chez un acteur majeur du Retail pour propulser l'évolution d'applications métiers critiques. Au sein d'une squad agile, tu es le moteur technique : ton rôle est de construire des solutions robustes sur des stacks de pointe ( Java 21/25, Cloud GCP ) tout en diffusant une culture de l'excellence au sein de l'équipe. Tes missions : Développement d'élite : Tu prends en charge les fonctionnalités les plus complexes et critiques. Tu produis un code élégant, performant et évolutif. Culture Craft & Qualité : Tu es le·la garant·e d'une couverture de code irréprochable (TDD, JUnit 5, Mockito). Pour toi, le Clean Code, les principes SOLID et l'architecture hexagonale sont des réflexes, pas des options. Résolution de problèmes : Tu interviens sur les problématiques techniques pointues, l'optimisation des performances et la réduction proactive de la dette technique. Industrialisation : Tu améliores en continu les pipelines CI/CD (GitHub Actions, Docker) pour que le delivery soit fluide et sécurisé. Accompagnement par la pratique : Tu fais monter l'équipe en compétences via du Pair/Mob programming quotidien et des revues de code exigeantes. Animation technique : Tu organises des ateliers ou des BBL sur des thématiques concrètes (Design Patterns, sécurité, performance). Pourquoi nous rejoindre ? Relever des défis concrets chez un leader du secteur avec un impact direct sur des outils utilisés à grande échelle. Ici, l'agilité est une réalité vécue en mode Scrum, avec une stack technologique qui ne prend pas la poussière. Intégrer cette mission, c’est rejoindre la communauté Okara ! Que tu sois freelance ou consultant en CDI, tu bénéficies du dynamisme de nos squads internes et d'un suivi de proximité pour construire ta trajectoire. Tu veux coder sur des technos récentes tout en tirant une équipe vers le haut ? Postule !
Freelance
CDI

Offre d'emploi
Expert Cloud GCP AWS

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS

6 mois
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de projets stratégiques de transformation Cloud, nous recherchons un Expert Cloud intervenant sur les environnements AWS, GCP et S3NS , capable d’accompagner les équipes IT et métiers sur la définition des architectures, les stratégies de migration et la montée en maturité Cloud. Vous évoluerez dans des contextes hybrides et critiques, avec de fortes exigences de sécurité, de performance et d’exploitabilité. Vos missions 1. Architecture & Stratégie de migration Accompagner la migration, l’extension ou la création d’applications sur le Cloud public du client Réaliser des études comparatives de scénarios : Cloud Public SaaS Retain (non‑migration) Sélectionner les services Cloud les plus adaptés en analysant gains, risques et impacts Analyser les impacts BUILD & RUN : Tests de performance Stratégies d’observabilité Exploitation et maintien en conditions opérationnelles Animer des workshops métiers et techniques pour la capture du besoin Concevoir des architectures Cloud multi‑niveaux : Intégration au SI existant Architecture réseau HLD (High Level Design) LLD (Low Level Design) Gérer des migrations inter‑régions Cloud 2. Acculturation Cloud & Amélioration Continue Apporter une expertise Cloud transverse auprès des équipes internes et partenaires externes Diffuser les bonnes pratiques Cloud & DevSecOps Animer ou contribuer à des actions de sensibilisation Cloud Participer activement à la communauté Cloud du périmètre Compétences requises Cloud & Architecture Expertise confirmée : AWS, GCP et S3NS Maîtrise des stratégies hybrides et multi‑cloud Connaissance des contraintes éditeurs et stratégies de mitigation associées DevOps & Plateformes Bonne compréhension des pipelines CI/CD Conteneurisation et orchestration : Docker, Kubernetes / OpenShift Sensibilité DevSecOps et automatisation Sécurité & Conformité Connaissance des normes et référentiels de sécurité applicables Intégration de la sécurité dès la conception (security by design) Outils & environnements AWS / GCP / S3NS OpenShift / Kubernetes Outils DevSecOps JIRA / Confluence
Freelance

Mission freelance
Architecte Entreprise Senior (Cloud-Native)

CAT-AMANIA
Publiée le
Architecture
AWS Cloud
Google Cloud Platform (GCP)

3 mois
400-690 €
Île-de-France, France
Architecte Entreprise Senior (Cloud-Native) – H/F Nous recherchons pour l'un de nos clients majeurs dans le secteur des médias un(e) Architecte Entreprise Senior pour accompagner la transformation et l'évolution de ses infrastructures IT vers des modèles résolument Cloud. ## Description de la mission Intégré(e) au département Urbanisations et Applications, vous interviendrez sur un périmètre transverse (planification, optimisation des moyens, sécurité, gestion d'actifs). Votre rôle sera de définir les modèles d'architecture logicielle de demain pour répondre aux nouveaux besoins métiers. Vos principales activités : Conception : Proposer des modèles d'architectures logicielles Cloud-Native et sélectionner les technologies de développement adaptées. Pilotage : Garantir l'application des principes d'architecture au sein des différents projets. Collaboration : Travailler étroitement avec les équipes Cloud, sécurité, réseaux et exploitation. Support Technique : Accompagner les équipes projets lors de l'implémentation et superviser les développements (contrôle de cohérence). Standardisation : Définir les normes de développement et les exigences opérationnelles au sein de la Design Authority. Encadrement : Coordination d'une petite équipe, incluant un Architecte Solution. ## Profil recherché : l'Expertise attendue Vous justifiez d'au moins 5 ans d'expérience significative en architecture d'entreprise, idéalement dans des contextes métiers complexes. Compétences techniques requises (Niveau Expert) : Patterns d'architecture : Micro-services, Micro-frontends, DDD, Architecture hexagonale, Event Driven. Modélisation & Frameworks : Maîtrise des outils de modélisation, TOGAF et C4. Développement Full-stack JS : ReactJS, NodeJS, NestJS (MikrORM), NextJS. APIs : REST, GraphQL, SOAP. Identité : Azure Entra ID. Compétences complémentaires (Niveau Maîtrise) : Cloud : AWS, Azure, GCP. Autres langages : Angular, Java Springboot, .NET, Python ou PHP. ## Modalités pratiques Date de démarrage : 04/05/2026. Durée : Mission de 3 mois, reconductible jusqu'à 3 ans (11 fois 3 mois). Lieu : Paris (sur site requis + télétravail selon les directives en vigueur). Langue : Français (maîtrise parfaite impérative pour la rédaction des documents et les échanges). Astreintes : À prévoir le week-end et les jours fériés. Matériel : Le matériel informatique sera mis à disposition par le client.
Freelance

Mission freelance
Ingénieur Cloud GCP

Izyfree
Publiée le
CFT (Cross File Transfer)
Control-M
ITIL v4

1 an
400-550 €
Yvelines, France
Nous recherchons pour l'un de nos client grand compte dans le secteur Bancaire situé à Saint quentin en yvelines un Ingénieur Cloud GCP / SRE pour intervenir sur les sujets suivants: Collecter, consolider les besoins et leurs priorités du cluster et des entités. Co-construire backlogs et roadmaps : alimenter, challenger les backlogs. Préparer les décisions et arbitrages sur les roadmaps des offresproposées par les pôles notamment préparer les dossiers Comité Stratégique pour les CTO et DSI. Identifier les impacts des offres sur le cluster et les entités (techniques, organisationnels, compétences). Promouvoir les offres au sein du cluster et auprès des entités. Identifier et suivre la mise en œuvre des compléments aux offres (fonctionnalité additionnelle, tooling, complément CI/CD.). Animer l’adoption des offres (compléments, prérequis, freins, volumes d’adoption). Apporter ses connaissances techniques auprès du cluster et des entités lors de l’adoption et la consommation des produits. Suivre avec les pôles les indicateurs qualité du run et remonter les dysfonctionnements inhérents au modèle de delivery des produits. Suivre / S'assurer de l'adéquation des services délivrés par rapport aux niveaux de services convenus / attendus dans le cadre du build (indépendamment des process).
CDI
Freelance

Offre d'emploi
Tech Lead Data xDI/Python/Snowflake/GCP & CI/CD

OBJECTWARE
Publiée le
CI/CD
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-85k €
400-650 €
Île-de-France, France
Responsabilités principales : Pilotage Technique : - Définir et faire respecter les bonnes pratiques de développements, de versioning et d'industrialisation des flux data - Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements - Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI. - Contribuer à l'amélioration continue des performances et de la stabilité des pipelines Conception et industrialisation : - Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT) - Mettre en œuvre les solutions d'orchestration et d'automatisation - Participer à la migration des flux SAS vers des solutions modernes (ex : Snowflake) - Veiller à la documentation, à la supervision et au monitoring des traitements Encadrement et accompagnement : - Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence - Promouvoir les bonnes pratiques DataOps (CI/CD, test, observabilité, monitoring) - Faciliter les échanges entre les équipes data, architecture, sécurité et métier Gouvernance et qualité : - Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données - Collaborer avec le Data Quality Officer sur les sujets de contrôle d'alerting - Participer à la mise en place de mécanismes de data lineage et de gestion des metadonnées Expérience : Expérience sur des architectures cloud data (idéalement GCP) Expérience confirmée dans l'industrialisation et la mise en production des pipelines data Langages et outils : - Obligatoires : Python, SQL, Spring Batch - Data platform : GCP, Snowflake (bonne connaissance apprécié) - ETL/ELT : XDI - CI/CD & Infra : Gitlab, Docker, Terraform, Kubernetes Architectures : - Architecture Data Moderne (Data Lake/House, Data Mesh, ELT Cloud etc) - Performance et optimisation des flux - Sécurité, gouvernance et qualité des données - Supervision et observabilité
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance

Mission freelance
Tech Lead Data GCP

UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)

1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Freelance

Mission freelance
Senior Full Stack Engineer – GenAI / Python / GCP (H/F)

Freelance.com
Publiée le
Agent IA
API
Google Cloud Platform (GCP)

3 mois
400-600 €
Île-de-France, France
Dans le cadre d’une initiative innovante autour de l’IA Générative, nous recherchons un(e) Concepteur / Développeur Full Stack Senior afin de participer à la conception et au développement d’applications intelligentes de bout en bout. Le consultant interviendra sur des projets mêlant développement logiciel, intégration de modèles d’IA générative et expérience utilisateur, avec une forte orientation produit et innovation. Missions principales Concevoir, développer et maintenir des applications Full Stack (front-end, back-end, APIs et bases de données) Intégrer et orchestrer des modèles d’IA générative via APIs/SDKs (LLM, modèles multimodaux, génération d’images, etc.) Mettre en œuvre des mécanismes de prompt engineering, RAG (Retrieval-Augmented Generation) et guardrails de sécurité Participer à la conception d’interfaces modernes, responsives et orientées expérience utilisateur Collaborer étroitement avec les équipes UX/UI pour transformer les maquettes en interfaces de qualité Garantir la qualité du code, les performances, la sécurité et les tests des applications Mettre en place le suivi des usages et des métriques IA afin d’améliorer continuellement les solutions développées Participer aux cérémonies Agile/Scrum et contribuer aux bonnes pratiques de développement et de documentation
Freelance

Mission freelance
IT Data & Integration Manager

EBMC
Publiée le
Google Cloud Platform (GCP)

6 mois
400-700 €
Paris, France
Dans le cadre de l’implémentation d’une solution d’Integrated Business Planning (IBP), nous recherchons un IT Data & Integration Manager afin de piloter le stream Data & Intégration au sein d’un programme de transformation à forte dimension métier. Le consultant interviendra dans un contexte complexe impliquant plusieurs systèmes (ERP, outils de planification, plateformes data) et une solution IBP cible, avec un rôle clé dans la définition, la coordination et la mise en œuvre des flux de données. Il sera responsable de la stratégie de data sourcing, des choix d’ingestion, de l’alignement entre besoins fonctionnels et contraintes techniques, ainsi que de la qualité et de la robustesse des intégrations. Le rôle combine pilotage transverse et implication opérationnelle, avec une responsabilité directe sur la production des spécifications fonctionnelles (API, flux fichiers) et la supervision des équipes data et intégration.
Freelance
CDI

Offre d'emploi
Cloud engineer Sénior (530€ MAX)

BEEZEN
Publiée le
Azure
Google Cloud Platform (GCP)

1 an
44k-61k €
400-530 €
Lyon, Auvergne-Rhône-Alpes
3 JOURS SUR SITE Projets Infra France de maintenances, de migrations et de déménagement portant sur les périmètres réseaux, infrastructures legacy (DC historiques), Cloud (Azure, GCP, OCI) ou sur les outils bureautiques France Livrables : ● Cadrage et Note de Cadrage ● Animation Coproj/Copil + compte rendu ● Animation Comité technique + compte rendu ● Suivi projet via outils de gestion de projet (Jira, Gsheet etc.) ● Suivi Budgétaire ● Suivi Plan de Charge ● Suivi des risques ● Document d'architecture des solutions à mettre en oeuvre ● Maîtrise avancée des outils de la Google Suite (Gmail, Sheets, Slides, Google Scripts, Gemini, Looker Studio, Big Query …) ● Diriger des programmes d'envergure nécessitant une maîtrise experte d'un domaine critique pour l'entreprise. ● Solide connaissance des technologies d'infrastructure IT (réseaux, serveurs, stockage, virtualisation, cloud computing, etc.) ● Connaissance des standards et bonnes pratiques ITIL ● Gérer des relations contractuelles complexes avec des partenaires technologiques majeurs et des éditeurs. ● Influencer les décisions stratégiques de l'entreprise grâce à une vision d'expert sur les tendances du marché. ● Valider la cohérence et la pérennité architecturale des solutions déployées au sein du programme spécialisé.
Freelance
CDI

Offre d'emploi
Développeur fullstack Java Vue - Lille

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

373 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous