Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 1 630 résultats.
Offre premium
Freelance

Mission freelance
Responsable Data Marketing & Connaissance Client Senior (F/H)

Actual Talent
Publiée le
Microsoft Power BI
Python
Salesforce

6 mois
600-880 €
Loiret, France
Nous recherchons pour l’un de nos clients, acteur reconnu du secteur de l’assurance, un(e) Responsable Data Marketing & Connaissance Client Senior dans le cadre d’une mission freelance à fort enjeu. La mission s’inscrit dans un contexte de transformation data et digitale, avec un besoin de sécuriser l’activité existante, piloter les sujets prioritaires et renforcer la connaissance client au service de la performance marketing. Vos missions : Sécuriser et piloter les dispositifs de suivi de la performance marketing Accompagner le chiffrage et le pilotage du plan marketing 2026-2027 Développer la connaissance client : segmentation, scoring, personnalisation Produire des analyses et recommandations business à partir des données Concevoir et faire évoluer les reportings et tableaux de bord Encadrer une petite équipe composée de profils études/statistiques Présenter les résultats et recommandations à des interlocuteurs métiers et direction Environnement technique CRM : Salesforce Data : Snowflake Reporting : Power BI Analyse : SAS Autres : SQL, R ou Python appréciés Les plus de la mission Mission stratégique au croisement de la data , du marketing et de la connaissance client Visibilité forte auprès des équipes métiers et de la direction Contexte stimulant de structuration et d’évolution des usages data Mots-clés : Data marketing, connaissance client, CRM, Salesforce, Snowflake, Power BI, SAS, SQL, segmentation, scoring, reporting, assurance, freelance.
Freelance
CDI

Offre d'emploi
Expert(e) Calypso

Accelite
Publiée le
Architecture
Calypso
CI/CD

1 an
50k-70k €
500-600 €
Paris, France
🎯 Contexte de la mission : Un grand établissement public évoluant dans le secteur financier recherche un(e) Expert(e) Technique Calypso pour renforcer son équipe en charge d’un système stratégique de traitement des opérations de marché . Vous interviendrez dans un environnement international et collaborerez avec plusieurs acteurs européens. 📌 Votre rôle : En tant qu’ Expert(e) Calypso , vous prendrez en charge des travaux de conception, analyse, support technique et intégration autour d’une architecture complexe basée sur le progiciel Calypso v18 . Vos principales missions : Rédaction de spécifications générales et détaillées Animation d’ateliers techniques et coordination avec les équipes internes & partenaires externes Maintenance proactive de l’architecture (performance, suivi des flux, optimisation…) Définition et exécution des tests unitaires Support aux équipes techniques (architectes, développeurs, exploitation…) Support aux équipes métiers (front, middle, back, risques, comptabilité) P ackaging, installation, gestion des environnements Analyse technique des solutions proposées par l’éditeur Contribution aux projets d’ onboarding , d’ automatisation , et de migration vers Calypso v19+ 🛠️ Environnement technique : Calypso 18 Bases de données Oracle 19c , PostgreSQL 14/16 Linux RHEL 8+ SpringBoot VAULT, ELK GitLab, Jenkins, Eclipse, SQL Developer, Sonar XLDeploy, Ansible Connaissance EXDI, MQ, Cloud (Kubernetes)
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Tech Lead AWS – Pré‑embauche (H/F)

ABSIS CONSEIL
Publiée le
AWS Cloud
FinOps
SecOps

6 mois
50k-52k €
500-520 €
Île-de-France, France
Contexte Dans le cadre d’un renforcement des équipes Cloud, à la recherche un Tech Lead AWS confirmé(e) pour piloter les architectures, encadrer les bonnes pratiques cloud et accompagner les équipes techniques dans un contexte de transformation et d’industrialisation. Missions principales Définition et validation des architectures AWS Encadrement technique des équipes (référent, mentoring, bonnes pratiques) Gestion et optimisation des environnements Cloud Industrialisation, automatisation et standardisation Participation aux chantiers FinOps et SecOps Mise en place de guidelines et documentation technique Collaboration avec les équipes sécurité, réseau et DevOps Participation aux comités techniques / roadmap Cloud
Freelance

Mission freelance
Architecte Cybersécurité

Phaidon London- Glocomms
Publiée le
Agent IA
Cloud
Copilot

6 mois
Paris, France
Architecte Cybersécurité Localisation : France (Hybride) Contrat : 6 mois (prolongeable) Périmètre : Cybersécurité & Architecture Date de démarrage : Dès que possible À propos de l’entreprise Grande institution financière nationale opérant sur de multiples lignes métiers et plateformes digitales. L’organisation accorde une importance forte à l’excellence en cybersécurité, à l’innovation et à l’application systématique du secure‑by‑design sur l’ensemble de son écosystème IT et produit. Sa division cybersécurité est structurée autour de trois pôles : gouvernance, défense opérationnelle et expertise, apportant un soutien transverse à toutes les équipes internes. Présentation du poste Nous recherchons un Architecte Cybersécurité expérimenté pour rejoindre le pôle Expertise de la DSI. La mission consiste à accompagner les équipes agiles vers un niveau de maturité élevé en matière de sécurité, grâce à un conseil pragmatique, un accompagnement architectural et la définition de doctrines et exigences de sécurité non fonctionnelles. Le rôle inclut également une veille technologique continue afin de challenger les solutions existantes, la validation des résultats d’audits offensifs (pentests, red team), l’accompagnement dans la remédiation des vulnérabilités et la contribution à la stratégie cybersécurité et à l’amélioration continue. D’autres sujets transverses pourront s’ajouter selon les priorités internes. Responsabilités principales Accompagner les équipes agiles dans l'amélioration continue des pratiques DevSecOps, notamment via l’utilisation d’un Cyber Score Guider le déploiement, l’exploitation et l’acculturation autour des solutions de cybersécurité (DLP, CNAPP, SSE, VOC, DMARC, cloud souverain…) Superviser la gouvernance et l’encadrement des usages d’IA générative et d’IA agentique Accompagner la mise en œuvre d’un chiffrement de pointe, notamment dans le cadre de la préparation à la transition post‑quantique Valider la conformité cybersécurité des nouveaux socles techniques et applications du SI Challenger les solutions techniques existantes grâce à une veille active Analyser les résultats d’audits offensifs et accompagner les équipes dans la résolution des vulnérabilités Contribuer à la stratégie, aux doctrines, aux standards et aux processus d’amélioration continue en cybersécurité Compétences requises Certification sur un ou plusieurs fournisseurs cloud (AWS, Azure, GCP) Expérience en développement Expérience en cybersécurité offensive (pentest, red teaming) Expérience en environnement agile et/ou certification SAFe 10+ années d’expérience significative en cybersécurité Certifications CISSP et/ou GIAC appréciées Orientation client Rigueur, organisation, respect des échéances Autonomie, esprit d’initiative, capacité à proposer des améliorations Excellentes capacités rédactionnelles Compétences techniques Maîtrise des concepts techniques de sécurité : Réseau, API, Web, Systèmes, Cloud Connaissance des méthodologies d’évaluation des risques (ISO, NIST…) Pratiques DevSecOps : SSDLC, SAST, DAST, SCA, CNAPP, CSPM Gestion des accès : OIDC, SAML, SCIM Réseaux : ADN, SASE Cloud : AWS, Azure, GCP, VMware, Kubernetes Systèmes d’exploitation : Linux, Windows, MacOS Cryptographie, gestion du cycle de vie des certificats, PKI, KMS/HSM Technologies IA : Dust, Mistral, Copilot, MCP, agents Méthodologies : Agile, Scrum, SAFe
Freelance

Mission freelance
FinOps Specialist

Codezys
Publiée le
Analyse
autonomie
CI/CD

6 mois
Les Ulis, Île-de-France
Quel est le contexte ? L'organisation est en train de transformer son paysage IT. Plusieurs programmes de transformation sont en cours, déployant des ressources sur une zone de landing cloud dédiée. Afin de suivre les initiatives d'économies sur le cloud, le spécialiste FinOps apporte son soutien aux équipes IT DevOps et veille à ce que les dépenses cloud restent dans les limites du budget. Rôle Le spécialiste FinOps est chargé de la gestion et de l'optimisation des aspects financiers de l'infrastructure cloud AWS. Il collabore avec les équipes DevOps pour garantir une utilisation économique du cloud, met en œuvre les meilleures pratiques en gestion financière cloud et fournit des analyses ainsi que des recommandations pour optimiser les coûts. Il/elle rend compte au responsable de la pratique Efficiency. Objectifs et livrables Principales missions Gestion et optimisation des coûts AWS : Surveiller et analyser les dépenses et les tendances d'utilisation sur AWS. Identifier les principaux facteurs de coût et suivre les anomalies de dépense. Formuler des recommandations aux équipes IT sur les opportunités d’économies. Repérer et implémenter des stratégies pour réduire les coûts cloud. Créer et maintenir des tableaux de bord et des rapports afin de suivre les dépenses et l’utilisation cloud. Préparer des rapports financiers réguliers et des présentations destinées aux parties prenantes. Se tenir informé des nouveaux services AWS, des modèles tarifaires et des tendances du secteur. Proposer et mettre en œuvre des améliorations de processus pour la gestion financière du cloud. Réaliser (ou contribuer à la réalisation de) des évaluations de coûts pour de nouveaux services ou cas d’affaires, notamment en estimant le coût d’envoi de logs ou de métriques vers Dynatrace, en se limitant pas uniquement à AWS. Autres tâches liées aux coûts : Études de cas commerciaux pour soutenir les initiatives des Tribes. ​5 ans ou plus d’expérience en FinOps.
CDI

Offre d'emploi
CHEF DE PROJET AWS/ CLOUD (H/F)

GROUPE ALLIANCE
Publiée le
TOGAF

50k-55k €
Paris
ACCROCHE SI TU SAIS FAIRE DÉCOLLER LES INFRASTRUCTURES, CETTE ANNONCE EST FAITE POUR TOI … CE QUE TU RECHERCHES : Concevoir et piloter des architectures Cloud performantes et sécurisées Gérer des projets stratégiques de migration et d’optimisation Cloud Relever des défis techniques dans des environnements hybrides et multi-cloud Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras Analyse des besoins et définition des architectures, tu réaliseras Déploiement et migration vers le Cloud, tu piloteras Optimisation des performances et de la scalabilité, tu assureras Sécurisation des environnements Cloud, tu garantiras Veille technologique et innovation, tu impulseras Les équipes techniques, tu accompagneras Aux instances de gouvernance IT, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de ans minimum en gestion de projets Cloud Expert(e) des environnements Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Autonome : tu sais piloter des migrations complexes Esprit de synthèse : tu simplifies les architectures sans compromettre leur efficacité Visionnaire : tu anticipes les tendances Cloud et les évolutions technologiques Méthodique : tu structures et documentes les solutions Cloud Communicant(e) : tu expliques et vulgarises les concepts Cloud Réactif(ve) : face aux incidents, tu prends des décisions rapides et efficaces Pragmatique : tu proposes des solutions adaptées aux besoins métiers Pédagogue : tu accompagnes les équipes dans l’adoption du Cloud Dynamique : tu n’aimes pas les projets qui stagnent Organisé(e) : tu aimes structurer et optimiser les environnements Cloud
Freelance

Mission freelance
DevOps AWS - Bordeaux H/F

LeHibou
Publiée le
AWS Cloud
Kubernetes

3 ans
500-600 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Banque et finance recherche un/une Devops AWS H/F Description de la mission: Contexte L’équipe a pour mission de faire évoluer l'offre Cloud Public destinée aux utilisateurs finaux internes, en se concentrant sur les aspects de build, de run et d'exploitabilité des projets. Elle joue un rôle clé dans l'adoption d’AWS, qui constitue une part importante de l’activité. Parallèlement, l’équipe accompagne les équipes applicatives et d’exploitation dans leurs projets AWS tout en faisant évoluer l'existant pour faciliter la consommation de l'offre. Les tâches de l’équipe sont les suivantes : • Assurer le suivi de l'évolution de l'offre proposée par le pôle d’architecture et d’infrastructures afin de garantir sa conformité au cahier des charges internes et aux exigences des utilisateurs finaux, ainsi que remonter les besoins identifiés. • Participer aux réunions d’adoption de nouvelles offres avec les mêmes responsabilités que le point précédent. • Apporter une expertise technique sur le Cloud Provider AWS et veiller au respect des bonnes pratiques Cloud Public. • Développer et maintenir des modules Terraform. • Déployer et administrer des clusters Kubernetes (Amazon EKS). • Assurer le support des déploiements applicatifs via ArgoCD. • Concevoir et déployer des pipelines CI/CD avec GitLab, Linux, Docker et Terraform. • Créer des outils internes en Python (scripts ou API) pour administrer les plateformes, générer des tableaux de bord, exposer des métriques et vérifier la conformité des déploiements et configurations (technologies : FastAPI, GitLab, GitLab CI, Git). • Fournir un accompagnement aux équipes d’exploitation applicative et aux utilisateurs internes pour l'utilisation des plateformes et services de l'équipe. Les différents pôles internes se répartissent les rôles suivants : • Pôle d’architecture et d’infrastructures : architecture, mise à disposition des infrastructures, MCO. • Pôle de mise en marché des plateformes : ajout de services, production d’industrialisations pour la consommation, production de documentation, tableaux de bord de consommation, règles de bonne pratique. • Équipes d’exploitation applicative : commande des infrastructures pour les squads, utilisation des services et de la documentation produits, support aux squads. • Squads : utilisateurs finaux.
Freelance

Mission freelance
Data Engineer GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
CI/CD
Git

Épinay-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur Salesforce

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apex
Salesforce

6 mois
400-640 €
Levallois-Perret, Île-de-France
Contexte : - Le patrimoine Salesforce du groupe est géré au sein de la Factory Salesforce qui comprend plusieurs teams Agiles : L’application Salesforce est découpée en ensemble de domaines fonctionnels : Gestion Commerciale, Gestion Personne, V360, Plan de travail, Communautés, Gestion de la Demande, lien avec le CTI, ... La Factory Salesforce est composées d’équipes, « les équipes Agiles », localisées sur les sites de Niort, Le Mans et Paris. Chaque équipe agile s'occupe principalement de certains domaines fonctionnels Un projet peut-être transverse à plusieurs domaines et donc plusieurs équipes agiles peuvent contribuer à la fabrication de la solution Le delivery sur la plateforme est rythmé par des sprints partagés par l’ensemble des équipes * La Factory Salesforce participe activement au programme ECLA du Groupe qui vise à mettre en œuvre le CRM sur le périmètre assurance pour l’ensemble des marques du Groupe. Le programme ECLA est mené selon le framework SAFe et la Factory Salesforce Covéa fournit au programme des équipes Agiles, des équipes transverses (Design Autority, System Team) ainsi que l’appui organisationnel/managérial associé.
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
CDI
Freelance

Offre d'emploi
Consultant DevOps GCP H/F

Le Groupe SYD
Publiée le
Ansible
Apigee
Git

36 mois
45k-53k €
480-550 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : Jusqu’à 2 jours/semaine 📝Contrat : CDI ou Indep/Portage 👉 Contexte client : Tu rejoins un acteur majeur du secteur technologique et des services cloud , au cœur d’une équipe Plateforme spécialisée dans l’industrialisation et la sécurisation des environnements d’échanges critiques. L’objectif : renforcer la résilience, automatiser l’exploitation et accompagner les évolutions d’infrastructures complexes intégrant des briques telles que Kafka, Apigee, SFTP, Bucket GCP ou encore MailGun . Tu auras pour missions de : Améliorer l’industrialisation, l’automatisation et la supervision des plateformes d’échanges : Kafka, Apigee, SFTP, Bucket GCP . Travailler sur la résilience des environnements Kafka / Apigee / SFTP et accompagner les projets de migration Kafka (Move2Paris) . Participer aux sujets d’intégration autour de l’ IA avec APIGEE (MCP Server) et d’autres plateformes Google Kafka. Intégrer un nouveau périmètre dans l’équipe : MailGun (Canon à mail) . Concevoir et maintenir des pipelines CI/CD via Git, Argo , Infrastructure as Code avec Terraform , et automatisations via Ansible . Développer des scripts (Shell, Python) pour automatiser, superviser et fiabiliser l’exploitation. Contribuer à la sécurisation, à la montée en robustesse et au monitoring des plateformes. Participer à la rédaction des procédures, documentations techniques et guides d’exploitation . 🧰 Stack technique : Cloud / Plateforme : GCP, Bucket GCP, Kafka, Apigee, SFTP, MailGun, Cloudflare Infra as Code : Terraform CI/CD : Git, Argo Conteneurisation / Orchestration : Kubernetes Automatisation : Ansible Scripting : Shell, Python
Freelance
CDI

Offre d'emploi
DevOps AWS (H/F)

Linkup Partner
Publiée le
AWS Cloud

12 mois
53k-65k €
520-640 €
Paris, France
Nous recherchons un Ingénieur DevOps AWS expérimenté pour rejoindre notre équipe et contribuer à des environnements où la disponibilité et la performance sont très importantes. Vos missions : Déployer et maintenir des infrastructures cloud résilientes et sécurisées. Automatiser les processus de déploiement et de gestion d’infrastructure. Participer à l’architecture et à l’optimisation d’applications microservices et serverless sur AWS. Assurer la surveillance, la disponibilité et la performance des systèmes. Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps.
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

1630 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous