Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 1 614 résultats.
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Bordeaux

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
CDI

Offre d'emploi
Chef de Projet/Tech Lead Technique ecommerce

BLOOMAYS
Publiée le
Adobe
Java
Javascript

60k-76k €
Paris, France
Tech Lead / Chef de projet technique e-commerce Dans le cadre de projets e-commerce à forts enjeux, nous recherchons un Tech Lead / Chef de projet technique pour piloter la réalisation technique et accompagner les équipes dans la durée. Sous la responsabilité d’un Business Manager ou d’un Delivery Manager , vous serez garant(e) de la bonne exécution technique des projets , en encadrant une équipe de 2 à 10 personnes . 🎯 Votre rôle Animer l’équipe de réalisation et veiller, avec le Business Manager et le Delivery Manager, à une dynamique d’équipe saine et efficace Assurer le pilotage technique de l’équipe : support technique définition, priorisation et affectation des tâches Garantir la pertinence et la cohérence des solutions techniques mises en œuvre, en tenant compte du contexte client Veiller à la qualité technique des livrables , en lien avec les enjeux business et e-commerce du client Assurer la coordination entre les différentes parties prenantes (équipes techniques, client, conseil, etc.) Conseiller les clients sur les choix techniques et méthodologiques , en fonction de leurs besoins et contraintes Contribuer à l’ évaluation des collaborateurs impliqués sur les projets, en collaboration avec le Business Manager et le Delivery Manager
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Aix-en-Provence

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance
CDI

Offre d'emploi
Scrum Master - CRM

VISIAN
Publiée le
CRM
Salesforce

1 an
Lille, Hauts-de-France
Contexte L’objectif de la mission est d’intégrer la squad en tant que Scrum master. Le périmètre de la squad est le suivant : Genesys Cloud, Salesforce Module Marketing Cloud ainsi qu'une application développée en interne pour l'envoi des communications clients. Missions Animation de l'équipe (9 ETP) Animation et suivi de la backlog Gestion du capacitaire de l'équipe Assurer la bonne communication entre l'équipe, l'écosystème IT et le métier Priorisation de la backlog avec le PO/Proxy PO Assurer le reporting et le suivi des indicateurs de performances de l'équipe Animer la mise en place de l'observabilité des applications de la squad
CDI

Offre d'emploi
Développeur Full Stack Java & Angular (H/F)

WINSIDE Technology
Publiée le
Angular
Azure
Git

45k-55k €
Lille, Hauts-de-France
Métropole Lilloise (59) Démarrage : ASAP Mission Longue 🎯 Contexte du poste Dans le cadre d’une importante transformation digitale, nous recherchons un·e Développeur·se Full Stack Java & Angular pour rejoindre une équipe pluridisciplinaire dynamique. Vous interviendrez sur un projet majeur de refonte des applications métier , au sein d’un environnement technique moderne et stimulant. 🚀 Vos missions Sous la responsabilité d’un chef de projet et en collaboration avec des experts techniques, vous serez amené·e à : 🔧 Développement & conception Concevoir, développer et maintenir des applications web en Java & Angular Participer à la refonte d’un système d’information stratégique Contribuer à l’amélioration continue de l’architecture et du code 🗄️ Gestion des données Administrer, optimiser et sécuriser des bases de données SQL Rédiger des requêtes performantes et assurer la qualité des données 🤝 Collaboration & intégration Utiliser Git pour le versionnement du code et le travail collaboratif Collaborer avec les équipes pour intégrer des solutions sur GCP et Microsoft Azure Intervenir sur des flux d’intégration via WebMethod Participer pleinement aux rituels et méthodes Agile 🌐 Environnement technique complémentaire Renforcer ponctuellement les équipes sur des projets utilisant Java Spring Mettre à profit vos connaissances en IA (analyse, optimisation, automatisation) 🔎 Profil recherché 🎓 Formation & expérience Issu·e d’une formation en informatique Minimum 5 ans d’expérience en développement Java & Angular 🛠️ Compétences techniques essentielles Java (maîtrise solide) Angular (versions modernes appréciées) SQL (optimisation, requêtes complexes, modélisation) Git (flux collaboratifs, branches, qualité du code) Connaissances appréciées : Quarkus Culture cloud : GCP et/ou Azure
Freelance
CDI
CDD

Offre d'emploi
🚀 Développeur FullStack Python / Angular / .NET | Cloud Azure / AWS

Gentis Recruitment SAS
Publiée le
.NET
Angular
AWS Cloud

1 an
Nanterre, Île-de-France
Dans le cadre du développement et de l’évolution de plusieurs applications métiers, un grand groupe international recherche un Développeur FullStack Python / Angular / .NET pour renforcer une équipe existante. Le consultant interviendra au sein d’une équipe de développement composée de 10 à 12 personnes et participera aux différentes évolutions et maintenances des applications du périmètre. Les principales missions seront : Participer au développement FullStack des applications (front-end et back-end). Concevoir et développer des API et services applicatifs . Contribuer à la maintenance évolutive et corrective des solutions existantes. Participer aux revues de code et aux bonnes pratiques de développement. Collaborer avec les équipes techniques (développeurs, architectes, DevOps). Participer au déploiement et à l’exploitation des applications dans des environnements cloud. Les applications s’appuient notamment sur les technologies suivantes : C# / .NET Angular Python Cloud : Azure et AWS Bases de données SQL et NoSQL (SQL Server, PostgreSQL, CosmosDB, etc.) Une attention particulière est portée à la qualité du code , au respect des principes de Clean Code et aux pratiques de Software Craftsmanship .
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Freelance

Mission freelance
Data Manager Senior

RIDCHA DATA
Publiée le
BI
Dataiku
ETL (Extract-transform-load)

1 an
380-500 €
Paris, France
🎯 1. Contexte du projet Une organisation du secteur assurance de personnes est en pleine transformation digitale avec : Migration vers Google Cloud Platform (GCP) Adoption de Dataiku pour la préparation des données 👉 Objectifs : Moderniser la plateforme Data Mettre en place une gouvernance data Accompagner les métiers dans l’exploitation des données 🧩 2. Missions principales🔹 Data Management Mise en place de la gouvernance des données Gestion de la qualité des données (Data Quality) Structuration et fiabilisation des flux de données 🔹 Data Engineering & BI Préparation des données avec Dataiku Traitement et intégration sur Google Cloud Platform Création de reporting et dashboards 🔹 Accompagnement au changement Formation des utilisateurs Aide à l’adoption des outils data Support et communication avec les équipes métiers 🛠️ 3. Compétences techniques attendues SQL / ETL / BI Plateforme Cloud : Google Cloud Platform Data préparation : Dataiku Gouvernance Data Data Quality 🧠 4. Compétences fonctionnelles Connaissances en assurance (vie, retraite, prévoyance) = un plus 👉 Sinon : capacité à comprendre rapidement un métier 🤝 5. Soft skills Autonomie Rigueur Bon relationnel
Freelance
CDI

Offre d'emploi
Consultant Salesforce (H/F)

HOXTON PARTNERS
Publiée le
Salesforce

6 mois
40k-45k €
400-450 €
Toulouse, Occitanie
Dans le cadre du renforcement de ses équipes internes, notre client recherche plusieurs Experts Salesforce afin d’intervenir sur des projets d’évolution et d’optimisation de la plateforme, sur différents sites en France. Cette mission est sur un format d'embauche ou de pré-embauche . Missions principales Participer à la conception et à l’évolution des solutions Salesforce en lien avec les équipes métiers et techniques Paramétrer et implémenter les modules Salesforce (Sales, Service, CPQ ou équivalents) Assurer un rôle de référent technique et fonctionnel sur la plateforme Contribuer aux choix d’architecture et aux bonnes pratiques de développement/configuration Accompagner les équipes internes dans l’appropriation des solutions
Offre premium
Freelance

Mission freelance
Développeur Sénior C# .Net - Azure / Terraform - H/F

INFOTEL CONSEIL
Publiée le
.NET
Azure
C#

6 mois
400-450 €
Le Mans, Pays de la Loire
Dans le cadre du départ d’un Software Engineer Senior au sein de l’équipe Produit Crédit, nous ouvrons un poste afin d’assurer la continuité des développements et accompagner les projets en cours. Le futur collaborateur rejoindra une équipe produit en charge du développement et de l’évolution des solutions liées aux produits crédit. Ses principales responsabilités seront : Concevoir, développer et maintenir les composants backend et les couches d’orchestration du système d’information Analyser les besoins métiers et proposer des solutions techniques adaptées Participer à la conception et au développement de nouvelles fonctionnalités Contribuer à la définition et à l’évolution des architectures backend Garantir la qualité, la maintenabilité et la performance du code Mettre en place et superviser les outils d’observabilité et de monitoring de la plateforme Participer à la résolution des incidents de production et à l’amélioration continue des systèmes Documenter les solutions techniques et partager les bonnes pratiques au sein de l’équipe Contribuer aux réflexions techniques collectives et aux initiatives d’innovation
Freelance

Mission freelance
Ingénieur de Production / SRE

Codezys
Publiée le
Ansible
Apache Tomcat
Cloud

12 mois
Antibes, Provence-Alpes-Côte d'Azur
Vous êtes chargé(e) de garantir la maintenance en condition opérationnelle des services, le respect des SLA et la amélioration continue de ceux-ci, en collaboration étroite avec les équipes métiers, infrastructure et delivery. Missions principales Supervision, exploitation et optimisation des applications et des infrastructures Gestion des incidents , analyses des causes racines et mise en place de mesures préventives Automatisation des déploiements et de l’infrastructure à l’aide de pratiques telles que CI/CD, IaC et Kubernetes Gestion des environnements (recette, préproduction, production) Suivi des performances , capacity planning et maintien de la haute disponibilité Documentation, reporting et démarche d’amélioration continue selon les processus ITIL/DevOps Livrables attendus Traitement et suivi rigoureux des tickets Jira conformément aux processus de la DSI Rédaction et mise à jour régulière de la documentation d’exploitation Contraintes majeures du projet Forte résistance au stress et capacité à gérer efficacement les priorités Polyvalence et esprit d’équipe Capacité à adapter les gestes d’exploitation grâce à une bonne compréhension fonctionnelle
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

1614 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous