Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud à Saint-Denis

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 8 résultats.
Freelance

Mission freelance
Expert Cloud Azure

Publiée le
Automatisation
Azure
Cloud

12 mois
600-680 €
Saint-Denis, Île-de-France
Nous recherchons un Expert Cloud Azure confirmé pour accompagner la mise en œuvre et l’optimisation des infrastructures cloud. Vous serez intégré à l’équipe infrastructure/cloud et interviendrez en étroite collaboration avec les architectes, développeurs et responsables métiers. Mission : Architecte Cloud Azure Réaliser le provisionning des nouvelles ressources. Automatiser le provisionning . Optimiser les ressources cloud en termes de coûts, de performance et de résilience . Challenger les architectures applicatives et les fonctions azure utilisées. Implémenter les bonnes pratiques de sécurité et de gouvernance ( RBAC , Azure Policies, Azure Blueprints…). Automatiser les déploiements via des outils comme Terraform , ARM Templates ou Bicep Assurer une veille technologique constante sur l’écosystème Azure Assurer le MCO Azure Support N3
Freelance

Mission freelance
Développeur Back-end Java AWS (H/F)

Publiée le
AWS Cloud
Gitlab
Java

12 mois
500-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Contexte Intégré à une Feature Team Agile , vous interviendrez sur des applications backend en production à forts enjeux de stabilité et de performance. La mission s’inscrit dans un contexte de maintien en haute performance des systèmes existants , avec un rôle clé dans la transmission de l’expertise métier vers les équipes en charge de la nouvelle plateforme. Missions Excellence opérationnelle & MCO Assurer le run et les évolutions des briques historiques Diagnostiquer et corriger des incidents de production complexes en environnement distribué Contribuer à un objectif de MTTR < 1h et à l’absence de régression critique Qualité & refactoring Appliquer des standards de qualité modernes (clean code, pyramide des tests) sur du code existant Augmenter la couverture de tests automatisés afin de sécuriser les livraisons fréquentes Transmission & knowledge management Documenter les règles de gestion complexes (tarification, billettique, spécificités régionales) Collaborer avec les équipes en charge de la nouvelle plateforme afin d’expliquer le fonctionnement actuel et faciliter la migration future Livrables Fonctionnalités backend conçues, développées et maintenues en environnement de production Corrections d’incidents et améliorations garantissant la stabilité applicative Code sécurisé et fiabilisé via des tests automatisés Documentation technique et fonctionnelle facilitant la transmission de connaissances Contributions continues à l’amélioration de la qualité et des pratiques de l’équipe Environnement technique Java : 11 / 17 (connaissance de Java 21 appréciée) Frameworks : Spring Boot, Spring Batch Architecture : services distribués, REST API, SOAP (legacy), MongoDB Cloud : AWS, Lambda CI/CD & outils : Git, GitLab CI, Jenkins, Sonar, Datadog Méthodologie : Agile (Scrum / Kanban), pratiques DevOps Compétences clés Obligatoires : Java, GitLab, AWS. Importantes : Spring Boot, Docker, API, connaissance des environnements de production. Intéressantes : Kotlin, NodeJS.
Offre premium
Freelance

Mission freelance
Formateur IT - BTS SIO SISR

Publiée le
Administration systèmes et réseaux
AWS Cloud
Scripting

3 mois
260-300 €
Saint-Denis, Île-de-France
Bonjour, Dans le cadre de la recherche pour une de nos marques en interne. Nous avons besoin d'un Formateur Technique qui a déjà eu une expérience professionnelle significative en administration systèmes/réseaux ou sécurité informatique et une expérience en formation est obligatoire en BTS SIO SISR. C'est une mission à temps partiel tous les mercredis et les jeudis . Compétences techniques indispensables: Systèmes : Windows Server, Linux (Ubuntu/Debian), AD, GPO Réseaux : VLAN, routage, firewall, VPN, services réseaux Supervision : Centreon, Zabbix, Nagios Virtualisation : VMware, Hyper-V, Proxmox Cloud : Azure (idéal), AWS (apprécié) Cybersécurité : Hardening, pare-feu, IDS/IPS, analyse de logs Scripts : Bash, PowerShell Outils : Git, Docker (bonus), GLPI, OCS, Visio /
Freelance

Mission freelance
Expert Azure Data Factory F/H - 3 mois

Publiée le
Azure Data Factory
ETL (Extract-transform-load)

3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Freelance

Mission freelance
Data Engineer Scala/Spark.

Publiée le
Azure
Databricks
Datadog

1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Freelance
CDI

Offre d'emploi
Développeur .NET

Publiée le
.NET
.NET CORE
Angular

6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Nous accompagnons un acteur majeur du secteur de l'Assurance / Assistance dans le cadre du renforcement de ses équipes techniques à Saint-Denis . Nous recherchons un Développeur Sénior .NET pour intervenir sur un projet stratégique . Missions et Responsabilités Au sein d'une équipe agile et en collaboration directe avec le Chef de Projet, vous aurez pour missions : Conception Technique : Définir et mettre à jour les solutions cibles pour répondre aux besoins métiers. Développement : Faire évoluer les composants et applications existantes (WebAPI, services REST/SOAP). Qualité de code : Garantir un haut niveau de qualité via des tests unitaires/intégration et le suivi des métriques de code. Recette et Mise en production : Valider les solutions en environnement de test, corriger les anomalies et assurer le support post-production. Documentation : Rédiger et maintenir à jour la documentation technique. Environnement Technique Frameworks : .NET Framework (4.6+), .NET Core (3.1+), ASP.NET. API : WebAPI, architecture REST et SOAP. Base de données : PostgreSQL. Cloud & DevOps : MS Azure, Azure DevOps (Git), intégration continue (CI/CD). Méthodologie : Agile. Bonus : Expérience en développement d'IHM (.NET ou Angular).
Freelance

Mission freelance
Tech Lead Senior - H/F - 93

Publiée le
Agile Scrum
Amazon S3
Ansible

12 mois
Saint-Denis, Île-de-France
Dans le cadre du projet de refonte et d’évolution d’une application métier dans le domaine ferroviaire / industriel, nous recherchons un Tech Lead pour piloter l’équipe technique et garantir la qualité des solutions développées. Ce rôle clé allie expertise technique, leadership et collaboration transverse avec les chefs de projet et les équipes métiers. Le projet repose sur une stack technique moderne (Python, FastAPI, PostgreSQL/PostGIS, AWS, Kubernetes) et s’inscrit dans une démarche Agile/Scrum. Le Tech Lead sera responsable de l’architecture, de la performance des services back-end, et de l’amélioration continue des processus de développement. Leadership technique & Architecture Concevoir et valider l’architecture technique des solutions (back-end, BDD, ETLs). Superviser les revues de code (Python) et garantir le respect des bonnes pratiques. Optimiser les performances des services back-end (FastAPI, SQLAlchemy). Piloter les déploiements sur les environnements (dev, recette, prod) via Jenkins, AWS (S3/RDS), Ansible, Kubernetes. Automatiser les tests et les pipelines CI/CD. Encadrement & Collaboration Mentorer les développeurs et développeuses pour favoriser leur montée en compétences. Participer aux cérémonies Agile (sprints, rétrospectives) et contribuer à l’amélioration des processus. Travailler en étroite collaboration avec les chefs de projet pour aligner les roadmaps techniques et fonctionnelles. Assurer une veille technologique et proposer des innovations (outils, frameworks, bonnes pratiques). Gestion des infrastructures & Qualité Administrer les outils DevOps (Jenkins, AWS, Helm, Datadog). Documenter le code et les processus techniques. * Garantir la stabilité et la scalabilité des applications en production.
Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

8 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Saint-Denis, Île-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous