Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 1 630 résultats.
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Offre premium
Freelance

Mission freelance
Ingénieur Netdevops

SKILL EXPERT
Publiée le
Agile Scrum
Ansible
API

3 ans
550-600 €
Guyancourt, Île-de-France
Missions Pour l’un de nos clients, vous intervenez sur des missions à forte valeur ajoutée en tant qu’Ingénieur NetDevOps. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Automatisation : Contribuer activement aux actions d’automatisation et de fiabilisation des infrastructures. Qualité & Revues : Opérer les revues de code et garantir l'application des bonnes pratiques d'intégration. Expertise technique : Réaliser des présentations techniques et assurer une veille technologique constante. Exploitation & Projets : Intervenir sur l'ensemble des environnements (de l’intégration à la production) en traitant les aspects techniques et fonctionnels. Agilité : Évoluer et collaborer au sein d'un environnement en mode Agile (Scrum). Compétences Techniques : Infrastructure & Cloud : Maîtrise d'Openshift et des concepts d'Infrastructure-as-Code. Réseau & Sécurité : Expertise CNI (Cilium de préférence), Load balancing, DNS, Firewalls et Active Directory. Développement & Automatisation : Solides connaissances en Python, Ansible (AAPv2), Framework Django et modélisation dans Nautobot. DevOps : Maîtrise de Git, des pratiques CI/CD et de la conception d'API. Supervision : Connaissance des solutions type Icinga, Zabbix ou IMC.
Freelance

Mission freelance
DBA expérimenté SQL / Mongo DB/ AWS (H/F)

ADSearch
Publiée le
AWS Cloud
Mongodb
SQL

3 mois
Île-de-France, France
Contexte du poste Dans le cadre du renforcement de son équipe technique, notre client recherche un DBA expérimenté capable de gérer, sécuriser et optimiser des bases de données relationnelles (SQL) et NoSQL (MongoDB) dans un environnement cloud AWS à forte volumétrie et criticité. Missions principalesAdministration & exploitation Administrer et maintenir les bases de données SQL (MySQL, PostgreSQL, SQL Server, Oracle…) et MongoDB Assurer la disponibilité , la performance et la fiabilité des bases de données Mettre en œuvre les stratégies de sauvegarde, restauration et PRA Gérer les montées de version, patchs et migrations Performance & optimisation Analyser et optimiser les requêtes SQL et les index Surveiller les performances et anticiper les problèmes de capacité Mettre en place des mécanismes de scalabilité (replication, sharding, clustering) Sécurité & conformité Gérer les droits d’accès, rôles et politiques de sécurité Mettre en œuvre le chiffrement des données (at rest / in transit) Garantir la conformité aux bonnes pratiques (RGPD, sécurité cloud) Cloud & DevOps (AWS) Administrer les services AWS liés aux bases de données : RDS, Aurora, DynamoDB, EC2, S3 Automatiser les déploiements et la supervision (Terraform, CloudFormation, scripts) Collaborer avec les équipes DevOps et applicatives Collaboration & support Accompagner les équipes de développement (conseils schéma, requêtes, bonnes pratiques) Participer aux revues techniques et à l’amélioration continue Rédiger la documentation technique Compétences techniques requisesBases de données Excellente maîtrise d’au moins un SGBD SQL Très bonne connaissance de MongoDB Concepts avancés : réplication, haute disponibilité, partitionnement Cloud & outils Solide expérience sur AWS Supervision : CloudWatch, Prometheus, Grafana (ou équivalents) Scripting : Bash, Python Outils CI/CD et Infrastructure as Code appréciés
Freelance

Mission freelance
Expert Observabilité Datadog

Comet
Publiée le
AWS Cloud
Datadog
Grafana

12 mois
400-550 €
Île-de-France, France
Compétences techniques : Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
CDI

Offre d'emploi
Responsable services managés / administration SAP (SAP BC)

Signe +
Publiée le

80k-100k €
Paris, France
En tant que Responsable Services Managés SAP F/H, vous êtes au cœur de la stratégie de delivery SAP technique. Vous pilotez les activités de la BU sur les Services Managés SAP, accompagnez les clients sur leurs environnements SAP, et fédérez une équipe d'experts répartie entre la France et l'Espagne pour garantir l'excellence des services délivrés. Dans le cadre de vos missions de pilotage : • Assurer la satisfaction client en animant la relation au quotidien et en garantissant la qualité des services délivrés. • Structurer et faire évoluer les processus de delivery pour garantir qualité, performance et satisfaction client • Piloter l'activité : gestion RH (recrutement, suivi des collaborateurs, définition des objectifs), planification opérationnelle et montée en compétences. • Coordonner et animer une équipe bi-pays composée de consultants, ingénieurs systèmes SAP, experts Cloud et référents techniques • Suivre la performance financière de la BU : facturation, suivi du P&L, optimisation de la rentabilité. • Contribuer au développement commercial : analyse des besoins clients, avant-vente, chiffrages, rédaction et soutenance des offres. • Faire évoluer l'offre de services managés SAP afin de répondre aux exigences des clients et l'évolution du marché • Participer à la contractualisation des prestations et aux négociations associées. Dans le cadre de vos missions d'expertise technique et de conseil : • Intervenir en tant qu'expert SAP sur les sujets d'architecture, d'administration et de déploiement (OnPremise, Cloud, RISE). • Piloter des projets techniques SAP : migration vers le cloud, upgrades, mise en œuvre de SAP RISE, déploiements SAP BTP. • Piloter la delivery des services managés SAP • Accompagner techniquement les clients dans la gestion et l'évolution de leurs environnements SAP. • Assurer une veille technologique constante sur les innovations SAP pour alimenter notre vision stratégique. Référence de l'offre : n1ni035i8a
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Freelance

Mission freelance
Data Engineer (1j/ semaine à Toulouse)

Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL

1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Freelance
CDI

Offre d'emploi
Architecte Logiciel Java / JEE

CAT-AMANIA
Publiée le
API REST
Git
Hibernate

2 ans
40k-58k €
400-600 €
Bordeaux, Nouvelle-Aquitaine
Architecte logiciel spécialisé en environnement Java/JEE, vous concevez et pilotez l’architecture des applications du système d’information en garantissant performance, sécurité et exploitabilité. Vous accompagnez les équipes projets dans la définition, la validation et l’évolution des architectures, notamment lors des migrations techniques (Java 8 vers Java 17, adoption de Spring Boot, conteneurisation). Référent technique, vous encadrez l’utilisation des frameworks Java (Spring, Spring Batch, JPA/Hibernate, CXF) et des technologies associées (API REST/SOAP, JMS), tout en veillant au respect des bonnes pratiques et des standards (revues de code, qualité logicielle, gestion des dépendances). Vous intervenez sur des problématiques complexes, contribuez à l’amélioration continue des environnements (Jenkins, Maven, Git, PostgreSQL, JBoss) et accompagnez l’intégration de solutions innovantes, notamment autour de l’intelligence artificielle.
CDI
Freelance

Offre d'emploi
Ingénieur Devops

NETSEC DESIGN
Publiée le
DevOps
Google Cloud Platform (GCP)

3 ans
45k-70k €
400-600 €
Boulogne-Billancourt, Île-de-France
Nous recherchons, pour notre client final grand compte, un Ingénieur DevOps Digital Backbone afin d’intervenir sur la plateforme Digital Backbone . La prestation s’inscrit dans le cadre du chapitre DevOps , dont le référent est le SDL (Solution Delivery Lead) , et se fera en collaboration étroite avec le Product Owner de l’équipe Digital Backbone . Activités attendues : Déploiement des composants et services liés au projet Digital Backbone à l’aide d’outils d’Infrastructure as Code (Ansible, Terraform). Mise en place de pipelines CI/CD afin d’automatiser le déploiement des services, de l’environnement de développement jusqu’à la production. Contribution au support opérationnel (RUN) et à la résolution des incidents en cas de dysfonctionnement. Implémentation du monitoring et des alertes pour la plateforme Digital Backbone. Rédaction et mise à jour de la documentation technique. Gestion des aspects sécurité et FinOps (optimisation des coûts) des environnements du projet. Garantie de la sécurité des processus de développement et de déploiement, en mettant en place des contrôles appropriés pour protéger les données et les actifs de l’entreprise. Livrables : Scripts et configurations permettant l’automatisation du déploiement des services. Pipelines CI/CD conformes aux exigences de sécurité et aux recommandations du chapitre DevOps. Documentation technique des composants d’infrastructure ainsi que des chaînes CI/CD. Tableaux de bord de monitoring des services Digital Backbone.
Freelance

Mission freelance
Tech Lead Java/ Azure devOps

Codezys
Publiée le
Java
React
Spring

12 mois
France
Contexte du poste Équipe Gaia intervenant sur un périmètre vaste incluant : Plus d’une trentaine d’applicatifs sur Azure pour le projet INFOGREFFE Plus d’une trentaine d’applications hébergées chez Docaposte Environ une trentaine d’applicatifs complémentaires sur Azure Une quinzaine de batchs de centralisation Environnement technique complexe et hybride (Azure et Legacy) Enjeux de qualité, d’intégration et de coordination transverse avec plusieurs équipes : Gaia, Atlas, Orion, TMA Legacy, etc. Objectifs et livrables Occupant le rôle de Tech Lead Contribuer à la conception technique Piloter les bonnes pratiques de développement Résoudre des problématiques complexes Coordonner les sujets techniques au sein de Gaia et de Docaposte Responsabilités Leadership technique : Concevoir et documenter des solutions techniques complexes ou transverses Participer aux comités d’architecture Garantir la cohérence des choix techniques et la qualité des livrables Assurer le relais technique avec les équipes Atlas et TMA Legacy Résoudre les blocages liés à Azure et Legacy (pipelines, interconnexions, outils) Réaliser des Proof of Concept (POC) pour améliorer la technique Présenter les revues techniques de fin de sprint Encadrement et accompagnement technique : Mettre à jour et assurer la qualité de la documentation technique Soutenir l’équipe dans la résolution d’anomalies complexes Veiller au respect des normes de codage et des bonnes pratiques Valider les conceptions détaillées sur Azure et Legacy Transversalité et support Docaposte : Garantir une qualité homogène entre les différents contextes Apporter un soutien opérationnel en DevOps, conception, livraison, debugging Contribuer à l’optimisation des chaînes CI/CD, notamment sur Azure DevOps Favoriser la coordination entre les équipes Build et TMA Conseiller équipes projet et clients internes sur les orientations techniques Participer à la mise en place d’automatisations (tests, campagnes, industrialisation) Contribuer à la démarche qualité (tests automatisés, fiabilisation des déploiements)
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance

Mission freelance
Expert Cybersécurité (F/H)

CELAD
Publiée le

1 an
700-750 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Expert Cybersécurité / Assistant RSSI pour intervenir chez un de nos clients dans le secteur bancaire. Voici un aperçu détaillé de vos missions : Au cœur des enjeux de sécurité, vous interviendrez sur des sujets à forte visibilité, mêlant gouvernance, architecture et conformité : Produire des avis de sécurité en analysant les architectures (réseau, IAM, Cloud, CI/CD…) Évaluer la conformité aux référentiels internes (PSSI) et aux standards de sécurité Proposer des mesures correctives adaptées (durcissement, contrôles, configurations sécurisées…) Décliner la PSSI en exigences techniques et fonctionnelles opérationnelles Définir et maintenir des standards de sécurité (Cloud, infra, pratiques DevSecOps…) Participer à la sécurisation des appels d’offres (RFP) : intégration des exigences, analyse des réponses fournisseurs, scoring sécurité Piloter la gestion des PAS (Plans d’Assurance Sécurité) auprès des partenaires et fournisseurs Assurer le suivi des écarts et plans de remédiation Maintenir une documentation claire et exploitable par les équipes
Freelance

Mission freelance
Backend developer

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous intégrerez une équipe IT internationale composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA, ainsi que de spécialistes en run et monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud, déployée sur nos sites en France et en Europe. En tant que Backend Developer, vous rejoindrez l’équipe backend située dans la région lyonnaise. Cette équipe allie une solide expérience, une forte culture du partage des connaissances et une curiosité technologique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution continue de la plateforme, ainsi qu’à la fiabilité à long terme de nos services IoT. Objectifs et livrables Développement de services backend et d’API en C# / .NET, en respectant les bonnes pratiques et les standards de qualité. Participation aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives. Amélioration continue de notre plateforme cloud Azure : mise à jour des frameworks, gestion des composants en fin de vie, conformité sécurité. Soutien aux méthodes de travail DevOps, Cloud et Agile. Exploration technologique pour identifier et intégrer les innovations pertinentes en collaboration avec les architectes, dans notre plateforme IoT. Autonomie dans l'exécution des tâches, tout en collaborant étroitement avec l’équipe pour affiner les besoins et proposer des solutions adaptées.
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
Développeur Full Stack Java / React (H/F)

HOXTON PARTNERS
Publiée le
Java
React
Springboot

1 an
290-350 €
Lille, Hauts-de-France
Nous recherchons un Développeur Full Stack pour intervenir sur un projet de développement applicatif au sein d’un environnement technique moderne. La mission s’inscrit dans un programme de transformation nécessitant des compétences solides en développement back-end et front-end. Missions principales Concevoir et développer des fonctionnalités back-end en Java avec Spring Boot. Développer des interfaces front-end performantes en React. Participer à la conception technique et aux choix d’architecture. Contribuer à l’intégration et au traitement des flux de données via Kafka. Intervenir sur des environnements cloud (GCP ou AWS). Assurer la qualité du code et participer aux tests et à la maintenance évolutive. Environnement technique Back-end : Java 21+, Spring Boot Front-end : React Cloud : GCP / AWS Data & Streaming : Kafka

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

1630 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous