Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 1 620 résultats.
Freelance

Mission freelance
Consultant Power BI/Azure Data Factory

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI

1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Freelance

Mission freelance
Concepteur Développeur

Coriom Conseil
Publiée le
Java
Spring
Springboot

12 mois
400-520 €
Lille, Hauts-de-France
Application qui utilise le nouveau framework Compétences techniques Java 8, 21, 23 - Expert - Impératif Spring (mvc security ect..) - Expert - Impératif Spring boot - Expert - Impératif Struts - Confirmé - Souhaitable Connaissances linguistiques: Français Courant (Impératif) Description détaillée La solution permet de gérer le processus de la Négociation et Contractualisation avec les fournisseurs, et réalise la génération des éléments de facture contractualisés. . Le client démarre le projet de sécurisation et traitement de l'obsolecence de l'application: cette application doit être réécrite sur un framework moderne et sécurisé. l'activité principale de cette réécriture va être de remplacer le framework STRUTS 1 par la dernière version de SPRINGBOOT.
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Architecture Solution - Expert Cloud AWS

Codezys
Publiée le
Amazon S3
AWS CloudFormation

12 mois
Malakoff, Île-de-France
Accompagnement sur l’identification, la rédaction et l’adoption de patterns d’architecture : ce rôle vise à harmoniser les pratiques architecturales, améliorer la cohérence technique entre les différents projets, et assurer la conformité des solutions aux standards internes. Le périmètre couvre les environnements Cloud (notamment AWS) ainsi que les infrastructures on-premise. L’architecte pourra également être sollicité pour accompagner ponctuellement des projets clients, en apportant une expertise approfondie en architecture ou en participant à la mise en œuvre concrète des patterns définis. LOGISTIQUE : Localisation : Malakoff Date de début : 9 mars 2026 Date de fin prévue : 15 septembre 2026 (renouvelable) Niveau de séniorité : Expert Panel concerné : Transformation Type de prestation : Expertise – Intégration – Conseil Certifications requises : AWS Solutions Architect Objectifs et livrables : Environnement technique de la prestation : Cloud public (AWS) et solutions SaaS Cloud privé on-premise Plateformes de virtualisation et de conteneurisation Middleware de streaming et d’intégration Écosystèmes DevOps et CI/CD Environnement industriel Prestation attendue : Rédaction et évolution des patterns : Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (Cloud AWS, infrastructures on-premise, solutions hybrides, réseaux, sécurité, data…) Garantir la cohérence des patterns avec les standards de l’entreprise et les contraintes opérationnelles Collaborer avec les experts techniques pour valider la pertinence, la maturité et la faisabilité des patterns Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Travailler en étroite collaboration avec les équipes d’infrastructure, réseau, sécurité et DevOps Support et accompagnement des projets : Fournir un soutien architectural lors de certains projets clients Aider à l’adoption des patterns définis Participer à des revues d’architecture (design reviews, comités d’architecture…) Conseiller les équipes projets pour garantir le respect des bonnes pratiques et des standards architecturaux
Freelance

Mission freelance
Senior DevOps Engineer

Codezys
Publiée le
Azure
Github
Terraform

6 mois
Barcelone, Catalogne, Espagne
Contexte de la mission Détails du projet : Lieu : Europe (Fuseau horaire CET) Mode de travail : Télétravail complet ou hybride (Barcelone, Espagne) Date de démarrage : 1er avril Durée : 6 mois Possibilité de prolongation : Oui, jusqu’à 3 mois supplémentaires Langues : Anglais, Espagnol (souhaité mais pas obligatoire) Résumé du projet Le rôle de Senior DevOps Engineer est axé sur l’observabilité, avec pour mission principale la migration des systèmes de monitoring de Splunk vers New Relic. Il s’agit également de définir, mettre en place et faire respecter les standards, la gouvernance et les bases techniques relatives à l’observabilité à travers diverses plateformes. Objectifs et livrables Responsabilités principales et activités clés : Diriger la migration des outils de monitoring de Splunk vers New Relic Concevoir et mettre en œuvre la gouvernance de New Relic (structure des comptes, tagging, alertes, dashboards, SLOs) Définir et promouvoir les bonnes pratiques en matière d’observabilité au sein des équipes d’ingénierie Implémenter des fonctionnalités d’observabilité (logs, APM, infrastructure, tracing, synthetics, intégrations) Collaborer avec les équipes applicatives pour l’intégration et le instrumentation des services Automatiser les configurations d’observabilité à l’aide de Terraform et les intégrer dans les workflows CI/CD via GitHub Fournir une expertise technique sur Azure, Terraform, GitHub Actions et les pratiques d’observabilité Aligner la surveillance et les alertes avec les SLIs/SLOs Soutenir l’amélioration continue des opérations, de la fiabilité, de la performance et de la sécurité
Freelance

Mission freelance
Développeur Python / Full‑Stack orienté AWS

Tenth Revolution Group
Publiée le
AWS Cloudwatch
Python

3 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Notre client une startup basée à Lyon , accélère la mise en place d’une architecture microservices pour ses produits data/scientifiques. Nous recherchons un(e) Développeur(euse) Python orienté AWS (SQS/SNS) pour renforcer l’équipe et livrer des services robustes et scalables. Votre mission Concevoir, développer et maintenir des microservices Python (API, workers, traitements asynchrones). Mettre en œuvre des patterns event‑driven sur AWS ( SQS/SNS , DLQ, retries/backoff, idempotence, FIFO vs Standard). Contribuer à l’industrialisation : CI/CD , conteneurisation, observabilité (logs/métriques/alertes). Collaborer avec les équipes Produit/Data/Scientifiques pour cadrer les besoins et livrer vite et bien. Partager les bonnes pratiques : tests, revues de code, qualité et sécurité. Stack & environnement Back : Python (FastAPI/Flask/Django), Pydantic, tests (Pytest), typing. AWS : SQS, SNS , (Lambda/ECS/EKS en plus, c’est un plus), CloudWatch. Architecture : Microservices , REST/async, event‑driven . Industrialisation : Docker, GitHub/GitLab CI, monitoring/observabilité. Bonus : notions React/TypeScript (front léger), OpenTelemetry, IaC (CDK/CloudFormation/Terraform).
Freelance
CDI
CDD

Offre d'emploi
Développeur /DevOps Senior (H/F)

HELPLINE
Publiée le
Azure
Java
MySQL

1 an
40k-45k €
400-550 €
Nice, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre du renforcement d’une plateforme digitale stratégique, notre client recherche un Tech Lead / Développeur - DevOps Senio r (H/F) pour intervenir au sein d’une équipe technique gérant un écosystème applicatif complexe et hybride. L’environnement couvre plusieurs dizaines d’applications hébergées sur Azure ainsi que des systèmes legacy , avec de forts enjeux de fiabilité, qualité logicielle et coordination entre équipes techniques . Missions : 1-Leadership technique Concevoir et documenter les solutions techniques sur des problématiques complexes Participer aux comités d’architecture et aux décisions techniques Garantir la cohérence des choix techniques et la qualité des livrables Identifier et résoudre les problématiques techniques transverses Réaliser des Proof of Concept (POC) pour améliorer les pratiques ou les outils Présenter les revues techniques de fin de sprint 2-Encadrement technique Accompagner les développeurs dans la résolution d’incidents et anomalies complexes Superviser les revues de code et l’application des bonnes pratiques Valider les conceptions techniques détaillées Maintenir une documentation technique claire et à jour 3-DevOps : Contribuer à la mise en place et à l’optimisation des chaînes CI/CD Participer à l’amélioration des processus de déploiement et d’automatisation Collaborer avec les équipes DevOps et exploitation pour sécuriser les mises en production
Freelance

Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira

WorldWide People
Publiée le
Azure
Cloudera

12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Freelance
CDI

Offre d'emploi
Développeur Java Spring F/H

ADDIXWARE
Publiée le
Java
Springboot

1 an
38k-41k €
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte & Missions Dans le cadre de notre croissance, nous recherchons un Développeur Java / Spring confirmé pour renforcer notre équipe de développement. Vous interviendrez sur des projets applicatifs à forte valeur ajoutée, alliant performance, qualité de code et innovation technique. Vos principales responsabilités : - Concevoir, développer et maintenir des applications Java / Spring Boot - Participer à la définition de l'architecture et aux choix techniques - Mettre en oeuvre des API REST robustes, performantes et sécurisées - Contribuer aux revues de code, à la qualité logicielle et à la mise en place de bonnes pratiques - Collaborer étroitement avec les équipes Produit, QA et Ops - Participer à l'amélioration continue : optimisation, refactoring, automatisation - Travailler en méthodologie Agile (Scrum) au sein d'une équipe dynamique Stack technique Java 11+, Spring Boot, Spring MVC, Spring Data, Hibernate API REST, JSON Maven ou Gradle Docker, CI/CD (GitLab, Jenkins...) PostgreSQL / MySQL / Oracle Outils : Git, Jira, Confluence Connaissances appréciées : microservices, Kubernetes, cloud (AWS / Azure)
CDI

Offre d'emploi
Data Engineer - GCP - CDI

Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery.  Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins  Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
CDI

Offre d'emploi
Responsable de Production & Infrastructure IT

BLOOMAYS
Publiée le
AWS Cloud

54k-65k €
Puteaux, Île-de-France
Rattaché·e à la DSI, vous êtes garant·e de la performance, de la fiabilité et de l’évolution des infrastructures IT du groupe (environnements siège et succursales). Vous intervenez dans un contexte multi-sites (100+ entités), avec une forte composante cloud (AWS) et un écosystème majoritairement SaaS. Votre rôle est double : Assurer une production robuste, sécurisée et industrialisée. Apporter une véritable hauteur de vue technique pour challenger partenaires, équipes internes et choix d’architecture. Vos responsabilités principales 1. Pilotage de la production & du support Garantir la disponibilité, la performance et la sécurité des infrastructures (principalement AWS). Superviser l’activité support (300 à 400 tickets/mois, majoritairement N1/N2) et poursuivre l’automatisation des processus (on/offboarding, IAM, workflows). Mettre en place et suivre les indicateurs de performance, de supervision et de qualité de service. Industrialiser les environnements dans une logique de standardisation et de duplication (modèle multi-sites). 2. Architecture & gouvernance technique Co-construire avec la DSI la stratégie d’architecture (cloud, réseau, sécurité, interconnexions SaaS). Challenger les choix techniques (stacks, bases de données, évolutions d’infrastructure, gestion des obsolescences). Assurer la cohérence entre les besoins applicatifs (équipes produit/dev) et les contraintes d’infrastructure. Apporter une réelle capacité de décision technique et éviter les logiques de “passe-plat” entre équipes et infogérants. 3. Pilotage des partenaires & infogérants Encadrer les prestataires (hébergeurs, SRE, infogérants AWS, éditeurs SaaS). Challenger les recommandations, maîtriser les coûts, sécuriser les engagements (SLA). Garantir un haut niveau d’exigence dans l’exécution et la qualité des livrables. 4. Projets & transformation Participer activement aux projets structurants (évolution d’architecture, modernisation, sécurité, intégration de nouvelles solutions, POC IA). Contribuer à l’amélioration des pratiques (processus, CI/CD, gouvernance technique). Intégrer les enjeux de sécurité et de scalabilité dans chaque décision. Équipe & organisation Vous encadrez une petite équipe composée notamment : de profils support (alternants et technicien), d’un administrateur systèmes & réseaux, en interaction étroite avec un SRE externe et les équipes de développement produit. L’environnement est agile, réactif et orienté delivery court. La rigueur est attendue, mais sans lourdeur excessive de type cycle en V.
Freelance
CDI

Offre d'emploi
Développeur Kafka Confluent (H/F)

SAS GEMINI
Publiée le
Apache Kafka
Azure
DevOps

24 mois
La Défense, Île-de-France
Au sein de la DSI d’un grand groupe industriel international, vous intégrez une équipe Data & Streaming en charge de la conception et de l’exploitation de la plateforme de streaming de données temps réel. L’environnement technique est centré sur Apache Kafka (Confluent Platform) déployé sur Microsoft Azure. Missions principales: - Concevoir, développer et maintenir les pipelines de streaming de données basés sur Apache Kafka (Confluent Platform) sous Azure - Assurer la mise en place et l’administration des clusters Kafka : topics, partitions, consumers, connecteurs (Kafka Connect) - Développer des applications de traitement en temps réel avec Kafka Streams ou ksqlDB - Implémenter et gérer les schémas de données via le Schema Registry (Avro, Protobuf, JSON Schema) - Participer à la mise en place de patterns d’intégration événementielle (Event-Driven Architecture) - Monitorer les performances et la fiabilité des flux Kafka (Confluent Control Center, Grafana, Azure Monitor) - Collaborer avec les équipes Data Engineering, DevOps et Architecture dans un contexte Agile - Rédiger la documentation technique en anglais
CDI
Freelance

Offre d'emploi
Head of CRM / Salesforce

AVA2I
Publiée le
Salesforce

3 ans
Île-de-France, France
Dans le cadre du renforcement de sa stratégie digitale et de la structuration de son modèle CRM, un groupe international recherche un Head of CRM Competency Center . Le poste est rattaché à une division Digital & AI / Technology & Operations et basé à La Défense . Ce rôle stratégique vise à définir, piloter et gouverner la stratégie CRM à l’échelle du groupe , couvrant plusieurs lignes métiers (activités commerciales, services financiers, support client), dans un environnement international et multi-activités. Objectifs du poste Définir et porter une vision CRM groupe cohérente, scalable et orientée business Rationaliser et consolider les environnements CRM existants Maximiser la valeur métier des plateformes CRM pour les équipes Sales, Marketing et Service Mettre en place une gouvernance CRM robuste et pérenne Structurer et piloter un CRM Competency Center transverse Responsabilités principalesStratégie & gouvernance CRM Définir la stratégie CRM globale et la roadmap associée Mettre en place une gouvernance CRM groupe (processus, comités, KPI, standards) Assurer l’alignement entre les besoins métiers et la stratégie IT Porter la vision CRM auprès des instances de direction Pilotage des plateformes CRM Superviser la rationalisation et la consolidation des environnements Salesforce Piloter et maintenir un CRM legacy basé sur Odoo Garantir la cohérence fonctionnelle, la qualité des données et la sécurité Assurer l’intégration du CRM avec le SI global (ERP, data, outils métiers) Delivery & opérationnel Encadrer et animer une équipe transverse de delivery CRM (internes et partenaires) Prioriser et piloter les projets et évolutions CRM Garantir le respect des délais, budgets et niveaux de qualité Superviser les partenaires/intégrateurs CRM Relation métiers & conduite du changement Travailler en étroite collaboration avec les directions Sales, Marketing et Service Client Accompagner l’adoption des solutions CRM (change management, communication, formation) Mesurer la performance et la valeur business générée par le CRM Leadership & influence Interagir avec des parties prenantes exécutives (C-level, directions métiers) Jouer un rôle de référent CRM groupe Fédérer les équipes autour d’une vision commune
CDI
Freelance

Offre d'emploi
Développeur FullStack .Net/Angular

VISIAN
Publiée le
.NET
Angular
API

3 ans
40k-60k €
400-550 €
Paris, France
Contexte Au sein d'une organisation internationale, l'équipe prend en charge toutes les demandes et besoins IT de toutes les BU qui n'ont pas d'équipes de DEV dédiées (Ex: HR, Legal, Audit, Sécurité, IS, Communication…). En résulte un panel fonctionnel et technique large et varié nécessitant des profils avec une bonne capacité d'analyse et de compréhension, en plus des qualités techniques recherchées. Descriptif du poste Vous interviendrez comme développeur au sein d'une équipe de 10 à 12 personnes, sur les différentes applications du périmètre. Ces applications s'appuient sur les technologies suivantes : C# Angular Python Clouds Azure et AWS SQL & NoSQL databases (SQL Server, Postgres, CosmosDB, etc.) Une attention particulière sera donnée au Clean Code et Software craftsmanship.
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Freelance
CDI

Offre d'emploi
Concepteur Applicatif Java - Paiement

VISIAN
Publiée le
Java
Spring

1 an
Lille, Hauts-de-France
Contexte La Team est en charge de réaliser le Build/Run sur les produits autour du paiement. Une nouvelle application doit être développée pour traiter une nouvelle activité. Il s'agit d'une écriture from scratch. Le projet est mené en méthode Agile. Une grande autonomie et une capacité à proposer des solutions sont demandées pour cette prestation. Missions Nous recherchons un concepteur sur les applications du produit pour assurer la conception applicative et technique des évolutions souhaitées, ainsi que des propositions sur la réalisation dans un contexte métier innovant. Une autonomie et une force de proposition sont demandées pour cette prestation. Le profil devra avoir des compétences techniques fortes, avec un très bon niveau d'expertise technique (produit, base de données, APIs, ...). Il devra comprendre les besoins fonctionnels issus du Product Owner ou des autres squads. Un encadrement des personnes de la squad en tant que Scrum Master serait un plus. Au sein de la squad Acceptation, le prestataire est en charge des activités suivantes : Spécifications fonctionnelles et techniques Assistance auprès des développeurs (et potentiellement développements) Tests unitaires Recette des livrables Tests de charge Analyse d'incidents et prise en compte des contraintes du RUN Outils & Environnement JAVA / JEE Spring Boot 3 & 4, Java 21 & 25 JPA/Hibernate, Tomcat Apache, ORACLE, PostGres Elastic Search Azure Connaissances spécifiques Flux de paiement / monétique Authentification

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

1620 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous