Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud à Paris
Votre recherche renvoie 110 résultats.
Mission freelance
Administrateur de Bases de Données
Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Dynatrace
3 mois
Paris, France
Administrateur de Bases de Données – Cloud & Automatisation Client : Prestataire mondial de technologies et de services Lieu : Nanterre Contrat : 3 mois À propos de l’entreprise Notre client est une organisation internationale de premier plan spécialisée dans les opérations technologiques sécurisées à grande échelle et les solutions numériques pour les environnements de travail. Avec une forte culture d’excellence technique et de fiabilité opérationnelle, l’entreprise soutient des millions d’utilisateurs dans plusieurs régions grâce à des infrastructures robustes, des initiatives de transformation cloud et des systèmes critiques. Elle est reconnue pour son haut niveau d’exigence, son modèle de delivery structuré et sa capacité à gérer des environnements technologiques complexes à l’échelle mondiale. Présentation du rôle L’équipe mondiale d’ingénierie des bases de données recherche un Administrateur de Bases de Données Senior pour accompagner des projets de transformation cloud, des initiatives d’automatisation et l’amélioration continue de la fiabilité des plateformes Oracle et SQL. Ce rôle couvre des activités d’ingénierie, de migration, de support d’incidents et d’optimisation de plateformes, au sein d’une équipe technique collaborative. Le poste exige une solide expertise Oracle, une expérience en migration vers le cloud (AWS), des compétences en automatisation, ainsi que la capacité à soutenir des services critiques de bases de données en zone EMEA. La mission inclut l’ingénierie, la supervision, la résolution d’incidents, la réplication, la sauvegarde, la reprise après sinistre et l’amélioration des frameworks d’automatisation. Une participation aux astreintes sera requise. Responsabilités principales Contribuer aux efforts d’ingénierie au sein d’une équipe DBA globale, en soutien aux initiatives de transition cloud et d’optimisation d’infrastructure. Diriger les activités de migration cloud, d’automatisation, d’ingénierie de réplication et de frameworks d’auto‑réparation. Consolider et améliorer les métriques, dashboards et solutions de supervision. Assurer le support des serveurs Oracle et SQL en EMEA : incidents, changements, migrations et plans de continuité (DRP). Mettre en œuvre et maintenir les solutions de sauvegarde, clonage et restauration (DATAPUMP, RMAN). Travailler sur les technologies de réplication, notamment GoldenGate et DataGuard. Collaborer avec des équipes transverses dans le cadre de projets d’ingénierie internationaux. Participer aux rotations d’astreinte. Compétences & Qualifications requises Minimum 5 ans d’expérience en administration Oracle. Connaissance d’autres technologies telles que SQL Server, MongoDB, PostgreSQL, Hadoop (atout). Solide exposition à AWS et aux migrations cloud. Expérience sur les clusters Oracle RAC. Maîtrise des solutions de sauvegarde, clonage et migration via DATAPUMP et RMAN. Expertise en reprise après sinistre via DataGuard. Solide expérience Linux (Red Hat). Connaissance d’outils de supervision : OEM, Sitescope, Prometheus, Dynatrace. Compétences en automatisation et scripting (Python, Java, PowerShell, Terraform). Expérience CI/CD ou d’orchestration d’automatisation (Ansible, AWX ou équivalent). Maîtrise de l’anglais (lu/parlé/écrit).
Mission freelance
CONSULTANT OBSERVABILITE DATADOG
PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes
12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Mission freelance
Un IT Quants / DevOps Engineer,
Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Offre d'emploi
Founding Engineer JS (Fullstack / AI Product) - Insurtech - Paris
EASY PARTNER
Publiée le
AWS Cloud
Node.js
React
60k-75k €
Paris, France
Premier ingénieur de l’entreprise. Tu travailleras directement avec le CTO et tu seras impliqué(e) tout au long du cycle de vie du produit : architecture, développement, prise de décision technique et préparation à la production. Il s'agit d'un rôle opérationnel à fort impact, avec une grande autonomie et une réelle influence sur l'orientation technique de l'entreprise. Missions principales Product & Engineering Concevoir et développer les fonctionnalités cœur du produit à travers les agents d'IA, les flux de travail et les intégrations. Transformer des idées produit en systèmes prêts pour la production Participer aux décisions d’architecture, et assumer la responsabilité des choix en tenant compte de l'évolutivité, de la sécurité et de la conformité. AI & systèmes de production Concevoir et faire évoluer des pipelines d'IA (LLM, RAG, systèmes à base d'agents) pour des cas d'utilisation réels et réglementée Garantir la fiabilité, la traçabilité et l'explicabilité des résultats de l'IA en production Optimiser les performances, les coûts et la qualité à mesure que la plateforme évolue Ownership technique Construire et gérer des systèmes scalables et robustes de A à Z, de la conception à la production, en mettant l'accent sur la qualité, la fiabilité et l'évolutivité. Assurer le support des déploiements en production chez les clients soumis à la réglementation et anticiper les défis liés à l'industrialisation Participer aux décisions techniques fondamentales et contribuer à façonner la manière dont l'ingénierie est réalisée (processus, normes, outillage). Stack technique Notre pile technologique est conçue pour prendre en charge les flux de travail axés sur l'IA , une fiabilité de niveau entreprise et les contraintes réglementaires européennes . Côté serveur et côté client : TypeScript, , React/ Infrastructure : AWS (serverless, managed services) Données et IA : LLMs, RAG, agent-based systems, document processing, hybrid search Intégrations : Microsoft 365, CRM, insurer systems, secure APIs
Offre d'emploi
Ingénieur en sécurité Opérationnelle – IAM cloud Security - N3
KEONI CONSULTING
Publiée le
AWS Cloud
Python
Terraform
18 mois
20k-60k €
100-550 €
Paris, France
Contexte Accompagner Sécurisation du Cloud public Réglé Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maitrise de l'IAM et de l'automatisation, de Terraform et des chaines CI/CD MISSIONS Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : - Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. - Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. - Mise en œuvre des meilleures pratiques et contrôles au travers d’outils tels que AWS SCP, GCP Deny Policy et autres. - Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. - Documenter les processus, les configurations et politiques mises en place. Compétences techniques : IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Dev. Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Définition du profil Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique Données complémentaires
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
Architecte Réseau FH
ASTRELYA
Publiée le
AWS Cloud
DNS
Firewall
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant qu’Architecte Réseau, vous jouerez un rôle clé dans la définition, la cohérence et l’évolution des architectures techniques de nos clients. Vous interviendrez sur des environnements hybrides (on‑premise & Cloud), en coordination avec les équipes internes, les prestataires d’hébergement et les acteurs de l’infogérance. Votre rôle sera central dans la gestion des flux réseau, la sécurité, la gouvernance technique et l’amélioration continue des infrastructures. Concrètement, vous allez : 1. Architecture & Coordination Technique : • Assurer le rôle de back‑up du Lead Architecte Technique. • Coordonner les choix d’architecture, les flux réseau, les DNS, certificats et la validation des DAT. • Garantir la cohérence des architectures réseau & logicielles. 2. Amélioration Continue & Gouvernance : • Suivre les prestataires d’hébergement et piloter la résolution des incidents techniques. • Revoir et mettre à jour les procédures d’architecture, d’installation et d’exploitation. • Mettre à jour les schémas d’infrastructure et les flux réseau. • Assurer l’interface technique avec les hébergeurs et l’infogérance (architecture, infrastructure, réseau, sécurité). • Maintenir la documentation technique centralisée. 3. Contribution aux Projets : • Contribuer aux études et projets pour la mise en place de nouvelles fonctionnalités, infrastructures ou flux réseau. • Travailler en collaboration avec les chefs de projet pour cadrer les besoins techniques. 4. Sécurité & Pilotage SOC : • Piloter les interactions avec le SOC, notamment pour les demandes liées aux firewalls et règles de sécurité réseau. Votre futur environnement technique : • Réseaux : VPN, Firewall, Télécom, WiFi • Systèmes : Linux, Windows • Cloud : AWS • Services & protocoles : DNS, SSL, certificats • Bases de données : Oracle, PostgreSQL, SQL Server, MySQL • Méthodologies : ITIL, bonnes pratiques d’architecture & sécurité • Documentation & gouvernance : DAT, schémas d’architecture, référentiels techniques
Offre d'emploi
Développeur Backend - Kotlin
VISIAN
Publiée le
AWS Cloud
Java
Kotlin
1 an
Paris, France
Contexte Les plateformes de référence pour la centralisation, la distribution et l'exposition via API de l'ensemble des offres fournissent aux applications clientes un accès unifié à un catalogue multifournisseurs, un moteur de recherche d'itinéraires multimodal, la distribution des offres. Ces plateformes reposent sur un ensemble d'APIs simples à intégrer, permettant la construction d'interfaces de mobilité en marque blanche couvrant l'ensemble du parcours utilisateur. Le domaine Moteur Distribution s'organise en 4 équipes de delivery travaillant sur la refonte du moteur d'offres et du moteur de booking. Besoin – Mission Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte, afin de travailler sur les problématiques dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
Expert Cloud Data/IA AWS/GCP (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
1 mois
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Projet 1 – Run & évolution plateforme IA générative (AWS) Reprendre en main une plateforme existante Assurer son maintien en conditions opérationnelles (MCO) Contribuer à son amélioration continue Projet 2 – Migration & adoption GCP Définir une architecture cible Cloud GCP Réaliser des POC Industrialiser et accompagner les équipes Missions principales 1. Prise en main & transfert de connaissances Organisation et participation aux ateliers Cartographie documentaire et identification des gaps Validation de l’autonomie technique 2. Run / MCO (AWS) Traitement des incidents, demandes et évolutions Suivi des opérations et documentation Application des pratiques FinOps (optimisation des coûts) 3. Amélioration continue Contribution aux choix techniques Veille technologique proactive (AWS) 4. Conseil & architecture (GCP) Benchmark des solutions Cloud Définition d’architecture cible Construction de la stratégie de migration hybride (On-Prem → GCP) 5. Expérimentation & industrialisation Réalisation de POC Déploiement industrialisé (Terraform, CI/CD, monitoring) 6. Acculturation & formation Création de démonstrateurs Animation d’ateliers de montée en compétences Le terrain de jeu ? AWS (RUN + IA générative) Compute : Lambda, ECS, Fargate IA/Data : SageMaker, OpenSearch, Comprehend, Rekognition Sécurité : IAM, KMS, Secrets Manager Data : S3, Neptune Observabilité : CloudWatch, CloudTrail GCP (BUILD & transformation) Data : BigQuery, Dataflow, Dataproc IA : Vertex AI, AutoML Compute : GKE, Cloud Run, Functions DevOps : Terraform, CI/CD Sécurité : IAM, KMS, Security Command Center Compétences transverses Architecture Cloud hybride (On-Prem / Cloud) Design scalable & sécurisé Industrialisation MLOps / DataOps Infrastructure as Code (Terraform) FinOps Analyse et optimisation des coûts Cloud Pilotage de la consommation (notamment IA) Le profil que nous recherchons : Vous avez 5 à 10 ans d’expérience minimum dans un environnement challengeant Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 500€ et 650€ (Selon votre expertise) 2 jours sur site à Colombes / semaine Démarrage Juin 2026 Mission de 6 mois renouvelable Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
DevSecOps AWS - Transformation
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps AWS pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur AWS et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés.
Offre d'emploi
Architecte Cloud AWS – Consultant Transformation & Migration Cloud
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud AWS pour accompagner nos clients dans leurs projets de migration et de modernisation vers le cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité et de coût. Vous participerez à la conception de Landing Zones AWS, à la structuration des environnements multi-comptes et à la mise en place de bonnes pratiques de gouvernance. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur AWS et en partageant les bonnes pratiques d’architecture.
Offre d'emploi
Lead Developer Java - Spring Boot & AWS
KLETA
Publiée le
AWS Cloud
Java
Springboot
3 ans
Paris, France
Nous recherchons un Lead Developer Java pour piloter techniquement des équipes de développement travaillant sur des applications cloud natives hébergées sur AWS. Vous serez responsable de la conception des architectures logicielles, de la définition des standards de développement et de la garantie de la qualité technique des livrables. Vous interviendrez sur des environnements basés sur Spring Boot, microservices et APIs REST, en intégrant les services AWS (ECS/EKS, Lambda, RDS, S3, SQS/SNS, EventBridge). Vous accompagnerez les équipes DevOps et SRE pour assurer une intégration fluide dans les pipelines CI/CD, une observabilité avancée et une exploitation fiable en production. Vous animerez des revues de code, challengez les choix techniques et structurerez les bonnes pratiques (DDD, Clean Architecture, tests automatisés, résilience, performance). En tant que référent technique, vous serez également impliqué dans la gestion des incidents majeurs, l’amélioration continue des applications et la montée en compétence des développeurs plus juniors. Votre rôle combinera leadership technique, vision stratégique et excellence opérationnelle.
Offre d'emploi
Senior DevOps AWS
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
Mission freelance
Développeur EBX Senior
EMGS GROUP
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
450-550 €
Paris, France
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS
KLETA
Publiée le
AWS Cloud
Java
Springboot
3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
110 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois