Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon DynamoDB à Paris
Votre recherche renvoie 6 résultats.
Offre d'emploi
Directeur de projet AMOA GENESYS Expert
KEONI CONSULTING
Publiée le
Amazon DynamoDB
KPI
Pilotage
18 mois
20k-60k €
200-700 €
Paris, France
Contexte Détails de la mission Le client utilise la solution Genesys On Premise pour la distribution de ses appels téléphoniques. Cette solution ne sera bientôt plus disponible. Dans ce cadre, le client a retenu Amazon Connect comme solution cible pour la distribution de ses appels téléphoniques et a créé le Programme Néoflux pour mettre en œuvre cette nouvelle solution. Nous recherchons un Directeur de Projet pour porter la déclinaison de ce Programme. Le nouveau Directeur de Projet devra prendre la suite en organisant la mise en place de tous les autres services (agences, plateaux téléphoniques de commerciaux, plateaux téléphoniques de gestionnaires sinistres, les autres services centraux). Principaux KPI de succès : 1. Satisfaction clients inchangé ; 2. Productivité des collaborateurs inchangée. MISSIONS Assurer la correcte coordination avec le Programme Groupe ; Assurer la préparation des instances (comité de projet, comité de pilotage, comité de suivi…) ainsi que les comptes-rendus ; Assurer la coordination des différents contributeurs experts. PROFIL COMPETENCES Profil très expérimenté, minimum 10 ans dans la conduite de projets de transformation, si possible dans un contexte Assurance avec des connaissances dans les centres d’appels. Expert GENEYS- EXPERT Expert Amazon Connect
Offre d'emploi
Consultant DevOps et AWS F/H
METSYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
65k-70k €
Paris, France
Pour un client de forte renommée dans son secteur d'activité, nous recherchons un.e Ingénieur AWS & DevOps/Terraform pour un démarrage prévu le 17 mai 2026 à Paris (7ème arrondissement) pour une mission allant jusqu'à fin 2026 et pouvant être reconduite. Votre mission consistera à concevoir, industrialiser et exploiter la plateforme et les outils qui permettent aux équipes de développer, de déployer et de faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Plus spécifiquement, vous serez chargé.e des tâches suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, données, périphérie) conformes à des normes architecturales rigoureuses et aux meilleures pratiques AWS ; Faire évoluer une infrastructure multi-comptes (AWS Organizations, Control Tower/SCP, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et évolutif ; Définir des modèles d'infrastructure et d'application (« golden paths ») pour les charges de travail conteneurisées (EKS/ECS/Fargate), sans serveur (Lambda) et traditionnelles (EC2/ASG), y compris la mise en réseau, l'observabilité et la sécurité ; Créer et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), y compris les tests, la politique en tant que code (OPA/Conftest), la sécurité (tfsec/Checkov) et la planification/application automatisées (Atlantis/Spacelift/Terraform Cloud) ; Exploiter et renforcer la plateforme : surveillance/alertes/journalisation/traçabilité (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog) ; Définition des SLI/SLO, gestion des capacités, sauvegardes et reprise après sinistre ; Sécurisation de l'environnement : IAM avec principe du moindre privilège, KMS, Secrets Manager, application de correctifs, gestion des secrets (SOPS), analyse IaC/des images ; Gestion de Terraform : état distant (S3 + verrouillage DynamoDB), stratégie de gestion des versions, détection et correction des modules. cycle de vie, modèles multi-environnements, dérive ; Accompagner les équipes de notre Client dans la migration des charges de travail sur site vers AWS : évaluations, sélection de modèles, adoption de modèles, outils et accompagnement pour l'autonomie ; Identifier et automatiser les tâches répétitives (outils Bash/Python, automatisation Terraform ou Copilote) pour accélérer les déploiements et les migrations ; Contribuer au support de niveau 2/3, à la gestion des incidents et aux analyses rétrospectives ; produire une documentation claire et assurer le transfert des connaissances.
Offre d'emploi
Développeur Backend Kotlin
VISIAN
Publiée le
Amazon DynamoDB
AWS Cloud
Kotlin
1 an
Paris, France
Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte entre Nantes et Paris, afin de travailler sur les problématiques Paiement dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Mission freelance
Mission freelance - Dev back end Node.JS - Lille/Paris
KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript
6 mois
300-450 €
Paris, France
Responsabilités : Développement des APIs de notre Back-end à destination des applications mobiles: • Tu participes aux rituels agiles et à l’amélioration continue de l’équipe • Tu contribues à la résolution des anomalies remontées par les utilisateurs • Tu prends part à la qualité, stabilité de l’application en respectant les processus de l’équipe : développement, code review / pull request, QA , déploiement) • Tu rédiges et maintiens la documentation technique du code ainsi que la base de connaissance • Tu aimes innover, faire de la veille et proposer des sujets d’innovation, entreprendre la mise en place de nouvelles technologies, méthodes… Compétences techniques : • Maîtrise du runtime NodeJS, du Typescript comme langage principal et des bibliothèques nodes usuelles • Connaissance des services cloud provider AWS et GCP (Api Gateway, Lambda, DynamoDB, MongoDB, S3, etc.). • Tu as une bonne connaissance de Git, des méthodologies de versioning telles que gitflow • Une connaissance de Vue.JS est un plus • Tu as le goût pour le travail en équipe. • Tu parles anglais Tu auras en particulier les responsabilités suivantes : • Participer à l’élaboration des spécifications fonctionnelles en tant que force de proposition technique • Prendre en charge les développements évolutifs et correctifs des applications android et de leurs outils de communication à destination de nos utilisateurs en magasin. • Établir les chiffrages sur l’expression des besoins et s’y engager. • Réaliser la partie développement en prenant en compte des normes de développement. • Création de scenarii de tests de non régression. • Tester la solution et vérifier les impacts (sécurité, flux, performance, volumétrie...). • S’assurer du bon fonctionnement de la solution dans l’environnement de production (phase pilote). • Veille technologique
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
6 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois