Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon DynamoDB
Votre recherche renvoie 20 résultats.
Offre d'emploi
Directeur de projet AMOA GENESYS Expert
KEONI CONSULTING
Publiée le
Amazon DynamoDB
KPI
Pilotage
18 mois
20k-60k €
200-700 €
Paris, France
Contexte Détails de la mission Le client utilise la solution Genesys On Premise pour la distribution de ses appels téléphoniques. Cette solution ne sera bientôt plus disponible. Dans ce cadre, le client a retenu Amazon Connect comme solution cible pour la distribution de ses appels téléphoniques et a créé le Programme Néoflux pour mettre en œuvre cette nouvelle solution. Nous recherchons un Directeur de Projet pour porter la déclinaison de ce Programme. Le nouveau Directeur de Projet devra prendre la suite en organisant la mise en place de tous les autres services (agences, plateaux téléphoniques de commerciaux, plateaux téléphoniques de gestionnaires sinistres, les autres services centraux). Principaux KPI de succès : 1. Satisfaction clients inchangé ; 2. Productivité des collaborateurs inchangée. MISSIONS Assurer la correcte coordination avec le Programme Groupe ; Assurer la préparation des instances (comité de projet, comité de pilotage, comité de suivi…) ainsi que les comptes-rendus ; Assurer la coordination des différents contributeurs experts. PROFIL COMPETENCES Profil très expérimenté, minimum 10 ans dans la conduite de projets de transformation, si possible dans un contexte Assurance avec des connaissances dans les centres d’appels. Expert GENEYS- EXPERT Expert Amazon Connect
Offre d'emploi
Consultant DevOps et AWS F/H
METSYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
65k-70k €
Paris, France
Pour un client de forte renommée dans son secteur d'activité, nous recherchons un.e Ingénieur AWS & DevOps/Terraform pour un démarrage prévu le 17 mai 2026 à Paris (7ème arrondissement) pour une mission allant jusqu'à fin 2026 et pouvant être reconduite. Votre mission consistera à concevoir, industrialiser et exploiter la plateforme et les outils qui permettent aux équipes de développer, de déployer et de faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Plus spécifiquement, vous serez chargé.e des tâches suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, données, périphérie) conformes à des normes architecturales rigoureuses et aux meilleures pratiques AWS ; Faire évoluer une infrastructure multi-comptes (AWS Organizations, Control Tower/SCP, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et évolutif ; Définir des modèles d'infrastructure et d'application (« golden paths ») pour les charges de travail conteneurisées (EKS/ECS/Fargate), sans serveur (Lambda) et traditionnelles (EC2/ASG), y compris la mise en réseau, l'observabilité et la sécurité ; Créer et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), y compris les tests, la politique en tant que code (OPA/Conftest), la sécurité (tfsec/Checkov) et la planification/application automatisées (Atlantis/Spacelift/Terraform Cloud) ; Exploiter et renforcer la plateforme : surveillance/alertes/journalisation/traçabilité (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog) ; Définition des SLI/SLO, gestion des capacités, sauvegardes et reprise après sinistre ; Sécurisation de l'environnement : IAM avec principe du moindre privilège, KMS, Secrets Manager, application de correctifs, gestion des secrets (SOPS), analyse IaC/des images ; Gestion de Terraform : état distant (S3 + verrouillage DynamoDB), stratégie de gestion des versions, détection et correction des modules. cycle de vie, modèles multi-environnements, dérive ; Accompagner les équipes de notre Client dans la migration des charges de travail sur site vers AWS : évaluations, sélection de modèles, adoption de modèles, outils et accompagnement pour l'autonomie ; Identifier et automatiser les tâches répétitives (outils Bash/Python, automatisation Terraform ou Copilote) pour accélérer les déploiements et les migrations ; Contribuer au support de niveau 2/3, à la gestion des incidents et aux analyses rétrospectives ; produire une documentation claire et assurer le transfert des connaissances.
Mission freelance
DBA AWS / Administrateur de base de données
Tenth Revolution Group
Publiée le
Amazon DynamoDB
AWS Cloud
Mongodb
3 ans
190-650 €
Lille, Hauts-de-France
Dans le cadre de l’évolution de son positionnement cloud, notre client recherche un DBA orienté AWS avec une forte appétence pour le développement et l’automatisation. Le rôle s’inscrit dans une transformation où les activités DBA traditionnelles évoluent vers un scope plus large mêlant gestion des données, développement et innovation . À ce titre, vos missions seront les suivantes : Administrer, optimiser et maintenir les bases de données ( AWS RDS, DynamoDB, MongoDB ) Garantir la performance, la disponibilité et la sécurité des environnements data Développer des endpoints API en Python pour exposer et exploiter les données Automatiser l’infrastructure via des playbooks Terraform Participer à des POC autour de nouvelles solutions Cloud/Data Rédiger de la documentation technique et contribuer à la veille technologique
Offre d'emploi
Développeur Backend Kotlin
VISIAN
Publiée le
Amazon DynamoDB
AWS Cloud
Kotlin
1 an
Paris, France
Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte entre Nantes et Paris, afin de travailler sur les problématiques Paiement dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Offre d'emploi
Développeur Backend Senior (H/F)
ASAP TECHNOLOGIES
Publiée le
Java
Kotlin
Kubernetes
3 ans
10k-60k €
100-550 €
Saint-Denis, Île-de-France
Dans le cadre du renforcement d’une équipe en charge d’un moteur d’itinéraires et d’orchestration de recherches , nous recherchons un développeur backend senior . Vous intégrerez une équipe agile d’une dizaine de personnes (PO, développeurs, testeur, Scrum Master, Ops), travaillant sur une plateforme de services dédiée à la distribution de solutions de mobilité . Ce périmètre fonctionnel couvre des sujets complexes tels que le calcul d’itinéraires et l’orchestration de recherches, dans un environnement à forte volumétrie et à forte criticité. Vos missions Participer activement à la vie de l’équipe dans un cadre agile Concevoir, développer et livrer des solutions robustes, performantes et sécurisées Traduire des besoins fonctionnels complexes en solutions techniques pertinentes Développer et faire évoluer les fonctionnalités backend Travailler en autonomie sur des sujets techniques variés Garantir la qualité et la stabilité en production (tests, monitoring, incidents) Contribuer aux pipelines CI/CD et aux déploiements Jouer un rôle de référent technico-fonctionnel au sein de l’équipe Collaborer avec les équipes produit, architecture et les équipes transverses Monter en compétence sur les enjeux métier liés à la mobilité et aux systèmes complexes Vos livrables Développements backend robustes, testés et documentés Contributions à l’optimisation et à l’automatisation des pipelines CI/CD Documentation technique et fonctionnelle Amélioration continue de la qualité logicielle (tests, performances, monitoring) Support technique et accompagnement des membres de l’équipe Participation à l’évolution fonctionnelle et technique du produit Environnement technique Langages & frameworks : Java 21 (expertise requise) Kotlin (apprécié) C++ (apprécié) Spring / Spring Boot Cloud & Data : AWS (Lambda, API Gateway, S3, DynamoDB) MongoDB, DynamoDB, S3 Redis Messaging : ActiveMQ AWS SQS / SNS Tests : JUnit, Mockito, Cucumber Wiremock, Postman Kotest, Mockk CI/CD & Infra : GitLab CI Gradle, Maven, Bash Terraform Kubernetes (avec évolution vers GitLab CI + ArgoCD + Helm) Monitoring : Datadog AWS CloudWatch
Offre d'emploi
Backend Python AWS – Serverless / Produit d’hypervision
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Datadog
Python
3 ans
10k-45k €
100-380 €
Nantes, Pays de la Loire
On cherche un backend Python qui sait mettre les mains dans le run autant que dans le code . Le sujet : construire et faire évoluer des outils d’hypervision qui permettent de comprendre, en temps réel, l’état de systèmes complexes (chaînes métier complètes). Pas un projet vitrine. 👉 Un produit utilisé, qui sert vraiment. 🧩 Le contexte Petite équipe (PO, dev front, dev back, ops, agile master) Organisation agile simple, sans surcouche Beaucoup de responsabilités côté backend (logique + infra + déploiement) Tu ne seras pas “le dev backend”. 👉 Tu seras le backend . ⚙️ Ce que tu vas vraiment faire Développer des APIs en Python (propres, maintenables, utilisées) Travailler sur une archi serverless AWS (Lambda, API Gateway, S3, DynamoDB) Gérer l’infra via Terraform (pas juste lire du code) Déployer via Gitlab CI/CD Exploiter des données de monitoring (Datadog) Corriger, améliorer, optimiser → en continu Et surtout : 👉 participer à la création d’un nouveau produit (pas juste maintenir l’existant) 🧠 Stack Python AWS (Lambda, S3, API Gateway, Cognito) DynamoDB Terraform Gitlab CI Datadog 💬 Pourquoi ça vaut le coup stack propre, moderne, sans legacy lourd vraie autonomie impact direct sur le produit environnement où tu peux proposer et changer des choses
Mission freelance
Ingénieur Plateforme AWS
Groupe Aptenia
Publiée le
AWS Cloud
Git
Terraform
3 ans
Île-de-France, France
Développer des modules Terraform réutilisables (networking, sécurité, compute, data, edge) aux standards AWS Gérer un environnement multi-comptes AWS (Organizations, Control Tower, SCPs, gouvernance IAM) Définir des blueprints "golden paths" pour workloads EKS/ECS/Lambda/EC2 avec observabilité et sécurité intégrées Construire des pipelines CI/CD avec policy-as-code (OPA), scanning IaC (tfsec/Checkov) et automatisation Terraform (Atlantis/Spacelift) Opérer la plateforme : monitoring, alerting, logging, tracing (CloudWatch, Datadog, Prometheus/Grafana, OpenTelemetry) + SLI/SLO + DR Sécuriser l'environnement : IAM least-privilege, KMS, Secrets Manager, SOPS , scanning images/IaC Gérer Terraform à l'échelle : remote state S3/DynamoDB, versioning modules, multi-env, détection de drift Accompagner les migrations on-prem → AWS : assessments, patterns, coaching équipes Automatiser les tâches répétitives via Bash/Python + AI copilots Assurer le support L2/L3 , gestion des incidents, post-mortems et documentation
Mission freelance
Freelance - Developpeur Java SQL - Lille
KUBE Partners S.L. / Pixie Services
Publiée le
Github
Springboot
SQL
6 mois
300-420 €
Lille, Hauts-de-France
Objectifs et livrables Build Technique (Framework RACE) : Développer les évolutions de la stack de lecture des métadonnées et de déploiement d'API pour la rendre plus automatisée et tendre vers un mode self-service pour l’utilisateur. Support et respect des SLI/SLO : Mettre en place une solution de suivi des SLI automatisée. Garantir la disponibilité et la performance des solutions d'exposition déployées. Accompagnement Utilisateurs : Produire une documentation de référence et guider les équipes dans l'intégration de leurs cas d'usage. Qualité: Garantir le respect des standards de la plateforme pour respecter le niveau de qualité attendu. Mise en place des tests unitaires et d’intégration. Notre stack technique Frameworks : Spring / Spring Boot (Back), Next.js / Angular (Front) Cloud & Infrastructure : AWS, Kubernetes Data & Orchestration : Airflow, Druid, DynamoDB, PostgreSQL (Aurora, Lekabase) CI/CD : GitHub, GitHub Actions Observabilité : Datadog Backlog management : JIRA
Offre d'emploi
Développeur Fullstack (H/F) – Nantes
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Cypress
Datadog
1 an
10k-51k €
100-400 €
Nantes, Pays de la Loire
Contexte Dans le cadre du développement d’une application en marque blanche dédiée à la vente d’abonnements de nous recherchons un développeur fullstack pour intégrer une équipe agile à taille humaine (7 personnes), basée à Nantes. Vous évoluerez au sein d’une équipe SCRUM , dynamique et collaborative, avec une forte implication dans les choix techniques et fonctionnels. Vos missions Intégré(e) à l’équipe, vous interviendrez sur l’ensemble du cycle de vie de l’application : Maintenance et évolution de l’application existante Développement de nouvelles fonctionnalités Amélioration continue du socle technique Maintien et enrichissement des tests automatisés Exécution des tests de non-régression Déploiement des releases jusqu’en production Participation aux phases de conception en collaboration avec le Product Owner Vos livrables Développement de fonctions AWS Lambda Développement en TypeScript (backend & frontend) Rédaction et exécution de tests (unitaires, intégration, end-to-end) Réalisation de revues de code Rédaction de documents de conception technique Analyse et correction des anomalies Support aux problématiques d’exploitation Contribution au respect des critères d’acceptation des releases Participation aux cérémonies agiles (daily, sprint planning, rétrospective) Contribution à la qualité, la sécurité et la résilience de l’application Environnement technique Stack principale : AWS Lambda TypeScript React Cloudflare PostgreSQL DynamoDB CI/CD & outils : GitLab CI Cypress (tests automatisés) AWS CDK & Terraform Datadog
Offre d'emploi
Développeur Fullstack – Innovation Lab (AWS / Python) H/F
SQUARE ONE
Publiée le
API REST
AWS Cloud
Github
1 an
40k-55k €
400-600 €
Île-de-France, France
Dans le cadre de projets d’innovation au sein d’une grande DSI, nous recherchons un Développeur Fullstack pour rejoindre une équipe dédiée à l’innovation. Vous interviendrez sur des projets à forte valeur ajoutée, de la phase d’idéation jusqu’au développement, à l’industrialisation et à l’intégration des solutions dans le système d’information. Vos missions Participer aux phases d’idéation et à la définition de nouveaux concepts innovants Évaluer la faisabilité technique des projets Développer des POC et prototypes pour tester les concepts auprès des utilisateurs Être force de proposition sur les choix techniques et technologiques Intégrer les solutions développées dans le SI existant Assurer la transmission et l’industrialisation des projets vers les équipes internes Évaluer des solutions externes (startups, partenaires) dans une logique d’Open Innovation Garantir le respect des bonnes pratiques techniques et de sécurité Participer à la veille technologique et à l’amélioration continue des processus Environnement technique Cloud : AWS (S3, Lambda, API Gateway, IAM, DynamoDB, RDS, Cognito) Langages : Python 3, SQL Infra : Terraform API : REST Data : Data processing / Data engineering Systèmes : Linux Outils : Git ANGLAIS : Pré-requis
Mission freelance
Développeur Python AWS (confirmé)
TEOLIA CONSULTING
Publiée le
AWS Cloud
Cloud
Python
12 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour notre client un Développeur Python AWS confirmé pour contribuer à la conception et au développement de solutions innovantes orientées data et automatisation. Le consultant interviendra sur des projets à forte dimension exploratoire (POC, prototypes), avec un objectif de mise en production et d’industrialisation des solutions . Missions : Participer à l’idéation et à la définition de concepts innovants Développer des POC et prototypes (fullstack) Contribuer aux choix techniques et technologiques Évaluer des solutions externes (startups, partenaires…) Préparer l’ industrialisation des solutions développées Garantir le respect des standards techniques et sécurité SI Assurer la documentation et la transmission aux équipes internes Réaliser une veille technologique continue Participer à l’amélioration des pratiques et processus du Lab Environnement technique : Cloud : AWS (S3, Lambda, API Gateway, IAM, DynamoDB, RDS…) Infra as Code : Terraform Langages : Python (Boto3), SQL / NoSQL Backend / API : REST Data : Pandas, PySpark, data processing DevOps : Git, Linux Bonus : NLP, LLM, IA, AWS Bedrock
Mission freelance
Senior Data engineer IA (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Mission freelance
Mission freelance - Dev back end Node.JS - Lille/Paris
KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript
6 mois
300-450 €
Paris, France
Responsabilités : Développement des APIs de notre Back-end à destination des applications mobiles: • Tu participes aux rituels agiles et à l’amélioration continue de l’équipe • Tu contribues à la résolution des anomalies remontées par les utilisateurs • Tu prends part à la qualité, stabilité de l’application en respectant les processus de l’équipe : développement, code review / pull request, QA , déploiement) • Tu rédiges et maintiens la documentation technique du code ainsi que la base de connaissance • Tu aimes innover, faire de la veille et proposer des sujets d’innovation, entreprendre la mise en place de nouvelles technologies, méthodes… Compétences techniques : • Maîtrise du runtime NodeJS, du Typescript comme langage principal et des bibliothèques nodes usuelles • Connaissance des services cloud provider AWS et GCP (Api Gateway, Lambda, DynamoDB, MongoDB, S3, etc.). • Tu as une bonne connaissance de Git, des méthodologies de versioning telles que gitflow • Une connaissance de Vue.JS est un plus • Tu as le goût pour le travail en équipe. • Tu parles anglais Tu auras en particulier les responsabilités suivantes : • Participer à l’élaboration des spécifications fonctionnelles en tant que force de proposition technique • Prendre en charge les développements évolutifs et correctifs des applications android et de leurs outils de communication à destination de nos utilisateurs en magasin. • Établir les chiffrages sur l’expression des besoins et s’y engager. • Réaliser la partie développement en prenant en compte des normes de développement. • Création de scenarii de tests de non régression. • Tester la solution et vérifier les impacts (sécurité, flux, performance, volumétrie...). • S’assurer du bon fonctionnement de la solution dans l’environnement de production (phase pilote). • Veille technologique
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Offre d'emploi
Concepteur Développeur Sénior Java Angular H/F
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
DevOps
Bordeaux, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
20 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois