Le poste Data Engineer | DevOps AWS (H/F)
Partager cette offre
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction, à l’évolution et à la fiabilité d’un Data Lake stratégique, au cœur des projets liés à l’analyse de l’expérience utilisateur.
Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’industrialisation, de performance et de qualité de service.
Vos principales missions :
• Maintenir et faire évoluer une architecture data scalable sur AWS, adaptée à des volumes importants de données hétérogènes (logs, fichiers, API…).
• Concevoir et structurer les différentes couches du Data Lake (Landing, Bronze, Silver) en lien avec les besoins métiers et les bonnes pratiques data.
• Développer des pipelines de traitement de données robustes et automatisés (ETL/ELT), en batch ou quasi temps réel, via des services AWS : Glue, Lambda, EMR, Redshift, S3…
• Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake.
• Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique.
• Intégrer de nouvelles sources de données aux formats variés (API REST, fichiers plats, logs applicatifs…) tout en assurant sécurité et performance.
• Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données.
• Participer à l’amélioration continue de la plateforme (veille, refonte, optimisation), dans une logique DataOps (CI/CD, qualité, tests, versioning).
• Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus.
• Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Profil recherché
Compétences techniques :
• Solide expertise sur les services data AWS : Glue, S3, Lambda, Redshift, EMR, etc.
• Maîtrise des concepts ETL/ELT, modélisation de données, traitement batch et temps réel.
• Bonnes connaissances en architecture data (Data Lake, Data Mart, zones Bronze/Silver/Gold).
• Expérience en gestion d’infrastructures data dans une approche DevOps (CI/CD, monitoring, automatisation).
• Compétences en scripting (Python, SQL) et gestion des accès/sécurité sur AWS.
• Connaissance d’outils de supervision (CloudWatch, Datadog) et d’orchestration (Glue Workflow, Step Functions).
Qualités personnelles :
• Autonomie, rigueur et capacité à gérer des environnements complexes.
• Bon relationnel pour travailler en équipe pluridisciplinaire.
• Esprit analytique, sens de l’initiative, capacité à documenter et à transmettre.
• Forte orientation qualité et amélioration continue.
Environnement de travail
Vous intégrerez un pôle data transverse, au cœur d’initiatives analytiques à fort impact. Le contexte technique est stimulant, les volumes de données sont importants, et les enjeux stratégiques (expérience utilisateur, visualisation, pilotage…) sont au centre des priorités.
Ce que nous offrons :
• Environnement AWS moderne, dynamique et structuré.
• Projets data à fort enjeu métier.
• Culture DevOps et DataOps valorisée.
• Équipe collaborative et expertises complémentaires.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer | DevOps AWS (H/F)
Atlas Connect