
Le poste Data Engineer – AWS / Databricks
Partager cette offre
Missions principales :
Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution.
Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles.
Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow.
Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt, GitLab CI/CD, et autres solutions DevOps.
Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces.
Technologies et outils utilisés :
Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark
Langages & Frameworks : Python, SQL, PySpark
Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt
Suivi des coûts et performance : Outils FinOps intégrés à AWS
Méthodologies de travail : Agile / Scrum, DevOps, FinOps
Profil recherché
Environnement de travail
Vous évoluerez au sein d’une équipe data dynamique et pluridisciplinaire, composée d’ingénieurs data, de data scientists, d’architectes cloud et de profils métiers. L’environnement favorise la collaboration, le partage de connaissances et l’innovation continue autour des technologies Big Data et Cloud.
Environnement de travail
Approche orientée produit et valeur métier
Sensibilité forte à la qualité du code, à la documentation et à la revue de pair (code review)
Autonomie, responsabilité technique, et droit à l’expérimentation
Accès à des formations régulières, conférences, et communautés internes autour de la data et du cloud
Localisation & modalités :
Télétravail hybride (2-3 jours/semaine en présentiel possible selon l'équipe)
Locaux modernes, espaces collaboratifs, équipements adaptés aux activités data
Ambiance conviviale et environnement propice à la montée en compétence
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer – AWS / Databricks
Hexateam