Le poste Ingénieur Big Data / Infrastructure en Île-de-France
Partager cette offre
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier.
Responsabilités principales1. Conception et mise en place de l’infrastructure Big DataConcevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…).
Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation.
Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride.
Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances.
Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage.
Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables.
Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…).
Standardiser les déploiements via Infrastructure as Code.
Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring.
Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau.
Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité).
Veiller au respect des politiques RGPD et des normes internes.
Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data.
Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence.
Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Profil recherché
Expérience confirmée en ingénierie Big Data ou administration de plateformes distribuées.
Solides compétences en environnement Linux, scripting (Python, Bash) et réseaux.
Connaissance des enjeux liés aux architectures à grande échelle : performance, fiabilité, résilience.
Qualités attendues : autonomie, rigueur, capacité à travailler en équipe et à vulgariser des sujets techniques complexes.
Environnement de travail
Écosystème Big Data : Hadoop / HDFS, Spark, Hive, Impala, Presto, Kafka, Flink
Cloud : AWS (EMR, S3, Glue), GCP (Dataproc, GCS), Azure (HDInsight, ADLS)
Industrialisation : Terraform, Ansible, Jenkins, GitLab, Docker, Kubernetes
Systèmes : Linux (RedHat, CentOS), supervision (Prometheus, Grafana, ELK)
Sécurité : Kerberos, Ranger, Knox, IAM
Bases de données : Cassandra, HBase, MongoDB, BigQuery, Snowflake
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Ingénieur Big Data / Infrastructure en Île-de-France
EterniTech
