Job position Data Engineer Hadoop/Cloudera/Airflow/Spark
Share this job
Les missions sont :
Les consultants retenus auront pour mission :
• Administration et optimisation de clusters HDP/CDP
• Installation, configuration et maintenance des clusters.
• Gestion des mises à jour et des patchs de sécurité.
• Surveillance des performances et optimisation des ressources.
• gestion/administration de clusters Kubernetes
• Automatisation des déploiements avec Operators…, etc.
• Sécurisation et monitoring des environnements conteneurisés.
• Orchestration des workflows avec Apache Airflow :
• Développement et optimisation des DAGs pour la gestion des pipelines de données.
• Gestion des dépendances et optimisation des temps d’exécution.
• Intégration avec les autres outils de l’écosystème.
• Traitement et analyse des données avec Apache Spark :
• Développement et optimisation des jobs Spark (batch et streaming).
• Gestion des performances et tuning des jobs.
• Intégration avec les systèmes de stockage distribués.
• Optimisation des requêtes et accès aux données avec Starburst :
• Configuration et administration de Starburst.
• Optimisation des requêtes SQL distribuées.
• Sécurisation et gestion des accès aux différentes sources de données.
Français/Anglais
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer Hadoop/Cloudera/Airflow/Spark
OBJECTWARE
