Job position [MDO] Data & AI - Data Engineer (5 ans minimum)
Share this job
Data Engineer
- Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise.
- Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs.
Principaux résultats attendus :
• Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies
• Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées.
• Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données
• Les activités métier disposent des lignes guides et recommandations pour créer de la valeur
• Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données
• Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées.
• Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée
• Résultats de tests conforme à la stratégie de test
• Catalogue des produits data (dataset) à jour
• Kit de formation et outils pour les utilisateurs
Compétences fondamentales en Data Engineering :
• Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault
• ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances
• Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées
• Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Candidate profile
Critères :
Autonomie
Profile avec au moins 5 ans d'expérience
Les technologies sont nécessaire pour la réalisation de ce projet !
Working environment
Environnement technologique :
Langages de programmation :
• SQL avancé
• Python / PySpark avancé
Outils et technologies :
• Dataiku
• Power BI
• Databricks
• Azure Data Factory
• Azure Logic Apps
Environnement sur le nombre de jour de présentiel / télétravail :
3j présentiel 2j télétravail, poste basé à Clermont Ferrand
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
[MDO] Data & AI - Data Engineer (5 ans minimum)
ISUPPLIER