Job position Data Engineer
Share this job
Les livrables sont
Code Source
Documentation
KPI qualité
Compétences techniques
Python / Pyspark / SQL - Expert - Impératif
Databricks - Expert - Impératif
Datafactory - Confirmé - Important
Modélisation BI - Confirmé - Souhaitable
Description détaillée Contexte :
Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier.
Environnement technique :
Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI.
Missions :
- Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory.
- Créer et optimiser des flux de transformation de données en PySpark/Python.
- Maintenir et développer de nouveaux indicateur de qualité de données
- Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps.
- Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité.
- Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe.
- Implémenter des tests unitaires et assurer la fiabilité des solutions.
- Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH.
Profil recherché :
- Maîtrise avérée de SQL, Python, PySpark et Spark.
- Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps).
- Bonne connaissance de Git et des pratiques DevOps.
- Sens de la communication, force de proposition et capacité à travailler en équipe.
- Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code.
Définition du profil :
Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Candidate profile
- Maîtrise avérée de SQL, Python, PySpark et Spark.
- Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps).
- Bonne connaissance de Git et des pratiques DevOps.
- Sens de la communication, force de proposition et capacité à travailler en équipe.
- Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code.
Working environment
Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI.
Compétences techniques
Python / Pyspark / SQL - Expert - Impératif
Databricks - Expert - Impératif
Datafactory - Confirmé - Important
Modélisation BI - Confirmé - Souhaitable
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer
Comet