Le poste Data Engineer
Partager cette offre
Les livrables sont
Code Source
Documentation
KPI qualité
Compétences techniques
Python / Pyspark / SQL - Expert - Impératif
Databricks - Expert - Impératif
Datafactory - Confirmé - Important
Modélisation BI - Confirmé - Souhaitable
Description détaillée Contexte :
Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier.
Environnement technique :
Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI.
Missions :
- Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory.
- Créer et optimiser des flux de transformation de données en PySpark/Python.
- Maintenir et développer de nouveaux indicateur de qualité de données
- Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps.
- Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité.
- Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe.
- Implémenter des tests unitaires et assurer la fiabilité des solutions.
- Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH.
Profil recherché :
- Maîtrise avérée de SQL, Python, PySpark et Spark.
- Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps).
- Bonne connaissance de Git et des pratiques DevOps.
- Sens de la communication, force de proposition et capacité à travailler en équipe.
- Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code.
Définition du profil :
Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Profil recherché
- Maîtrise avérée de SQL, Python, PySpark et Spark.
- Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps).
- Bonne connaissance de Git et des pratiques DevOps.
- Sens de la communication, force de proposition et capacité à travailler en équipe.
- Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code.
Environnement de travail
Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI.
Compétences techniques
Python / Pyspark / SQL - Expert - Impératif
Databricks - Expert - Impératif
Datafactory - Confirmé - Important
Modélisation BI - Confirmé - Souhaitable
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer
Comet