Le poste Data Engineer Spark Python
Partager cette offre
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
• Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent
Activités et tâches :
• Acheminement de la donnée
• Mise à disposition de la donnée aux équipes utilisatrices
• Mise en production de modèles statistiques
• Suivi de projet de développement
• Développement job spark
• Traitement et ingestion de plusieurs formats des données
• Développement des scripts
• Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données
• Développement des moyens de restitution via génération de fichier et ou API & Dashboarding
• Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers
• Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI)
• Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP
• Participer à la conception, mise en place et administration de solutions Big Data
• Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka
• Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Profil recherché
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application interne utilisée par les équipes IT et métiers.
L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad :
- Gestion de la production
- Gestion de la dette technique
- Revoir l'architecture actuelle et proposer des évolutions
- Développements liés aux projets
Concrètement : la mission principale de la prestation aura pour but de :
- traiter nos obsolescences de Framework (ex : springboot , spark2 )
- moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops :
- migration depuis tfs vers jenkins
- création directe sur jenkins
Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy.
Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )
Expertises spécifiques :
- Spark / PySpark /Python / Java / SpringBoot / .net
- Hadoop sur infra on premise
- Hive / SQL/HQL
- Unix/Bash
- Pipeline CI/CD jenkins
- XLDeploy/XLRelease
- Control-M
- API
Environnement de travail
Banque située à Paris 13
Postulez à cette offre !
Trouvez votre prochaine mission parmi +7 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer Spark Python
CELAD