Le poste Expert BigData / Cloud Data Engineer Senior
Partager cette offre
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale.
L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud.
Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche.
Les principales missions sont:
Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public :
• Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences
• Réaliser l'étude détaillée des besoins clients en lien avec les architectes
• Construire avec les CloudOps les infrastructures DATA pour le projet
• Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation
• Paramétrer / configurer les services afin de répondre aux exigences projets
• Définir la stratégies de backup et restauration
• Réaliser les tests de performances, de résilience et de reprise d'activité
• Implémenter le monitoring et l'alerting
• Rédiger les documents d'exploitation
Participer au RUN de nos services :
• Gestion des demandes et incidents
• Patching / Upgrade
• Participation à l'astreinte de l'équipe
• Amélioration continue de nos procédures/documentation
Compétences recherchées :
• Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino
• Connaissance des Cloud Public AWS et GCP et Terraform
• Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc.
• Connaissance approfondie linux et kubernetes
• Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc)
• Maîtrise de langages de programmation (Scala, Java, Python…)
• Travail en Agile
• Anglais
• Certification ITIL V4 obligatoire
3J/Semaine sur site
Les astreintes (HNO, etc…) : Oui
Profil recherché
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale.
L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud.
Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche.
Les principales missions sont:
Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public :
• Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences
• Réaliser l'étude détaillée des besoins clients en lien avec les architectes
• Construire avec les CloudOps les infrastructures DATA pour le projet
• Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation
• Paramétrer / configurer les services afin de répondre aux exigences projets
• Définir la stratégies de backup et restauration
• Réaliser les tests de performances, de résilience et de reprise d'activité
• Implémenter le monitoring et l'alerting
• Rédiger les documents d'exploitation
Participer au RUN de nos services :
• Gestion des demandes et incidents
• Patching / Upgrade
• Participation à l'astreinte de l'équipe
• Amélioration continue de nos procédures/documentation
Compétences recherchées :
• Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino
• Connaissance des Cloud Public AWS et GCP et Terraform
• Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc.
• Connaissance approfondie linux et kubernetes
• Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc)
• Maîtrise de langages de programmation (Scala, Java, Python…)
• Travail en Agile
• Anglais
• Certification ITIL V4 obligatoire
3J/Semaine sur site
Les astreintes (HNO, etc…) : Oui
Environnement de travail
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale.
L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud.
Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche.
Les principales missions sont:
Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public :
• Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences
• Réaliser l'étude détaillée des besoins clients en lien avec les architectes
• Construire avec les CloudOps les infrastructures DATA pour le projet
• Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation
• Paramétrer / configurer les services afin de répondre aux exigences projets
• Définir la stratégies de backup et restauration
• Réaliser les tests de performances, de résilience et de reprise d'activité
• Implémenter le monitoring et l'alerting
• Rédiger les documents d'exploitation
Participer au RUN de nos services :
• Gestion des demandes et incidents
• Patching / Upgrade
• Participation à l'astreinte de l'équipe
• Amélioration continue de nos procédures/documentation
Compétences recherchées :
• Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino
• Connaissance des Cloud Public AWS et GCP et Terraform
• Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc.
• Connaissance approfondie linux et kubernetes
• Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc)
• Maîtrise de langages de programmation (Scala, Java, Python…)
• Travail en Agile
• Anglais
• Certification ITIL V4 obligatoire
3J/Semaine sur site
Les astreintes (HNO, etc…) : Oui
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Expert BigData / Cloud Data Engineer Senior
ematiss
