Le poste Data Engineer
Partager cette offre
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles.
Votre missionSous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE, en exploitant des sources Big Data et décisionnelles complexes.
Environnement Technique & DéfisVous évoluerez dans un écosystème On-Premise (MapR) exigeant :
Core : Java 11, Spark, SparkSQL, Hive et Shell.
Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux.
DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD.
Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Profil recherché
Nombre d’années d’expérience : ~5-8 ans d’expérience avec des connaissances dans les déclaratifs réglementaires de l’Assurance-Vie
Compétences techniques requises :
Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Environnement de travail
Contexte: Intervention sur la plateforme data de Crédit Agricole Assurances Solutions.
Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle (DGFIP, CDC, AGIRA).
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer
Nicholson SAS
