Job position Data Engineer
Share this job
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles.
Votre missionSous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE, en exploitant des sources Big Data et décisionnelles complexes.
Environnement Technique & DéfisVous évoluerez dans un écosystème On-Premise (MapR) exigeant :
Core : Java 11, Spark, SparkSQL, Hive et Shell.
Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux.
DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD.
Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Candidate profile
Nombre d’années d’expérience : ~5-8 ans d’expérience avec des connaissances dans les déclaratifs réglementaires de l’Assurance-Vie
Compétences techniques requises :
Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Working environment
Contexte: Intervention sur la plateforme data de Crédit Agricole Assurances Solutions.
Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle (DGFIP, CDC, AGIRA).
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer
Nicholson SAS
