
Job position Expert DATAIKU
Share this job
Nous renforçons une équipe data au cœur de programmes stratégiques d’un acteur bancaire . Le périmètre couvre la conception à l’industrialisation de cas d’usage analytiques et ML dans Dataiku.
Missions
• Cadrer les use cases avec les métiers (risque, finance, conformité, marketing) et proposer l’architecture cible dans Dataiku
• Installer/configurer DSS, structurer les projets, dossiers et droits, mettre en place les bonnes pratiques (naming, versionning, réutilisabilité)
• Concevoir et optimiser les flows (recipes visuelles et code), développer en SQL/Python, gérer les datasets volumineux
• Intégrer les sources bancaires (DWH, files, APIs), assurer la qualité/traçabilité (scénarios, checks, data quality)
• Orchestrer et industrialiser (scenarios, bundles, Automation/Deployer, CI/CD, Git) jusqu’au monitoring en prod
• Mettre en place la sécurité et la conformité (rôles, partitions, PII, RGPD) et la documentation projet
• Produire des tableaux de bord dans Tableau (ou outil équivalent) pour le pilotage et la restitution
• Accompagner la montée en compétence des équipes et diffuser les standards Dataiku au sein de la DSI
Candidate profile
Profil recherché
• Solide expertise Dataiku validée par des projets en production
• Bonne connaissance du secteur bancaire et de ses contraintes (qualité, auditabilité, sécurité, réglementaire)
• Maîtrise de SQL et Python pour la data préparation et le ML opérationnel
• Expérience d’industrialisation et de mise en prod de pipelines sur DSS (Automation/Deployer, scenarios, bundles)
• Connaissances Tableau ou outils similaires de data visualisation
• Esprit d’analyse, rigueur, autonomie, sens du service et de la communication
Atouts qui feront la différence
• Expérience risques (crédit, marché), conformité KYC/AML, BCBS 239
• Notions de MLOps/observabilité, MLflow, Databricks ou Spark
• Pratique du Cloud (Azure de préférence) et de la gouvernance des données
Working environment
Environnement technique
Dataiku DSS, SQL, Python, Git, orchestrations et scénarios, connecteurs DB/DWH (ex. Snowflake, Synapse, BigQuery), éventuels bus/queues, packaging et déploiement de bundles, intégration BI (Tableau ou équivalent), notions Cloud appréciées (Azure/AWS/GCP), Docker/Kubernetes en plus.
Modalités
Démarrage : ASAP
Durée : mission longue (renouvelable)
Rythme : Paris avec télétravail possible (plusieurs jours/semaine)
Langues : français courant, anglais professionnel apprécié
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Expert DATAIKU
OAWJ CONSULTING