
Le poste Expert DATAIKU
Partager cette offre
Nous renforçons une équipe data au cœur de programmes stratégiques d’un acteur bancaire . Le périmètre couvre la conception à l’industrialisation de cas d’usage analytiques et ML dans Dataiku.
Missions
• Cadrer les use cases avec les métiers (risque, finance, conformité, marketing) et proposer l’architecture cible dans Dataiku
• Installer/configurer DSS, structurer les projets, dossiers et droits, mettre en place les bonnes pratiques (naming, versionning, réutilisabilité)
• Concevoir et optimiser les flows (recipes visuelles et code), développer en SQL/Python, gérer les datasets volumineux
• Intégrer les sources bancaires (DWH, files, APIs), assurer la qualité/traçabilité (scénarios, checks, data quality)
• Orchestrer et industrialiser (scenarios, bundles, Automation/Deployer, CI/CD, Git) jusqu’au monitoring en prod
• Mettre en place la sécurité et la conformité (rôles, partitions, PII, RGPD) et la documentation projet
• Produire des tableaux de bord dans Tableau (ou outil équivalent) pour le pilotage et la restitution
• Accompagner la montée en compétence des équipes et diffuser les standards Dataiku au sein de la DSI
Profil recherché
Profil recherché
• Solide expertise Dataiku validée par des projets en production
• Bonne connaissance du secteur bancaire et de ses contraintes (qualité, auditabilité, sécurité, réglementaire)
• Maîtrise de SQL et Python pour la data préparation et le ML opérationnel
• Expérience d’industrialisation et de mise en prod de pipelines sur DSS (Automation/Deployer, scenarios, bundles)
• Connaissances Tableau ou outils similaires de data visualisation
• Esprit d’analyse, rigueur, autonomie, sens du service et de la communication
Atouts qui feront la différence
• Expérience risques (crédit, marché), conformité KYC/AML, BCBS 239
• Notions de MLOps/observabilité, MLflow, Databricks ou Spark
• Pratique du Cloud (Azure de préférence) et de la gouvernance des données
Environnement de travail
Environnement technique
Dataiku DSS, SQL, Python, Git, orchestrations et scénarios, connecteurs DB/DWH (ex. Snowflake, Synapse, BigQuery), éventuels bus/queues, packaging et déploiement de bundles, intégration BI (Tableau ou équivalent), notions Cloud appréciées (Azure/AWS/GCP), Docker/Kubernetes en plus.
Modalités
Démarrage : ASAP
Durée : mission longue (renouvelable)
Rythme : Paris avec télétravail possible (plusieurs jours/semaine)
Langues : français courant, anglais professionnel apprécié
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Expert DATAIKU
OAWJ CONSULTING