Find your next tech and IT Job or contract Dataiku
Your search returns 47 results.
Job Vacancy
Data Analyst Dataiku/Dremio
Published on
Dataiku
3 years
40k-45k €
400-550 €
Ile-de-France, France
Hybrid
L'équipe Reporting & Analyse du risque contribue au pilotage mensuel du risque avec la mise à jour du datamart risque et des reportings risque. Pour cela un RUN mensuel devra perdurer en même temps que les développements induits pour les nouveaux usages data ( nouvelles expositions de données, nouveaux outils de data préparation DREMIO-DATAIKU et utilisation de PBI report server). Cette mission a pour objectif de développer des flux dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. La construction et le fonctionnement de ces mises en place devront être documentés. L’équipe reporting tient à cœur de développer des suivis automatisés et optimisés. Une intégration au run mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées dans le but de s’imprégner du fonctionnement de l’équipe. Prestations demandées • Comprendre le fonctionnement actuel du datamart risque. • Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU • Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel • Participation au double run mensuel
Contractor job
Développeur Dataiku Expérimenté (>5 ans)
Published on
Dataiku
12 months
400-610 €
Paris, France
Hybrid
Contexte Dans un programme stratégique de convergence Risques / Finance , le client vise à unifier et fiabiliser la production des reportings réglementaires (FINREP, COREP, SURFI…). L’objectif : mettre en place un socle unique pour la collecte, la préparation, le contrôle et la traçabilité des données réglementaires. Le consultant interviendra sur les volets Collecte et/ou Socle Technique , autour du développement de nouvelles fonctionnalités ou de l’amélioration du existant, dans un cadre méthodologique en V au sein d’une équipe fonctionnant en Scrum . Une montée en responsabilités vers un rôle de référent Dataiku est prévue selon la maîtrise des sujets. Missions Développer des fonctionnalités data au sein de Dataiku (recettes, scénarios, pipelines). Améliorer les bonnes pratiques de développement, d’industrialisation et de tests. Participer à la conception avec la Product Team et challenger les solutions proposées. Réaliser les tests , diagnostics et optimisations des pipelines existants. Contribuer au partage de connaissances et à la montée en compétence des développeurs juniors. Participer activement à la vie de l’équipe agile (daily, sprint planning, refinement, reviews). Compétences Techniques Requises Dataiku (recettes avancées, scénarios, API, partitions) – certifications appréciées. Python (manipulation data, librairies standards). Datastage . Spark . Unix / Shell . Bases de données relationnelles : DB2, Oracle… SQL avancé. Compétences appréciées Environnements OpenShift / Kubernetes / Docker . Connaissances en programmation objet (Java, C#…). Culture data dans des environnements Risk/Finance ou réglementaire bancaire. Profil recherché Minimum 5 ans d’expérience en développement Dataiku dans des contextes complexes. Capacité à évoluer en mode produit et à travailler en interaction avec Risques, Finance, IT. Autonomie, rigueur, capacité d’analyse et communication claire. Expérience en environnement bancaire fortement appréciée.
Contractor job
Tech Lead DATAIKU
Published on
Dataiku
ETL (Extract-transform-load)
Python
12 months
520-550 €
Ile-de-France, France
Hybrid
Dans le cadre de nouveaux projets stratégiques chez nos clients grands comptes, nous recherchons actuellement deux types de profils spécialisés : 🔹 1. Tech Lead DATAIKU Votre rôle : Piloter et encadrer les développements autour de la plateforme Dataiku (DSS), accompagner les équipes Data, garantir la qualité des pipelines et assurer la bonne intégration des solutions dans l’écosystème IT. Compétences clés recherchées : • Expertise confirmée sur DATAIKU DSS • Solide background en data engineering (Python, SQL, orchestrations…) • Bonne compréhension des architectures data (ETL/ELT, data pipelines, APIs) • Capacité à guider les équipes et à prendre des décisions techniques • Expérience en environnement exigeant (idéalement finance)
Contractor job
Business Analyst Plateforme Data IA
Published on
Dataiku
SAS
1 year
500-550 €
Paris, France
Hybrid
Je suis à la recherche pour un de nos clients d'un Business Analyst Plateforme Data IA. Compréhension fine des enjeux de développement de cas d'usages Data et déploiement de l'IA Gen pour les équipes du Client (développements privatifs et enjeux de communautarisation) Participer au suivi du projet d' IA Studio en appui au dispositif existant (apport d'expertise sur le choix de solutions, valeurs et contraintes d'environnement et d'architecture, participer à la feuille de route d'implémentation qui doit permettre l'ouverture des premières fonctionnalités en 2026 Capacité à anticiper, planifier les réunions nécessaires pour construction des livrables, Participation à la construction du dossier de cadrage (cadrage à terminer devant reprendre les éléments pertinents des séquences passées), aide à la construction des documents clés comex produits, ateliers PU/CR, documents préparatoires intermédiaires, échanges avec les parties prenantes des équipes du PP/PU Data et dans l'écosystème du Client (ex architecture...)/infogérant du Client en détaillant le retroplanning cadencé avec les jalons identifiés sur 2026. Connaissance plateforme Data dont SAS Viya (solution et intégration des capacités IA Gen...), Dataiku...
Job Vacancy
Consultant Confirmé Dataiku
Published on
Agile Method
Dataiku
JIRA
45k-52k €
Ile-de-France, France
Hybrid
Nous recherchons un Consultant Data confirmé maîtrisant Dataiku, l’analytique, la préparation de données et la data visualisation. La maîtrise du SQL et de bonnes connaissances en Python sont indispensables. Une expérience en administration de plateforme Dataiku, gouvernance et API REST est un plus. Missions : Optimiser et maintenir les pipelines Dataiku existants (recette, bonnes pratiques, automatisation) Développer des outils et pipelines d’administration pour améliorer l’efficacité opérationnelle Promouvoir les bonnes pratiques de reporting et dataviz (Dataiku et autres outils) Participer à l’administration des solutions et à la maintenance évolutive Collaborer avec les équipes Infrastructure dans un environnement cloud
Contractor job
Data Engineer (H/F)
Published on
Dataiku
1 year
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Hybrid
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Contractor job
Data Engineer DENODO
Published on
Dataiku
1 year
Ile-de-France, France
Hybrid
Nous recherchons un(e) Data Engineer maîtrisant Denodo , capable d’assurer à la fois le MCO/MCS de la plateforme et la création de vues pour les équipes projets. ✅ Assurer le MCO / MCS de la plateforme Denodo ✅ Optimiser les performances et l’architecture de la plateforme ✅ Administrer Denodo : monitoring, tuning, gestion des connexions, sécurité ✅ Créer et optimiser des vues Denodo pour les projets métiers ✅ Accompagner les équipes n’ayant pas de compétences Denodo internes ✅ Contribuer à améliorer la virtualisation de données et la qualité de service ✅ Participer au support central et garantir une plateforme fiable et performante
Contractor job
Dataiku / consultant Dataiku (Python,Sql, Ci/Cd ) F/H
Published on
Dataiku
MySQL
Python
3 years
500-650 €
Paris, France
Hybrid
Cadrage et analyse fonctionnelle - Participer, aux côtés du Product Owner, aux ateliers de cadrage avec les métiers pour identifier et formaliser les besoins Data. - Rédiger les user stories et les critères d’acceptation dans le backlog produit. - Contribuer à la priorisation et à la planification des sujets dans les sprints. - Traduire les besoins fonctionnels en spécifications techniques exploitables sous différentes solutions (Dataiku, Denodo, Bi….) - Garantir la cohérence entre les attentes métiers et les livrables techniques. Conception et développement - Concevoir et développer des workflows de transformation de données dans Dataiku (visual recipes, Python, SQL, API). - Mettre en place des pipelines automatisés (scénarios, triggers, monitoring). - Intégrer les sources de données internes (SQL, fichiers, cloud, APIs). - Réaliser des tests de qualité et de cohérence des données. - Créer des dashboards et visualisations destinées aux utilisateurs métiers. - Documenter l’ensemble des développements et bonnes pratiques (wiki, Jira, Data Catalog). - Participer à la mise en production et au suivi des traitements automatisés. Collaboration agile et gouvernance - Travailler en étroite collaboration avec le PO pour assurer la livraison des différents projets - Participer aux rituels agiles : daily, sprint planning, review, retrospectives. - Contribuer à la documentation fonctionnelle et technique du produit Data. - Promouvoir les bonnes pratiques Dataiku (modularité, réutilisabilité, qualité, performance). Collaboration agile et gouvernance - Travailler en étroite collaboration avec le PO pour assurer la livraison des différents projets - Participer aux rituels agiles : daily, sprint planning, review, retrospectives. - Contribuer à la documentation fonctionnelle et technique du produit Data. - Promouvoir les bonnes pratiques Dataiku (modularité, réutilisabilité, qualité, performance).
Contractor job
Data engineer (H/F)
Published on
Dataiku
ELK
1 year
400-460 €
Châtillon, Ile-de-France
Hybrid
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Job Vacancy
Expert migration SAS vers Dataiku
Published on
Agile Method
Dataiku
SAS
2 years
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Hybrid
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Job Vacancy
Dev Python Dataiku
Published on
API REST
Dataiku
MySQL
6 months
40k-45k €
100-550 €
Ile-de-France, France
Hybrid
Missions principales 1. Développement & Industrialisation dans Dataiku DSS Développer des recipes Python , SQL , Spark et orchestrer les flows Dataiku. Structurer et optimiser les pipelines : ingestion, préparation, transformation, scoring, export. Gérer et maintenir les environnements Python (code env) dans Dataiku. Intégrer les projets au sein des environnements 2. Automation & Orchestration Mettre en place des scenarios (planification, dépendances, notifications, reprise sur incident). Contribuer à l’ industrialisation des flux et au respect des bonnes pratiques DevOps / DataOps. 3. Qualité, Sécurité & Conformité Implémenter des metrics & checks de qualité de données dans les projets. Respecter les exigences du groupe : sécurité, gouvernance, confidentialité, traçabilité. Documenter les projets dans le Wiki Dataiku 4. Support & Collaboration Travailler avec les équipes Data (Analysts, Scientists, Owners) pour cadrer les besoins. Participer à l’optimisation des performances et à la résolution d’incidents techniques. Contribuer à la montée en compétences des utilisateurs Dataiku (bonnes pratiques, support niveau 2).
Job Vacancy
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Published on
Dataiku
Python
Scripting
6 months
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Job Vacancy
Ingénieur Devops / Dataiku
Published on
Dataiku
IBM Cloud
1 year
40k-45k €
400-500 €
Ile-de-France, France
Hybrid
Ingénieur DevOps / DataikuDescriptif du poste Dans le cadre d'une approche Agile / DevOps, au sein de l'équipe Application Production Support en lien avec le Domaine Data de la DSI, la prestation requise doit apporter le support technique aux projets Data utilisant le produit Dataiku. Vous êtes le relais et garant de la Production tout au long du cycle des produits. Responsabilités principales Gestion technique et support Dataiku Maîtriser et supporter le produit Dataiku Contribuer dans les projets Cloud et dans la prise en compte des exigences de production Participer à la définition des solutions techniques Assurer la veille de la stabilité des environnements techniques (Production / hors Production) via le monitoring et la supervision des solutions techniques Coordination et gestion des incidents Coordonner les actions des autres équipes de la Production sur les tâches projets Coordonner et suivre les actions lors des incidents Mobiliser les personnes nécessaires à leurs résolutions Rédiger les comptes-rendus Participation aux projets Participer aux réunions de l'équipe projet Être partie prenante des activités et des décisions collectives (évaluation de la complexité, des risques, etc.) tout au long du projet Partager largement les bonnes pratiques de production applicative en collaboration avec les Service Reliability Engineer (SRE) et Application Production Support (APS) Collaboration Cloud et automatisation Maintenir une relation étroite avec la Cloud Core Team Leasing afin de s'acculturer de la mise en place du Cloud, notamment pour les pipelines de livraison Assurer le suivi de la mise en place à chaque fois des solutions les plus automatisées possible pour le provisionnement et le déploiement afin de limiter au maximum les tâches manuelles Suivi opérationnel Suivre la MCO, les évolutions des applications, des middlewares et des services de son périmètre de responsabilité Définition de la solution technique Participer à la définition de la solution technique Anticiper les problématiques de conformité Intégrer les exigences de la Production et d'infrastructure Suivre l'ajout des exigences d'infrastructures dans le backlog Produit ainsi que les user stories techniques jugées nécessaires Supporter les équipes de développement Implémenter les user stories techniques Montée en compétence et bonnes pratiques Suivre la montée en compétence de l'équipe sur les bonnes pratiques de production applicative Sensibiliser et propager les bonnes pratiques Former et accompagner les membres dans l'adoption des outils Gestion des ressources et déploiement Suivre et mettre à disposition les ressources de Production et d'infrastructure en facilitant le déploiement des solutions Mettre à disposition de l'équipe les services et ressources de Production en mobilisant les bonnes expertises et en utilisant les solutions d'automatisation Faciliter le déploiement des solutions en utilisant les pipelines d'automatisation Vérifier l'exploitabilité des environnements techniques Contribuer aux revues de sécurité Identifier les points de blocage d'exploitation et proposer des plans d'actions Maintien en conditions opérationnelles Contribuer à la définition des niveaux de services et au Maintien en conditions opérationnelles Mettre en place la surveillance en lien avec les SRE Suivre la disponibilité d'une documentation à jour Suivre l'existence d'un plan de bascule pour la continuité Supporter en cas de blocage ou d'incident sur les livraisons de versions, en escalade des SRE Amélioration continue Contribuer à l'amélioration continue de la production avec les SRE Contribuer à la revue de patrimoine et la gestion de l'obsolescence Profil recherché
Contractor job
Lead Data Quality Analyst
Published on
Dataiku
Qlik
ServiceNow
12 months
600-700 €
Paris, France
Hybrid
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Job Vacancy
Product Owner Data – Expertise Power BI, Dataiku & Tableau
Published on
Data analysis
Dataiku
Product management
2 years
40k-70k €
400-550 €
Ile-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Contractor job
Data Analyst Dataiku (Finance)
Published on
Dataiku
Finance
12 months
400-550 €
Paris, France
Hybrid
Je recherche un Data Analyst Dataiku Finance capable d’exploiter toutes les fonctionnalités de dataiku et de proposer des features innovantes) Expertise Finance : notions comptables ou expériences sur des projets Finance. Connaissance arrêtes comptables (Rythmes … ), familier avec le jargon / notion Compta / Finance Très important maitrise du partionning, du versioning paramétrage avancé des scénarios d’automatisation avec des steps custom en python mise en prod (automation node) d’un projet dataiku avec des contrôles et checks automatisés. Vous serez au cœur de la démarche de pilotage par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité de plusieurs métiers. Les outils utilisés afin de répondre aux besoins de nos clients sont OBIEE Analytics, TABLEAU, SQL, SAS et Dataiku. Exemple d’études qui peuvent être demandées : Mettre en place une solution d’automatisation de la production d’un reporting Automatiser la production du lineage d’un applicatif Organiser des comités de pilotage Construire un dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données Rédiger des spécifications Reporting et extractions Extractions de données, y compris pour la construction des budgets Construire des indicateurs Créer et maintenir des dashboards TABLEAU Suivre les KPI
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
47 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k