Find your next tech and IT Job or contract Dataiku

Your search returns 47 results.
Contractor

Contractor job
Développeur Dataiku (Tours)

Published on
Dataiku

12 months
420-460 €
Tours, Centre-Val de Loire
Hybrid
En quelques mots Cherry Pick est à la recherche d'un Développeur Dataiku(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Assurance. Description 🌍 Contexte de la mission Dans le cadre d’une stratégie globale de modernisation du SI et d’optimisation des processus analytiques, une mission est ouverte pour accompagner la migration d’un patrimoine applicatif historique développé sous SAS vers une plateforme Dataiku . L’objectif est d’améliorer les capacités d’analyse, d’intégrer de nouvelles fonctionnalités data, et de réduire les coûts opérationnels. Le consultant interviendra à la fois en suivi de projet et en réalisation opérationnelle , au sein d’équipes Data & IT déjà structurées. La mission débute à 100% sur site lors du lancement. 🎯 Objectifs de la mission Assurer le suivi et le pilotage de différents projets data. Accompagner et exécuter la migration des programmes SAS vers Dataiku. Garantir la qualité des programmes migrés par des tests rigoureux. Fiabiliser et moderniser l’écosystème analytique. 🧩 Missions principales et rôle 🔎 Analyse & préparation Auditer les programmes SAS existants pour comprendre le fonctionnement, les dépendances et les cas particuliers. Établir un plan de migration détaillé : étapes, ressources requises, planning prévisionnel. 🔁 Migration & développement Réécrire ou adapter les programmes SAS dans Dataiku. Intégrer les bonnes pratiques de développement et les fonctionnalités natives de la plateforme. ✅ Tests & validation Définir un processus de test complet pour garantir la conformité fonctionnelle et technique. Vérifier la cohérence des résultats entre SAS et Dataiku. 📊 Suivi de projet & coordination Suivre l'avancement des travaux et produire les reportings associés. Participer au support projet et à la résolution des blocages. Utiliser les outils de pilotage (Jira). 💼 Livrables attendus Audit des programmes SAS existants. Plan de migration détaillé. Programmes migrés et documentés sous Dataiku. Jeux de tests et rapports de validation. Suivi projet + reportings réguliers.
Contractor
Permanent

Job Vacancy
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU

Published on
Azure
Databricks
Dataiku

3 years
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Contractor

Contractor job
Data Engineer

Published on
Data analysis
Dataiku
ELK

3 months
300-550 €
Châtillon, Ile-de-France
Hybrid
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Contractor
Permanent

Job Vacancy
Ingénieur Devops / Dataiku

Published on
Cloud
Dataiku

1 year
40k-45k €
400-500 €
Ile-de-France, France
Hybrid
Ingénieur DevOps / Dataiku Dans le cadre d'une approche Agile / DevOps, au sein de l'équipe Application Production Support en lien avec le Domaine Data de la DSI, la prestation requise doit apporter le support technique aux projets Data utilisant le produit Dataiku. Missions principales Maîtrise du produit Dataiku Maîtrise des installations en environnement Cloud IBM Relais et garant de la Production tout au long du cycle des produits Responsabilités Contribution dans les projets Cloud et dans la prise en compte des exigences de production Participation à la définition des solutions techniques Veille de la stabilité des environnements techniques (Production/hors Production) via le monitoring et la supervision des solutions techniques Coordination des actions des autres équipes de la Production sur les tâches projets Coordination et suivi des actions lors des incidents Mobilisation des personnes nécessaires à la résolution des incidents Rédaction des comptes-rendus Activités détaillées Participation aux réunions de l'équipe projet Partie prenante des activités et des décisions collectives Collaboration avec les Service Reliability Engineer (SRE) et Application Production Support (APS) Relation étroite avec la Cloud Core Team Mise en place de solutions automatisées pour le provisionnement et le déploiement Suivi de la Maintien en Conditions Opérationnelles (MCO) Suivi des évolutions des applications, middlewares et services Formations requises Cloud 101 – les bases Cloud OPS Bronze – niveau intermédiaire Compétences attendues Bonne capacité de communication Travail en équipe Partage d'informations utiles Faculté d'adaptation Autonomie Organisation Reporting de son activité Documentation
Contractor
Permanent

Job Vacancy
Data Manager

Published on
Dataiku
Microsoft SQL Server
Sass

1 year
40k-45k €
330-540 €
Paris, France
Hybrid
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
Contractor
Permanent

Job Vacancy
DATA ENGINEER SENIOR SCALA / PYSPARK / DATABRICKS / POWER BI

Published on
Dataiku
Microsoft Power BI
Python

3 years
40k-60k €
400-550 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Contractor

Contractor job
Proxy PO senior automatisation des processus / BPMN 2.0 / DATAIKU (H/F)

Published on
Business Process Model and Notation (BPMN)
Dataiku
Product management

3 months
480-550 €
La Défense, Ile-de-France
Nous recherchons pour le compte de notre client dans le domaine bancaire, un proxy po ayant de solides compétences sur BPMN 2.0 et expert dans la modélisation des processus métiers Contexte : Dans le cadre de l'initiative d'automatisation des processus du groupe, nous recherchons un Proxy Product Owner (PO) – Automatisation des processus pour renforcer l'équipe de notre client. Missions : Collaborer avec les équipes commerciales de l'ensemble de l'organisation afin d'identifier, d'évaluer, de modéliser et d'optimiser les processus commerciaux susceptibles d'être automatisés à l'aide d'agents IA et de la plateforme Dataiku. Aider à traduire les besoins commerciaux en exigences d'automatisation réalisables, à établir et hiérarchiser les tâches d'automatisation en attente, et à aider l'équipe de développement à fournir des flux de travail automatisés de haute qualité. Contribution à la création d'analyses de rentabilité, à l'évaluation de la valeur et à la gestion du changement afin de garantir l'adoption réussie des solutions automatisées. Responsabilités principales : 1. Identification et évaluation des processus métier • Collaborer avec les équipes métier pour comprendre leurs défis opérationnels, leurs workflows et leurs points faibles. • Animer des ateliers et des entretiens pour cerner les processus existants. • Identifier et qualifier les processus adaptés à l'automatisation (agents IA, modèles de type RPA, flux Dataiku ou automatisations hybrides). • Évaluer la faisabilité de l'automatisation en fonction de la complexité des processus, de la disponibilité des données, du coût, du potentiel de valeur et des risques. 2. Modélisation des processus BPMN 2.0 • Modéliser les processus actuels et cibles à l'aide des normes BPMN 2.0. • Identifier les inefficacités et les possibilités d'amélioration avant l'automatisation. • Produire une documentation claire et détaillée sur les processus afin de soutenir la conception et le développement. • Collaborer avec les parties prenantes commerciales afin de valider et d'affiner les cartes de processus. 3. Définition du backlog et propriété du produit • Transformer les besoins métier et les analyses de processus en épopées, récits d'utilisateurs et critères d'acceptation bien définis. • Hiérarchiser le backlog d'automatisation en fonction de la valeur métier, des estimations d'effort et des priorités stratégiques. • Servir d'intermédiaire entre les parties prenantes métier et l'équipe de développement Dataiku. • Participer aux cérémonies Agile (affinements, planification de sprints, démonstrations, rétrospectives). 4. Analyse de rentabilité et réalisation de la valeur • Aider les équipes commerciales à définir les avantages financiers et non financiers des initiatives d'automatisation. • Estimer les économies potentielles (temps, coûts, réduction des erreurs) et la valeur apportée. • Suivre les indicateurs clés de performance et les mesures de réussite des projets d'automatisation après leur mise en œuvre. • Contribuer à la gouvernance de la réalisation des avantages. 5. Collaboration avec l'équipe de développement de l'automatisation Dataiku • Travailler en étroite collaboration avec les développeurs Dataiku pour s'assurer que les exigences sont correctement comprises et mises en œuvre. • Participer aux discussions sur la conception de solutions concernant les agents IA, les flux de données, les connecteurs et la logique d'orchestration. • Valider les livrables pour s'assurer qu'ils sont conformes à la logique des processus et aux attentes de l'entreprise. • Fournir des commentaires et des améliorations continus dans le cadre de cycles de livraison itératifs. 6. Gestion du changement et engagement des parties prenantes • Aider les équipes commerciales à se préparer à l'adoption de processus automatisés. • Communiquer clairement les progrès, les délais et les attentes aux parties prenantes à tous les niveaux. • Fournir une formation ou un transfert de connaissances si nécessaire. • Promouvoir la culture de l'automatisation et les meilleures pratiques dans toute l'organisation.
Contractor

Contractor job
Machine Learning Engineer (Détection des fraudes)

Published on
Data science
Dataiku
Machine Learning

4 months
580-600 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Contractor
Permanent

Job Vacancy
Data Engineer

Published on
Dataiku
Microsoft Power BI
PySpark

1 year
40k-45k €
400-690 €
Paris, France
Hybrid
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Contractor
Permanent

Job Vacancy
Business Analyst Data & IA

Published on
AI
Business Analysis
Dataiku

1 year
40k-45k €
400-620 €
Paris, France
Hybrid
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Contractor
Permanent

Job Vacancy
Machine Learning Engineer

Published on
Computer vision
Dataiku
Python

6 months
Paris, France
Nous recherchons un(e) Machine Learning Engineer . Vous intégrerez l’équipe Data et participerez au déploiement d’algorithmes de Machine Learning et de Generative AI sur la plateforme de données (Google Cloud Platform). En étroite collaboration avec le responsable Data, les Product Owners et les équipes métiers, vous serez impliqué(e) dans toutes les étapes de réflexion et de mise en œuvre des solutions IA/ML Missions : Sensibiliser les équipes aux concepts et bénéfices du Machine Learning et de la Generative AI Recueillir et analyser les besoins métiers pour des solutions IA/ML Étudier et évaluer les solutions du marché répondant aux besoins métiers Préparer et transformer les données pour les algorithmes Tester, valider et sélectionner les algorithmes de Machine Learning et d’intelligence artificielle Mettre en place un système de monitoring des résultats des algorithmes (ML Ops) Développer des modules de code réutilisables (préprocessing, entraînement, postprocessing, déploiement) Créer des interfaces utilisateurs pour exploiter les modèles développés Rédiger la documentation technique et fonctionnelle
Contractor
Permanent

Job Vacancy
Delivery Manger

Published on
Dataiku
Project management

1 year
40k-45k €
250-700 €
Paris, France
Hybrid
Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Responsabilités Gestion de la livraison : Supervisation de l'ensemble du cycle de vie du projet, en garantissant la livraison des solutions dans les délais impartis, tout en respectant les contraintes budgétaires et les exigences de qualité. Coordonnation des équipes pluridisciplinaires (IT, métiers, partenaires externes) et participer à la synchronisation des différents projets du programme. Suivre l'avancement du projet et communiquer à la Direction de Programme les indicateurs de performance du projet. Gestion des risques et des dépendances : Identification, évaluation et suivi des risques liés à la livraison du projet en mettant en place des plans d'action correctifs pour minimiser leur impact. Suivre les adhérences entre les différents projets du programme en s'assurant que les interfaces et les intégrations soient optimisées et sans friction. Collaboration avec la Direction de Programme et les Parties Prenantes : Suivre une communication fluide et transparente avec les parties prenantes, notamment avec la Direction de Programme. Préparation et animer les comités de suivi et de pilotage du projet. Suivi de l'alignement des objectifs stratégiques avec les actions opérationnelles menées sur le terrain.
Contractor

Contractor job
Senior Data / IA engineer (dataiku)

Published on
Dataiku
DevOps
Large Language Model (LLM)

3 years
Ile-de-France, France
Hybrid
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office , au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. Donner le pouvoir de la donnée aux décisions Notre client est un acteur européen majeur dans le secteur financier , connectant les économies locales aux marchés mondiaux. Présent dans plusieurs pays d’Europe, il propose des services de négociation, compensation et cotation pour une large gamme de classes d’actifs : actions, dérivés, matières premières, etc. La donnée est au cœur de ses opérations et de sa stratégie d’innovation — elle permet des décisions plus intelligentes, des processus plus fluides et des solutions de pointe. Rejoignez l’équipe et contribuez à façonner l’avenir des marchés financiers grâce à une ingénierie data scalable et à fort impact. Vos missions En tant que Senior Data / AI Engineer (Dataiku) , vous serez amené(e) à : Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Contribuer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe.
Permanent
Fixed term

Job Vacancy
Consultant(e) Dataiku

Published on
Dataiku
DSS
Python

12 months
Ile-de-France, France
Hybrid
Hexateam est un acteur incontournable du conseil et des services en technologies de l'information, accompagnant les organisations dans leur transformation digitale et l'amélioration de leurs performances. Nous recherchons un(e) Consultant(e) Dataiku DSS afin d’accompagner nos clients dans l’optimisation, l’industrialisation et la gouvernance de leurs environnements Dataiku. En tant que Consultant Dataiku, vos responsabilités incluront : Gestion & Monitoring Mettre en place des solutions de monitoring des environnements Dataiku. Suivre et optimiser l’utilisation des ressources et l’activité des utilisateurs. Concevoir des tableaux de bord interactifs pour assurer visibilité et pilotage. Audit & Accompagnement métiers Recueillir les besoins des équipes métiers et comprendre leurs enjeux. Réaliser des audits des projets Dataiku existants. Proposer des recommandations et assurer un accompagnement sur mesure. FinOps & Optimisation Suivre la consommation des ressources (CPU, RAM, bases de données, cloud). Mettre en place des indicateurs et tableaux de bord pour optimiser les coûts. Support & Industrialisation Diffuser les bonnes pratiques de développement sur Dataiku. Accompagner les utilisateurs dans l’industrialisation et la mise en production de leurs projets. Former et sensibiliser les équipes aux concepts et usages avancés de Dataiku. Développer des solutions personnalisées (plugins, automatisations, data quality).
Contractor

Contractor job
Ingénieur Dataiku data science Technico fonctionnel 450 e/ j

Published on
Agile Scrum
Dataiku

2 years
400-450 €
Ile-de-France, France
Hybrid
Ingénieur Dataiku data science Technico fonctionnel 450 e/ j Nous sommes à la recherche d'un consultant Dataiku à la recherche d’un profil dataiku dispo immédiatement Technico fonctionnel Maitrisant Product Owner PO et Dataiku Les deux composantes PO + dev dataiku sont obligatoires Maitrisant l'agilité , le développement Dataiku. Avoir une bonne capacité d'adaptation , une excellente expression ecrite et orale . Bonne présentation. Ingénieur Dataiku data science Technico fonctionnel. Mission en region Parisienne 450 e par j
Contractor
Permanent

Job Vacancy
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles

Published on
Data governance
Databricks
Dataiku

2 years
40k-45k €
550-770 €
Hauts-de-France, France
Hybrid
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
47 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us