Find your next tech and IT Job or contract Dataiku

Your search returns 47 results.
Contractor

Contractor job
Product Owner Data / IA / RPA – Valorisation de la Donnée

Published on
Dataiku
MLOps
Robotic Process Automation (RPA)

12 months
420 €
Niort, Nouvelle-Aquitaine
Hybrid
Dans le cadre de sa stratégie de transformation 2025–2026 , notre client souhaite renforcer son dispositif autour de la valorisation de la donnée et de l’ industrialisation des cas d’usage Data, IA et RPA . L’objectif est d’accompagner l’équipe de développement DATA dans la structuration, la priorisation et la livraison de produits à forte valeur ajoutée, tout en garantissant leur alignement avec les besoins métiers. Rattaché(e) au manager de l’équipe Data , vous jouerez un rôle clé de pivot entre les métiers et les équipes techniques , de la détection des opportunités jusqu’à la mise en production. Vous serez garant(e) de la valeur métier et de l’ impact opérationnel des solutions développées. MISSIONS PRINCIPALES Pilotage et valorisation des initiatives Data / IA / RPA • Identifier, cadrer et prioriser les cas d’usage Data, IA, RPA et MLOps en lien avec les directions métiers. • Challenger les besoins exprimés et accompagner les métiers dans la définition de la valeur ajoutée (quantitative, qualitative, expérience collaborateur). • Animer les comités Data & Innovation et coordonner les différentes parties prenantes (métiers, IT, data scientists, développeurs). • Porter les sujets d’innovation à fort impact métier : automatisation, intelligence artificielle, machine learning. • Aider à la rédaction des études de solution et à la formalisation des modèles opérationnels . Suivi de la structuration et de la livraison des produits • Prioriser les développements au sein des squads en fonction de la valeur business. • Suivre la conception, le développement et la livraison des produits Data. • Contribuer à l’ amélioration continue des pratiques et au modèle opérationnel de l’équipe Data. • Mesurer les résultats et assurer le reporting de la valeur produite . LIVRABLES ATTENDUS • Animation et comptes rendus de comités Data / IA / RPA. • Cadrage et documentation des cas d’usage Data et IA. • Études de solution détaillées et modélisation des processus opérationnels. • Plans d’action et priorisation des initiatives. • Reporting de la valeur métier générée (KPI de performance et d’impact).
Contractor
Permanent

Job Vacancy
PO DATA - DECISIONNEL

Published on
Data management
Dataiku
ETL (Extract-transform-load)

3 years
40k-70k €
400-600 €
Nanterre, Ile-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Contractor

Contractor job
Data Engineer

Published on
Apache Airflow
AWS Cloud
Dataiku

12 months
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Contractor

Contractor job
Data Scientist IA & ML

Published on
AI
Data analysis
Data science

6 months
500-560 €
Ile-de-France, France
Hybrid
Contexte Dans le cadre de la refonte du dispositif de surveillance des opérations bancaires (LCB-FT), nous recherchons un(e) consultant(e) spécialisé(e) en Intelligence Artificielle et Machine Learning pour accompagner le développement d’une solution interne innovante. La mission s’inscrit au sein d’une équipe projet pluridisciplinaire composée de métiers conformité, IT, gestion de projet et data science. Objectifs principaux Réduire significativement les faux positifs dans la détection des opérations atypiques. Optimiser l’efficacité du processus de surveillance et d’investigation. Identifier de nouveaux patterns de comportements suspects et améliorer les scénarios d’alerte. Missions Modélisation et scoring Élaboration de modèles de données adaptés à la conformité. Révision du scoring client, segmentation et seuils d’alerte. Optimisation des alertes Réduction des alertes non pertinentes. Optimisation des analyses et investigations. Feature engineering Sélection et validation des variables pertinentes pour améliorer les modèles. Machine Learning Mise en œuvre combinée de modèles supervisés et non supervisés. Détection de comportements suspects et réduction des faux positifs. Conseil technique et stratégique Adaptation aux typologies clients, produits, services et entités multiples. Accompagnement projet Participation aux études, cadrage, recette et suivi des comités. Contribution à la rédaction des livrables (expression de besoins, cahiers des charges, procédures). Données et outils Données disponibles : Historique des opérations bancaires, informations KYC, comportements transactionnels, relations et patterns connus. Outils / architecture : Dataiku, Python. Mode de fonctionnement : batch et temps réel. Contraintes réglementaires : Gouvernance robuste, forte explicabilité des modèles et auditabilité. Livrables attendus Prototype opérationnel d’un modèle ML exploitable . Documentation technique et guidelines d’industrialisation. Suivi et reporting auprès des équipes métier et IT. Profil recherché Expertise en Machine Learning et IA appliqués à la conformité bancaire . Capacité à travailler de manière autonome tout en interagissant régulièrement avec les équipes métier et IT. Expérience sur Dataiku et Python fortement souhaitée. Maîtrise des contraintes réglementaires et capacité à produire des modèles explicables et auditables .
Permanent
Contractor

Job Vacancy
Data Product Owner

Published on
Data science
Dataiku
MLOps

2 years
40k-52k €
400-450 €
Niort, Nouvelle-Aquitaine
Hybrid
📢 [CDI] Product Owner Data – RPA / MLOps / Data Science 🎯 Votre mission sera de faire le lien critique entre les besoins des experts fonctionnels (gestionnaires de contrats, actuaires, équipes commerciales....) et la réalité technique des squads de développement. Vous contribuerez au déploiement des offres de services de cette équipe nouvellement créée, ainsi qu'à la contribution du modèle opérationnel. Vous serez responsable de la définition, de la priorisation et de la livraison d'un portefeuille de produits data qui auront un impact direct et mesurable sur la performance de l'entreprise et la satisfaction de nos assurés. 📍 Niort – 3j sur site / 2j TT 🧠 +7 ans d'expérience 🔧 Stack : RPA, MLOps, Data Science, Dataku 💼 Contexte agile / data / automatisation
Contractor
Permanent

Job Vacancy
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)

Published on
Cloud
Data science
Dataiku

1 year
Niort, Nouvelle-Aquitaine
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Contractor

Contractor job
Data Analyst

Published on
Data Lake
Data visualisation
Dataiku

2 months
250 €
Nantes, Pays de la Loire
Hybrid
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Contractor

Contractor job
Ingénieur Production Data

Published on
Agile Scrum
AWS Cloud
Data analysis

12 months
400-550 €
Paris, France
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Contractor

Contractor job
Proxy Product Owner (h/f)

Published on

1 month
490-510 €
92400, Saint-Germain-en-Laye, Île-de-France
Hybrid
Résumé: Ce poste de Proxy Product Owner (PO) est dédié à l'automatisation des processus au sein d'une équipe dynamique. Le principal objectif du PO est de collaborer avec les équipes commerciales pour identifier et optimiser les processus pouvant être automatisés, tout en garantissant que les solutions répondent aux besoins business et soient adoptées efficacement par l'organisation. Responsabilités: Identification et évaluation des processus métier Modélisation des processus avec BPMN 2.0 Définition du backlog et gestion du produit Analyse de rentabilité et réalisation de la valeur Collaboration avec l'équipe de développement Dataiku Gestion du changement et engagement des parties prenantes Compétences: Expérience professionnelle: 8 à 10 ans Solide connaissance du BPMN 2.0 Expérience en automatisation des processus (RPA, agents IA) Connaissance de Dataiku Compréhension des méthodologies Agile/Scrum Capacité à traduire les besoins commerciaux en exigences fonctionnelles Autres détails: Localisation: La Défense Durée de la mission: +1 an Télétravail: 2 jours par semaine
Contractor

Contractor job
Proxy Product Owner (PO) - Automatisation des Processus

Published on

6 months
500 €
75001, Paris, Île-de-France
Dans le cadre de l'initiative Group Process Automation , nous recherchons un Proxy Product Owner (PO) - Automatisation des Processus pour renforcer notre équipe. Ce rôle sera responsable de la collaboration avec les équipes métiers à travers l'organisation afin d'identifier, évaluer, modéliser et optimiser les processus métiers candidats à l'automatisation via des agents IA et la plateforme Dataiku . Le Proxy PO contribuera à traduire les besoins métiers en exigences d'automatisation concrètes, à construire et prioriser le backlog d'automatisation, et à soutenir l'équipe de développement dans la livraison de workflows automatisés de haute qualité. Le rôle inclut également la participation à la création de business cases, à l'évaluation de la valeur et à la conduite du changement pour assurer l'adoption réussie des solutions automatisées. Objectifs et Livrables Responsabilités Clés 1. Identification et Évaluation des Processus Métiers Collaborer avec les équipes métiers pour comprendre leurs défis opérationnels, workflows et points de douleur. Animer des ateliers et des interviews pour capturer les processus existants (« as-is »). Identifier et qualifier les processus adaptés à l'automatisation (agents IA, schémas RPA, flux Dataiku ou automatisations hybrides). Évaluer la faisabilité de l'automatisation en fonction de la complexité, de la disponibilité des données, des coûts, du potentiel de valeur et des risques. 2. Modélisation des Processus en BPMN 2.0 Modéliser les processus actuels et cibles selon les standards BPMN 2.0. Identifier les inefficacités et opportunités d'amélioration avant automatisation. Produire une documentation claire et détaillée pour soutenir la conception et le développement. Collaborer avec les parties prenantes pour valider et affiner les schémas de processus. 3. Définition du Backlog & Rôle de Product Owner Transformer les besoins métiers et analyses de processus en epics, user stories et critères d'acceptation bien définis. Prioriser le backlog d'automatisation en fonction de la valeur métier, des estimations d'effort et des priorités stratégiques. Servir d'intermédiaire entre les parties prenantes métiers et l'équipe de développement Dataiku. Participer aux cérémonies Agile (raffinements, planification de sprint, démos, rétrospectives). 4. Business Case & Réalisation de la Valeur Aider les équipes métiers à définir les bénéfices financiers et non financiers des initiatives d'automatisation. Estimer les gains potentiels (temps, coûts, réduction des erreurs) et la valeur apportée. Suivre les KPI et indicateurs de succès après mise en œuvre. Contribuer à la gouvernance de la réalisation des bénéfices. 5. Collaboration avec l'Équipe de Développement Dataiku Travailler en étroite collaboration avec les développeurs Dataiku pour garantir la bonne compréhension et mise en œuvre des exigences. Participer aux discussions de conception concernant les agents IA, flux de données, connecteurs et logique d'orchestration. Valider les livrables pour assurer leur conformité avec la logique des processus et les attentes métiers. Fournir des retours et améliorations dans le cadre des cycles de livraison itératifs. 6. Conduite du Changement & Engagement des Parties Prenantes Aider les équipes métiers à se préparer à l'adoption des processus automatisés. Communiquer clairement les avancées, délais et attentes aux parties prenantes à tous les niveaux. Fournir des formations ou transferts de connaissances si nécessaire. Promouvoir la culture de l'automatisation et les bonnes pratiques dans l'organisation. Compétences et Qualifications Requises Compétences Techniques & Fonctionnelles Maîtrise des standards BPMN 2.0 et de la modélisation des processus métiers. Expérience en automatisation des processus (RPA, agents IA, workflows automatisés ou automatisation basée sur les données). Connaissance de Dataiku (fort atout). Bonne compréhension des méthodologies Agile/Scrum. Capacité à traduire les besoins métiers en exigences fonctionnelles et techniques. Expérience dans la création de business cases et l'évaluation ROI/valeur. Compréhension basique des API, pipelines de données ou orchestration de workflows. Compétences d'Analyse & Résolution de Problèmes Excellente capacité à analyser des processus métiers complexes. Approche orientée résolution, avec un esprit d'optimisation et de simplification. Capacité à challenger les pratiques existantes et proposer des améliorations. Compétences Interpersonnelles & Communication Excellentes compétences en communication écrite et orale, avec la capacité d'interagir avec des interlocuteurs techniques et non techniques. Solides compétences en animation d'ateliers, interviews et sessions de découverte de processus. Capacité à conduire des discussions, gérer les attentes et influencer les décisions. Expérience Professionnelle 8 à 10 ans d'expérience en gestion des processus, analyse métier, automatisation ou domaines similaires. Expérience préalable dans des initiatives RPA/IPA ou des centres d'excellence en automatisation (atout). Expérience dans des environnements transverses et internationaux.
Contractor

Contractor job
Expert MlOps Data IA / LLM(Secteur Bancaire)

Published on
AI
API Platform
Azure Data Factory

12 months
550-600 €
Paris, France
Le Lab Data connaît une forte accélération et un passage à l’échelle. Les équipes construisent et opèrent un Data Mesh , un Datalake , ainsi qu’une plateforme complète permettant de rendre accessibles les données, les analytics et les produits IA. Le périmètre inclut : Conception du magasin Workspace pour accès aux données Connectivité avancée du Data Lab Mise en production de nombreux agents et modèles (≈60) Montée en puissance sur l’ observabilité , le Go-to-Market , l’orchestration, et l’optimisation de la vitesse de livraison L’objectif : accélérer , scaler , et professionnaliser la chaîne de valeur Data & IA pour soutenir une croissance forte du nombre d’utilisateurs. Mission principale Rejoindre le Lab Data pour : Accélérer l’évolution du Data Mesh et du Datalake Renforcer l’observabilité, la qualité, et la fiabilité des pipelines Structurer et opérer la plateforme agentique (LLM, agents, graph, orchestration) Améliorer la vitesse et la maturité en production (MLOps & LLMOps) Accompagner l’onboarding rapide des nouveaux utilisateurs et experts Contribuer au Go-to-Market et à la montée en maturité du produit Participer au développement interne des outils d’automatisation et d’orchestration Responsabilités clésData Engineering & Analytics Développer et opérer des pipelines Spark / SQL performants Contribuer au Data Mesh, Datalake, et aux connecteurs Workspace Gestion de la consommation via API, Spark, Elastic Search Déploiement et optimisation Power BI & DataViz avancée Participer à la construction du catalogue de données / agents Orchestration & Infrastructure Concevoir et opérer les workflows sur Kubernetes Infrastructure as Code (Terraform – un plus) Observabilité appliquée au Data & IA (logs, metrics, traces) Contribution à la refonte de n8n interne Gestion DAG & orchestrateurs internes / agentiques ML Ops & LLM Ops Gestion du cycle de vie ML & LLM Mise en production d’agents LLM (60+ agents en prod) Context engineering : gestion dynamique du contexte partagé, hiérarchie, rationalisation Deep Search, Knowledge Graph, Neo Forging Monitoring, optimisation et sécurité des modèles Plateforme agentique : supervision, versioning, fiabilité Développement Applicatif API robustes (Python / FastAPI) Application front (React – un plus, avec sensibilité design) Automatisation et intégration dans la plateforme
Contractor
Permanent

Job Vacancy
Lead Data Engineer (H/F)

Published on
Apache Spark
Big Data
Data management

3 years
40k-71k €
400-700 €
Ile-de-France, France
Hybrid
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Permanent

Job Vacancy
Business Analyst - Cognos - Confirmé

Published on
Agile Method
Cognos
MySQL

35k-40k €
Ile-de-France, France
Hybrid
🎯 Objectif de la mission La prestation vise à soutenir le PO dans : La collecte, l’analyse et la formalisation des besoins métiers. La conception de rapports BI et le prototypage de certaines User Stories . La participation active aux phases de tests et de validation du produit. L’encadrement et l’animation d’ateliers fonctionnels avec les parties prenantes. Une solide connaissance Data est requise pour intervenir efficacement sur les aspects d’analyse, de modélisation et de prototypage. 🛠️ Missions principales Rédaction et structuration des User Stories . Rédaction des cas de tests . Animation des workshops de design avec le PO et les équipes métiers. Exécution et formalisation des tests fonctionnels. Gestion de la relation et coordination avec l’équipe de développement. Contribution au pilotage Agile d’un produit de type BI . Analyse de données en SQL , avec montée en compétence attendue sur Dataiku .
Contractor
Permanent

Job Vacancy
Data Engineer AWS / Spark / Scala /Python

Published on
Apache Spark
PySpark
Scala

1 year
40k-56k €
400-600 €
Paris, France
Hybrid
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Contractor
Permanent

Job Vacancy
Ingénieur(e) Production AWS

Published on
Agile Scrum
AWS Cloud
GitLab CI

1 year
40k-82k €
500-960 €
Ile-de-France, France
Hybrid
Contexte : Dans le cadre du projet Data de l'un de nos clients, nous recherchons un Ingénieur Production Data chargé d’assurer le lien entre les environnements Infra/DevOps sur AWS et les plateformes Big Data, en coordination avec l’architecte cloud, le tech lead et les data engineers. Missions principales : Administration et exploitation de la plateforme Data : Assurer l’administration des composants clés de la plateforme Data (Dataiku & CloudBeaver) Garantir la disponibilité, la performance et l’évolution des environnements d’analytique et de data science. Accompagner les utilisateurs dans la mise en œuvre des bonnes pratiques et l’industrialisation des projets métiers. Evolution et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagnement utilisateurs sur les best practices et l’industrialisation des projets métiers. Support et expertise technique : Prise en charge de la résolution des incidents affectant les environnements Data. Apporter un appui technique aux équipes internes sur les choix d’architecture et d’implémentation. Réalisation des audits techniques, analyses de performance ou preuves de concept afin d’optimiser les solutions existantes. Évolution et modernisation de l’infrastructure : Évaluation de l’existant et proposition d'une trajectoire de modernisation vers des architectures cloud natives. Intégrer les pratiques DevOps (Infrastructure as Code, CI/CD, automatisation) et FinOps dans les nouveaux déploiements. Conception et implémentation de nouveaux schémas d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel).
47 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us