Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku
Votre recherche renvoie 44 résultats.
Offre d'emploi
PO DATA - DECISIONNEL
Publiée le
Data management
Dataiku
ETL (Extract-transform-load)
3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Offre d'emploi
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles
Publiée le
Data governance
Databricks
Dataiku
2 ans
40k-45k €
550-770 €
Hauts-de-France, France
Télétravail partiel
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
Offre d'emploi
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)
Publiée le
Cloud
Data science
Dataiku
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Mission freelance
Data Engineer Python / AWS (h/f)
Publiée le
1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Mission freelance
Data Analyst
Publiée le
Data Lake
Data visualisation
Dataiku
2 mois
250 €
Nantes, Pays de la Loire
Télétravail partiel
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Offre d'emploi
Proxy Product Owner – Automatisation des Processus (H/F)
Publiée le
Business Process Model and Notation (BPMN)
Méthode Agile
RPA (Robotic Process Automation)
1 an
50k-70k €
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre programme d’automatisation à l’échelle du Groupe, nous recherchons un Proxy Product Owner spécialisé en automatisation des processus pour accompagner les équipes métiers dans l’identification, la modélisation et l’optimisation des workflows éligibles à l’automatisation (agents IA, Dataiku, automatisations hybrides). Missions principales Identifier et analyser les processus métiers avec les équipes opérationnelles. Modéliser les processus « as-is » et « to-be » en BPMN 2.0. Construire, prioriser et gérer le backlog d’automatisation (epics, user stories, critères d’acceptation). Contribuer à la création des business cases : gains, ROI, KPIs, valeur métier. Travailler en étroite collaboration avec l’équipe de développement Dataiku (design, validation des livrables, amélioration continue). Accompagner le changement, former les équipes et promouvoir la culture de l’automatisation. Compétences requises Maîtrise de BPMN 2.0 et de la modélisation de processus. Expérience en automatisation (RPA, IA, workflow, data-driven). Connaissance de Dataiku (fort atout). Solide culture Agile/Scrum. Excellentes capacités d’analyse, de communication et d’animation d’ateliers. Compréhension des APIs, pipelines data ou orchestrations (appréciée).
Mission freelance
Proxy Product Owner (PO) - Automatisation des Processus
Publiée le
6 mois
500 €
75001, Paris, Île-de-France
Dans le cadre de l'initiative Group Process Automation , nous recherchons un Proxy Product Owner (PO) - Automatisation des Processus pour renforcer notre équipe. Ce rôle sera responsable de la collaboration avec les équipes métiers à travers l'organisation afin d'identifier, évaluer, modéliser et optimiser les processus métiers candidats à l'automatisation via des agents IA et la plateforme Dataiku . Le Proxy PO contribuera à traduire les besoins métiers en exigences d'automatisation concrètes, à construire et prioriser le backlog d'automatisation, et à soutenir l'équipe de développement dans la livraison de workflows automatisés de haute qualité. Le rôle inclut également la participation à la création de business cases, à l'évaluation de la valeur et à la conduite du changement pour assurer l'adoption réussie des solutions automatisées. Objectifs et Livrables Responsabilités Clés 1. Identification et Évaluation des Processus Métiers Collaborer avec les équipes métiers pour comprendre leurs défis opérationnels, workflows et points de douleur. Animer des ateliers et des interviews pour capturer les processus existants (« as-is »). Identifier et qualifier les processus adaptés à l'automatisation (agents IA, schémas RPA, flux Dataiku ou automatisations hybrides). Évaluer la faisabilité de l'automatisation en fonction de la complexité, de la disponibilité des données, des coûts, du potentiel de valeur et des risques. 2. Modélisation des Processus en BPMN 2.0 Modéliser les processus actuels et cibles selon les standards BPMN 2.0. Identifier les inefficacités et opportunités d'amélioration avant automatisation. Produire une documentation claire et détaillée pour soutenir la conception et le développement. Collaborer avec les parties prenantes pour valider et affiner les schémas de processus. 3. Définition du Backlog & Rôle de Product Owner Transformer les besoins métiers et analyses de processus en epics, user stories et critères d'acceptation bien définis. Prioriser le backlog d'automatisation en fonction de la valeur métier, des estimations d'effort et des priorités stratégiques. Servir d'intermédiaire entre les parties prenantes métiers et l'équipe de développement Dataiku. Participer aux cérémonies Agile (raffinements, planification de sprint, démos, rétrospectives). 4. Business Case & Réalisation de la Valeur Aider les équipes métiers à définir les bénéfices financiers et non financiers des initiatives d'automatisation. Estimer les gains potentiels (temps, coûts, réduction des erreurs) et la valeur apportée. Suivre les KPI et indicateurs de succès après mise en œuvre. Contribuer à la gouvernance de la réalisation des bénéfices. 5. Collaboration avec l'Équipe de Développement Dataiku Travailler en étroite collaboration avec les développeurs Dataiku pour garantir la bonne compréhension et mise en œuvre des exigences. Participer aux discussions de conception concernant les agents IA, flux de données, connecteurs et logique d'orchestration. Valider les livrables pour assurer leur conformité avec la logique des processus et les attentes métiers. Fournir des retours et améliorations dans le cadre des cycles de livraison itératifs. 6. Conduite du Changement & Engagement des Parties Prenantes Aider les équipes métiers à se préparer à l'adoption des processus automatisés. Communiquer clairement les avancées, délais et attentes aux parties prenantes à tous les niveaux. Fournir des formations ou transferts de connaissances si nécessaire. Promouvoir la culture de l'automatisation et les bonnes pratiques dans l'organisation. Compétences et Qualifications Requises Compétences Techniques & Fonctionnelles Maîtrise des standards BPMN 2.0 et de la modélisation des processus métiers. Expérience en automatisation des processus (RPA, agents IA, workflows automatisés ou automatisation basée sur les données). Connaissance de Dataiku (fort atout). Bonne compréhension des méthodologies Agile/Scrum. Capacité à traduire les besoins métiers en exigences fonctionnelles et techniques. Expérience dans la création de business cases et l'évaluation ROI/valeur. Compréhension basique des API, pipelines de données ou orchestration de workflows. Compétences d'Analyse & Résolution de Problèmes Excellente capacité à analyser des processus métiers complexes. Approche orientée résolution, avec un esprit d'optimisation et de simplification. Capacité à challenger les pratiques existantes et proposer des améliorations. Compétences Interpersonnelles & Communication Excellentes compétences en communication écrite et orale, avec la capacité d'interagir avec des interlocuteurs techniques et non techniques. Solides compétences en animation d'ateliers, interviews et sessions de découverte de processus. Capacité à conduire des discussions, gérer les attentes et influencer les décisions. Expérience Professionnelle 8 à 10 ans d'expérience en gestion des processus, analyse métier, automatisation ou domaines similaires. Expérience préalable dans des initiatives RPA/IPA ou des centres d'excellence en automatisation (atout). Expérience dans des environnements transverses et internationaux.
Mission freelance
Proxy Product Owner (h/f)
Publiée le
1 mois
490-510 €
92400, Saint-Germain-en-Laye, Île-de-France
Télétravail partiel
Résumé: Ce poste de Proxy Product Owner (PO) est dédié à l'automatisation des processus au sein d'une équipe dynamique. Le principal objectif du PO est de collaborer avec les équipes commerciales pour identifier et optimiser les processus pouvant être automatisés, tout en garantissant que les solutions répondent aux besoins business et soient adoptées efficacement par l'organisation. Responsabilités: Identification et évaluation des processus métier Modélisation des processus avec BPMN 2.0 Définition du backlog et gestion du produit Analyse de rentabilité et réalisation de la valeur Collaboration avec l'équipe de développement Dataiku Gestion du changement et engagement des parties prenantes Compétences: Expérience professionnelle: 8 à 10 ans Solide connaissance du BPMN 2.0 Expérience en automatisation des processus (RPA, agents IA) Connaissance de Dataiku Compréhension des méthodologies Agile/Scrum Capacité à traduire les besoins commerciaux en exigences fonctionnelles Autres détails: Localisation: La Défense Durée de la mission: +1 an Télétravail: 2 jours par semaine
Mission freelance
Chef de projet technico-fonctionnel Soliam
Publiée le
Java
PL/SQL
3 mois
400-550 €
Île-de-France, France
Dans le cadre du maintien en condition opérationnelle et de projets d’évolution d’applications critiques, nous recherchons un Chef de Projet IT technico-fonctionnel senior , autonome et expérimenté, capable d’intervenir à la fois sur les aspects métiers, techniques et de coordination . Le poste nécessite une forte capacité d’analyse, une bonne culture de la production informatique et une aisance dans les échanges avec des interlocuteurs variés (équipes IT, production, éditeur, développeurs, métiers). En responsabilité directe et en autonomie Analyse des besoins métiers et conception de solutions Rédaction des spécifications fonctionnelles générales et détaillées Réalisations sur les batchs PL/SQL et la structure des bases Oracle dans le cadre du MCO et des projets Accompagnement et rôle de Tech Lead sur les outils de la chaîne CI/CD : Git Jenkins Sonar Pilotage et/ou participation aux recettes fonctionnelles et techniques Coordination des travaux avec les équipes métiers et les partenaires externes Une bonne connaissance de Java est requise afin de challenger les chiffrages, choix techniques et solutions proposées sur les interfaces Front Java / Angular . En contribution aux projets de l’équipe Coordination des actions entre éditeur, développeurs et équipes IT Contribution aux analyses de logs Java Réalisation d’ études techniques : automatisation d’extractions automatisation des suivis de production Participation aux recettes Python / Dataiku dans le cadre de projets de modernisation (remplacement d’outils existants)
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier
Publiée le
Backlog management
Cloudera
Data governance
12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
44 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois