Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku
Votre recherche renvoie 50 résultats.
Offre d'emploi
Data Analyste Expert Dataiku
VISIAN
Publiée le
Dataiku
1 an
40k-45k €
400-560 €
Paris, France
Descriptif du poste La mission se déroulera au sein de l'équipe de la direction pour prendre en charge la modélisation sous Dataiku d'un programme data pour la Direction Finance. La mission nécessite une expertise forte sur Dataiku en data analyse (minimum 5 ans de développement sous Dataiku) pour maintenir un flux complexe existant, l'optimiser et développer et automatiser de nouveaux flux suite à l'évolution du projet. Par ailleurs, le Métier Finance impose un respect de jalons de livraison très précis (clôtures comptables régulières notamment) et une réactivité très forte dans la correction des anomalies. Vos principales responsabilités seront : Développement sous Dataiku pour répondre à un cahier des charges précis demandé par la Direction Finance (format de sortie imposé) Maintenance du flux déjà développé et optimisation des différentes étapes Proposition de features innovantes pour optimiser le flux Mise en production dans l'automation node, paramétrage avancé des scénarios d'automatisation qui peuvent utiliser des steps custom en Python Mise en place de contrôles et de checks automatisés Animation d'atelier, participation au Comité de pilotage du projet (en binôme avec un autre data analyste)
Offre d'emploi
Ingénieur Dataiku / Expert Dataiku DSS
VISIAN
Publiée le
Dataiku
Docker
1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation dans le cadre d'intégration de technologies Dataviz au sein du système d'information, dans un contexte de besoins croissants de stockage et d'exploitation de volumes de données importants. Les missions principales incluent : Évolution de l'offre de service ITG Data Valuation Dataiku Analyse et conception de l'architecture (impliquant tous les aspects : sécurité, authentification, confidentialité des données, scalabilité, cloud) Intégration de la solution « Dataiku DSS » au Système d'information Industrialisation et automatisation des déploiements Expertise sur le déploiement des modules Design et Automation de la solution Cloisonnement via implémentation de l'UIF avec LDAP et CGROUPS Linux Expertise sur Dataiku en tant que support niveau 3 sur des incidents de production, accompagnement, conseil sur l'utilisation de ces technologies et leur modélisation Accompagnement et support des IT métiers et maintien en condition opérationnel des applications
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Mission freelance
Directeur de projet IT Fonctionnel
Deodis
Publiée le
Agile Scrum
Dataiku
1 an
550 €
Île-de-France, France
Rattaché au Responsable du Département IT Data au sein de la DSI, le Chef de Projet IT intervient sur la mise en œuvre des use cases data sur la plateforme cible, composée de : • Une plateforme d’intégration (ingestion, DataHub, pipelines xDI), • Une plateforme de stockage et transformation (modélisation, data processing), • Une plateforme de mise à disposition des Data Products (API, datamarts, données raffinées), • Des outils de data visualisation, • Des solutions Machine Learning / Data Science, notamment Dataiku. Il contribue au pilotage global de la roadmap data, en cohérence avec l’organisation cible et les pratiques projet de la DSI. Le département IT Data est organisé en squad représentant chaque composante de la plateforme data. 1. Pilotage de projets Data • Planifier, organiser et piloter des projets data (à titre d’exemple ces projets pourront être : Implémentation de use cases data de la conception à la mise en production, Migration technique, Rationalisation des usages de la datavisualisation). • Coordonner l’ensemble des parties prenantes: BA métier / data, Data Engineers, Tech Leads, iOPS, Testing, Data Office. • Assurer le suivi des charges, coûts, délais, risques et dépendances. • Garantir la qualité des livrables data (mapping, modèles, pipelines, dashboards, modèles ML). 2. Supporter la gouvernance de la roadmap Data • Préparer les comités de pilotage de la roadmap Data en support du responsable du département IT Data. A ce titre, consolider l’avancement de l’ensemble des chantiers de la roadmap data (incluant KPIs, pilotage des plannings, des risques et des dépendances) au près des responsables de chantiers. • Préparer les points de synchronisation hebdo sur l’ensemble des chantiers de la roadmap data (identification des interdépendances entre squads, status d’avancement). • Maintien du master plan (vue macro du planning de l’ensemble des squads). • Participer aux instances de la DSI en relation avec les projets data sous pilotage : instances CIM/CVSIT, points hebdos, Design Authority, ... Compétences requises Techniques • Très bonne compréhension des architectures data modernes : ingestion, transformation, data modeling, API, datamarts. • Bonne compréhension des outils de machine learning type Dataiku (projets ML, orchestrations, data prep). • Bon niveau sur les outils de data visualisation. • Maitrise des différents rôles autour d’une organisation data (ML Ops, Data Eng..) Méthodologiques et fonctionnelles • Pilotage de projets IT (Agile / hybride / Cycle en V selon les périmètres). • Capacité à travailler avec des domaines métiers variés et des organisations matricielles. Comportementales • Leadership transversal, communication claire, capacité d’arbitrage. • Sens de la collaboration : lien étroit avec BA, Data Office, Architecture • Rigueur, autonomie, gestion du stress et des priorités. Livrables attendus • Plan projets, backlog, planning, budgets. • Comptes-rendus comités, KPI et tableaux de bord de suivi.
Offre d'emploi
Data Analyst Dataiku/SAS/Tableau/SQL
OBJECTWARE
Publiée le
Dataiku
SAS
3 ans
40k-80k €
400-580 €
Île-de-France, France
Prestations demandées La mission consiste à fournir aux équipes Finance les moyens de contrôler / analyser / piloter leurs activités, via une exploitation qualitative de la donnée. Les tâches principales consisteront à : - Accompagner les différentes équipes dans l’expression de leurs besoins - Définir et modéliser les processus data - Concevoir les solutions - Implémenter et automatiser les processus dans les outils les mieux adaptés (extraction et préparation des données ; production des outputs ; historisation et stockage ; tableaux de bord,…) - Accompagner les Métiers dans la prise en main des solutions mises en place - Assurer la maintenance corrective et évolutive des solutions livrées - Identifier, partager et mettre en œuvre les bonnes pratiques sur le traitement des données, dans une démarche d’amélioration continue. Le périmètre recouvre l’ensemble des données de l’activité d’Arval France (systèmes de gestion des contrats, de l’assurance, des frais généraux ; systèmes comptables,…), nécessaires aux travaux de la Finance. Les principaux outils utilisés dans l’existant sont : Excel, SAS, OBIEE Analytics, SQL Dev. Les principaux outils à privilégier en cible sont – conformément aux recommandations internes : Dataiku, Python, Vertica, Tableau. La mission se déroule au sein l’équipe de Data Analysts dédiée au projet Data Finance, celle-ci travaille de manière quotidienne avec l’ensemble des parties prenantes au projet – de la Finance et des autres Directions : - Experts Métier - Architectes et référents IT - Data Engineers - Data Management Officers Exemples de besoins automatisation pouvant être mis en œuvre durant la mission : - Réaliser la migration SAS vers Dataiku du dashboard de pilotage de l’encours stock de commandes - Industrialiser les contrôles et les rapprochements entre les systèmes de gestion et les systèmes comptables - Industrialiser le pilotage des paiements clients / fournisseurs
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)
CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku
3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Mission freelance
Consultant Senior Data – Référent Technique & Architecte Dataiku / Braincube
Signe +
Publiée le
Dataiku
12 mois
700 €
Malakoff, Île-de-France
Contexte Dans le cadre du déploiement et de l’exploitation des plateformes Dataiku et Braincube , le consultant interviendra comme référent technique et architectural au sein de la Data Factory. Il garantira la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise . Environnement technique Dataiku : Design Node, Automation Node, API Node, Deployer Node (AWS & On Premise C3) Braincube hébergé sur AWS (EKS), opéré par l’éditeur Écosystème data : AWS EKS, Snowflake, stockage, ingestion, restitution Environnement collaboratif : Teams, backlog, documentation centralisée Environnements : Dev / Pré-production / Production avec processus d’industrialisation Missions principales Assurer le rôle de référent technique et architectural Dataiku / Braincube Maintenir les standards techniques et assurer la conformité des usages et licences Gérer incidents, demandes et changements (RUN & BUILD) Piloter la performance des plateformes, définir et suivre SLAs et KPIs Construire et piloter la roadmap technologique Garantir sécurité, résilience, conformité (RBAC, chiffrement, RGPD) Coordonner les équipes France / Inde et les interfaces DSIC Participer à l’amélioration continue et à la gestion du plan de charge Contribuer à la gestion de l’obsolescence technologique Livrables attendus Offre de service (ServiceNow) Reporting et météo du service Guides de bonnes pratiques Dataiku / Braincube Supports de formation et d’onboarding Cartographie des flux et des modèles data Business model du service Compétences requises Expertise AWS (S3, EKS, EC2, IAM…) Maîtrise de Dataiku et bonnes connaissances Data / ML Ops Solide compréhension des architectures SI & data Sensibilité forte aux sujets de gouvernance et sécurité Capacité de documentation, vulgarisation et structuration de services Aisance dans des contextes internationaux (France / Inde) Profil recherché Consultant senior avec minimum 8 ans d’expérience Capacité à prendre un rôle transverse et structurant Autonomie, rigueur et posture de référent Nationalité française (obligatoire) Modalités Démarrage : courant février Fin de mission : 30/06/2026 (renouvelable) Télétravail : 2 jours / semaine Localisation : Paris / Malakoff + déplacements ponctuels (Châteaufort, Magny-les-Hameaux)
Mission freelance
Data Manager Senior
RIDCHA DATA
Publiée le
BI
Dataiku
ETL (Extract-transform-load)
1 an
380-500 €
Paris, France
🎯 1. Contexte du projet Une organisation du secteur assurance de personnes est en pleine transformation digitale avec : Migration vers Google Cloud Platform (GCP) Adoption de Dataiku pour la préparation des données 👉 Objectifs : Moderniser la plateforme Data Mettre en place une gouvernance data Accompagner les métiers dans l’exploitation des données 🧩 2. Missions principales🔹 Data Management Mise en place de la gouvernance des données Gestion de la qualité des données (Data Quality) Structuration et fiabilisation des flux de données 🔹 Data Engineering & BI Préparation des données avec Dataiku Traitement et intégration sur Google Cloud Platform Création de reporting et dashboards 🔹 Accompagnement au changement Formation des utilisateurs Aide à l’adoption des outils data Support et communication avec les équipes métiers 🛠️ 3. Compétences techniques attendues SQL / ETL / BI Plateforme Cloud : Google Cloud Platform Data préparation : Dataiku Gouvernance Data Data Quality 🧠 4. Compétences fonctionnelles Connaissances en assurance (vie, retraite, prévoyance) = un plus 👉 Sinon : capacité à comprendre rapidement un métier 🤝 5. Soft skills Autonomie Rigueur Bon relationnel
Mission freelance
Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff
Almatek
Publiée le
Dataiku
6 mois
Malakoff, Île-de-France
Almatek recherche pour l'un de ses clients; Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff. Environnement Technique : Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone Safran) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Expertises Techniques Attendues : Très bonne connaissance des environnements Cloud AWS (S3, EC2, EKS) Maîtrise de Dataiku (DSS, Automation, API, Deployer) Connaissance du ML Ops, IA, Machine Learning et IA générative Bases solides en architecture de données & systèmes d'information Compréhension des modèles de gouvernance Data (RBAC, sécurité, RGPD) Connaissance des problématiques d’exploitation data (flux, SLA, performance) Capacité à structurer une offre de service, un plan de formation et une gouvernance Excellente qualité rédactionnelle (docs d’archi, guides, supports de formation) Capacité à concevoir un business model adapté Livrables : Offre de service documentée, intégrée dans Service Now Météo du service : KPIs incidents, demandes, faits marquants Guide de bonnes pratiques Dataiku & Braincube (standards, modèles, FAQ) Supports de formation et onboarding (slides, démos, exercices) Plan de montée en compétence (par profil) Cartographie des flux et modèles de données cibles Business model défini et validé.
Mission freelance
POT8904 - Un Data Engineer Spark/Scala sur Bordeaux
Almatek
Publiée le
Dataiku
6 mois
190-410 €
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients Un Data Engineer Spark/Scala sur Bordeaux. Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : -Socle Big Data (OI1) : *Compute : Yarn *Storage: HDFS (avec chiffrement pour C3), Hive *Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : -MoveNAStoHDFS -Moteur d'ingestion v2 -Spark Scala -Dictionnaire de données -Socle Data Science : *DataiKu Automation Frameworks/langage/outils utilisés: -Spark 3 -HQL Localisation : Bordeaux + 2 à 3 jours de présence sur site requise
Offre d'emploi
Consultant(e) DATAIKU DSS
Hexateam
Publiée le
Dataiku
MySQL
Python
Île-de-France, France
Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Mission freelance
DATA SCIENTIST - sénior
Geniem
Publiée le
Data science
Dataiku
Machine Learning
6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Offre d'emploi
Data Analyst
VISIAN
Publiée le
Data analysis
Dataiku
1 an
40k-45k €
400-560 €
Paris, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de contribution aux évolutions de la solution permettant la production du reporting VDS (Valuation Data Set). À la suite de la réception de nouvelles instructions reçues du SRB (Single Resolution Board) sur le reporting réglementaire VDS (Valuation Data Set), une organisation financière doit revoir le dispositif technique existant permettant de produire le reporting VDS pour refondre cette solution ou l'enrichir selon les analyses qui seront menées. La solution actuelle et la solution cible s'appuient sur les briques techniques Dataiku et Teradata au sein du SRS, datawarehouse du groupe. Dans cette perspective, nous cherchons un profil Data Analyst aguerri pour implémenter cette solution. D'autres sujets, sur des projets / solutions en voie de stabilisation, pourront aussi être lui confiés. La mission a lieu au sein de la squad Reporting Solutions, sur de la Data Préparation (certification Dataiku Advanced Designer + pratique sur une mission précédente obligatoires)
Mission freelance
Référent technique Dataiku / Braincube (H/F)
Insitoo Freelances
Publiée le
Architecture
AWS Cloud
Dataiku
2 ans
550-670 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Référent technique Dataiku / Braincube (H/F) à Paris, France. Contexte : Dans le cadre du déploiement et de l’exploitation des solutions Dataiku et Braincube pour notre client, nous recherchons un consultant senior capable d’intervenir en tant que référent technique et architectural au sein de la Data Factory. Son rôle sera d’assurer la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise. Les missions attendues par le Référent technique Dataiku / Braincube (H/F) : • Maintien des standards, suivi des usages, conformité licences • Gestion des incidents, demandes, changements • Pilotage performance, optimisation, définition de SLAs & KPIs • Construction et suivi de la roadmap technologique • Amélioration continue & gestion du plan de charge • Sécurité, résilience et gestion de l’obsolescence • Interface avec les équipes DSIC et coordination France / Inde Livrables attendus : • Offre de service (ServiceNow) • Météo du service & reporting • Guides de bonnes pratiques Dataiku / Braincube • Supports de formation & onboarding • Cartographie des flux et modèles data • Business model du service Environnement technique : • Dataiku (Design Node, Automation Node, API Node, Deployer Node) – Cloud AWS & On Premise C3 • Écosystème data interfacé : EKS, Snowflake, stockage, ingestion, restitution • Plateforme Braincube hébergée sur AWS – EKS, opérée par l’éditeur • Environnement de dev standardisé, documentation centralisée et outils collaboratifs (Teams, Backlog…) Compétences attendues : • Expertise AWS (S3, EKS, EC2…) • Maîtrise Dataiku et connaissance des outils data & ML Ops • Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) • Aptitude à collaborer avec les équipes France / Inde • Excellente capacité de documentation et de vulgarisation • Capacité à construire un business model de service • Minimum 8 ans d’expérience Détails logistiques : • Télétravail : 2J par semaine • Localisation : Paris / Malakoff - avec ponctuellement des déplacements à Châteaufort / Magny les Hameaux
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Offre FREELANCE qui devient CDIC quand l'ESN appelle
- amortissements véhicule acheté avant début d'activité
- Facturation électronique 01 : Rappel du calendrier !
- Seulement 25% de mes candidatures sont consultées
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation electronique 2026
50 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois