Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku

Offre d'emploi
DATA ANALYST Power BI / DataIku H/F
Nous recherchons pour notre client situé sur Paris un DATA ANALYST Power BI / DataIku H/F. Missions : · Collecte et préparation des données · Modélisation des données via Dataiku · Création de tableaux de bord et rapports avec Power BI · Optimisation des flux de données : automatiser et fiabiliser les pipelines dans Dataiku. · Collaboration avec les équipes métiers : comprendre leurs besoins et traduire les questions business en analyses. Profil : Vous êtes de formation supérieure Bac +5 en informatique. Vous possédez une expérience de minimum 5 ans. Avantages : Mutuelle – Prévoyance – Carte tickets restaurants.

Offre d'emploi
Architecte data / IA (F/H)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.

Offre d'emploi
Chef de projet Data Finance
Nous recherchons un Senior Project Manager (H/F) expérimenté pour piloter un projet stratégique à forte dimension analytique et financière. Vous serez responsable du suivi des livrables, délais et budgets, de l’animation des parties prenantes (Finance, Data, IT, Produits) et de la coordination des équipes. Vous interviendrez également sur l’ analyse de données financières complexes , la synthèse des résultats pour le management, ainsi que sur l’ automatisation de processus critiques en lien avec les équipes Data.

Mission freelance
Ingénieur Production Data
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.

Mission freelance
DBA SQL SERVER H/F
Environnements concernés : 3 environnements DATA Front destinés à l’exposition de datamarts via Dataiku 2 environnements DATA Back pour la collecte de données (type Datawarehouse) OS : Windows Server 2022 Datacenter SGBD : SQL Server 2022 Objectifs de la mission : Vérifier et appliquer les bonnes pratiques de structuration et de validation des bases de données Garantir une configuration optimale des performances (indexation, partitionnement, paramètres SQL, etc.) Sécuriser les connexions : Veiller à une configuration conforme des accès et des droits Mettre en place, si besoin, des plans de maintenance adaptés (sauvegardes, index...) Fournir une documentation de l’architecture actuelle (modèle, flux, droits, environnement) Copier certaines bases depuis les environnements actuels vers la nouvelle architecture, et valider leur bon fonctionnement

Mission freelance
Consultant Data Analyst / Data Engineer HR (H/F) – Secteur Énergie
Mission : Au sein de l’équipe Data RH d’un grand groupe international du secteur de l’énergie, vous pilotez la conception, l’automatisation et la gouvernance des flux de données RH. Vous assurez la qualité, le catalogage et la visualisation des données pour soutenir les décisions et la transformation globale du Groupe. Responsabilités principales : Concevoir, automatiser et maintenir les dataflows et ETL via Dataiku et Amazon S3. Garantir la traçabilité, la fiabilité et la qualité des données RH (DQI, gouvernance, catalogage). Développer des dashboards et rapports Power BI pour faciliter les décisions opérationnelles et stratégiques. Collaborer avec les équipes RH, RUN/HRIS et Data Governance pour harmoniser les modèles de données et résoudre les anomalies. Participer à la standardisation, documentation et amélioration continue des processus et outils.
Offre d'emploi
Data Analyst Senior
Nous recherchons un Data Analyst confirmé/senior pour le compte de l'un de nos clients basé à Tours. Vous serez au sein de la direction DATA composée d'une 30aine de personnes. Vos missions principales seront : Développer et consolider des sources de données variées, en collaboration étroite avec les équipes métiers (principalement la direction commerciale, le contrôle de gestion, les services médicaux et l’après-vente). Concevoir et maintenir des solutions techniques sur Dataiku DSS , en garantissant leur robustesse et leur alignement avec les besoins métiers. Analyser et restituer les données de manière claire et actionnable, en documentant systématiquement vos travaux. Participer activement à des projets transverses, comme la modélisation de scores d’appétence, l’analyse de comportements clients ou l’optimisation de processus métiers

Mission freelance
Data Scientist – Secteur Public (H/F)
Dans le cadre de projets de transformation et de modernisation du secteur public, nous recherchons un(e) Data Scientist freelance pour intervenir sur des missions de valorisation et d’exploitation des données. L’outil Dataiku est au cœur de l’environnement technique, et sa maîtrise est indispensable. Vos missions Développer et maintenir des modèles de data science dans Dataiku (exploration, apprentissage automatique, analyses prédictives et prescriptives). Identifier, intégrer et exploiter des données hétérogènes tout en garantissant la conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des flux de données avec Dataiku et/ou Talend . Construire des tableaux de bord et visualisations avec Tableau ou Power BI pour répondre aux besoins métiers. Collaborer étroitement avec les équipes internes afin de traduire les besoins métiers en solutions data-driven.

Mission freelance
DevOps /Admin Senior Big Data F/H
Administrer les clusters Big Data et les briques logicielles OpenShift, Cloudera Data PlatForm du Socle DataLake Groupe ; Prendre en charge l’Expertise des technologies Big Data (principalement OpenShift, Cloudera Data PlatForm) utilisées par le OneDataLake avec un focus sur les niveaux de service rendus par la Plate-Forme et des ROI associés ; Concevoir et développer une solution à l’état de l’art sur les couches infra et techniques de la plateforme One Data Lake pour offrir le meilleur niveau de réponse aux exigences fonctionnelles des métiers ainsi qu’aux exigences de performance, de scalabilité, de résilience, d’évolutivité, d’exploitabilité et de conformité aux règlements PSSI et RGPD Assurer le support de Niveau N3 (Heures Ouvrées); Maitriser les enjeux du cycle de vie de la Plate-Forme OneDataLake : conception, développement, intégration et déploiement techniques de briques socle, d’applications ou de solutions Big Data/IA ; Diffuser l’expertise et accompagner les équipes Socle Outils, Socle Applicatifs et DataFactories pour un bon usage du Socle Technique, dans l’appropriation du cadre technologique et de sa bonne mise en application ; Assurer ou veiller à la mise à jour exhaustive et complète de la documentation du Produit Socle DataLake ; S’inscrire dans une organisation opérationnelle SAFe, Scrum, XP ; Reporter aux PM/POs Socle DataLake ; S’inscrire dans la démarche qualité et la gouvernance de la DIWO / DSI.

Mission freelance
Data engineer
Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.
Offre d'emploi
Expert Power BI (H/F)
Définir l’architecture des solutions Power BI, modéliser les données (modèle en étoile, Power Query, DAX) et concevoir des tableaux de bord performants. Mettre en place les bonnes pratiques de gouvernance Power BI (Workspaces, accès, partages, cycle de vie) Interagir avec les métiers pour comprendre les besoins, les challenger et les traduire en solutions techniques robustes.Analyser et recueillir les besoins des clients Rédiger les spécifications fonctionnelles et techniques Concevoir des datawarehouses et des datamarts Développer des procédures d’alimentation (ETL) et/ou de reporting Réaliser les phases de test et de recette Assurer le suivi et la mise en production Rédiger la documentation technique Animer des sessions de formation auprès des utilisateurs
Offre d'emploi
Senior Data Engineer with Energy Market expertise, Brussels
For a large end client As part of the target architecture, BW/HANA, Databricks, and Dataiku platforms are central to data migration and transformation activities. Join the data governance operational team as a data expert responsible for maintaining, designing and optimizing data transformation and modeling processes using SAP BW, SAP HANA Studio, Databricks, and Dataiku. The goal is to ensure data quality, performance, and relevance for business needs. Responsibilities Develop and maintain complex data transformation and modeling flows using BW and HANA Studio (advanced modeling, development, optimization). Leverage Databricks for data storage, computation, and industrialization. Utilize Dataiku for data transformation, emphasizing visual recipes and custom plug-in development. Ensure data quality and integrity throughout the data lifecycle. Collaborate with other technical and functional stakeholders. Required Skills Strong expertise in SAP BW (modeling and development) and HANA Studio (modeling and development), as well as BODS. Advanced proficiency in Databricks and Dataiku, with demonstrated hands-on experience. In-depth knowledge of processes and data, specific to the Belgian energy market. Functional knowledge of SAP. Strong skills in SQL, Python. Analytical mindset, attention to detail, and teamwork capabilities. Qualifications University degree in Computer Science, Engineering, Mathematics, or related field. Minimum 7 years of experience in the energy market. Minimum 7 years of experience in SAP BW and SAP HANA Studio. Minimum 7 years of experience in Sql and Python Minimum 2 years of experience with Dataiku and Databricks. Languages Fluent English. French and Dutch will be a plus. Location and Period Brussels (minimum 2 days/week on-site). From December 2025 to end of 2027. Requirements Qualifications University degree in Computer Science, Engineering, Mathematics, or related field. Minimum 7 years of experience in the energy market. Minimum 7 years of experience in SAP BW and SAP HANA Studio. Minimum 7 years of experience in Sql and Python Minimum 2 years of experience with Dataiku and Databricks.
Mission freelance
Product Owner Data / RPA & IA - Assurance
Nous à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Avec des déplacements à Niort. Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026, le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté. Rattaché(e) au Centre de Data Management, vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques. Profil du candidat Compétences demandées Compétence Niveau de maîtrise RPA / Confirmé ★★★★☆ MLOps / Confirmé ★★★★☆ Tableau / Confirmé ★★★★☆ Dataiku / Confirmé ★★★★☆ Data Science / Confirmé ★★★★☆ Technologies et mots-clés : #UIPA #DATAIKU #DATAVIZ #TABLEAU #SQL #CLOUD #BO #IA #RPA

Mission freelance
Data Analyst / BI Analyst
Contexte de la mission: Dans le cadre d’un projet stratégique de transformation data au sein d’un acteur majeur du secteur bancaire, nous recherchons un Data Analyst / BI Analyst capable d’intervenir sur la modélisation, la visualisation et l’analyse des données métier. L’objectif de la mission est d’optimiser la qualité, la fiabilité et la mise à disposition des données analytiques pour les directions métiers (finance, risque, marketing). Responsabilités principales: · Collecter, nettoyer et modéliser les données issues de différentes sources (internes et externes). · Concevoir et maintenir les tableaux de bord décisionnels sur Tableau et Dataiku . · Développer et maintenir les modèles BI afin de répondre aux besoins métiers (finance, risque, opérations). · Identifier les Data Issues et assurer le suivi de leur résolution. · Accompagner les utilisateurs métier dans l’interprétation et l’exploitation des dashboards. Stack technique: · BI & Data Visualisation : Tableau, Power BI (apprécié) · Data Science / Workflow : Dataiku, SQL, Python (optionnel) · Modélisation & Gouvernance : Data Warehouse, DataCube, Data Modeling (dimensionnel, relationnel) · Base de données : Oracle, Snowflake ou équivalent · Environnement Cloud : AWS (S3, Redshift, Glue, Lambda, etc.) Profil recherché: · Minimum 3 ans d’expérience en tant que Data Analyst ou BI Analyst. · Bonne maîtrise des outils de visualisation et de modélisation ( Tableau, Dataiku, SQL ). · Connaissance du secteur Banque / Finance fortement appréciée. · Expérience dans un environnement AWS est un vrai plus. · Capacité à comprendre les enjeux métiers et à vulgariser les insights auprès des décideurs. · Bon niveau de communication et autonomie dans la gestion de projet data. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.

Offre d'emploi
Senior Data / IA engineer H/F
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office, au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. En tant que Senior Data / AI Engineer (Dataiku), vous serez amené(e) à : • Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. • Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. • Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. • Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. • Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. • Contribuer à l’évolution de notre stack data et promouvoir les meilleures pratiques au sein de l’équipe. Compétences techniques • Expérience confirmée dans la manipulation de grands volumes de données en Python, avec des bibliothèques telles que pandas ou Polars. • Solide compréhension des principes d’ingénierie logicielle : code propre, gestion de versions, tests, automatisation. • Expérience avec les frameworks LLM et les outils d’orchestration d’agents d’IA. • Maîtrise du prompt engineering, du **retrieval-augmented generation (RAG), and working with foundation models. - Compréhension des architectures des agents IA : boucles de raisonnement, utilisation d'outils, systèmes de mémoire et collaboration multi-agents. • Expérience dans l'intégration d'agents IA avec des bases de données vectorielles et des bases de connaissances. • Connaissance des cadres d'observabilité et d'évaluation de l'IA pour surveiller le comportement et les résultats des agents. • Une expérience avec les outils d'orchestration de pipelines de données (Airflow et Airbye) et/ou Dataiku est un atout considérable. • Familiarité avec DevOps, les pipelines CI/CD et le déploiement à l'échelle de la production. Compétences relationnelles • Esprit analytique avec de solides compétences en résolution de problèmes et une approche proactive et pratique. • Envie d'apprendre et d'explorer en permanence de nouveaux outils, technologies et techniques de données. • Excellentes compétences en communication et capacité à traduire des solutions techniques en valeur commerciale. • À l'aise pour travailler dans un environnement collaboratif, agile et dynamique avec des équipes inter fonctionnelles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.