Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku
Votre recherche renvoie 50 résultats.
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Offre d'emploi
Data Analyst Dataiku
VISIAN
Publiée le
Dataiku
Tableau software
1 an
40k-74k €
400-700 €
Rueil-Malmaison, Île-de-France
et Reporting dédié à la direction marketing d'ARVAL. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation
Mission freelance
Ingénieur Data
STHREE SAS pour COMPUTER FUTURES
Publiée le
Dataiku
SQL
3 mois
280-400 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche Ingénieur Data : Missions principales : Ø Concevoir, développer et optimiser des flux de données performants et robustes. Ø Alimenter les entrepôts de données et DataMart du périmètre Assurance Vie. Ø Participer à la conception de modèles de données :,MCD, Modélisation dimensionnelle, Schémas adaptés aux besoins métier Assurance Vie. Ø Industrialiser les processus de préparation, transformation et contrôle de la donnée. Ø Forte utilisation de Dataiku pour automatiser et standardiser les workflows. Ø Assurer l’intégration des données dans les outils de Business Intelligence (notamment Tableau). Ø Optimiser la préparation et la performance des jeux de données pour les équipes métiers. Ø Garantir la qualité, la performance et le maintien en condition opérationnelle (MCO) des pipelines et environnements DATA. Ø Contribuer à l’amélioration continue, à la résilience et à l’optimisation des processus existants.
Mission freelance
Proxy Product Owner Data Freelance
SURICATE IT
Publiée le
Dataiku
Finance
P2P
3 ans
Puteaux, Île-de-France
Proxy Product Owner Data Freelance – Corporate Finance Transformation 📍 Informations mission 👤 Expérience : 10 ans MINIMUM requis 🚀 Démarrage : ASAP ⏳ Durée : 3 ans 🏠 Télétravail : 1 jour par semaine (non négociable) 🌍 Anglais : bon niveau requis 💰 TJM : selon profil 🌍 Localisation : Puteaux Nous recherchons un Proxy Product Owner Data pour accompagner le programme de transformation Corporate Finance au sein du Group Data Office . Le rôle consiste à garantir que les initiatives de transformation Finance intégrant une dimension data sont correctement identifiées, structurées et alignées avec les standards data du groupe , tout en assurant une delivery efficace . Le poste agit comme un pont entre les équipes Finance, IT et Data afin de permettre une transformation data-driven des processus Finance. 🎯 Missions principales Identifier les initiatives Finance ayant un impact data Traduire les besoins métier Finance en exigences data et techniques Garantir l’alignement avec les standards et patterns d’architecture du Group Data Office Contribuer à l’ automatisation des processus Finance Coordonner les équipes Finance, IT et Data pour assurer la delivery Assurer le suivi des projets, reporting et gestion des parties prenantes Les initiatives portent notamment sur : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Use cases data et analytics 🌍 Environnement Rôle stratégique à l’interface entre Corporate Finance et Data , contribuant à accélérer la transformation data-driven des fonctions Finance dans un environnement international.
Mission freelance
Senior Data Engineer – Secteur Banque (Lab Data)
Syneam
Publiée le
Cloudera
Dataiku
PySpark
6 mois
Île-de-France, France
Dans le cadre d’initiatives data en environnement bancaire, vous intervenez au sein d’un Lab dédié à des use cases de reporting risque. L’objectif est de concevoir et tester rapidement des solutions (POC), avant leur industrialisation à plus grande échelle. Descriptif de la mission : Concevoir et développer des pipelines data autour de cas d’usage Risk / Finance Participer à la mise en place de POC (collecte, transformation, mise à disposition des données) Industrialiser les solutions validées (robustesse, performance, scalabilité) Travailler en étroite collaboration avec un Business Analyst pour cadrer les besoins Interagir avec les équipes métiers (Risk, Finance) pour affiner les modèles de données Garantir la qualité, la traçabilité et la fiabilité des données traitées Contribuer à l’amélioration des pratiques data en environnement Lab / agile
Offre d'emploi
Ingénieur Dataiku / Expert Intégration Dataiku DSS
VISIAN
Publiée le
Agile Scrum
Dataiku
1 an
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans un monde toujours plus digital avec des besoins de stockage et d'exploitation de volumes de données de plus en plus important, le bénéficiaire souhaite une prestation dans le cadre d'intégration de technologies Dataviz au sein du système d'information. Missions L'évolution de l'offre de service Data Valuation Dataiku Analyse et Conception de l'architecture (impliquant tous les aspects : sécurité, authentification, confidentialité des données, scalabilité, cloud) Intégration de la solution « Dataiku DSS » au Système d'information Industrialisation et automatisation des déploiements Expertise sur le déploiement des modules Design et Automation de la solution Cloisonnement via implémentation de l'UIF avec LDAP et CGROUPS Linux Expertise sur Dataiku en tant que support niveau 3 sur des incidents de production, accompagnement, conseil sur l'utilisation de ces technologies et leur modélisation Accompagnement et du support des IT métiers et du maintien en condition opérationnel des applications
Mission freelance
Proxy Product Owner Data-Corporate Finance Transformation
emagine Consulting SARL
Publiée le
Dataiku
Finance
3 ans
Île-de-France, France
Rôle transversal entre Corporate Finance et Group Data Office pour le programme de transformation financière (P2P, O2C, automatisation des processus) Identification, priorisation et structuration des initiatives avec composante data, alignement sur standards et architecture du GDO Traduction des besoins finance en exigences data/techniques et validation des solutions / modèles de données Support à l’automatisation (Dataiku), conception de pipelines et intégration des données Coordination des équipes Finance, IT et Data, suivi des projets et reporting aux parties prenantes Respect des standards, gouvernance et qualité des données Expérience : 10–12+ ans en finance d’entreprise / transformation financière, maîtrise P2P, O2C et automatisation Compétences clés : Data-driven finance, gestion de projets, collaboration cross-fonctionnelle, communication et leadership d’influence
Offre d'emploi
Proxy Product Owner Data – Transformation Finance Corporate F/H
SMARTPOINT
Publiée le
Dataiku
Finance
P2P
1 an
50k-76k €
500-680 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Transformation Finance , nous recherchons un(e) Proxy Product Owner Data pour accompagner la Corporate Finance au sein d’un environnement international. Rattaché(e) au Group Data Office , vous intervenez comme véritable pont stratégique entre les équipes Finance, IT et Data , afin de garantir la bonne intégration des enjeux data dans les projets de transformation. Les domaines couverts incluent : L’automatisation des processus Finance Le cycle P2P (Procure-to-Pay) Le cycle O2C (Order-to-Cash) L’amélioration continue des processus financiers Votre mission En tant que Proxy Product Owner Data, vous assurez que toutes les initiatives de transformation Finance comportant une dimension data : Sont correctement identifiées et priorisées Sont alignées avec les standards du Group Data Office Respectent les patterns d’architecture et la gouvernance groupe Sont délivrées efficacement et adoptées par les métiers Vos responsabilités Identification & priorisation des initiatives data Détecter les projets Finance à fort impact data Évaluer la valeur business et la faisabilité Alimenter et prioriser le backlog Data groupe Produire les analyses d’impact data Traduction des besoins métier Transformer les besoins Finance en exigences techniques et data Valider les modèles de données et les flux Garantir l’alignement avec l’architecture groupe Formaliser les spécifications fonctionnelles Expertise Processus Finance Apporter votre expertise sur les cycles P2P et O2C Accompagner les projets d’automatisation Cartographier les processus et définir les cas d’usage Formuler des recommandations d’amélioration Automatisation & Dataiku Contribuer aux cas d’usage d’automatisation via Dataiku (ou outil équivalent) Garantir l’intégration et la qualité des données Définir les besoins en pipelines data Coordination & delivery Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et lever les risques et dépendances Assurer un reporting régulier auprès des parties prenantes Gouvernance & standards Garantir la conformité aux standards Data groupe Assurer la qualité, la sécurité et la gouvernance des données Produire la documentation d’alignement
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Mission freelance
Data Engineer Niveau 3 - Niort
Signe +
Publiée le
Business Object
Dataiku
SQL
6 mois
410-440 €
Niort, Nouvelle-Aquitaine
Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA décliné chez Macif Finance Epargne
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
Lead Data Engineer Dataiku & Python
OBJECTWARE
Publiée le
Dataiku
Python
3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Mission freelance
Développeur Senior Smart Automation & IA Agentique / Dataiku certifié/ LLM Mesh / Python
Octopus Group
Publiée le
Agent IA
CI/CD
Dataiku
6 mois
520-620 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine de la finance, un développeur sénior en Smart Automation & IA Agentique pour concevoir, mettre en œuvre et industrialiser des solutions avancées d'automatisation des processus. Ces solutions s'appuient principalement sur la plateforme Dataiku et ses fonctionnalités LLM Mesh, qui permettent l'intégration de modèles linguistiques et d'agents IA dans des flux de travail automatisés. L'objectif de l'équipe est de créer des automatisations intelligentes capables d'orchestrer les données, les systèmes d'application et les agents IA afin d'optimiser et de simplifier les processus opérationnels. Principales responsabilités : 1. Concevoir des solutions d'automatisation intelligente : Concevoir des solutions d'automatisation des processus à l'aide de la plateforme Dataiku. Définir des architectures d'automatisation combinant : des pipelines de données l'orchestration des workflows l'intégration avec les systèmes d'application des agents IA Exploiter le LLM Mesh de Dataiku pour intégrer des modèles linguistiques dans les processus automatisés. 2. Développer des solutions d'IA agentique : Concevoir et mettre en œuvre des agents IA capables d'exécuter ou d'assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh. Mettre en œuvre une logique d'orchestration entre : les agents IA les pipelines de données les systèmes d'application. 3. Industrialisation et intégration : Construire et maintenir des pipelines et des workflows automatisés sur la plateforme Dataiku. Intégrer des solutions d'automatisation aux systèmes informatiques existants via des API et des services. Appliquer les meilleures pratiques en matière d'industrialisation : contrôle de version surveillance automatisation du déploiement gouvernance des workflows. 4. Collaborer avec les équipes informatiques : Travailler en étroite collaboration avec les équipes informatiques en charge des systèmes impliqués dans les processus automatisés. Concevoir des mécanismes d'intégration avec les applications existantes. Contribuer à la définition de modèles d'intégration et de normes techniques. 5. Contribuer à la plateforme d'automatisation intelligente : Contribuer à l'évolution des capacités d'automatisation intelligente et d'IA agentique. Définir des normes de développement et d'architecture pour l'automatisation. Accompagner les profils techniques juniors. Promouvoir les meilleures pratiques en matière d'automatisation et d'utilisation des modèles de langage (LLM). Environnement technique : Plateforme Dataiku LLM Mesh API et services d'application Environnements cloud (AWS, Azure ou GCP)
Mission freelance
Proxy PO DATA - finance / Processus Procure to Pay AND Order to cash /DATAIKU / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
490-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, un proxy-product Owner Data Objectif : Apporter son soutien à l'équipe de finance d'entreprise dans la mise en œuvre de son programme de transformation financière. Ce programme couvre l'automatisation des processus, ainsi que les processus P2P (Procure-to-Pay) et O2C (Order-to-Cash). Vous veillerez à ce que toutes les initiatives de transformation financière comportant une dimension « données » soient correctement identifiées, structurées et alignées sur les normes, les modèles et les cadres de mise en œuvre du Bureau des données du groupe. Il s'agit d'un poste transversal et hautement collaboratif, faisant le lien entre les équipes Finance, Informatique et Données, afin de garantir la mise en œuvre et l'adoption efficaces de solutions basées sur les données. Mission Principale : Agir en tant que Proxy Product Owner Data pour le programme de transformation de la finance d'entreprise, en permettant une exécution axée sur les données en s'assurant que les projets sont : • Correctement identifiés comme comportant une composante données • Sont recensés et alignés sur les priorités du Bureau des données du Groupe • Sont structurés selon les modèles, solutions et normes d'architecture du Groupe • Sont mis en œuvre efficacement avec une gouvernance et des conseils techniques appropriés Identification et gestion des projets Identifier les initiatives de transformation financière ayant un impact sur les données Évaluer la valeur métier et la faisabilité Veiller à la cohérence avec les priorités du Bureau des données du Groupe Veiller à la hiérarchisation et à l'intégration dans le backlog du bureau des données du groupe Traduire les besoins financiers en exigences techniques et en matière de données Veiller à l'alignement sur les modèles d'architecture du groupe Valider la conception de la solution et les modèles de données Expertise en processus financiers et soutien à la transformation Apporter une expertise sur les processus de finance d'entreprise Accompagner les initiatives de transformation dans les domaines suivants : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus financiers S'assurer que les solutions de données répondent aux besoins opérationnels de la fonction financière Mise en œuvre de l'automatisation des processus Soutenir la mise en œuvre des initiatives d'automatisation des processus Contribuer à l'élaboration de cas d'utilisation de l'automatisation à l'aide de Dataiku Garantir l'intégration et la qualité des données pour les flux de travail automatisés Coordination de la mise en œuvre Assurer la coordination entre les équipes financières, informatiques et le Bureau des données du groupe Suivre l'avancement du projet et lever les obstacles Veiller à ce que la mise en œuvre soit alignée sur les étapes clés de la transformation Normes, gouvernance et bonnes pratiques Veiller au respect des normes du Bureau des données du Groupe Appliquer les modèles d'architecture et les cadres de gouvernance Garantir le respect des exigences en matière de qualité et de sécurité des données Implication des parties prenantes et communication Servir de point de contact principal pour les données dans le cadre du programme de transformation financière Fournir des rapports d'avancement réguliers Soutenir la prise de décision et la coordination
Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)
Pickmeup
Publiée le
Dataiku
Numpy
Pandas
2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Offre d'emploi
Tech Lead IA
OBJECTWARE
Publiée le
Ansible
Dataiku
DevOps
3 ans
40k-80k €
400-600 €
Île-de-France, France
Le Technical Lead IA jouera un rôle structurant pour garantir cohérence technique, industrialisation et excellence DevOps au sein de la plateforme. h3. a. Piloter l’architecture technique de la plateforme • Définir et maintenir l’architecture agentique (Registry, Gateway/MCP, workflows, sécurités, modèles de qualification). • Assurer cohérence, robustesse, maintenabilité et alignement transverse avec les équipes IAP, MTA, Data et SSI. h3. b. Animer et structurer l’équipe de développeurs • Encadrer une équipe de développeurs et instaurer les bonnes pratiques (clean code, revue, qualité, documentation, sécurité). • Organiser les rituels techniques et accompagner la montée en compétence h3. c. Renforcer l’industrialisation, le DevOps et le run • Mettre en œuvre et piloter les environnements Kubernetes, MCP, orchestrateurs et connecteurs. • Définir et opérer la chaîne CI/CD (tests, scans, packaging, déploiements, observabilité). • Implémenter les normes : GOPROD, DORA, sécurité, monitoring Datadog/Grafana, logging distribué. • Garantir scalabilité, résilience, observabilité et conformité SSI. h3. d. Appuyer le delivery et la qualification des agents • Participer aux ateliers techniques, PI Planning, System Demos. • Contribuer au processus de qualification des agents IA (création → test → industrialisation → run). • Accompagner les équipes builders et métiers dans l’intégration en production • Pilotage technique transverse, capacité à fédérer et clarifier les responsabilités. • Maîtrise des architectures orientées agents : Registry, Gateway, MCP, outils associés. h3. DevOps / SRE • Compétences cloud, conteneurs, CI/CD, observabilité, automatisation. • Industrialisation d’environnements critiques, monitoring avancé, optimisation de pipelines. h3. Sécurité & Gouvernance IA • Connaissance approfondie des règles SSI, IA Act, propagation sécurisée des tokens. • Maîtrise AuthN/AuthZ (OIDC/JWT) et doctrines DevSecOps. h3. Communication & Transversalité • Pratique avancée de la documentation structurée (guidelines, playbooks, runbooks). • Excellente communication avec architectes, produits, DevOps, Data, SSI. h3. Infrastructure & Cloud • Kubernetes (on prem & cloud), Helm, RBAC, Secrets Management. • AWS / Azure. • Terraform / Ansible. h3. Orchestration agentique • MCP Servers, Agent Registry, Agent Gateway. • Frameworks agents : Dust, Mistral, Dataiku. h3. DevOps / CI/CD / Observabilité • GitLab CI, Jenkins, Sonar, Artifactory/Nexus. • Docker, optimisation d’images. • Datadog, Grafana, Prometheus, logging distribué. h3. Sécurité • Keycloak, OIDC, JWT. • Scans de sécurité, politiques DevSecOps. h3. Langages & intégration • Python expert (FastAPI, Langgraph, Langchain, Pydantic, asyncio). • Compétences Fullstack (Python, Java, Angular) • YAML / JSON / OpenAPI. • Kafka ou autres bus d’événements
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- amortissements véhicule acheté avant début d'activité
- Facturation électronique 01 : Rappel du calendrier !
- Seulement 25% de mes candidatures sont consultées
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation electronique 2026
- Offre FREELANCE qui devient CDIC quand l'ESN appelle
50 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois