Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku
Votre recherche renvoie 38 résultats.
Offre d'emploi
Senior Smart Automation Developer (Dataiku / Agentic AI) H/F
SMARTPOINT
Publiée le
AWS Cloud
Azure
Dataiku
12 mois
60k-70k €
600-700 €
Île-de-France, France
Dans le cadre d'un projet de développement des capacités en Smart Automation & Agentic AI , notre client renforce son équipe avec un Senior Smart Automation Developer . Son ambition : concevoir des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents IA , afin d’optimiser et transformer les processus métiers. Vous interviendrez sur des projets innovants basés sur la plateforme Dataiku et ses capacités LLM Mesh , au cœur des enjeux d’IA générative et d’automatisation avancée.
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Offre d'emploi
Data Analyst Dataiku
VISIAN
Publiée le
Dataiku
Tableau software
1 an
40k-74k €
400-700 €
Rueil-Malmaison, Île-de-France
et Reporting dédié à la direction marketing d'ARVAL. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation
Offre d'emploi
Data Analyst Dataiku H/F - Niort
K-Lagan
Publiée le
Big Data
Dataiku
PostgreSQL
34k-39k €
Niort, Nouvelle-Aquitaine
🚀 Rejoignez K-LAGAN et boostez votre carrière ! Vous souhaitez évoluer dans un projet stable et motivant ? Nous avons l’opportunité qu’il vous faut ! Nous recherchons un Data Analyst expérimenté pour intégrer notre équipe et accompagner un client de premier plan dans le secteur de l’assurance à Tours . 💡 Développez vos compétences, relevez des défis ambitieux et participez à des projets stratégiques ! 📌 Idéalement, vous avez une expérience significative dans le secteur de la santé ou de la prévoyance , et vous comprenez les contraintes de la Direction des Risques . Livrables attendus 📄 Rédaction de spécifications et documentation des travaux réalisés. Développements et extractions de données . Analyse et correction d’incidents. Communication efficace et réactive avec les parties prenantes.
Mission freelance
Ingénieur Data
STHREE SAS pour COMPUTER FUTURES
Publiée le
Dataiku
SQL
3 mois
280-400 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche Ingénieur Data : Missions principales : Ø Concevoir, développer et optimiser des flux de données performants et robustes. Ø Alimenter les entrepôts de données et DataMart du périmètre Assurance Vie. Ø Participer à la conception de modèles de données :,MCD, Modélisation dimensionnelle, Schémas adaptés aux besoins métier Assurance Vie. Ø Industrialiser les processus de préparation, transformation et contrôle de la donnée. Ø Forte utilisation de Dataiku pour automatiser et standardiser les workflows. Ø Assurer l’intégration des données dans les outils de Business Intelligence (notamment Tableau). Ø Optimiser la préparation et la performance des jeux de données pour les équipes métiers. Ø Garantir la qualité, la performance et le maintien en condition opérationnelle (MCO) des pipelines et environnements DATA. Ø Contribuer à l’amélioration continue, à la résilience et à l’optimisation des processus existants.
Mission freelance
ARCHITECTE DATA EXPERT
Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka
3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
OBJECTWARE
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-83k €
400-610 €
Île-de-France, France
La mission consistera à fournir des analyses & reportings sur la qualité des données du client, sur les outils Dataiku et Tableau. Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers • Réaliser la préparation des données sous Dataiku • Mettre à jour le dictionnaire de données/ Documentation • Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations,…) • Créer les dashboards sous Tableau • Organiser la recette avec les métiers • Appliquer les bonnes pratiques de l’équipe en matière de datapreparation/ datavisualisation • Effectuer la migration des projets sous SAS vers Dataiku
Mission freelance
Data Analyst expert Dataiku
Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce
6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Mission freelance
Expert Collibra
Nicholson SAS
Publiée le
API
Collibra
Dataiku
6 mois
550 €
Montrouge, Île-de-France
Bonjour, Nous recherchons actuellement un Expert Collibra pour une mission basée en Île-de-France. Informations générales Localisation : Montrouge (IDF) – 3 jours/semaine sur site obligatoires Télétravail : 2 jours/semaine possibles TJM max : 550 € Date de démarrage : 01/06/2026 Date de fin : 31/12/2026 Contexte de la mission Dans le cadre du renforcement des activités autour de la data gouvernance , la mission s’inscrit au sein d’un centre d’expertise transverse dédié à la valorisation de la donnée (data visualisation, BI, gouvernance). La solution Collibra constitue un pilier central de la stratégie data, visant à permettre aux équipes métiers et IT d’exploiter efficacement leurs données. Objectifs de la mission Accompagner les équipes dans l’ expression et la structuration de leurs besoins data Adapter et faire évoluer la solution Collibra pour répondre aux enjeux métiers Contribuer à l’ adoption de l’outil par les différents acteurs (data stewards, data custodians) Missions principales Analyser les besoins des équipes IT et métiers en matière de documentation et gouvernance des données Intégrer et structurer la documentation data dans Collibra Paramétrer la plateforme (dashboards, vues, workflows, etc.) selon les besoins utilisateurs Accompagner les utilisateurs dans la prise en main de l’outil Animer des ateliers, formations et démonstrations Tester les nouvelles fonctionnalités et contribuer à leur intégration Recueillir les retours utilisateurs et améliorer l’offre de service Assurer le support fonctionnel et technique , ainsi que la gestion des incidents Travailler sur les intégrations techniques avec l’écosystème data (BI, outils data, API, bases de données, etc.) Environnement technique Collibra Microsoft Power BI Dataiku API Manager (type Mulesoft) SGBD / écosystème data
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch
1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
Tech Lead IA
OBJECTWARE
Publiée le
Ansible
Dataiku
DevOps
3 ans
40k-80k €
400-600 €
Île-de-France, France
Le Technical Lead IA jouera un rôle structurant pour garantir cohérence technique, industrialisation et excellence DevOps au sein de la plateforme. h3. a. Piloter l’architecture technique de la plateforme • Définir et maintenir l’architecture agentique (Registry, Gateway/MCP, workflows, sécurités, modèles de qualification). • Assurer cohérence, robustesse, maintenabilité et alignement transverse avec les équipes IAP, MTA, Data et SSI. h3. b. Animer et structurer l’équipe de développeurs • Encadrer une équipe de développeurs et instaurer les bonnes pratiques (clean code, revue, qualité, documentation, sécurité). • Organiser les rituels techniques et accompagner la montée en compétence h3. c. Renforcer l’industrialisation, le DevOps et le run • Mettre en œuvre et piloter les environnements Kubernetes, MCP, orchestrateurs et connecteurs. • Définir et opérer la chaîne CI/CD (tests, scans, packaging, déploiements, observabilité). • Implémenter les normes : GOPROD, DORA, sécurité, monitoring Datadog/Grafana, logging distribué. • Garantir scalabilité, résilience, observabilité et conformité SSI. h3. d. Appuyer le delivery et la qualification des agents • Participer aux ateliers techniques, PI Planning, System Demos. • Contribuer au processus de qualification des agents IA (création → test → industrialisation → run). • Accompagner les équipes builders et métiers dans l’intégration en production • Pilotage technique transverse, capacité à fédérer et clarifier les responsabilités. • Maîtrise des architectures orientées agents : Registry, Gateway, MCP, outils associés. h3. DevOps / SRE • Compétences cloud, conteneurs, CI/CD, observabilité, automatisation. • Industrialisation d’environnements critiques, monitoring avancé, optimisation de pipelines. h3. Sécurité & Gouvernance IA • Connaissance approfondie des règles SSI, IA Act, propagation sécurisée des tokens. • Maîtrise AuthN/AuthZ (OIDC/JWT) et doctrines DevSecOps. h3. Communication & Transversalité • Pratique avancée de la documentation structurée (guidelines, playbooks, runbooks). • Excellente communication avec architectes, produits, DevOps, Data, SSI. h3. Infrastructure & Cloud • Kubernetes (on prem & cloud), Helm, RBAC, Secrets Management. • AWS / Azure. • Terraform / Ansible. h3. Orchestration agentique • MCP Servers, Agent Registry, Agent Gateway. • Frameworks agents : Dust, Mistral, Dataiku. h3. DevOps / CI/CD / Observabilité • GitLab CI, Jenkins, Sonar, Artifactory/Nexus. • Docker, optimisation d’images. • Datadog, Grafana, Prometheus, logging distribué. h3. Sécurité • Keycloak, OIDC, JWT. • Scans de sécurité, politiques DevSecOps. h3. Langages & intégration • Python expert (FastAPI, Langgraph, Langchain, Pydantic, asyncio). • Compétences Fullstack (Python, Java, Angular) • YAML / JSON / OpenAPI. • Kafka ou autres bus d’événements
Offre d'emploi
📩 Data Engineer – Data Quality & Governance
Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API
1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mission à 600 km de chez moi - Frais de double résidence
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
- Exercice décalé et avantage en nature
- Plateforme d'appel d'offres public scam ou non ?
- Facturation auto-entrepreneur
- Passage au réel après dépassement micro : notification URSSAF ?
38 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois