L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 349 résultats.
Mission freelance
Data Scientist Sénior
DEVATSCALE
Publiée le
IA Générative
Machine Learning
MLOps
3 mois
450-500 €
Lille, Hauts-de-France
Hello, Voici le descriptif du poste pour avancer ensemble si tu es en recherche actuellement d'une mission de data scientist: Concevoir, entraîner et optimiser des modèles de scoring et participer à la performance Développer et intégrer des solutions IA en production (API temps réel, personnalisation, scoring) avec les équipes métiers Participer à la mise en place d’architectures MLOps (CI/CD, pipelines...) Prototyper et industrialiser des solutions d’ IA générative Évaluer et améliorer les performances des modèles et agents
Offre d'emploi
Expert NiFi (H/F)
OMICRONE
Publiée le
Apache NiFi
Big Data
DevOps
2 ans
40k-45k €
400-500 €
Île-de-France, France
Expert NiFi (H/F) Dans le cadre d’un projet data, nous recherchons un Expert Apache NiFi pour intervenir chez l’un de nos clients. 🔍 Profil recherché : Expérience confirmée sur Apache NiFi Mise en place et optimisation de flux de données Bonne maîtrise des concepts ETL / ingestion / transformation Expérience sur des environnements data (Big Data / Data Platform) Connaissances en SQL et scripting (Python, Shell…) 🤝 Qualités attendues : Autonomie et proactivité Capacité à travailler en équipe Esprit d’analyse 📍 Mission longue – démarrage ASAP
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
Product Owner - Transaction Regulatory Reporting
NEXORIS
Publiée le
Data quality
1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Mission freelance
101456/gestion de projets MOE Data NIORT ETL/EL, SQL. DATA, IA, RPA, Data Science.
WorldWide People
Publiée le
ETL (Extract-transform-load)
8 mois
400-470 €
Niort, Nouvelle-Aquitaine
gestion de projets MOE Data NIORT ETL/EL, SQL. DATA, IA, RPA, Data Science. Compétences : : - Appétence pour les sujets techniques : DATA, IA, RPA, Data Science. - Maîtrise des outils de type ETL/ELT pour la préparation et l'industrialisation des flux (souhaitée). - Expertise en langage SQL (par exemple, Dataiku). - Capacité à challenger une équipe, ses solutions, aider à chiffrer les coûts de réalisation et mener à bien les phases de qualification avec les clients. - Connaissances en intégration et optimisation des données pour Tableau (ou équivalent). - Expertise en modélisation de données (MCD, dimensionnel) et capacité à les mettre en œuvre. - Expérience solide en conception et implémentation de processus ETL/ELT. - Expérience en BI/BO ou SAS serait un plus dans le cadre des migrations à réaliser. - Connaissances en assurance vie seraient appréciées. Conditions de travail : - Présence sur site à Niort à raison de 3 jours minimum par semaine, dès l'autonomie acquise. construire, maintenir et optimiser les plateformes et pipelines de données, garantissant ainsi la fiabilité et l'accessibilité des données pour l'ensemble de l'entreprise. Responsabilités : - Pilotage d'activité. - Management opérationnel d'une équipe composée de 2 pôles. - Accompagnement de l'équipe dans les conceptions. - Aide aux PO dans la relation avec les métiers. - Garantie des livrables avec les clients (entrants/sortants). - Animation d'ateliers métiers. - Participation à des task forces en cas d'incidents.
Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)
UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake
1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Offre d'emploi
Scrum Master / Agile Master Data (F/H) - NIORT
K-Lagan
Publiée le
Agile Scrum
Big Data
Gestion de projet
1 an
10k-49k €
100-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Scrum Master / Agile Master Data (F/H) pour rejoindre l’un de nos clients, dans un environnement data innovant. 🔍 Contexte Vous interviendrez au sein de Feature Teams / Squads Data , travaillant sur des sujets tels que plateformes data, reporting, analytics, machine learning ou gouvernance des données . Votre rôle sera de garantir l’application des pratiques Agile et de faciliter la collaboration dans un environnement technique et métier exigeant. 🎯 Missions Accompagner les équipes Data dans l’adoption et l’amélioration des pratiques Agile Animer les rituels Scrum (daily, sprint planning, review, rétrospective) Faciliter la collaboration entre équipes techniques, métiers et stakeholders Lever les impediments et sécuriser l’avancement des squads Promouvoir une culture d’ amélioration continue Assurer un suivi des indicateurs Agile (KPI, vélocité, delivery…) Accompagner la transformation Agile à l’échelle si nécessaire
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Offre d'emploi
Tech Lead Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Mission freelance
Data Analyst Performance
CAT-AMANIA
Publiée le
Confluence
JIRA
Tableau Desktop
12 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte de pilotage de la performance IT et de suivi des activités opérationnelles, vous intervenez en tant que Data Analyst afin d’analyser les indicateurs liés au turnover IT (ressources, activité, performance, incidents) et d’identifier des leviers d’optimisation. Vous êtes en charge du suivi, de l’analyse et de la restitution des données à destination des équipes métiers et techniques, avec une forte autonomie et un rôle clé dans la prise de décision. Suivre et analyser les indicateurs de performance liés au turnover IT (entrées/sorties, staffing, charge, performance opérationnelle) Concevoir, maintenir et faire évoluer des tableaux de bord de pilotage (KPI, reporting opérationnel et stratégique) Identifier les anomalies, signaux faibles et dérives dans les données (qualité, performance, organisation) Produire des analyses détaillées et formuler des recommandations d’optimisation Consolider et fiabiliser les données issues de sources multiples Animer des réunions de restitution (comités de pilotage, comités opérationnels) Collaborer avec les équipes métiers et techniques pour activer des leviers d’amélioration Challenger les processus existants et proposer des axes d’optimisation data-driven
Offre d'emploi
Architecte Solution Data
VISIAN
Publiée le
ArchiMate
TOGAF
50k-62k €
Paris, France
Description et livrables de la prestation : Concevoir, valider et faire respecter l'architecture technique et fonctionnelle des solutions pour assurer leur conformité aux standards, à la stratégie IT-DATA et aux exigences de sécurité. Garantir la cohérence, la performance, la réutilisation et la gestion des risques tout au long du cycle de vie des projets. Vous aurez la responsabilité de sujets portant sur la Vision 360 Client, le MDM, etc... au sein de l'équipe Architecture Solutions Data - IA - KYC - Client Pour cela, voici les missions clés : Conception de solutions : Élaborer des dossiers de design (DDS), en intégrant les standards (refcards) et l’impact data, IA, sécurité, et digital. Pilotage et accompagnement : S’assurer de l’implémentation conforme, suivre la livraison et gérer les écarts ou remédiations. Participation à l’élaboration d’une cible d’Architecture Data en collaborant avec les architectes d’entreprise et product managers Animation transverse et gouvernance : Participer aux instances stratégiques, animer la communauté d’architectes autour de vos sujets, promouvoir les bonnes pratiques. Sécurité et conformité : Intégrer les enjeux de cybersécurité, de protection des données, et de conformité réglementaire. Défendre et promouvoir la stratégie d’architecture : principes « Tous Architectes », mise à jour du référentiel, défense de la cible d’architecture et des enjeux métier/données. Analyser et répondre aux RFP : Identifier, challenger et co-construire des solutions adaptées, auditables, et déployables. Veille technologique et marché : Maintenir une connaissance à jour des innovations (cloud, IA, Data, sécurité, microservices, API, DevSecOps).
Offre d'emploi
Data Scientist (H/F)
QODEXIA
Publiée le
Docker
GitLab CI
MLOps
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Offre d'emploi
Data Analyst - Bordeaux
OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL
9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Offre d'emploi
Consultant Data Governance & Data Products (Collibra / Snowflake)
OCTOGONE
Publiée le
BI
Collibra
Snowflake
9 mois
33k-45k €
Sochaux, Bourgogne-Franche-Comté
Contexte Dans le cadre du déploiement et de l’industrialisation de la gouvernance des données, le client utilise Collibra comme solution centrale pour le glossaire, le catalogue et la gestion des data products. Les métadonnées et datasets proviennent principalement de Snowflake, avec une extension envisagée vers Power BI. La mission consiste à assister techniquement le Data Governance Officer, en collaboration étroite avec le Data Platform Leader, responsable de la plateforme Snowflake et du data catalog. Profil recherché Compétences principales : Expertise Collibra (glossaire, catalogue, workflows, operating model). Gouvernance des données et Data Products. Capacité à travailler en interface gouvernance / plateforme. Connaissance du monde bancaire appréciée. Anglais. Compétences additionnelles : Snowflake Cortex AI et objets sémantiques. Gouvernance Power BI. Sensibilité data quality, lineage et IA. Objectifs Mettre en place et opérer un glossaire data et des data products dans Collibra. Définir et industrialiser les processus liés à la création et à l’évolution des objets data. Garantir la qualité des informations et métadonnées collectées dans Collibra. Assurer la cohérence entre la gouvernance des données et la plateforme Snowflake. Apporter une expertise technique au Data Governance Officer et au Data Platform Leader. Périmètre & Responsabilités Assistance technique au Data Governance Officer. Traduire les orientations de gouvernance en configurations concrètes dans Collibra. Concevoir modèles d’assets, relations, statuts, certifications et workflows. Proposer des évolutions en fonction des usages et contraintes. Coordination avec le Data Platform Leader. Modélisation des objets Snowflake dans Collibra. Automatisation de l’ingestion des métadonnées. Alignement des standards plateforme et règles de gouvernance. Mise en place du glossaire data. Structurer glossaire métier et technique dans Collibra. Définir standards de définition, nommage et classifications. Conception et gouvernance des Data Products. Définir cadre méthodologique (règles, responsabilités, qualité, cycle de vie). Créer et maintenir les data products dans Collibra, liés aux objets Snowflake et cas d’usage. Processus opérationnels Documenter les processus end-to-end : - Garantir la scalabilité et la maintenabilité des dispositifs mis en place. - Créer une formation dédiée pour accompagner les équipes : supports pédagogiques et sessions pratiques pour assurer la bonne application des processus. Qualité des métadonnées : - Définir critères qualité et mettre en place contrôles dans Collibra. - Suivre indicateurs et piloter amélioration continue. Intégration Snowflake & BI : - Gérer ingestion et gouvernance des métadonnées Snowflake. - Préparer intégration des métadonnées Power BI. - Anticiper impacts Snowflake Cortex AI sur gouvernance et traçabilité. Interfaces clés Data Governance Officer : vision, cadre et arbitrages de gouvernance. Data Platform Leader : architecture, standards et exploitation de Snowflake et du data catalog. Équipes Data Platform, BI et Métiers. Livrables attendus Glossaire métier et technique opérationnel dans Collibra. Catalogue de data products documentés et exploitables. Processus et workflows Collibra alignés avec Snowflake. Tableaux de bord qualité et adoption. Dispositif d’amélioration continue. Formation des utilisateurs.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2349 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois