Trouvez votre prochaine offre d’emploi ou de mission freelance okta

Votre recherche renvoie 814 résultats.
Offre premium
CDI

Offre d'emploi
Directeur de Programme IT / Data (H/F)

ALTEN
Publiée le
Data Strategy
Gestion de projet

Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique de migration des plateformes data et BI, ce poste joue un rôle central. Il implique une collaboration étroite avec des équipes techniques et métiers, et s’inscrit dans une dynamique de transformation du SI, avec des enjeux forts en gouvernance et coordination. Intervenir sur le pilotage transverse d’un programme de migration de plateforme data , en assurant la coordination des équipes techniques et métiers Contribuer à l’animation de la gouvernance du programme (comités de pilotage, comités techniques, suivi des décisions et arbitrages) Coordonner les différentes squads techniques et gérer les interdépendances entre les chantiers Intervenir dans la gestion de la relation avec les métiers , en animant les ateliers d’expression des besoins et en accompagnant la transformation des usages Contribuer à la gestion du changement et à la communication auprès des utilisateurs finaux Piloter le suivi budgétaire du programme (OPEX / CAPEX), l’allocation des ressources et les arbitrages nécessaires Contribuer à l’identification et au suivi des risques projet , ainsi qu’à la mise en place de plans de mitigation Garantir la qualité des livrables et le suivi des migrations de flux de données et de restitutions BI Piloter la stratégie de décommissionnement des usages obsolètes et la rationalisation des infrastructures Contribuer à la documentation, capitalisation et préparation des instances de gouvernance du programme
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)

3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
Freelance
CDI

Offre d'emploi
Expert Big Data / Lead Tech Big Data

ONSPARK
Publiée le
Cloudera
Hadoop

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert / Lead Tech Big Data pour accompagner nos clients grands comptes. Vous interviendrez en tant que référent technique au sein d'environnements Big Data on-premise matures (Cloudera CDP), avec de fortes exigences en matière de performance, de sécurité (ISO 27001, RGS) et de qualité. Responsabilités Définir les orientations techniques de la plateforme Big Data Encadrer et accompagner les équipes Data Engineering Optimiser les performances des traitements distribués (Spark, Hadoop) Assurer une veille technologique active et contribuer à la roadmap technique Garantir la sécurité, la fiabilité et l'évolutivité de la plateforme
Freelance
CDI

Offre d'emploi
Data Engineer H/F

OBJECTWARE
Publiée le
Apache Airflow
Microsoft Power BI
Python

1 an
Tours, Centre-Val de Loire
Nous recherchons un Ingénieur Data H/F pour une mission à Tours. Missions : Développer et maintenir des pipelines de données avec Airflow Concevoir et optimiser des traitements de données en Python Collecter, nettoyer et transformer des données issues de sources variées Alimenter des entrepôts de données (Data Warehouse / Data Lake) Assurer la qualité, la fiabilité et la traçabilité des données Collaborer avec les équipes métiers pour la mise à disposition de dashboards sous Power BI Participer à l’optimisation des performances et à l’automatisation des flux
CDI
Freelance

Offre d'emploi
Analyst Support IT Salle des Marchés

cty
Publiée le
Market data
Support utilisateurs

1 an
40k-65k €
400-650 €
Paris, France
La prestation concernera l'activité de support technique des applications Market Data, Trading, Broker et Contribution, utilisées par les traders de la salle des marchés Fixed Income. En contact permanent avec la salle de marché, vous interviendrez principalement sur les applications de Pre-trade, installées sur les postes de travail des utilisateurs. Vous assistez les utilisateurs dans leur utilisation des applications installées sur leurs postes de travail : • Market data • Applications Broker • Trading A ce titre, vos missions principales sont : - Support niveaux 2 et 3 : * Gestion des incidents incluant l'identification de la root cause et les actions de résolution * Gestion de la communication en direction des utilisateurs, du management et des autres équipes IT * Gestion des demandes utilisateurs * Maintien à niveau des architectures de Backup et de PSI de façon continue - Maintenance évolutive * Gestion des évolutions des applications sous gestion. * Choix de la meilleure solution en rapport avec les standards du client * Définition et suivi d’un plan d’action, d’un planning et d’un plan de charge * Mise en place de la solution en coordination avec les autres équipes IT (réseau, serveurs, Citrix, …) * Pilotage du déploiement à Paris et à l’international
Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Freelance
CDI

Offre d'emploi
Data Analyst H/F

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Python

3 mois
40k-50k €
400-550 €
Rennes, Bretagne
MISSIONS Vos principales missions seront les suivantes : Accompagnement des métiers : Collaborer avec les équipes métiers pour comprendre leurs besoins et définir des cas d'usage pertinents. Former et accompagner les utilisateurs dans l'adoption des outils et des bonnes pratiques liés à l'utilisation des données Dictionnarisation des données : Contribuer à l’enrichissement du dictionnaire de données pour garantir une compréhension uniforme des données au sein de l'organisation. Promouvoir les grands principes de gouvernance des données et assurer la sensibilisation des parties prenantes . Analyse et manipulation de données : Collecter, traiter et analyser des données provenant de différentes sources pour en extraire des insights pertinents et travailler les cas d’usages métiers Assurer la qualité et l'intégrité des données tout au long du processus d'analyse. Modélisation de données : Concevoir et mettre en place des modèles de données adaptés aux besoins métiers et projets stratégiques de l'entreprise. Collaborer avec les équipes techniques pour garantir la bonne mise en œuvre des modèles. Rédaction de spécifications techniques et recette des livrables (data products ) : Rédiger des spécifications techniques claires et détaillées pour les équipes de développement. Collaborer avec les équipes techniques pour garantir la bonne mise en œuvre des modèles. Assurer la liaison entre les équipes métiers et techniques pour accompagner la phase de recette et garantir que les solutions répondent aux besoins identifiés. Les Interlocuteurs principaux : Les collaborateurs des différentes directions métiers (direction commerciale et marketing, risques, engagements, contrôle de gestion, projets …) Les interlocuteurs MOA/MOE internes au groupe Crédit Mutuel ARKEA et en particulier les collaborateurs des Data factory Les prestataires externes éventuels, intégrateurs et/ou éditeurs
Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Freelance

Mission freelance
Chef de Projet Data (F/H)

CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)

12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
CDI

Offre d'emploi
QA DATA

KOUKA
Publiée le
CI/CD
Cypress
JIRA

40k-45k €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Freelance

Mission freelance
Data Engineer expérimenté (H/F) - Nantes

CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse

1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Freelance
CDI

Offre d'emploi
Data Analyst MSBI

UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS

12 mois
40k-45k €
400-550 €
Paris, France
Le data Analyst BI a pour mission de consolider les données clients à des fins analytiques et statistiques. Il intervient sur les projets stratégiques : lancement de produit, consolidation financière, étude de risques, suivi d’activité. Dans le cadre de ses missions, il échange avec l’ensemble de l’équipe data et travaille en collaboration étroite avec les experts métiers de la finance, du risque et du marketing pour fournir des données consolidées de qualité. Il sait vulgariser ses travaux pour les partager et comprendre les priorités du métier. Le développement, l’industrialisation et le déploiement de flux de données font partie de ses missions principales. Il est également amené à suivre et à améliorer continuellement la qualité de nos livrables et de notre run. Il travaille dans un contexte agile au sein d’une équipe pluridisciplinaire (Architect, Analyst, Scientist) et d’experts passionnés par la data et les nouveaux usages. Il partage efficacement sur ses travaux en maintenant la documentation de l’équipe à jour et en réalisant des présentations. Enfin il veille en permanence sur les ruptures technologiques et réalise des POC pour mieux les appréhender. Missions : • Challenge, cadrage, chiffrage et priorisation des besoins métiers • Exploration et fouille de données • Industrialisation de traitement • Suivi du RUN • Documentation
Freelance

Mission freelance
Data Analyst Workplace

Ness Technologies
Publiée le
Cisco
ITSM
Microsoft Power BI

6 mois
Essonne, France
Rôle Dans le cadre d’une transformation IT orientée performance et amélioration continue, vous intervenez au sein d’un dispositif dédié à l’optimisation des services Workplace. Votre mission consiste à analyser, piloter et améliorer la performance des environnements utilisateurs (poste de travail, collaboration, mobilité), en vous appuyant sur la donnée et des indicateurs mesurables. 🚀 Missions Analyse & Data Exploiter les données issues des outils de supervision, ITSM et satisfaction utilisateur Construire des tableaux de bord et indicateurs de performance (Power BI ou équivalent) Identifier les tendances, irritants et axes d’amélioration Produire des analyses et recommandations basées sur la donnée Amélioration continue Identifier, prioriser et piloter des chantiers d’optimisation Contribuer à la réduction de la dette technique et de l’obsolescence Participer à des initiatives d’innovation sur le Workplace Mettre en œuvre des actions concrètes avec suivi des gains Pilotage & reporting Préparer des synthèses et restitutions pour le management Participer aux comités de pilotage et de suivi Suivre les KPIs, mesurer l’avancement et ajuster les priorités Valoriser les résultats et gains obtenus Collaboration & transverse Travailler en interaction avec les équipes IT (Workplace, infra, support) Collaborer avec les parties prenantes métiers S’adapter aux évolutions du périmètre et des priorités Être force de proposition sur les axes d’amélioration
Freelance

Mission freelance
Coordinateur Data H/F

HAYS France
Publiée le

2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)

OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage

3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Freelance

Mission freelance
Consultant Senior Data Management / Data Quality

Inventiv IT
Publiée le
Collibra
Data governance
Data management

6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
814 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous