Trouvez votre prochaine offre d’emploi ou de mission freelance Data governance

Votre recherche renvoie 53 résultats.
Freelance

Mission freelance
Architecte d’entreprise

Publiée le
MEGA
TOGAF

1 an
400-600 €
Paris, France
Le succès sur ce poste se mesure par : • la qualité et l’exploitabilité des référentiels (cartographies à jour, utilisables en audit et en crise), • la réduction de la complexité (rationalisation du portefeuille), • la robustesse des architectures livrées (résilience, sécurité, performance), • la maîtrise des risques (dont la conformité aux exigences DORA). 1 2) Missions principales A. Stratégie d’architecture d’entreprise • Définir et maintenir la cible d’architecture (Target Architecture) et la trajectoire (roadmap) en cohérence avec la stratégie de BEA International Bank (croissance, digital, conformité, maîtrise des risques). • Construire/maintenir la Business Architecture : modèle de capacités, cartographie processus/fonctions, et analyses de maturité. • Réaliser les analyses d’impact (métier, data, applicatif, technique, sécurité, exploitation) pour cadrer les évolutions et arbitrages. B. Gouvernance, standards et revues d’architecture • Mettre en place et animer la gouvernance d’architecture : principes, standards, patterns (API, intégration, data, IAM, cloud, observabilité, sécurité), gestion patrimoniale des actifs. • Conduire les revues d’architecture des initiatives majeures (projets, releases, changements majeurs) : o conformité aux standards, o conformité aux principes architecturaux, o maîtrise du risque (sécurité, résilience, continuité), o conformité (RGPD, LCB-FT/KYC/sanctions si impacts data/process). • Émettre des avis d’architecture tracés (Go/No-Go/Go sous conditions) et suivre les dérogations avec plan de remédiation. C. Référentiels, cartographies et exigences DORA • Définir et maintenir un dispositif « audit-ready » d’inventaires et cartographies : o cartographie applicative et technique, o cartographie des flux et échanges de données, o dépendances (internes/tiers, infra/cloud, composants). • Mettre en œuvre (ou renforcer) l’outillage et la méthode permettant : o L’identification et la documentation des fonctions supportées par des actifs TIC, des rôles/responsabilités et des ressources associées, 2 o L’identification et la cartographie des actifs TIC critiques, de leurs configurations et interdépendances (y compris dépendances vers tiers). • Assurer l’alignement avec les notions de Fonctions Critiques ou Importantes et les besoins PRA/PCA (RTO/RPO), en cohérence avec la gestion de crise. D. Rationalisation et modernisation du portefeuille • Piloter (avec les domaines) l’évaluation du portefeuille applicatif : consolidation, retrait, upgrade, standardisation. • Promouvoir des trajectoires de modernisation : cloud/hybride, architectures événementielles, API management, data platform, observabilité, Zero Trust (selon la stratégie de la DSI de la BEA International Bank). E. Innovation et amélioration continue • Faire de la veille sur les technologies et méthodologies pertinentes pour les services financiers de la banque. • Proposer des POC/POT cadrés (hypothèses, critères de succès, risques, coûts, sécurité/conformité). • Animer des ateliers de cadrage avec parties prenantes pour aligner besoins, risques, architecture et planning. 3) Livrables attendus • Cartographie SI à jour (applications, données, flux, intégrations, infra/cloud, tiers). • Modèle de capacités (capability map métier et IT) et trajectoire pluriannuelle. • Dossiers d’architecture (HLD/LLD selon standard), patterns & standards. • Avis d’architecture + registre des dérogations et plans de remédiation. • “Architecture Run Readiness” : exigences d’exploitabilité (monitoring, logs, SLA). • Référentiel DORA Art. 8 : inventaires, actifs critiques, interdépendances, configurations critiques. 3 4) Indicateurs de performance (KPI/KRI) KPI • Taux de couverture des cartographies (applications/flux/tiers) et délai de mise à jour post-change. • % projets majeurs passés en revue d’architecture avant Go-Live. • Réduction de redondance applicative (consolidation) / baisse complexité. KRI • Zones non cartographiées du S.I sur les périmètres critiques. • Nombre de dépendances critiques non maîtrisées (tiers, composants obsolètes). • Nombre de dérogations sans plan de remédiation ou “exceptions permanentes”. 5) Compétences requises Compétences techniques • Vision transverse : business, data, applicatif, intégration, infrastructure, cloud/hybride. • Urbanisation SI, architecture API/événementielle, data flows & data governance. • Concepts de résilience : PRA/PCA, RTO/RPO, observabilité, SRE (au moins les fondamentaux). • Gouvernance de standards/patterns et revues d’architecture. • Capacité à traduire exigences réglementaires en exigences d’architecture (notamment DORA Art. 8). Compétences comportementales • Excellente communication (orale, écrite, schémas), capacité de synthèse. • Leadership d’influence (sans lien hiérarchique), posture de challenge constructive. • Rigueur, sens du risque, exigence de traçabilité “audit-proof”. • Capacité à arbitrer : valeur vs risque vs coût vs délai.
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
CDI

Offre d'emploi
Senior Data Engineer

Publiée le

180k-195k $US
États-Unis d'Amérique
We are looking a Senior Data Engineer Work with a leading generative AI company in healthcare. Why Join Our Team Why Join Our Team Reinvent healthcare with AI that puts safety first. Work with the people shaping the future. Backed by the world’s leading healthcare and AI investors. Build alongside the best in healthcare and AI. Location- Palo Alto, CA office. We believe the best ideas happen together. To support fast collaboration and a strong team culture, this role is expected to be in our Palo Alto office five days a week, unless otherwise specified. Benefits: 401 k, Equity, Lunch provided (On site job) Data is the backbone of everything we build — from our voice-based generative healthcare agents to the systems that ensure their clinical safety and reliability. We’re looking for data engineers who thrive at the intersection of data systems, security, and scalability to design the infrastructure that powers safe AI deployment across healthcare environments. As part of the Data Infrastructure team, you’ll design, operate, and scale systems that collect, transform, and serve data for model training, evaluation, and operational analytics . You’ll work closely with ML, AI, and product teams to ensure our data is trustworthy, compliant, and high-quality — forming the foundation for real-world, patient-facing AI systems. This is an opportunity to build data systems for a new class of AI products — where correctness, traceability, and privacy aren’t optional, they’re mission-critical. What You'll Do Build & operate data platforms and pipelines (batch/stream) that feed training, RAG, evaluation, and analytics using tools like Prefect, dbt, Airflow, Spark , and cloud data warehouses ( Snowflake/BigQuery/Redshift ). Own data governance and access control : implement HIPAA-grade permissioning, lineage, audit logging, and DLP; manage IAM, roles, and policy-as-code. Ensure reliability, observability, and cost efficiency across storage ( S3/GCS ), warehouses, and ETL/ELT—SLAs/SLOs, data quality checks, monitoring, and disaster recovery. Enable self-service analytics via curated models and semantic layers; mentor engineers on best practices in schema design, SQL performance, and data lifecycle. Partner with ML/Research to provision high-quality datasets, feature stores, and labeling/eval corpora with reproducibility (versioning, metadata, data contracts). What You Bring Must-Have: 5+ years of software or data engineering experience, with 3+ years building data infrastructure, ETL/ELT pipelines, or distributed data systems. Deep experience with Python and at least one cloud data platform (Snowflake, DataBricks, BigQuery, Redshift, or equivalent). Familiarity with orchestration tools (Airflow, prefect, dbt) and infrastructure-as-code (Terraform, CloudFormation). Strong understanding of data security, access control, and compliance frameworks (HIPAA, SOC 2, GDPR, or similar). Proficiency with SQL and experience optimizing query performance and storage design. Excellent problem-solving and collaboration skills — able to work across engineering, ML, and clinical teams. Comfortable navigating trade-offs between performance, cost, and maintainability in complex systems. Nice-to-Have: Experience supporting ML pipelines, feature stores, or model training datasets. Familiarity with real-time streaming systems (Kafka, Kinesis) or large-scale unstructured data storage (S3, GCS). Background in data reliability engineering, data quality monitoring, or governance automation. Experience in healthcare, safety-critical systems, or regulated environments. If you’re passionate about building data systems that power safe, real-world AI , we’d love to hear from you. We have an exciting opportunity waiting for you—apply today and take the next step in your career! The IN group is here to support you specifically with the recruitment and hiring process for job opportunities. Our role is focused on guiding you through these steps. If you have any questions related to your application or next steps in the hiring process, Apply, and please feel free to reach out. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Freelance

Mission freelance
Head of Data

Publiée le
Gouvernance
Management
Pilotage

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Freelance

Mission freelance
Chef de projet - Data Management / Framework

Publiée le

12 mois
500 €
France
🧭 Chef de projet - Expert Data Management / Frameworks (F/H) 🏦 Secteur : finance | 📍 Paris (hybride) | 🗣️ Anglais requis 🆔 Réf. : DM Frameworks | 🚀 Démarrage : ASAP | ⏳ Durée : longue 🎯 Contexte Dans le cadre du déploiement des frameworks Groupe en France : ✅ Data Management Control (gouvernance, data quality , lineage , conformité) 🧩 EUC - End‑User Computing (inventaire, criticité, contrôles d'accès, documentation, recovery) Votre mission : adapter localement ces cadres, définir la feuille de route et piloter les contrôles jusqu'à la mise en conformité . Environnement multi‑pays , nombreux stakeholders (Finance, Regulatory Reporting, KYC, IT/Data). 📄 Documentation 100% en anglais. 🛠️ Vos missions 🧭 Localiser les frameworks Groupe pour la France (périmètre, exigences minimales, mode d'implémentation) 🧾 Construire la matrice de contrôle & les evidences (owners, périodicité, workflows, runbooks) 🧱 Gouvernance EUC : inventaire, classification/criticité, contrôles d'accès, BCP/Recovery , cycle de vie 📊 Sécuriser DQ & Lineage : règles, seuils, KPIs , monitoring & remédiations 📚 Produire standards & templates (policies, modèles, playbooks) et animer l' acculturation (stewards/owners) 📈 Reporting clair et régulier aux sponsors (indicateurs, risques, décisions) 👤 Profil recherché (must‑have) 🎓 7-10+ ans en Data Management (gouvernance, data quality , metadata/lineage ) en banque 🧩 Maîtrise des cadres de contrôle data & EUC governance (métier + IT) 📘 Culture DAMA‑DMBOK / DCAM ; sens de la conformité et de la traçabilité (certifiations non obligatoires) 🗣️ Anglais courant (écrit/oral, comités & doc) 🤝 Coordination multi‑équipes, communication solide et conduite du changement 🔎 Modalités 📍 Paris - hybride 🗓️ ASAP, mission longue (programme pluriannuel) 🗣️ Anglais requis
53 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous