Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 127 résultats.
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Architecte Data SAP / BW4HANA - Full remote

Signe +
Publiée le
SAP BW

2 mois
550-750 €
Toulouse, Occitanie
Dans un environnement industriel basé sur SAP, la mission s’articule autour de deux axes : Mise en place d’un mécanisme sécurisé et fiable de transfert de données entre une plateforme de stockage analytics industrielle (SAP HANA) et un environnement SAP BW. Intégration des données SAP BW vers une application décisionnelle afin d’optimiser la gestion des concessions et permettre la priorisation horaire des tâches. 🎯 Missions / Livrables : Réalisation de deux Architecture Design Dossiers comprenant notamment : Schémas de flux de données et contrats d’interface Définition des composants techniques Sécurité, conformité et gouvernance des données Gestion des accès et authentification Exigences de planification et de performance Alignement des modèles de données entre les différentes sources Mise à disposition des données en quasi temps réel Démarre : 2 Mars 2023 Durée : 1,5 mois Localisation : Full remote - Déplacements ponctuels à Toulouse
Freelance

Mission freelance
Data engineer GCP Google cloud platform 500 e par jour

BI SOLUTIONS
Publiée le
Docker
Google Cloud Platform (GCP)

2 ans
400-500 €
Île-de-France, France
Data engineer GCP Google cloud platform 500 e par jour Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner et des chefs de projets • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Connaissances techniques : • Plateforme et environnement GCP (indispensable) • Environnement GKE • Stockage : HDFS / GCS • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala • Planification : Airflow / Composer • Méthodologies : Scrum, Kanban, Git • DWH : SQL, BigQuery, BigTable • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build 500 e par jour
CDI
Freelance

Offre d'emploi
Ingénieur Sécurité Data (H/F)

AVA2I
Publiée le
AWS Cloud
Cybersécurité
FortiGate

3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Sécurité Data pour renforcer la sécurisation d’un environnement multicloud AWS & GCP . L’objectif est de protéger l’ensemble de la chaîne de valeur Data : ingestion, stockage, transformation et exposition des données, tout en garantissant conformité, traçabilité et résilience des infrastructures. 🏗️ Environnement Technique Cloud : AWS & GCP (environnement multicloud) Plateforme Data : Data Lake / Data Warehouse ETL / ELT Orchestration de flux data Sécurité réseau : Firewalls Fortinet / FortiGate Segmentation réseau & sécurisation des flux inter-VPC / inter-projets CI/CD & approche DevSecOps Supervision & monitoring sécurité 🛠️ Missions principales🔒 Sécurité Cloud & Data Sécurisation des architectures Data sur AWS et GCP Mise en place et contrôle des politiques IAM Gestion des accès aux environnements Data Sécurisation des flux d’ingestion et d’exposition des données Application des standards sécurité groupe 🌐 Sécurité Réseau Administration et configuration des firewalls FortiGate Gestion des règles de filtrage, VPN, NAT, IPS Segmentation réseau et sécurisation des flux inter-environnements Analyse et traitement des incidents sécurité réseau
CDI

Offre d'emploi
Alternance Développeur Full Stack / Applications Web & Data F/H - Lyon

█ █ █ █ █ █ █
Publiée le
Git
HTML
HTML5

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte DATA - Paris

SKILL EXPERT
Publiée le
Azure
Big Data
CI/CD

1 an
520-540 €
Paris, France
Mission : Analyser les besoins et usages en données des différents métiers de l’entreprise. Recommander des solutions de stockage et gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme, Contribuer à l’observabilité de la plateforme, Implémenter la plateforme et les outillages associés, Assurer le maintien en condition opérationnelle de la plateforme, Assurer la sécurité des accès et de la plateforme, Mettre en place une stratégie de monitoring des coûts et d'optimisation des ressources Azure
Freelance

Mission freelance
Consultant Gouvernance Data

Codezys
Publiée le
Gouvernance

12 mois
350-450 €
Paris, France
Sécurité et conformité réglementaire : Garantir la conformité des données aux normes internes et externes, notamment en matière de RGPD et de législation en vigueur. Gestion des rôles et animation de la communauté Data : Identifier et mobiliser les relais de la gouvernance Data dans un contexte de responsabilités fédérées. Animer des séminaires, assurer la communication et favoriser l’engagement des acteurs concernés. Gestion des habilitations : Définir la granularité des habilitations pour les rôles et utilisateurs afin d’assurer une sécurité optimale et une gestion fine des accès. Accompagnement à la montée en compétence : Soutenir le développement des compétences des membres de l'équipe sur les sujets fondamentaux indispensables à la réalisation des missions liées à la gouvernance des données. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables : Chapitres thématiques de la politique de gouvernance des données : Rôles et responsabilités Gestion du Glossaire et du Dictionnaire des données Gestion du Data Lineage Sécurité et droits d’accès, conformité juridique Suivi de la qualité des données Processus d’évolution de la plateforme Data Environnement technique : La sélection du fournisseur pour la plateforme Data d’entreprise est en cours. La solution cible intégrera notamment : Couche de stockage : Teradata, Hadoop Cloudera, PostgreSQL Transformation des données : DataStage, Spark Business Intelligence : Power BI, SAS Sécurité : 2 jours de télétravail possible par semaine à Paris 12, avec un démarrage prévu à la mi-mars 2026. La mission se clôturera en janvier 2027, avec une option jusqu’en janvier 2028. La date limite de réponse est fixée au 19/02/2026. Type de contrat : salarié ou freelance. TJM cible : 450 € .
Freelance

Mission freelance
Architecte DATA - Paris

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
450-500 €
Paris, France
Recherche d'un architecte Data expérimenté pour renforcer la maîtrise technique d’un projet DataCloud. Contexte : Un interne partira le 1er avril 2026, nécessitant son remplacement pour assurer la continuité du projet. Mission : Analyser les besoins et usages en données des différentes unités métier de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Participer à la conception de l’architecture de la plateforme DataCloud. Contribuer à l’amélioration de l’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle continue de la plateforme. Garantir la sécurité des accès et de l’ensemble de la plateforme. Définir et mettre en place une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités : Participer aux décisions de design technique (Design Authority). Contribuer aux travaux du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment pour la construction et la maintenance du socle technique (infrastructure, FinOps, habilitations, conformité, CI/CD). Contribuer à l’automatisation des déploiements et à la gestion du cycle de vie de la plateforme. Surveiller le comportement et la performance de la plateforme. Participer à la résolution des incidents opérationnels. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires clients : Localisation idéale : Dijon, Châlons-en-Champagne, Paris, Nantes ou Limoges. Expérience requise : minimum 5 ans dans le domaine de la Data. Budget prestataire : TJM de 500€, à négocier selon profil. Début souhaité : dès que possible, en veillant à effectuer un transfert de compétences avec le précédent avant le 1er avril 2026. Profil recherché : Un architecte opérationnel, capable de réaliser concrètement les actions, avec une forte implication technique. Les soft skills (esprit d’équipe, autonomie, sens de la communication) sont également essentiels pour réussir cette mission.
Freelance
CDI

Offre d'emploi
Data Engineer GCP/PYTHON

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer GCP pour l'un de nos clients ! Contexte de la mission : Au sein de la Direction Technologie, la Data Factory est en charge du pilotage, de la conception, du déploiement et de l’exploitation des solutions technologiques répondant aux cas d’usage data et aux besoins d’automatisation, à travers des plateformes modernes et performantes. La Data Factory joue également un rôle clé dans le développement des produits data et dans la diffusion des bonnes pratiques au sein des différentes Squads, afin de renforcer la culture data et l’excellence technique. Dans ce cadre, nous recherchons un(e) Data Engineer Confirmé(e) GCP/PYTHON 🎯 Missions principales Le/LA Data Engineer interviendra sur les périmètres suivants : 🔹 Déploiement & Industrialisation Déployer des datasets normés sur les data domains suivants : Utilisateurs, Comportements, Référentiels Concevoir, développer et maintenir des pipelines data robustes, scalables et performants Organiser et structurer le stockage des données Mettre en place des infrastructures évolutives adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD 🔹 Qualité & Gouvernance Mettre en place des contrôles qualité sur les datasets Garantir la fiabilité, l’intégrité et la sécurité des données Participer aux initiatives de gouvernance (Dataplex, catalogage, traçabilité) Assurer la stabilité et la sécurité des environnements 🔹 Collaboration & Support Accompagner les utilisateurs dans l’exploitation et le requêtage des données Participer activement aux phases de conception, planification et réalisation Contribuer à la documentation technique Partager les bonnes pratiques au sein de l’équipe Data Participer aux instances Data Engineering 🔹 Amélioration continue Assurer une veille technologique active Contribuer à l’évolution des standards techniques
CDI
Freelance

Offre d'emploi
INGENIEUR STOCKAGE - AMAZON S3

HEEVOX
Publiée le
Amazon S3
AWS Cloud
JSON

2 ans
45k-55k €
400-500 €
Île-de-France, France
INGENIEUR STOCKAGE - AMAZON S3 Démarrage : ASAP Durée : 2 ans Localisation : Ile de France (Proche Paris) Télétravail : 50% Objectif global : Administrer plateforme de stockage objet Profil Recherché : Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
CDI

Offre d'emploi
Ingénieur Stockage (F/H)

Experis France
Publiée le

45k-55k €
Angers, Pays de la Loire
Ingénieur Stockage (F/H) - Angers 🎯 Contexte Nous recherchons un Ingénieur Stockage confirmé pour assurer l'exploitation, l'administration et l'évolution d'infrastructures de stockage critiques. Le consultant interviendra sur plusieurs générations de baies HITACHI ainsi que sur la plateforme HCP. 🚀 Missions Le consultant sera chargé d'assurer le bon fonctionnement , la performance , la disponibilité et le maintien en conditions opérationnelles des environnements de stockage HITACHI. Responsabilités principales Administration quotidienne des baies HITACHI HUSVM, G5500, G370 et de la plateforme HCP . Suivi de la performance , de la capacité , de la disponibilité et gestion proactive des risques. Analyse, diagnostic et résolution des incidents liés au stockage HITACHI. Mise en œuvre et suivi des changements techniques : évolutions, mises à jour, correctifs. Rédaction, mise à jour et maintien de la documentation , procédures d'exploitation et consignes techniques. Réalisation d'analyses post‑incident et définition de plans d'action . Participation au reporting technique : indicateurs de capacité, performance, alertes. Interface technique avec l'éditeur HITACHI : bonnes pratiques, recommandations, suivi des préconisations
Freelance

Mission freelance
Data Engineer - Paris

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
SQL

3 ans
400-410 £GB
Paris, France
Description du poste – Data Engineer Senior Dans le cadre de projets numériques transverses, vous interviendrez au sein d’une équipe data intégrée à une plateforme de traitement et de valorisation des données. Vous collaborerez étroitement avec des profils métiers et techniques afin de garantir la collecte, la structuration et l’exploitation optimale des données. Vos missions incluent notamment : Participer aux phases de conception, planification et réalisation des projets data Construire et maintenir des pipelines de données robustes et scalables Centraliser des sources de données hétérogènes Structurer et organiser les stockages de données Mettre en place des infrastructures évolutives capables de gérer des volumes importants Développer et maintenir les workflows CI/CD Assurer la sécurité, la stabilité et la performance des environnements Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer aux initiatives de gouvernance data Documenter les solutions et diffuser les bonnes pratiques Réaliser une veille technologique active
CDI

Offre d'emploi
Ingénieur Stockage (F/H)

Experis France
Publiée le

45k-55k €
Angers, Pays de la Loire
Ingénieur Stockage (F/H) - Angers 🎯 Contexte Nous recherchons un Ingénieur Stockage confirmé pour assurer l'exploitation, l'administration et l'évolution d'infrastructures de stockage critiques. Le consultant interviendra sur plusieurs générations de baies HITACHI ainsi que sur la plateforme HCP. 🚀 Missions Le consultant sera chargé d'assurer le bon fonctionnement , la performance , la disponibilité et le maintien en conditions opérationnelles des environnements de stockage HITACHI. Responsabilités principales Administration quotidienne des baies HITACHI HUSVM, G5500, G370 et de la plateforme HCP . Suivi de la performance , de la capacité , de la disponibilité et gestion proactive des risques. Analyse, diagnostic et résolution des incidents liés au stockage HITACHI. Mise en œuvre et suivi des changements techniques : évolutions, mises à jour, correctifs. Rédaction, mise à jour et maintien de la documentation , procédures d'exploitation et consignes techniques. Réalisation d'analyses post‑incident et définition de plans d'action . Participation au reporting technique : indicateurs de capacité, performance, alertes. Interface technique avec l'éditeur HITACHI : bonnes pratiques, recommandations, suivi des préconisations
CDI
Freelance

Offre d'emploi
Consultant Data Gouvernance sur Paris 12

EterniTech
Publiée le
Cloudera
Microsoft Power BI
SAS

2 ans
75560 CEDEX 12, Paris, Île-de-France
Je recherche pour un de mes clients un Consultant Data Gouvernance sur Paris 12 CONTEXTE DE LA MISSION Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée du client (3 salariés à ce jour) souhaite renforcer son équipe d'un profil confirmé en la matière. Le client recherche donc à apporter à l'équipe Gouvernance de la donnée un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans de ses missions : définition des politiques de gestion des données (rôles et responsabilités; mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; modalités de suivi de la qualité des données; modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; articulation avec les capacités de la plate-forme Data choisie par l'entreprise); mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; etc..... DESCRIPTION DE LA MISSION Les missions principales au sein de l'activité Gouvernance de la donnée seront les suivantes : - Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées ; échanges en cours) - Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire ; - Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… - Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. - Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). - Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. - Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables attendus : Chapitres thématiques de la politique de Gouvernance des données : - rôles et responsabilités ; - gestion Glossaire/Dictionnaire ; - gestion du Data Lineage ; - sécurité et droits d'accès, dont conformité juridique ; - Suivi de la qualité des données ; - process permettant l'évolution de la plate-forme Data Environnement technique : Sélection en cours du fournisseur pour une plateforme Data d’entreprise cible Couche stockage : - Teradata - Hadoopa Cloudera - Postgre Transformation : - Data stage - Spark BI : - Power BI - SAS Expériences attendues : - Expérience au sein d'un Data Office en charge de la Gouvernance des données (au moins 2 expériences significatives) - Utilisation des outils de Gouvernance des données (gestion des méta données, dont Glossaire / Dictionnaire, Catalogage, Création/Exposition de Data Product, Data Quality, Lineage) - Compréhension des grands modèles d'Architecture Data (Extraction/Chargement, Transformation/Nettoyage, Mise à disposition, Suivi des usages) - Pratique d'une solution Plate-Forme Data

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

127 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous