Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Offre d'emploi
Chef de projet Data Finance
Nous recherchons un Senior Project Manager (H/F) expérimenté pour piloter un projet stratégique à forte dimension analytique et financière. Vous serez responsable du suivi des livrables, délais et budgets, de l’animation des parties prenantes (Finance, Data, IT, Produits) et de la coordination des équipes. Vous interviendrez également sur l’ analyse de données financières complexes , la synthèse des résultats pour le management, ainsi que sur l’ automatisation de processus critiques en lien avec les équipes Data.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.
Offre d'emploi
Data Engineer
Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Mission freelance
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Offre d'emploi
Data Analyst Senior
Nous recherchons un Data Analyst confirmé/senior pour le compte de l'un de nos clients basé à Tours. Vous serez au sein de la direction DATA composée d'une 30aine de personnes. Vos missions principales seront : Développer et consolider des sources de données variées, en collaboration étroite avec les équipes métiers (principalement la direction commerciale, le contrôle de gestion, les services médicaux et l’après-vente). Concevoir et maintenir des solutions techniques sur Dataiku DSS , en garantissant leur robustesse et leur alignement avec les besoins métiers. Analyser et restituer les données de manière claire et actionnable, en documentant systématiquement vos travaux. Participer activement à des projets transverses, comme la modélisation de scores d’appétence, l’analyse de comportements clients ou l’optimisation de processus métiers

Offre d'emploi
Data analyst junior (H/F)
Les + du poste : Vous interviendrez au sein de grande entreprise à dimension internationale Vous intégrerez un groupe leader sur son marché et garant du développement durable Vous rejoindrez une équipe soudée et bienveillante Contexte : Sous la responsabilité du Directeur du pôle Data qui est composé de 4 autres data analysts : Assurer le support des applications Qliksense, Nprinting, Talend Participer à l’intégration de logiciels métier dans les filiales (Fabriq, GED, CRM…) Développer d’autres solutions de dataviz Objectif : Assurer la maintenance et le développement d’applications de business. Responsabilités : Business Intelligence : Assurer la maintenance des applications de la plateforme BI (Qliksense, Nprinting, Qalyptus, Talend…) Développer les mails automatiques NPrinting Connecter des solutions Saas via des API Développer d’autres outils de business intelligence (AWS, Grafana…) Assurer la formation des nouveaux utilisateurs
Offre d'emploi
Ingénieur Développeur Data H/F
À propos de nous : Grafton Recruitment, spécialiste de l'intérim et du recrutement de profils juniors à professionnels confirmés, recherche un Ingénieur développeur Data. Lieu : Mantes-La-Jolie Contrat : CDI Mission : Dans le cadre de la mise en place et l'organisation du Data Lake de mon client, vous seriez en charge de structurer, fiabiliser et valoriser les données métiers. Vous serez le référent technique de la gouvernance de données. Administration du Data Lake Mise en place des schémas de données Développement des Pipelines de données Mise en place du catalogue de données Définir les indicateurs de qualité Être garant de la traçabilité et documentation des flux de données Gérer le traitement des anomalies Environnement technique : Snowflake Python Oracle SQL Power BI Powershell Compétences : Expérience de 3 ans minimum en Data Warehouses Cloud Idéalement avoir une expérience de création d'une data de bout en bout Très bonne maîtrise des langages SQL et Python, des scripts PowerShell Pour plus d'informations, merci de m'envoyer votre CV.

Offre d'emploi
Testeur Data confirmé
Bonjour, Nous recherchons pour notre client basé en région parisienne un Testeur Data confirmé (4 à 10 ans d’expérience). Objectif global Testeur confirmé avec compétences Data Analyste Les livrables sont Construction du référentiel de tests Détection et remontées des défauts Élaboration PV de recette Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé – Important Description détaillée Au sein de la Direction Digital et Data, vous intégrerez le département Data Lab en charge des projets BI et Data pour notre client. En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le retail et dans le domaine de la Data serait un plus. Vous serez amené à tester : - collecte et ingestion des données - vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) - vérifications des règles de gestion des zones capitalisation et factorisation - Vérification de la restitution des données dans les reportings De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Nous cherchons des personnes autonomes, rigoureuses, force de proposition et reconnues pour leurs qualités organisationnelles. Une bonne communication, un sens du contact et coopération en équipe est indispensable SYNTHESE DES TESTS Réalise un bilan des tests effectués Données complémentaires Date de démarrage 01/10/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?

Offre d'emploi
TECH MANAGER DATA
Bonjour pour le compte de notre client, nous recherchons Tech Manager Data.. Sous la responsabilité du Tech Lead DATA, le/la Tech Manager Data aura donc la charge De Encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) Créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) Piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) Animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) Informer et alerter les (deux) Leads DATA Participer aux activités et évènement transverses de l'équipe domaine, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc domaine connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Data Platform ». o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Product Owner Data H/F
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : rz49thmeji

Mission freelance
Data Scientist expert Octroi de Crédit et Risque de Crédit
Contexte Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme comporte plusieurs objectifs, dont celui de proposer des fonctionnalités utilisant de l’IA afin d’améliorer des processus ou produits existants. C’est dans ce contexte que l’équipe IALAB, au sein de la Direction Data, participe à l’exploration et la création d’indicateurs permettant de mieux appréhender le comportement des entreprises et l'appréciation du risque financier. Missions Dans le cadre de l’intégration d’algorithmes IA sur nos plateformes digitales d’octroi de crédits, le profil recherché aura la responsabilité de : • Analyser et comprendre en profondeur les objectifs et les exigences du projet en se basant sur les spécifications techniques et fonctionnelles • Proposer des nouveaux indicateurs en se basant sur les données existantes (données comptables, bancaires) • Etudier et fournir les éléments de décision pour intégrer des nouvelles sources de données alternatives afin de mieux apprécier le risque de défaut d’une entreprise • Echanger d’une manière régulière avec les différentes parties prenantes du projet et être force de proposition pour les besoins des parcours digitaux et des métiers • Superviser les performances des APIs et des algorithmes déployés en assurant un suivi rigoureux et régulier • Proposer des outils et des méthodes d’analyse pour une détection rapide des anomalies et problèmes • Evaluer régulièrement les résultats et les retours du projet afin d’identifier les axes d’améliorations et les opportunités d'optimisation • Contribuer à la documentation technique et fonctionnelle relative à l’architecture, aux APIs et aux algorithmes déployés Compétences métier • Appétence pour les problématiques bancaires et compréhension des enjeux • Connaissance des processus bancaires et plus spécifiquement d’octroi de crédit • Connaissance des indicateurs clés de bonne santé financière d’une entreprise • Bonne connaissance des données liées aux entreprises et des données open data associées • Très bonne connaissance des algorithmes de machine Learning et capacité à les appliquer pour résoudre des problèmes complexes • Aptitude à comprendre les problèmes techniques et à proposer des solutions adaptées • Capacité à communiquer de manière efficace avec différentes parties prenantes et à comprendre leurs besoins fonctionnels et techniques • Compétence dans la rédaction de documentation technique et fonctionnelle de qualité • Connaissance des APIs et de l’écosystème cloud de préférence AWS • Travail en méthodologie Agile • Expérience dans l’anticipation des écueils des projets de machine learning Liste des technologies • Python • Librairies Python de machine learning • Librairies de visualisation (ex plotly) et d’applications web type Dash ou Streamlit • Git Points critiques et différenciants PO au sein de l'IA LAB sujet au tour de l'Ia, de l'IA G solutions a créer et apporter pour les métiers Métier : octroi de crédit, l'octroi digital : dev d'une plateforme digitale et en ligne : besoin pour renforcer cette équipe offre dédiée aux PMEs, gros risques profil imaginatif explorer la data, trouver des solutions Data Scientist : - academique : - maitrise de la stack technique : machine Learning, python, libraire python, cloud AWS - SAFe / Scrum à minima - spécificité : connaissance octroi de crédit, risque de défaut, savoir analyser les données financières d'une entreprise, qqun capable de prendre du recul, maitrise des enjeux, appréciation des risques - où chercher / comment chercher des solutions - souple sur l'expérience Background CV : - expé en environnement bancaire et risque de crédit

Offre d'emploi
CONSULTANT DATA GOUVERANCE
Nous recherchons, pour l’un de nos clients du secteur santé/prévoyance , un Consultant Data Gouvernance orienté Qualité des Données (QDD) . 🎯 Missions Accompagner la mise en place et le suivi des processus Qualité des Données (QDD) . Assurer l’ acculturation des métiers aux enjeux Data et gouvernance. Intervenir en proximité fonctionnelle avec les équipes afin de structurer et formaliser leurs besoins. Contribuer à la définition et au suivi de la gouvernance Power BI (bonnes pratiques, catalogue, gestion des droits). Participer à l’utilisation d’outils de gouvernance type Data Galaxy (formation possible, maîtrise préalable non requise). 🧑💻 Profil recherché Expérience confirmée en gouvernance de la donnée et Qualité des Données (QDD) . Excellente capacité à vulgariser et accompagner les métiers . Orientation fonctionnelle et bonne compréhension des enjeux Data. La connaissance du secteur santé/prévoyance est un gros plus . La maîtrise de la gouvernance Power BI constitue également un atout . La connaissance de l’outil Data Galaxy est appréciée mais pas indispensable.

Offre d'emploi
Lead Data Engineed Snowflake
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Offre d'emploi
Lead Data Engineer Azure – Data Gouvernance & Plateformes Modernes
Dans le cadre d’un renfort stratégique, notre client recherche un Lead Data Engineer Azure pour intervenir sur des projets de transformation autour de la data, dans un environnement technique et fonctionnel exigeant. Le poste implique un rôle central dans la mise en place de plateformes data modernes et de pratiques de gouvernance des données. Missions : Définir et piloter l’ architecture data autour de concepts modernes : data mesh, data catalog , gouvernance des données. Participer à la mise en place de plateformes de data modeling et de catalogues de données dans un cadre de data gouvernance . Concevoir et implémenter des solutions techniques avec des outils tels que Databricks , Snowflake , Azure Synapse , etc. Collaborer étroitement avec les équipes métier pour comprendre les besoins fonctionnels et produire une documentation technico-fonctionnelle claire. Accompagner les équipes projet sur les bonnes pratiques d’ingénierie data , assurer une vision transverse et contribuer à l’ acculturation data au sein de l’organisation.

Offre d'emploi
Data Manager (H/F)
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur hôtelier ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Manager (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Vous serez en charge de définir les politiques de gestion des données, de modéliser et de garantir l'architecture fonctionnelle de la plateforme de données utilisée pour satisfaire les besoins métier. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Soutenir le cadrage, la conception et la livraison des produits de données ‒ Clarifie les exigences ‒ Trouve les lacunes en matière de données et évalue la faisabilité ‒ Collabore avec les Product Owners et les Data Engineers ‒ Co-conçoit les solutions de données ‒ Valide les choix de modélisation des données ‒ Assure la cohérence avec les normes ‒ Garantit l'évolutivité et la maintenabilité 🔸 Co-définit et partage/éduque les normes de gestion des données ‒ Collabore avec les parties prenantes de la gouvernance, de l'architecture et des produits ‒ Définit les conventions de nommage ‒ Définit les exigences de documentation ‒ Établit les règles de modélisation et assure la conformité ‒ Organise des formations, des ateliers et des sessions de support ‒ Fournit des conseils pratiques et répond aux questions 🔸 Gère le portefeuille et les actifs de données au niveau de la tribu ‒ Assure la qualité et l'exhaustivité des métadonnées ‒ Décrit les tables, les champs et les processus ‒ Met à jour la lignée et le glossaire métier ‒ Vérifie l'application cohérente des normes ‒ Crée et partage les rapports sur le portefeuille de données ‒ Met en évidence les lacunes, les risques et les opportunités
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres