Loading [MathJax]/jax/input/TeX/jax.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LLM4vis:基于大模型的可解释可视化推荐方法

LLM4vis:基于大模型的可解释可视化推荐方法

作者头像
秋枫学习笔记
发布于 2023-10-24 02:23:54
发布于 2023-10-24 02:23:54
1.6K0
举报
文章被收录于专栏:秋枫学习笔记秋枫学习笔记

关注我们,一起学习

标题:LLM4Vis: Explainable Visualization Recommendation using ChatGPT 地址:https://arxiv.org/pdf/2310.07652.pdf 会议:EMNLP 2023 学校,公司:新加坡管理大学,微软亚洲研究院

1.导读

本文主要针对可解释可视化推荐任务提出的大模型相关方法LLMVis,现有的各种基于机器学习的方法通常需要大量的可视化对数据集(数据和标签)来进行训练,并且其结果缺乏可解释性。

简单解释下这里说的可视化推荐:为了增强可解释性,我们通常会采用可视化方法,比如折线图,点状图,柱状图等,而不同的数据适合的图不同,因此需要对数据进行判断来推荐合适的可视化方式,如果是人工筛选那会很低效。

在这里,作者提出了LLM4Vis,基于大模型LLM(如ChatGPT)的提示方法,用于执行可视化推荐,并使用很少的示例返回类似人类的解释。LLMVis包括特征描述示范示例选择解释生成示范示例构建推理。为了获得具有高质量解释的示例,本文提出了一种解释生成bootstrapping方法,通过考虑上一轮迭代结果和基于模板的提示来迭代细化生成的解释。

  • 特征描述:将包含单个特征和交叉特征的表格数据转化为自然语言描述的形式
  • 示例选择:由于LLM的输入长度有限,因此只能选择少量的数据,这里的数据用于上下文学习,选择的方式为聚类
  • 解释生成:通过上述方式只有特征描述和选择出来的特征,但是对应的解释,这里的解释通过大模型根据特征描述生成,这里的解释是为了增强推荐的可解释性,即为什么推荐某一类的可视化方法

具体流程可以看2.1节概览。

2.方法

2.1 概览

如图1所示,LLM4Vis由几个关键步骤组成:特征描述、演示示例选择、解释生成引导、提示构建和推理。

2.2 特征描述

大多数大型语言模型,如ChatGPT,都是基于文本语料库进行训练的。为了允许ChatGPT将表格数据集作为输入,

  • 首先使用预定义的规则将其转换为定量表示其特征的数据特征集(感觉这里可以和人大的structgpt结合使用)。
  • 然后,可以将这些特性序列化为文本描述。根据VizML和KG4Vis数据集,提取了80个交叉特征和120个单特征。将与列相关的数据特征分类为类型、值和名称。

以往的工作主要通过使用规则、模板或语言模型来执行序列化。在本文中,为了确保语法的正确性、灵活性和丰富性,遵循TabLLM提出的LLM序列化方法。提供一个提示,指示ChatGPT为每个表格数据集生成一个全面的文本描述,从单列特征和交叉特征的角度分析特征值。然后使用特征描述来构建简洁但信息丰富的演示示例。

2.3 示例选择

由于最大输入长度的限制,ChatGPT提示只能容纳少量的演示示例。因此,需要从大量标记数据中选择好的样本。

  • 首先通过将每个表格数据集的特征转换为向量。
  • 然后使用聚类算法从标记集中选择具有代表性的示例子集。聚类算法创建C个聚类,从每个聚类中选择R个有代表性的例子,得到大小为M=C×R的子集作为检索集。
  • 最后基于检索集中向量表示的余弦相似性得分,检索与目标数据示例具有最高相似性得分的K个训练数据示例。

2.4 解释生成

每个标记的数据示例

Xi

只带有一个标签

Yi

,但没有演示示例中需要使用的解释。通过设计提示prompt,利用LLM,如ChatGPT的内置知识为每个样本生成适当的可视化和解释。指示ChatGPT以JSON格式生成,其中key对应于四种可能的可视化类型

{YLC,YSP,YBC,YBP}

(LC:折线图、SP:散点图、BC:条形图、BP:方框图),值为推荐分数

{SLC,SSP,SBC,SBP}

。提示ChatGPT在迭代过程中为其对每个可视化类型的预测生成解释

{ExLC,ExSP,ExBC,ExBP}

使用零样本提示和表格数据集的特征描述,要求ChatGPT为所有可视化类型生成分数

{S1LC,S1SP,S1BC,S1BP}

,并提供支持将这些分数分配给每个可视化类型的解释

{Ex1LC,Ex1SP,Ex1BC,Ex1BP}

。这些分数的总和要求为1。

随后,通过迭代细化过程来修改这些分数和解释,该迭代细化过程在真实标签Y上的打分最高,且超过第二高分数至少0.1时终止。最后的解释和分数用

{ExfLC,ExfSP,ExfBC,ExfBP}

{SfLC,SfSP,SfBC,SfBP}

表示。然而,如果真实的可视化类型不满足上述条件,作者开发了一个提示,并将其附加到初始零样本提示,以指示ChatGPT产生更准确的输出。提示模板示例如下:“{a}可能比{b}更合适。但是,以前的分数是{c}”。{a}槽用于基本事实标签,{b}槽用于具有最高分数的不正确标签,{c}槽用于每个可视化类型的先前预测分数。

2.3 提示构造和推理

在从测试数据样本的检索集中检索到K个最近的标记样本,以及它们的特征描述、精细解释和精细分数后,每个演示示例都由特征描述、任务说明、推荐的带分数的可视化类型和解释构成。然后,我们将测试数据示例的功能描述合并到预定义的模板中。接下来,构建的演示示例和测试数据示例的完整模板被连接起来,并输入到ChatGPT中,以执行可视化类型建议。最后,从ChatGPT输出中提取推荐的可视化和解释。

3.结果

image.png

交流群:点击“联系作者”--备注“研究方向-公司或学校” 欢迎|论文宣传|合作交流 往期推荐 RecSys最佳短文 | 微信如何优化用户留存? 「StructGPT」面向结构化数据的大模型推理框架 用大模型LLM进行异构知识融合构建推荐系统 CIKM'23 | 统一的搜索推荐冷启动基础模型

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-10-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 秋枫学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【机器学习】关于机器学习模型可解释(XAI),再分享一招!
随着时间的推移,学习模型变得越来越复杂,很难直观地分析它们。人们经常听说机器学习模型是"黑匣子",从某种意义上说,它们可以做出很好的预测,但我们无法理解这些预测背后的逻辑。这种说法是正确的,因为大多数数据科学家发现很难从模型中提取见解。然而,我们可以使用一些工具从复杂的机器学习模型中提取见解。
黄博的机器学习圈子
2021/07/07
3960
【机器学习】关于机器学习模型可解释(XAI),再分享一招!
用 SHAP 可视化解释机器学习模型实用指南(下)
SHAP(Shapley Additive exPlanations) 使用来自博弈论及其相关扩展的经典 Shapley value将最佳信用分配与局部解释联系起来,是一种基于游戏理论上最优的 Shapley value来解释个体预测的方法。
数据STUDIO
2021/10/14
13.4K0
用 SHAP 可视化解释机器学习模型实用指南(下)
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024/01/17
3.5K0
LLM4Rec:当推荐系统遇到大语言模型
LLM可视化
GitHub地址:GitHub - bbycroft/llm-viz: 3D Visualization of an GPT-style LLM
zhangjiqun
2024/08/13
1710
Deita: 有限高质量数据在LLM的潜力是真的大
数据工程在指令调优中的有着关键作用。当选择适当时,只需要有限的数据就可以实现卓越的性能。然而,什么是良好的指令调优数据以进行对齐,以及如何自动有效地选择数据仍需研究。本文深入研究了对齐的自动数据选择策略。在复杂性、质量和多样性三个维度上评估数据。并提出DEITA(Data-Efficient Instruction Tuning for Alignment),一个从LLaMA和Mistral模型中微调的模型
zenRRan
2024/01/05
5850
Deita: 有限高质量数据在LLM的潜力是真的大
MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理
像 GPT-3.5 这样的大型语言模型 (LLM) 已经展示了令人印象深刻的自然语言功能。然而,他们的推理过程仍然不透明,容易产生幻觉,且微调LLM成本极其昂贵。
zenRRan
2023/09/11
1.7K0
MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理
学界 | IBM、哈佛联合提出Seq2Seq-Vis:机器翻译模型的可视化调试工具
选自arXiv 作者:Hendrik Strobelt等 机器之心编译 参与:刘天赐、刘晓坤 语言翻译中出现的细微错误对于人类而言常常是很明显的,并会导致差异很大的结果。例如,之前由于 seq2seq 翻译系统将「早上好」错误的翻译为了「攻击他们」,导致错误的逮捕事故。深度学习模型的不可解释性更是普遍存在的问题。为此,IBM 研究院、Watson AI Lab、哈佛 NLP 团队和哈佛视觉计算团队联合研发了一款针对 seq2seq 模型的可视化调试工具 Seq2Seq-Vis,使用户可以可视化模型执行过程中
机器之心
2018/06/08
6550
人工智能(XAI)可解释性的研究进展!
本文从数据为中心的角度,研究了数据收集、处理和分析如何有助于可解释的人工智能(XAI)。将现有工作分为三类,分别服务于对深度模型的解释、对训练数据的启示和对领域知识的洞察,并提炼出针对不同模式的数据挖掘操作和DNN行为描述符的数据挖掘方法,提供了一个全面的、以数据为中心的XAI从数据挖掘方法和应用的角度进行的考察。
算法进阶
2024/06/13
5340
人工智能(XAI)可解释性的研究进展!
可解释图神经网络:5个GNN解释方法
最近,人工智能中的可解释性引起了人们的广泛关注,其主要动机在于通过深度神经网络等“黑盒子”模型产生更可靠和可信的预测。LIME论文[2]中给出的一个很好的例子是,您会信任您的医生,因为他/她能够根据您的症状解释诊断。类似地,如果能够以人类可理解的方式解释或证明预测,由深度模型生成的预测就更可靠和可信。
deephub
2021/07/01
1.7K0
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
传统推荐系统虽然能给出准确的推荐结果,但缺乏对推荐过程的透明解释,难以让系统更好地理解其兴趣偏好是如何被捕捉和建模的。
新智元
2024/06/27
1650
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
用GPT4进行指令微调
代码:https://instruction-tuning-with-gpt-4.github.io/
西西嘛呦
2023/04/08
1.5K0
用GPT4进行指令微调
AI论文速读 | TF-LLM:基于大语言模型的可解性交通预测
论文标题:Explainable Traffic Flow Prediction with Large Language Models
时空探索之旅
2024/11/19
2320
AI论文速读 | TF-LLM:基于大语言模型的可解性交通预测
用大模型LLM进行异构知识融合构建推荐系统
在推荐系统中,用户回存在各种异构行为,对这些行为的有效挖掘能够提升我们对用户偏好和行为的理解。但是,将各类异构行为结合到推荐模型中的传统方法会导致特征稀疏(feature sparsity)和知识碎片(knowledge fragmentation)问题。本文提出采用大模型LLM从用户的异构行为信息中提取和融合异构知识,然后将异构知识和推荐任务相结合,在LLM上执行指令微调进行个性化推荐。
秋枫学习笔记
2023/10/06
9100
用大模型LLM进行异构知识融合构建推荐系统
ControlRec:对齐LLM和推荐系统之间的语义差异
标题:ControlRec: Bridging the Semantic Gap between Language Model and Personalized Recommendation 地址:https://arxiv.org/pdf/2311.16441.pdf 学校,公司:中国科学院大学,美团
秋枫学习笔记
2023/12/04
8330
ControlRec:对齐LLM和推荐系统之间的语义差异
直接放大推荐模型可行吗?存在什么问题?
现在出现了很多大模型,大模型已经成为现在的主流研究方向,那么推荐模型是否也可以做成大模型呢?
秋枫学习笔记
2023/10/24
2130
直接放大推荐模型可行吗?存在什么问题?
XAI有什么用?探索LLM时代利用可解释性的10种策略
你是否也好奇,在大模型时代,可解释性人工智能技术(XAI)有怎样的使用价值?近日,来自佐治亚大学、新泽西理工学院、弗吉尼亚大学、维克森林大学、和腾讯 AI Lab 的研究者联合发布了解释性技术在大语言模型(LLM)上的可用性综述,提出了 「Usable XAI」 的概念,并探讨了 10 种在大模型时代提高 XAI 实际应用价值的策略。
机器之心
2024/04/12
2120
XAI有什么用?探索LLM时代利用可解释性的10种策略
XRec: 大模型如何重塑推荐系统的可解释性
TLDR: 这篇文章给大家分享来自香港大学数据智能实验室最近推出的智能推荐大模型XRec,旨在利用大语言模型为推荐系统提供基于自然语言的可解释性。
张小磊
2024/06/18
6760
XRec: 大模型如何重塑推荐系统的可解释性
一篇关于LLM指令微调的综述
指令微调(IT)是提高大型语言模型(LLM)能力和可控性的关键技术。其本质是指在由(INSTRUCTION, OUTPUT)对组成的数据集上以监督的方式进一步训练LLM的过程,它弥合了LLM的下一个词预测目标与用户让LLM遵循人类指令的目标之间的差距。这篇文章对现有研究进行了系统的回顾、包括IT的一般方法、IT数据集的构建、IT模型的训练、以及不同模式,领域和应用的应用。
zenRRan
2023/09/11
7K0
一篇关于LLM指令微调的综述
GPT模型如何重塑癌症药物敏感性预测?最新研究揭秘新突破
近期,Mayo Clinic 的 Chowdhury 等人在 bioRxiv 上发表了一项创新研究,题为《SensitiveCancerGPT: Leveraging Generative Large Language Model on Structured Omics Data to Optimize Drug Sensitivity Prediction》。该研究探索如何通过生成式大语言模型(LLM),特别是 GPT,优化药物敏感性预测(DSP),为精准肿瘤学提供新的技术路径。
实验盒
2025/03/03
1280
GPT模型如何重塑癌症药物敏感性预测?最新研究揭秘新突破
奥创纪元:当推荐系统遇到大模型LLM
大模型LLM在越来越多的领域开始崭露头角,比如我们在今年上半年曾在某电商平台落地过较为直观简单的LLMx搜索项目(我们称之为LLM应用的第一阶段),同时拿到线上收益,LLM的潜力可见一斑。
NewBeeNLP
2023/12/04
1.9K0
奥创纪元:当推荐系统遇到大模型LLM
推荐阅读
相关推荐
【机器学习】关于机器学习模型可解释(XAI),再分享一招!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档