Loading [MathJax]/jax/output/CommonHTML/config.js
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
圈层
工具
MCP广场
返回腾讯云官网
腾讯会议-代开发自建应用?
写回答
关注问题
社区首页
>
问答首页
>
腾讯会议-代开发自建应用?
问
腾讯会议-代开发自建应用?
提问于 2023-06-30 09:20:59
回答 1
关注 0
查看 147
关联问题
换一批
text2vec包在情感标注中如何应用BOW词袋模型?
BOW词袋模型在监督式情感标注中的优势是什么?
使用text2vec包进行情感标注时有哪些关键步骤?
代开发自建应用是什么应用,什么作用?怎么使用?
腾讯会议
腾讯会议API
开发
写回答
关注问题
分享
举报
回答
成为首答用户。去
写回答
相关文章
AI 可解释性模型的重要性
腾讯技术创作特训营S12#AI进化论
人工智能
大家好,我是Echo_Wish。今天我们来聊聊一个可能对很多AI爱好者和从业者来说并不陌生,但又常常被忽视的话题——AI 可解释性模型的重要性。
Echo_Wish
2025/03/23
163
0
KDD'21 | 如何评估GNN的解释性模型?
edge
gradient
normalization
tree
集合
模型可解释问题一向都是一个玄学问题,主要核心问题在于怎么评估一个好的模型解释器。在以往的工作中,图解释性模型往往是取一个边集合,并且将边集合得到的子图预测结果与真实标签做对比然后算一个acc,然而,本文作者则认为如果将解释结果与真实情况对比的话实际上并不是特别靠谱。因此,本文主要提出了几种更贴切于解释性方法的评估数据,包括感染检测,社区检测,负样本评估。
Houye
2021/10/12
776
0
大型语言模型(LLMS)、可检索式增强生成(RAG)和AI缺失的存储层
模型
数据
系统
存储
测试
在人工智能迅速发展的背景下,尤其是语言模型机器(LLMs)已成为许多应用的真正支柱,从自然语言处理和机器翻译到虚拟助手和内容生成。GPT-3及其继任者的出现标志着AI发展的一个重要里程碑,开启了一个时代,在这个时代中,机器不仅能理解,还能以惊人的熟练度生成类似人类的文本。然而,在这场AI革命的表面之下,隐藏着一个关键的缺失元素,这个元素有潜力解锁更大的AI能力:存储层。
山行AI
2024/01/12
639
0
CLIPex 用以增强如CLIP之类的大型视觉语言模型(VLMs)的可解释性 !
text
工作
模型
数据
性能
大型视觉语言模型(VLMs),如CLIP ,彻底改变了图像分类。尽管早期的深度分类模型如AlexNet 和ResNet 取得了进展,但它们处理开放词汇分类的能力对它们在各种领域的适应性贡献显著。此外,通过在特定数据集上对它们进行微调,它们达到了惊人的准确度。
AIGC 先锋科技
2024/07/08
186
0
小模型增强可超GPT-4?北航 && 人大 | 提出大模型ICL增强范式,模型越小收益越高!
工作
技巧
模型
排序
gpt
上下文学习(In-context Learning,ICL)技术是提高模型在自然语言处理任务上表现的高效提示技术,因而众多研究在这个方向上提出各种方法,但大多数都专注于示例样本的选择,排序,质量等,在样例层面提高模型表现很难再有新的突破。
ShuYini
2024/01/18
422
0
模型可解释性
腾讯技术创作特训营S11#重启人生
随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。虽然这些“黑箱”模型在很多领域(如计算机视觉、自然语言处理、金融分析等)表现出了惊人的能力,但它们的复杂性和不可解释性也带来了许多挑战。在许多应用场景中,尤其是医疗、金融、法律等领域,了解模型决策背后的原因至关重要。为了提高机器学习模型的透明度,开发者引入了不同的可解释性工具和方法,帮助我们理解这些复杂模型的行为。
刘君
2025/02/02
253
0
首期AI治理与伦理圆桌:大模型的可解释性
NLP技术
人工智能
工作
论文
模型
AI 伦理与治理是与 AI 技术、工程同等重要但讨论不多的议题。随着近年来大模型的不断涌现,AI 应用和产品纷纷落地。随之而来,人们对 AI 伦理与治理的关注度日益增加,比如 AI 向善、隐私保护、负责任 AI、AI 系统可信可控。近几个月,ChatGPT 的出现让 AI 伦理与治理研究被提上更紧迫的日程。 其实针对 AI 发展过程中产生的伦理与治理问题,一直都有组织跟进研究并着力提出相应的解决方案。2021 年,未来论坛组织 AI 伦理与治理系列论坛,邀请产学研专家思辨探讨,引发广泛关注。活动精华内容已整
机器之心
2023/04/21
478
0
XRec: 大模型如何重塑推荐系统的可解释性
框架
模型
数据
神经网络
推荐系统
TLDR: 这篇文章给大家分享来自香港大学数据智能实验室最近推出的智能推荐大模型XRec,旨在利用大语言模型为推荐系统提供基于自然语言的可解释性。
张小磊
2024/06/18
676
0
解释性AI(XAI)
数据
算法
系统
可视化
模型
解释性AI,也称为XAI(Extended AI),是一种综合了多种AI技术的智能系统或工具,旨在帮助人们理解和解释数据、信息和知识,以辅助决策制定。XAI可以应用于各种领域,包括但不限于预测分析、风险评估、医疗保健、教育、人力资源、项目管理等。
红目香薰
2024/02/01
436
0
AnyMAL:一种高效、可拓展的任意模态增强语言模型
模型
视频
数据
性能
音频
大语言模型(LLMs)因其庞大的规模和复杂性而著名,显著增强了机器理解和表达人类语言的能力。LLMs的进步也推动了视觉-语言领域的显著进展,缩小了图像编码器与LLMs之间的差距,结合了它们的推理能力。之前的多模态LLM研究主要集中在结合文本和另一种模态的模型上,如文本和图像模型,或专注于未开源的专有语言模型。为了解决这些挑战,本文介绍了一种新的多模态增强语言模型(AnyMAL),它是一系列多模态编码器的集合,这些编码器被训练用于将来自不同模态(包括图像、视频、音频和IMU运动传感器数据)的数据转换为LLM的文本嵌入空间。通过扩展先前的工作,AnyMAL采用更强大的指令调优LLMs、更大的预训练模态编码器和先进的投影层来处理变长输入。
用户1324186
2024/03/26
290
0
机器学习模型的可解释性
模型
数据
机器学习
深度学习
工具
机器学习模型的可解释性是指人类能够理解并理解决策原因的程度,这在业务应用中尤为重要。高可解释性的模型不仅有助于开发人员在建模阶段理解模型,还能在必要时进行优化调整。
用户11315985
2024/10/16
304
0
机器学习模型的可解释性
机器学习
神经网络
深度学习
人工智能
通过模型可解释方法,可以直观地传递关于模型行为的解释,比如为什么这个样本被预测为这个标签,某个特征对预测结果起到了什么样的作用。
曲奇
2021/12/14
2.1K
0
机器学习——解释性AI(Explainable AI)
系统
机器学习
金融
模型
数据
随着人工智能(AI)和机器学习(ML)在多个领域的广泛应用,理解模型的决策过程变得尤为重要。解释性AI(Explainable AI, XAI) 的目标是为AI模型的决策提供透明、可解释的说明,从而提升模型的可信度、透明度,并有助于监管合规。这在高风险领域如医疗、金融、自动驾驶等尤为关键【42†source】【44†source】。
六点半就起.
2024/10/16
259
0
AI模型可预测人们在打字时如何移动眼睛和手指
深度学习
神经网络
人工智能
强化学习
由于无法感觉到按键,我们依靠视觉将手指移至正确的位置并检查错误,这是我们无法在同一时间进行一系列动作。
大数据文摘
2021/05/27
644
0
机器学习——解释性AI与可解释性机器学习
机器学习
医疗
决策树
模型
数据
随着人工智能技术的广泛应用,机器学习模型越来越多地被用于决策过程。然而,这些模型,尤其是深度学习模型,通常被视为“黑箱”,难以理解其背后的决策逻辑。解释性AI(Explainable AI, XAI)和可解释性机器学习(Interpretable Machine Learning, IML)旨在解决这个问题,使模型的决策过程透明、可信。本文将深入探讨解释性AI与可解释性机器学习的概念、方法和代码实现,帮助读者全面理解这一重要主题。
hope kc
2024/10/19
324
0
【2023新书】可解释的AI谱系,使用Python实现模型可解释性和可解释性的解决方案
机器学习
神经网络
人工智能
解决方案
模型
来源:专知本文为书籍介绍,建议阅读5分钟本书采用问题解决的方法来解释机器学习模型及其算法。 理解如何使用可解释人工智能(XAI)库,并建立对人工智能和机器学习模型的信任。本书采用问题解决的方法来解释机器学习模型及其算法。 本书从监督学习线性模型的模型解释开始,包括分类和回归模型的特征重要性、部分依赖分析和影响数据点分析。接下来,介绍了使用非线性模型和最先进的框架(如SHAP值/分数和LIME)进行监督学习的方法。使用LIME和SHAP覆盖时间序列模型的可解释性,以及与自然语言处理相关的任务,如文本分类,E
数据派THU
2023/03/29
354
0
CVPR 2018 | 腾讯AI Lab提出新型损失函数LMCL:可显著增强人脸识别模型的判别能力
其他
选自arXiv 机器之心编译 参与:Panda 深度卷积神经网络 (CNN) 已经推动人脸识别实现了革命性的进展。人脸识别的核心任务包括人脸验证和人脸辨识。然而,在传统意义上的深度卷积神经网络的 softmax 代价函数的监督下,所学习的模型通常缺乏足够的判别性。为了解决这一问题,近期一系列损失函数被提出来,如 Center Loss、L-Softmax、A-Softmax。所有这些改进算法都基于一个核心思想: 增强类间差异并且减小类内差异。腾讯 AI Lab 的一篇 CVPR 2018 论文从一个新的角度
机器之心
2018/05/08
1.3K
0
模型|“请解释”黑盒机器学习模型的解释性
机器学习
神经网络
深度学习
人工智能
https
2019年2月,波兰政府对银行法进行了修订,赋予客户在做出信贷拒绝时获得解释的权利。这是在欧盟实施GDPR的直接后果之一。这意味着,如果决策过程是自动的,银行需要能够解释为什么不发放贷款。
陆勤_数据人网
2019/05/14
1.3K
0
PandasAI - AI增强的Pandas
人工智能
Pandas AI 是一个 Python 库,它为流行的数据分析和操作工具 Pandas 添加了生成式AI能力。 PandasAI旨在与 Pandas 结合使用,而不是它的替代品。
用户1758543
2023/05/05
2.1K
0
MLK | 如何解决机器学习树集成模型的解释性问题
神经网络
深度学习
人工智能
机器学习
https
前些天在同行交流群里,有个话题一直在群里热烈地讨论,那就是 如何解释机器学习模型 ,因为在风控领域,一个模型如果不能得到很好的解释一般都不会被通过的,在银行里会特别的常见,所以大多数同行都是会用 LR 来建模。但是,机器学习的模型算法这么多,不用岂不是很浪费?而且有些算法还十分好用的,至少在效果上,如XGBoost、GBDT、Adaboost。
Sam Gor
2019/08/13
1.9K
0
相似问题
作为企业来说,如何选择AI大模型?
0
25
AI算法中比较常用的模型都有什么?
1
265
如何实现ai架构?
0
27
未来 ai 的架构是大模型还是小模型,多大算大?多小是小?
0
23
AI如何赋能物流?
10
1.4K
相关问答用户
请输入您想邀请的人
我是基里安墨菲
邀请回答
庆丰
新浪微博 | 高级总监
擅长4个领域
邀请回答
穿过生命散发芬芳
邀请回答
不惑
腾讯云TDP | 产品KOL
擅长5个领域
邀请回答
揭光发
腾讯 | 技术专家
擅长2个领域
邀请回答
添加站长 进交流群
领取专属
10元无门槛券
AI混元助手
在线答疑
关注
腾讯云开发者公众号
洞察
腾讯核心技术
剖析业界实践案例
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
不再提示