腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习自然语言处理
专栏成员
举报
1035
文章
1385093
阅读量
164
订阅数
订阅专栏
申请加入专栏
全部文章(999+)
NLP 服务(293)
深度学习(232)
神经网络(222)
机器学习(207)
模型(190)
编程算法(181)
人工智能(135)
数据(128)
https(122)
网络安全(96)
论文(84)
性能(83)
其他(60)
python(43)
开源(43)
LLM(39)
测试(37)
linux(36)
github(34)
机器翻译(33)
腾讯云开发者社区(31)
知识图谱(29)
监督学习(28)
框架(28)
批量计算(26)
git(24)
强化学习(23)
数据结构(23)
优化(22)
系统(21)
pytorch(20)
http(19)
卷积神经网络(19)
tcp/ip(19)
css(18)
工作(18)
决策树(17)
图像处理(15)
数据分析(15)
ide(14)
迁移学习(14)
设计(14)
大数据(13)
nlp(13)
基础(12)
架构(12)
内存(12)
微信(11)
chatgpt(11)
token(11)
数学(11)
html(10)
图像识别(10)
学习方法(10)
gpt(10)
函数(10)
算法(10)
腾讯云测试服务(9)
LoRa(9)
云直播(8)
游戏(8)
编码(8)
代理(8)
工具(8)
tensorflow(7)
数据库(7)
网站(7)
推荐系统(7)
无监督学习(7)
机器人(7)
量化(7)
搜索(7)
网络(7)
效率(7)
sql(6)
缓存(6)
正则表达式(6)
教育(6)
agent(6)
视频(6)
语音识别(5)
数据挖掘(5)
go(5)
node.js(5)
apache(5)
文件存储(5)
processing(5)
meta(5)
openai(5)
word(5)
区块链(4)
bash(4)
api(4)
unix(4)
医疗(4)
存储(4)
nat(4)
nest(4)
data(4)
embedding(4)
function(4)
prompt(4)
self(4)
部署(4)
排序(4)
压缩(4)
自然语言处理(4)
java(3)
.net(3)
硬件开发(3)
搜索引擎(3)
bash 指令(3)
电商(3)
分布式(3)
自动化(3)
shell(3)
spark(3)
gui(3)
线性回归(3)
keras(3)
grep(3)
安全(3)
数据处理(3)
windows(3)
架构设计(3)
迁移(3)
联邦学习(3)
ls(3)
lstm(3)
memory(3)
model(3)
程序(3)
翻译(3)
华为(3)
解决方案(3)
路由(3)
苹果(3)
索引(3)
图表(3)
语法(3)
人脸识别(2)
官方文档(2)
数字货币(2)
自动驾驶(2)
javascript(2)
jquery ui(2)
android(2)
NAT 网关(2)
大数据处理套件 TBDS(2)
企业(2)
爬虫(2)
无人驾驶(2)
numpy(2)
信息流(2)
云计算(2)
对话机器人(2)
特征工程(2)
聚类算法(2)
隐私计算(2)
智能客服机器人(2)
entity(2)
error(2)
label(2)
mean(2)
network(2)
object(2)
sample(2)
sequence(2)
target(2)
tree(2)
变量(2)
服务(2)
集合(2)
技巧(2)
入门(2)
实践(2)
事件(2)
统计(2)
音频(2)
费用中心(1)
云点播(1)
对象存储(1)
负载均衡(1)
腾讯云学堂(1)
c 语言(1)
c++(1)
perl(1)
lua(1)
scala(1)
r 语言(1)
react(1)
json(1)
ajax(1)
oracle(1)
打包(1)
matlab(1)
中文分词(1)
apt-get(1)
mapreduce(1)
黑石物理服务器(1)
短视频(1)
访问管理(1)
SSL 证书(1)
数据加密服务(1)
文字识别(1)
内容理解(1)
金融(1)
kubernetes(1)
ssh(1)
面向对象编程(1)
opencv(1)
unity(1)
自动化测试(1)
二叉树(1)
单元测试(1)
kernel(1)
scikit-learn(1)
模式识别(1)
物联网(1)
微服务(1)
raft(1)
云课堂(1)
智能音乐(1)
基础教育(1)
alarm(1)
analysis(1)
apple(1)
bat(1)
behavior(1)
bit(1)
blender(1)
branch(1)
cat(1)
chat(1)
com(1)
decode(1)
distance(1)
dst(1)
encoding(1)
eval(1)
fixed(1)
glm(1)
google(1)
graph(1)
hidden(1)
history(1)
input(1)
it(1)
jupyter(1)
kaggle(1)
layer(1)
lift(1)
lisp(1)
lm(1)
marker(1)
microsoft(1)
modeling(1)
models(1)
next(1)
pdf(1)
perfect(1)
pivot(1)
plot(1)
position(1)
prediction(1)
ps(1)
random(1)
ssm(1)
state(1)
table(1)
tabular(1)
text(1)
title(1)
torch(1)
translation(1)
twitter(1)
video(1)
vr(1)
youtube(1)
编程(1)
表格(1)
并发(1)
程序设计(1)
创业(1)
动画(1)
二维码(1)
工程师(1)
公众号(1)
工作流(1)
行业(1)
集群(1)
兼容性(1)
接口(1)
开发(1)
开发者(1)
科技(1)
可视化(1)
连接(1)
漏洞(1)
面试(1)
配置(1)
数据存储(1)
数据科学(1)
思维导图(1)
通信(1)
协议(1)
研发(1)
异常(1)
语音(1)
重构(1)
城市交通(1)
搜索文章
搜索
搜索
关闭
大语言模型越狱攻击综述
prompt
模型
数据
系统
优化
今天为大家介绍清华大学计算机系徐恪、宋佳兴、李琦老师团队,高研院丛天硕老师,和香港科技大学(广州)何新磊老师联合完成的综述《Jailbreak Attacks and Defenses Against Large Language Models: A Survey》。本文聚焦于大模型安全领域,探讨了目前大模型所面临的“越狱攻击”(Jailbreak)问题。
zenRRan
2024-07-26
429
0
解决问题而非制造问题!GLM-4-AllTools API革新大模型使用体验
搜索
api
glm
工具
模型
把时间推回到250万年前,旧石器时代见证了人类从简单工具的使用者到复杂技术创造者的转变。我们的祖先南方古猿、直立人等,逐步发展出更高级的工具,如手斧和刮刀,以适应狩猎和生活的需求。大约4万年前,现代人类——智人——的出现标志着技术和文化的飞跃,工具进一步精致化如骨针、鱼钩,艺术创作如洞穴壁画和雕塑也随之兴起。这一时期,火的利用、语言和社会结构的形成,为人类文明的后续发展奠定了坚实的基础。
zenRRan
2024-07-15
240
0
Qwen2大模型微调入门实战-命名实体识别(NER)任务
模型
入门
数据
entity
测试
以Qwen2作为基座大模型,通过指令微调的方式做高精度的命名实体识别(NER),是学习入门LLM微调、建立大模型认知的非常好的任务。
zenRRan
2024-07-04
1.4K
0
陈丹琦团队发布CharXiv数据集:重新定义图表理解的评估标准
开源
论文
模型
数据
图表
这篇文章的标题是《CharXiv: Charting Gaps in Realistic Chart Understanding in Multimodal LLMs》,由普林斯顿大学、威斯康星大学麦迪逊分校和香港大学的研究人员撰写。文章主要关注多模态大型语言模型(MLLMs)在理解和分析图表方面的能力和局限。
zenRRan
2024-07-04
199
0
优化AI输出:长度约束下的指令遵循模型研究
测试
工作
模型
算法
优化
这篇文章的标题是《Following Length Constraints in Instructions》,作者是Weizhe Yuan、Ilia Kulikov、Ping Yu、Kyunghyun Cho、Sainbayar Sukhbaatar、Jason Weston和Jing Xu,来自Meta FAIR和纽约大学。文章主要探讨了在人工智能领域,特别是在指令遵循模型中,如何处理和优化输出响应的长度限制问题。
zenRRan
2024-07-04
142
0
复旦+上海AI Lab提出统一主动检索RAG,减少延迟,提升响应
框架
论文
模型
系统
性能
这篇文章的标题是《Unified Active Retrieval for Retrieval Augmented Generation》,作者是Qinyuan Cheng等人,来自复旦大学和上海人工智能实验室。文章主要研究了在检索增强型生成(Retrieval-Augmented Generation, RAG)中,如何智能地决定何时使用检索来增强大型语言模型(LLMs)的输出。
zenRRan
2024-07-04
481
0
ENVISIONS:一种无需人类标注的LLM自训练框架
论文
模型
数据
LLM
框架
这篇论文提出了一个名为ENVISIONS的环境引导的神经符号自训练框架,旨在解决以下两个问题:
zenRRan
2024-07-04
168
0
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
框架
模型
设计
数据
LLM
知乎:真中合欢 链接:https://www.zhihu.com/question/627258986/answer/3262812950
zenRRan
2024-07-04
309
0
阿里千问团队提出AutoIF,让LLMs学会自我指导,简单有效,性能显著
性能
自动化
论文
模型
数据
这篇论文试图解决的问题是如何自动构建高质量的训练数据,以增强大型语言模型(LLMs)遵循复杂自然语言指令的能力。具体来说,论文指出了以下几个关键问题:
zenRRan
2024-07-04
335
0
Q*框架:通过有意识引导无需微调即可提升LLMs多步推理能力
数据
性能
框架
论文
模型
这篇文章介绍了一个名为Q的框架,旨在改善大型语言模型(LLMs)在多步推理任务中的性能。作者指出,尽管LLMs在许多自然语言任务上表现出色,但在执行多步推理时,由于其自回归生成过程,容易产生错误、幻觉和不一致的陈述。Q框架通过将多步推理视为启发式搜索问题,引入了一个通用、多功能且灵活的框架,通过有意识的规划引导LLMs的解码过程。
zenRRan
2024-07-04
308
0
ACL2024 | AI的时空穿越记:大型语言模型共时推理的奇幻之旅!
数学
论文
模型
事件
数据
标题:Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? 录取:ACL2024 Main 论文链接:https://arxiv.org/abs/2406.09072 代码链接:https://github.com/zhaochen0110/Cotempqa 单位:苏州大学、上海人工智能实验室
zenRRan
2024-06-21
197
0
突破性进展:简单有效的新型Masked扩散模型革新语言生成,与自回归模型媲美
测试
论文
模型
数据
性能
文章旨在解决扩散模型(diffusion models)在生成高质量图像方面表现出色,但在语言建模(language modeling)任务中与自回归(autoregressive, AR)方法存在显著性能差距的问题。作者指出,尽管扩散模型在生成离散数据(如文本、生物序列和图)方面具有潜力,但在语言建模的性能上,与AR方法相比,先前工作的扩散模型报告了较大的对数似然差距。
zenRRan
2024-06-18
207
0
BERT的逆袭:揭秘如何在无需额外训练下释放语言模型的生成能力
工作
论文
模型
机器翻译
存储
文章探讨了掩码语言模型(MLMs,例如BERT和DeBERTa)在上下文学习(in-context learning)方面的能力,挑战了普遍观点,即这种能力在这些模型中不会“显现”。作者意图证明,即使没有额外的训练,MLMs也能够展现出与著名的GPT-3相当的生成能力。
zenRRan
2024-06-18
164
0
大模型能看懂图片的弦外之音吗?多模态大模型新基准II-Bench
人工智能
测试
模型
数据
性能
在人工智能飞速发展的今天,大模型的感知能力已经达到了令人惊叹的水平。但是,它们真的能够像人类一样,洞悉图片中的深层含义吗?为了探讨多模型大模型与人类的差距,来自中科院深圳先进院,M-A-P,华中科技大学,零一万物,滑铁卢大学等多家机构联合提出了首个用于评估多模态大模型(MLLMs)图像隐喻理解能力的综合性基准测试II-Bench。
zenRRan
2024-06-18
293
0
3万字详细解析清华大学最新综述工作:大模型高效推理综述
内存
优化
工作
量化
模型
大模型由于其在各种任务中的出色表现而引起了广泛的关注。然而,大模型推理的大量计算和内存需求对其在资源受限场景的部署提出了挑战。业内一直在努力开发旨在提高大模型推理效率的技术。本文对现有的关于高效大模型推理的文献进行了全面的综述总结。首先分析了大模型推理效率低下的主要原因,即大模型参数规模、注意力计算操的二次复杂度作和自回归解码方法。然后,引入了一个全面的分类法,将现有优化工作划分为数据级别、模型级别和系统级别的优化。此外,本文还对关键子领域的代表性方法进行了对比实验,以及分析并给出一定的见解。最后,对相关工作进行总结,并对未来的研究方向进行了讨论。
zenRRan
2024-06-07
1.4K
0
YOCO:全新Decoder-Decoder架构,内容减少6倍,推理速度提升30倍
内存
缓存
架构
论文
模型
这篇论文介绍了一种名为YOCO(You Only Cache Once)的新型解码器-解码器架构,旨在提高大型语言模型的推理效率和性能。
zenRRan
2024-05-29
414
0
仅用250美元,Hugging Face技术主管手把手教你微调Llama 3
开源
测试
模型
内存
数据
我们知道,Meta 推出的 Llama 3、Mistral AI 推出的 Mistral 和 Mixtral 模型以及 AI21 实验室推出的 Jamba 等开源大语言模型已经成为 OpenAI 的竞争对手。
zenRRan
2024-05-11
325
0
陈丹琦团队提出最新MoE架构Lory
模型
数据
基础
架构
路由
陈丹琦团队提出了一种名为 Lory 的新型混合专家(Mixture-of-Experts,简称 MoE)模型,专门用于自回归语言模型的预训练。以下是对文章内容的详细解读。
zenRRan
2024-05-11
281
0
大语言模型对齐的四种方法!
函数
模型
数据
优化
工作
语言模型的对齐在20年就有相关工作,22年谷歌提出基于指令微调的Flan,Openai则提出InstructGPT,ChatGPT,大模型的对齐工作受到广泛的关注。
zenRRan
2024-05-11
402
0
全新神经网络架构KAN来了!
机器学习
神经网络
函数
架构
数学
比如,200个参数的KANs,就能复现DeepMind用30万参数的MLPs发现数学定理研究。
zenRRan
2024-05-11
756
0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档