首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

蔚来联手中国科大攻克大视觉语言模型效率难题

易车讯 日前,蔚来与中国科学技术大学LINKE创新实验室联合提出的全球首个面向车载多模态大模型的即插即用高效推理方案A-VL技术,解决了大视觉语言模型LVLM内存占用高、响应慢的核心痛点,标志着智能座舱核心算法领域的重大突破,被会议收录并现场宣读论文。

AAAI由国际人工智能促进协会主办,是AI领域历史最悠久、涵盖内容最广泛的全球顶级学术会议之一,以严格的审稿标准和低录取率而闻名,确保会议论文的高质量。本届AAAI共录用论文3,032篇,录取率为23.4%,其中现场宣读的Oral论文占比仅为4.6%。

在A-VL技术加持下,AI如同装上了「智能滤镜」。具体来看,A-VL技术在图像、语言输入过程中,通过提前调整信息权重,让计算资源聚焦于真正影响决策的信息,从而达到让AI提速提效的目的。如在视觉处理中,通过精准动态锁定图像中20%的关键元素,如路牌、行人等,在不影响AI性能的前提下,提升资源利用效率。在语言理解中,通过自动过滤过时对话信息,提升文本解码速度、降低文本解码延迟。

总体而言,A-VL技术能够让大模型交互更流畅、高效省资源、新老更好用。一方面,A-VL技术可以让大模型更加聚焦用户意图,使交互低迟滞、应用更流畅;另一方面,A-VL技术使大模型轻量又强劲,内存占用大幅下降,可以适配更多历史车型无忧体验大模型。

值得一提的是,A-VL技术适用于任何一个视觉多模态大语言模型的推理,无需修改模型或是专门训练。接下来,蔚来会将A-VL技术赋能智能座舱体验,实现更流畅的多模态交互、更低的功耗及更快的响应速度,从而为智能座舱体验带来质变。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Ou3g9MBSM35MtZLkdqymUgQg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券