Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?

英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?

作者头像
机器之心
发布于 2024-02-26 09:55:49
发布于 2024-02-26 09:55:49
2460
举报
文章被收录于专栏:机器之心机器之心

机器之心报道

机器之心编辑部

OpenAI 进军芯片领域,英伟达自己造聊天机器人,这是 Sam vs Jensen 的时代?

下载地址:https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/

在这波 AI 淘金热里,英伟达经常被称为那个「卖铲子的人」,而且卖的是难以替代的铲子。依靠这个角色,英伟达市值已经超越亚马逊,成美股第四大公司,离谷歌市值仅一步之遥。

但值得注意的是,英伟达本身也在这波 AI 浪潮里淘金。刚刚,他们发布了一个对话机器人 ——「Chat with RTX」,面向 GeForce RTX 30 系列和 40 系列显卡用户(至少有 8GB VRAM)。有人开玩笑说,Sam Altman 进军芯片领域,黄仁勋进入聊天机器人的领域,这是 Sam vs Jensen 的时代。

ChatGPT 等需要联网使用的聊天机器人不同,Chat with RTX 可以在本地运行,帮你检索、分析保存在电脑上的文件(支持文本、PDF、.doc、.docx 和 .xml 等格式)。比如,你可以问它「在拉斯维加斯时,我的搭档推荐了哪家餐厅?」Chat with RTX 将扫描你指向的本地文件,并提供带有上下文的答案。

此外,它还可以帮你分析、总结 Youtube 上的视频,而且只需要你提供网址。科技媒体 The Verge 资深编辑 Tom Warren 在试用之后表示,Chat with RTX 在视频中找参考资料的速度非常快,只需要几秒就能给答案,不过有时也会出错,找到驴唇不对马嘴的视频文字记录。

据悉,Chat with RTX 默认使用人工智能初创公司 Mistral 的开源模型,但也支持其他基于文本的模型,包括 Meta 的 Llama 2。它会利用 RTX GPU 上的 Nvidia Tensor core 来加快查询速度。Nvidia 警告说,下载所有必要文件会占用相当大的存储空间 ——50GB 到 100GB,具体取决于所选模型。

Tom Warren 表示,他的电脑采用英特尔酷睿 i9-14900K 处理器,配备 RTX 4090 GPU,安装 Chat with RTX 大约花了 30 分钟。在他系统可用的 64GB 内存中,Python 实例占用了大约 3GB 内存。程序运行后,他可以通过浏览器访问 Chat with RTX,而后台运行的命令提示符会显示正在处理的内容和任何错误代码。

Tom Warren 还发现,Chat with RTX 在扫描 PDF 文件和核对数据时非常有用。微软自己的 Copilot 系统在 Word 中不能很好地处理 PDF 文件,但 Chat with RTX 聊天系统可以毫无问题地提取出所有关键信息,回复也近乎即时,没有通常使用基于云的 ChatGPT 或 Copilot 聊天机器人时的延迟。

不过,作为一款早期产品,Chat with RTX 还有很多不完善的地方。

一个比较大的缺点是,它不能记忆上下文。比如,你问「北美常见的鸟类是什么?」,然后接着问「它是什么颜色?」,它就不知道你是在问鸟的颜色。

英伟达还承认,Chat with RTX 回复的相关性会受到一系列因素的影响,其中有些因素比较容易控制,包括问题的措辞、所选模型的性能和微调数据集的大小。询问几份文档中涉及的事实可能比询问一份文档或一组文档的摘要得到更好的结果。英伟达表示,随着数据集的增大,响应质量通常也会提高,将 Chat with RTX 指向有关特定主题的更多内容也是如此。

所以,整体来看,Chat with RTX 还是一个初级的产品,暂时不太适合用于生产。但它代表了一种趋势,即让 AI 模型更容易地在本地运行。

世界经济论坛在最近的一份报告中预测,能够离线运行生成式 AI 模型的经济型设备将「大幅」增长,其中包括个人电脑、智能手机、物联网设备和网络设备。报告表示,原因在于其明显的优势:离线模型不仅在本质上更加私密 —— 它们处理的数据永远不会离开运行的设备,而且与云托管模型相比,它们的延迟更低,成本效益更高。

英伟达公司创始人兼首席执行官黄仁勋表示:「生成式人工智能是计算史上最重要的一次平台转型,它将改变包括游戏在内的每一个行业。英伟达拥有超过 1 亿台 RTX AI PC 和工作站,是开发者和游戏玩家享受生成式人工智能魔力的庞大安装基础。」

Chat with RTX 技术 demo 由 GitHub 上的 TensorRT-LLM RAG 开发人员参考项目构建而成。开发人员可以使用该参考项目为 RTX 开发和部署自己的基于 RAG 的应用程序,并通过 TensorRT-LLM 进行加速。

项目地址:https://github.com/NVIDIA/trt-llm-rag-windows

参考链接:

https://baijiahao.baidu.com/s?id=1790835158166619050&wfr=spider&for=pc

https://techcrunch.com/2024/02/13/nvidias-new-tool-lets-you-run-genai-models-on-a-pc/

https://www.theverge.com/2024/2/13/24071645/nvidia-ai-chatbot-chat-with-rtx-tech-demo-hands-on

© THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-02-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
英伟达发布 Chat with RTX,开源大模型本地可以run
英伟达最近发布了一款名为“Chat with RTX”的新应用,这是一款类似于ChatGPT的本地部署版本,由GPU提供算力支持。这个应用要求用户至少拥有8GB显存的RTX 30或40系列显卡。虽然Chat with RTX并非英伟达自己研发的大型语言模型(LLM),但它基于两款开源LLM:Mistral和Llama 2,用户可以根据自己的喜好选择使用哪款LLM。
AIGC新知
2024/10/08
1610
英伟达发布 Chat with RTX,开源大模型本地可以run
英伟达引爆AI PC革命,RTX给1亿打工人送算力!40系卡秒生百张图,「黑神话:悟空」画质爆表玩家颤抖
昨天深夜,英伟达CEO黄仁勋甩出能训万亿参数大模型的新核弹B200,直接打破了摩尔定律。
新智元
2024/03/25
2500
英伟达引爆AI PC革命,RTX给1亿打工人送算力!40系卡秒生百张图,「黑神话:悟空」画质爆表玩家颤抖
英伟达版ChatGPT来了,PC端部署,很GPU
这波操作,不仅是在运行效果上会更快,也就意味着Chat With RTX在聊天内容上或许并没有那么多限制。
量子位
2024/02/22
3480
英伟达版ChatGPT来了,PC端部署,很GPU
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
「这不是演唱会。你们是来参加开发者大会的!」老黄出场时,现场爆发出了巨大的欢呼声。
机器之心
2024/03/19
3210
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
重磅!英伟达官宣全球最强AI芯片:性能提升 30 倍,并将重新设计整个底层软件堆栈
北京时间凌晨 4:00,大洋彼岸的美国加利福尼亚州圣何塞的圣何塞会议中心,被称为英伟达技术盛宴的 GTC 2024 大会正如火如荼地进行着。作为英伟达 2024 的开年大戏,身着标志性皮夹克的万亿富豪黄教主站在舞台中央,平静地甩出继 H100、A100 后的又一系列“核弹”级超级芯片。
深度学习与Python
2024/03/20
2180
重磅!英伟达官宣全球最强AI芯片:性能提升 30 倍,并将重新设计整个底层软件堆栈
H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型
刚刚,英伟达发布了一款开源软件TensorRT-LLM,能够加速H100上大型语言模型的推理。
新智元
2023/09/19
7230
H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型
NVIDIA ChatRTX来了!全程不用梯子
51长假第二天,突然发现许久不更新的NVIDIA Chat With RTX聊天机器人,迎来的重大更新!
GPUS Lady
2024/05/05
1K0
一夜暴涨2770亿,英伟达市值逼近2万亿,跻身全球第四!61岁黄仁勋身价近700亿美元
- 创纪录的季度数据中心营收达到184亿美元,比第三季度增长27%,同比增长409%
新智元
2024/02/26
4550
一夜暴涨2770亿,英伟达市值逼近2万亿,跻身全球第四!61岁黄仁勋身价近700亿美元
NVIDIA狂飙AI ,市值暴涨,PC性能提升60倍!40系SUPER显卡发布,4899元碾压上代旗舰
GeFroce RTX 40 SUPER系列显卡,全新的AI PC,Generative AI模型等全新AI模型和工具,以及AI NPC……NVIDIA甩出的各种王炸级的产品和应用,再次击穿全球用户的想象力!
新智元
2024/01/11
2750
NVIDIA狂飙AI ,市值暴涨,PC性能提升60倍!40系SUPER显卡发布,4899元碾压上代旗舰
教主黄仁勋烤出540亿晶体管GPU,全球最大7nm安培架构坐稳算力霸主
在NVIDIA GTC2020大会上,NVIDIA正式发布了7nm安培GPU,号称是8代GPU史上最大的性能飞跃!黄仁勋从厨房里面烤出了史上最大GPU。
新智元
2020/05/20
9820
教主黄仁勋烤出540亿晶体管GPU,全球最大7nm安培架构坐稳算力霸主
NVIDIA AI应用平台NIM开发人员指南
英伟达 NIM 通过提供灵活的微服务套件,为 AI 推理提供了一个强大、可扩展且安全的平台。
云云众生s
2024/08/16
4190
NVIDIA AI应用平台NIM开发人员指南
英伟达刚刚发布全球最大GPU:GTC2018黄仁勋演讲核心内容都在这了
机器之心报道 参与:李泽南、李亚洲 昨天,第九届年度 GPU 技术大会(GTC)在加州圣何塞 McEnery 会议中心正式开幕。在刚刚结束的 Keynote 演讲中,英伟达创始人兼首席执行官黄仁勋宣布了该公司在芯片、AI 平台、自动驾驶上的一系列新动作。在本文中,机器之心对其演讲的核心内容做了梳理。 正如黄仁勋所说的,今天的发布会有关于:「Amazing science, amazing graphics, amazing products and amazing AI.」 核心内容: 新一代服务器级 GP
机器之心
2018/05/08
8940
英伟达刚刚发布全球最大GPU:GTC2018黄仁勋演讲核心内容都在这了
Chat with RTX:定制聊天机器人体验!一键安装+离线模式设置,畅聊不停歇!
在基于 NVIDIA GPU 的强大云端服务器支持下,聊天机器人已经深入到全球数百万人的日常生活中。这些开创性的工具不仅提供了便利的沟通方式,还大大提升了信息获取和处理的效率。而现在,这些先进的 AI 技术将进一步拓展其应用场景,搭载在 NVIDIA RTX 的 Windows PC 上。这不仅实现了本地化的 AI 运算,还为用户带来了更快速、更个性化的生成式 AI 服务。无论是商务沟通、学习辅助还是娱乐互动,搭载 NVIDIA RTX 的 Windows PC 都将为用户提供更高效、更精准的 AI 支持。
不可言诉的深渊
2024/02/26
1.8K0
Chat with RTX:定制聊天机器人体验!一键安装+离线模式设置,畅聊不停歇!
Copilot+PC:了解Microsoft不断发展的AI计算机堆栈
数据中心因 AI 工作负载而爆满,但 PC 现在已加入循环,以减轻大型 GPU 安装的压力。
云云众生s
2024/05/30
1990
7199元起,英伟达RTX 40系显卡终于来了:基础性能翻倍,光追翻4倍
机器之心报道 编辑:泽南、杜伟 最高端的 RTX4090 性价比最高,你没想到吧? 虽然因为产品太贵而被吐槽,但提起最强 AI 芯片、高端游戏 GPU,人们还是首先要看英伟达。9 月 20 日晚,GTC 大会在线上召开,万众期待的 RTX 40 系列显卡终于正式发布了。 与以往稍有不同,这场重要的 Keynote 显得朴实无华而且「简短」,黄仁勋直接站在空旷的元宇宙里开讲: ‍ 一个半小时收工。 在这场活动中,英伟达展示了 RTX、AI 芯片和元宇宙产品线 Omniverse 的最新进展,还包括它们对人
机器之心
2022/09/22
1.1K0
7199元起,英伟达RTX 40系显卡终于来了:基础性能翻倍,光追翻4倍
英伟达放大招:生成式AI性能提升10倍!计算光刻提速40倍!黄仁勋:AI的“iPhone时刻”已经来临!
当地时间3月21日,一年一度的英伟达(NVIDIA)春季GTC大会正式开幕,英伟达首席执行官黄仁勋公布了一系列重大产品更新:面向ChatGPT的全新GPU推理平台、AI超级计算服务DGX Cloud、突破性的光刻计算库cuLitho、加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,并宣布与日本三菱联合打造了日本第一台用于加速药研的生成式AI超级计算机、与Quantum Machines合作推出了全球首个GPU加速量子计算系统。
芯智讯
2023/03/24
8000
英伟达放大招:生成式AI性能提升10倍!计算光刻提速40倍!黄仁勋:AI的“iPhone时刻”已经来临!
专攻芯片设计,英伟达推出定制版大语言模型ChipNeMo!
在刚刚开幕的ICCAD 2023大会上,英伟达团队展示了用AI模型测试芯片,引发了业界关注。
新智元
2023/11/02
4460
专攻芯片设计,英伟达推出定制版大语言模型ChipNeMo!
英伟达GTC与黄仁勋的“新故事”
今天的GTC大会上,黄仁勋拿出了全新的Blackwell Ultra GPU,以及在此基础上衍生的应用于推理、Agent的服务器SKU,也包括基于Blackwell架构的RTX全家桶,这一切都与算力有关,但接下来更重要的是,如何将源源不断算力,合理有效地消耗掉。
小腾资讯君
2025/03/24
1610
7倍AI算力芯片,TensorRT重大更新,英伟达GTC新品全介绍
今年的 GTC 大会议题覆盖了 AI 框架、开发工具、数据科学、云计算、实时渲染、光线追踪、以及 5G 通信等等方面。垂直方向则包含了自动驾驶、智能机器、医疗与金融、设计、工程制造等领域。
机器之心
2019/12/24
8340
7倍AI算力芯片,TensorRT重大更新,英伟达GTC新品全介绍
Pika、生数科技、Cohere等获新一轮融资;AI明星创业公司人事剧变;智谱AI全模型矩阵降价丨AI情报局
AI初创公司Cohere获4.5亿美元融资:加拿大AI初创公司Cohere已从英伟达、Salesforce Venture、思科等投资者处筹集到4.5亿美元资金。该公司仍在商谈以50亿美元的估值在同一轮融资中筹集更多资金。
AI科技评论
2024/06/17
1590
Pika、生数科技、Cohere等获新一轮融资;AI明星创业公司人事剧变;智谱AI全模型矩阵降价丨AI情报局
推荐阅读
英伟达发布 Chat with RTX,开源大模型本地可以run
1610
英伟达引爆AI PC革命,RTX给1亿打工人送算力!40系卡秒生百张图,「黑神话:悟空」画质爆表玩家颤抖
2500
英伟达版ChatGPT来了,PC端部署,很GPU
3480
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
3210
重磅!英伟达官宣全球最强AI芯片:性能提升 30 倍,并将重新设计整个底层软件堆栈
2180
H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型
7230
NVIDIA ChatRTX来了!全程不用梯子
1K0
一夜暴涨2770亿,英伟达市值逼近2万亿,跻身全球第四!61岁黄仁勋身价近700亿美元
4550
NVIDIA狂飙AI ,市值暴涨,PC性能提升60倍!40系SUPER显卡发布,4899元碾压上代旗舰
2750
教主黄仁勋烤出540亿晶体管GPU,全球最大7nm安培架构坐稳算力霸主
9820
NVIDIA AI应用平台NIM开发人员指南
4190
英伟达刚刚发布全球最大GPU:GTC2018黄仁勋演讲核心内容都在这了
8940
Chat with RTX:定制聊天机器人体验!一键安装+离线模式设置,畅聊不停歇!
1.8K0
Copilot+PC:了解Microsoft不断发展的AI计算机堆栈
1990
7199元起,英伟达RTX 40系显卡终于来了:基础性能翻倍,光追翻4倍
1.1K0
英伟达放大招:生成式AI性能提升10倍!计算光刻提速40倍!黄仁勋:AI的“iPhone时刻”已经来临!
8000
专攻芯片设计,英伟达推出定制版大语言模型ChipNeMo!
4460
英伟达GTC与黄仁勋的“新故事”
1610
7倍AI算力芯片,TensorRT重大更新,英伟达GTC新品全介绍
8340
Pika、生数科技、Cohere等获新一轮融资;AI明星创业公司人事剧变;智谱AI全模型矩阵降价丨AI情报局
1590
相关推荐
英伟达发布 Chat with RTX,开源大模型本地可以run
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档