咱们之前聊的各种AI大模型几乎都基于NVIDIA生产的显卡运行的。
今天给大家分享的是NVIDIA亲自下场开发的聊天软件——NVIDIA Chat RTX 版,没想到它也来抢软件市场了。现在你若是拥有一张RTX30 或 RTX40系显卡,就能在本地部署AI大模型了。
下面是官方视频介绍
一、NVIDIA Chat RTX 版
NVIDIA的Chat with RTX 允许用户个性化一个连接到他们自己内容的大型语言模型,这些内容可以是文档(文本、PDF、DOC/DOCX和XML)、笔记、视频或其他数据。
借助TensorRT-LLM和RTX等加速技术,可以快速获得回复结果。由于所有操作都在用户的Windows RTX PC或工作站上本地运行,因此还可保证数据的保密性与隐私性。
系统要求:
Windows 11
NVIDIA GeForce RTX 30或40系列GPU或至少8GB VRAM的NVIDIA RTX Ampere或Ada Generation GPU
16GB以上的内存
显卡驱动程序版本至少为535.11
前往如下地址可以看到相关NVIDIA Chat With RTX的详细介绍,也能看到下载按钮。整个安装包约35GB,大家耐心下载。
https://www.nvidia.cn/ai-on-rtx/chat-with-rtx-generative-ai/安装时,为了避免出错,建议使用软件默认路径安装,一路NEXT就好了。
另外,一定要注意文件名与安装路径不要出现中文。
经过长时间的安装部署之后就可以运行NVIDIA Chat with RTX了。未经投喂数据的它还是比较孱弱,与主流的GPT还是有点差距,在不断的投喂中它应该能够有较强的表现。
对于拥有RTX显卡的用户来说,这不仅是一个尝试新技术的机会,也是探索AI在日常生活和工作中应用的一次有趣尝试。
让我们拭目以待,看看NVIDIA如何继续在AI领域引领潮流,为我们带来更多惊喜。
领取专属 10元无门槛券
私享最新 技术干货