前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >搭建本地大模型之LM Studio

搭建本地大模型之LM Studio

作者头像
IT小马哥
发布2024-12-11 09:31:43
发布2024-12-11 09:31:43
6.4K0
举报
文章被收录于专栏:Java TaleJava Tale

之前分享了 Ollama 这次分享一下 另一款本地运行大模型的工具LM Studio

什么是 LM Studio?

LM Studio 是一款用于在您的电脑上开发和实验LLMs的桌面应用程序。

关键功能

  • 桌面应用程序,用于运行本地 LLMs
  • 一个熟悉的聊天界面
  • 搜索和下载功能(通过 Hugging Face 🤗)
  • 一个可以监听类似 OpenAI 端点的本地服务器
  • 本地模型和配置管理系统

系统要求

LM Studio 通常支持 Apple Silicon Macs、x64/ARM64 Windows PC 和 x64 Linux PC。

macOS

  • 芯片:苹果硅(M1/M2/M3/M4)。
  • macOS 13.4 或更高版本是必需的。
    • 对于 MLX 模型,需要 macOS 14.0 或更高版本。
  • 16GB+内存推荐。
  • 您可能仍然可以在 8GB 的 Mac 上使用 LM Studio,但请坚持使用较小型号和适度的上下文大小。
  • 英特尔 Mac 目前不支持。

Windows

LM Studio 支持 x64 和 ARM(Snapdragon X Elite)架构的系统。

  • CPU:需要支持 AVX2 指令集(针对 x64)
  • RAM: LLMs可能会消耗大量 RAM。建议至少 16GB 的 RAM。

Linux

  • LM Studio for Linux 以 AppImage 的形式分发。
  • Ubuntu 20.04 或更高版本是必需的
  • 仅支持 x64,暂不支持 aarch64
  • Ubuntu 版本高于 22 的版本测试不佳。
  • CPU:中央处理器
  • LM Studio 默认支持 AVX2

如何安装 LM Studio?

LM Studio 适用于 macOS、Windows 和 Linux。

前往下载页面并下载适用于您的操作系统的安装程序。

设置中文

右下角设置

设置模型目录

模型目录最好不要有中文特殊符号,最好是英文字母

下载模型

如果可以访问国外网站

镜像网站下载

https://hf-mirror.com/

下载gguf模型放到前面设置的模型目录里面

模型挑选

模型文件大小小于自己显存大小,但接近显存大小的效果肯定越好

GGUF模型

GGUF,全称 GPT-Generated Unified Format,是一种新型的文件格式专门用于存储和交换大型机器学习模型的数据。这种格式针对模型的快速加载和保存进行了优化,使其在推理方面更加高效。GGUF可以有多重不同版本的量化,Q2、Q3、Q4、Q5、Q6、Q8,这些数字表示模型权重的位数,位数越高,模型的精度通常越高,但所需的存储空间和计算资源也越多。

不是所有 gguf 格式的模都能用 LM Studio 运行,你可以打开下面这个链接,这里所有模型都可以用LM Studio 运行:https://hf-mirror.com/lmstudio-community *量化是指将模型中的高精度数字转换为低精度数字,以减少模型的存储空间和计算需求。

本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-12-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 什么是 LM Studio?
  • 系统要求
    • macOS
    • Windows
    • Linux
  • 如何安装 LM Studio?
  • 设置中文
  • 设置模型目录
  • 下载模型
    • 如果可以访问国外网站
    • 镜像网站下载
    • 模型挑选
    • GGUF模型
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档