2025的春节,国内外的科技圈子,甚至全民热话,都是深度求索的 DeepSeek-R1 模型。
当在家里的大舅哥突然拿出手机,给我播放了“美国决定全面严格审查 DeepSeek”和“中国科技公司 DeepSeek 遭国外有组织的进行大规模 DDoS 攻击”的新闻,并问我 DeepSeek 是个什么东西时,我意识到深度求索的 DeepSeek-R1 模型已成为中国科技历史上的一笔浓墨重彩的里程碑事件。
DeepSeek 主要解决了什么问题?
DeepSeek-R1 就是个啥都懂的国产AI大脑,既能看文字图片又能听声音,还能自己琢磨事儿不犯原则性错误。最牛的是它不用超级电脑,千把块的破手机就能跑,从帮医生搞研究到帮老外翻译方言全都能干,直接让中国AI技术和欧美掰手腕了。
从腊月二十九到大年初一,三天时间我尽可能全面、仔细的盘点和研究了一遍 DeepSeek-R1 模型,本篇就简明扼要的给大家来一篇个人计算机快速部署 DeepSeek-R1 推理模型的教程,网络好的话十分钟搞定~
本次演示,使用了以下基础环境:
电脑:Mac M1 16GB(如是 Win/Linux 和 N/A 卡,也可以照搬)
部署运行框架:Ollama
部署模型:DeepSeek-R1-7b/8b
前端展示:Open-Web
关于 DeepSeek-R1 和 DeepSeek-R1-7b、DeepSeek-R1-8b 的区别,简单来说就是:
这里下载速度与网络环境有很大关系,尽可能用一个稳定的网络环境下载运行
只用命令行窗口进行沟通不太美观,我们引入一个可视化展示项目来完成前端展示。
Open-Web 可视化工具是一款开源的大模型前端可视化展示项目。
项目地址:https://github.com/open-webui/open-webui
提供了使用 Pip 安装和 Docker 运行安装的两种方案,这里为了避免环境问题导致的各种错误,建议使用 Docker 运行和部署该项目。 本篇不做 Docker 安装部署的介绍,可至 DockerHub 官网(https://www.docker.com)下载
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
以我当前硬件配置运行 8b,Token 生成速度为5-6Token/s,速度还是可以的。
折腾三天就为这一刻——打开浏览器,看着自家电脑跑起DeepSeek-R1,这感觉就像用五菱宏光飙出了法拉利的速度!从装Ollama到拉取模型,再到用Open-Web搞出可视化界面,全程就跟拼乐高似的咔咔两下搞定。
别看7B/8B是"青春版",实测让它写代码能出活、翻译方言不嘴瓢,甚至还能一本正经跟你讨论量子力学(虽然八成是现学现卖)。最绝的是,这玩意连我那台吃灰三年的老笔记本都能带得动,真·科技下乡典范。
最后说句大实话:十年前咱还在羡慕老外的AI玩具,现在DeepSeek-R1这种"国货之光"都能在家随便折腾了。赶紧动手试试,保准你大年初二就能在家族群里当一回"赛博显眼包"!
本文分享自 Apache Doris 补习班 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!