部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >太强了!DeepSeek本地部署+联网搜索,从此告别服务器繁忙!

太强了!DeepSeek本地部署+联网搜索,从此告别服务器繁忙!

作者头像
程序员小义
发布2025-02-18 21:13:53
发布2025-02-18 21:13:53
3670
举报
文章被收录于专栏:小义思小义思

大家好,我是小义。相信大家在使用DeepSeek的时候会时不时遇到服务器繁忙的问题,这是因为全球用户基数庞大带来的响应延迟、跨境网络攻击频发等迫使平台收紧安防。

那么为什么不选择自己本地部署一套呢,相比起API调用,DeepSeek本地部署具有以下几个优点。

  • 隐私安全:医疗/金融等敏感数据不出内网。
  • 定制自由:可修改模型结构,添加行业知识库。
  • 成本优势:对比API调用费,老旧服务器也能焕发第二春。
  • 国产之光:专门优化的中文理解能力,当前性价比最高的最强大脑。

今天小义就教大家零成本在个人电脑部署国产顶尖大模型DeepSeek!无需高端显卡,小白也能轻松玩转百亿参数模型。

Ollama 部署

Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。其主要目标是简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。

Ollama 网址:https://Ollama.ai。 配合Chrome插件Page Assist可实现图形界面对话。

第一步:安装 Ollama

1、进入https://ollama.com/download,这里以Windows系统为例,点击下载。

2、本地运行ollamaSetup.exe,点击install,然后等待安装完成。

第二步:下载 DeepSeek & 嵌入模型

  • 在Ollama官网页面里点击Models或者在搜索栏搜DeepSeek-R1。
  • 选择一个合适的模型,不同模型大小不一,这里以最小的1.1GB的1.5b为例,电脑配置好点的可以选择更大的模型。
  • 复制命令,然后打开命令行直接粘贴进去然后回车,显示“success”就OK了。
  • 下载嵌入模型,他的功能主要是进行文本分割,方便让大模型读取大批量的文本内容中的特定内容。在搜索栏搜索“nomic-embed-text”,再复制命令到终端里粘贴,慢慢等待执行完就OK了。

Page Assist联网

Page Assist,一个开源的WEBUI,用于可视化的模型对话,特点是可接入联网搜索,并且很方便能配合嵌入模型。

第一步:安装插件

推荐谷歌浏览器,在扩展程序的应用商店里即可安装。

第二步:插件设置

点击【Page Assist】插件即可打开 DeepSeek 的可视化界面,点击RAG设置文本嵌入模型,然后就可以和AI聊天了。

第三步:搜索引擎

Page Assist默认的搜索引擎是duckduckgo,不科学上网是无法正常使用导致的,可以选择切换。

为提高搜索的准确性,还应适当提高Total Search Results网页搜索数量,这样DeepSeek回答的也更准确。

最后

DeepSeek实在太火爆了,相信大家都感受到了强烈的推背感,小义建了个学习交流群,欢迎扫码加入,一个人可以走得很快,但一群人,可以走得更远。AI时代,一起扬帆起航!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序员小义 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Ollama 部署
    • 第一步:安装 Ollama
    • 第二步:下载 DeepSeek & 嵌入模型
  • Page Assist联网
    • 第一步:安装插件
    • 第二步:插件设置
    • 第三步:搜索引擎
  • 最后
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档