前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mac环境下ollama部署和体验

Mac环境下ollama部署和体验

作者头像
程序员欣宸
发布2024-05-26 14:30:14
3620
发布2024-05-26 14:30:14
举报
文章被收录于专栏:实战docker实战docker
欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

关于ollama
  • ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM
代码语言:javascript
复制
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
  • 官网:https://ollama.com/
  • 非常简洁
本篇概览
  • 作为入门操作的笔记,本篇记录了部署和简单体验ollama的过程,并且通过docker部署了web-ui,尝试通过页面使用大模型
  • 本次操作的环境如下
  1. 电脑:macbook pro m1,Sonoma 14.4.1
  2. ollama:0.1.32
安装
  • 在官网首页点击Download即可下载,得到zip安装包,解压后就是应用程序了
  • 会提示是否移动到应用程序目录,回车确认
  • 打开后是个简单的页面
  • 完成安装,会有一个提示,告诉你如何安装指定模型
关于模型
  • ollama支持的全量模型在这里:https://ollama.com/library
  • 官方给出的部分模型

Model

Parameters

Size

下载命令

Llama 3

8B

4.7GB

ollama run llama3

Llama 3

70B

40GB

ollama run llama3:70b

Phi-3

3.8B

2.3GB

ollama run phi3

Mistral

7B

4.1GB

ollama run mistral

Neural Chat

7B

4.1GB

ollama run neural-chat

Starling

7B

4.1GB

ollama run starling-lm

Code Llama

7B

3.8GB

ollama run codellama

Llama 2 Uncensored

7B

3.8GB

ollama run llama2-uncensored

LLaVA

7B

4.5GB

ollama run llava

Gemma

2B

1.4GB

ollama run gemma:2b

Gemma

7B

4.8GB

ollama run gemma:7b

Solar

10.7B

6.1GB

ollama run solar

  • 另外需要注意的是本地内存是否充足,7B参数的模型需要8G内存,13B需要16G内存,33B需要32G内存
运行8B的Llama3
  • 我的mac笔记本内存16G,所以打算运行8B的Llama3,命令如下
代码语言:javascript
复制
ollama run llama3
  • 第一次运行,因为没有模型文件,所以需要下载,等待下载中

- 下载完毕后就可以问答了

  • 退出的方法是输入/bye
Linux版本
  • 如果操作系统是Linux,安装命令如下
代码语言:javascript
复制
curl -fsSL https://ollama.com/install.sh | sh
  • 安装完成后还要启动
代码语言:javascript
复制
ollama serve
webui
  • 如果电脑上装有docker,请执行以下命令来启动ollama的webui
代码语言:javascript
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 出现登录页面,需要点击右下角的Sign up先注册
  • 完成注册后,第一次登录会出现特性介绍
  • 可以在这里修改系统语言
  • 接下来试试聊天功能,先是选择模型,由于刚才已经下载过模型了,这里只要选择即可,如下图
  • 然后就可以对话了
  • 在设置页面可以管理模型
  • 至此,最基础的操作已经完成,如果您正处于初步尝试阶段,希望本文可以给您一些参考
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-05-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 欢迎访问我的GitHub
  • 关于ollama
  • 本篇概览
  • 安装
  • 关于模型
  • 运行8B的Llama3
  • Linux版本
  • webui
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档