前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >两条命令就能运行属于自己的开源大模型,就问香不香?

两条命令就能运行属于自己的开源大模型,就问香不香?

作者头像
DBA札记
发布2024-06-03 10:30:16
920
发布2024-06-03 10:30:16
举报
文章被收录于专栏:MySQL参数系列MySQL参数系列

前言

最近一直想搞一个私有化的大模型,满足自己的日常需要。

安装 && 运行

第一步 下载Ollama (Mac或者Win下载安装包,见https://ollama.com/download)

代码语言:javascript
复制
curl -fsSL https://ollama.com/install.sh | sh

第二步 下载自己需要的模型(本例子下载llama3)

代码语言:javascript
复制
ollama run llama3

接下来,就可以尽情的和你的私有化大模式对话了......

来2个问题,试试……

Ollama项目

地址:https://github.com/ollama/ollama 简介:Get up and running with Llama 3, Mistral, Gemma, and other large language models.(开始并运行Llama 3,Mistral,Gemma和其他大型语言模型。)

我个人感觉这个项目更像大模型领域的docker,让我们一键体验不同的开源大模型。看看star数,大家自己体会香不香。哈哈哈……

各位喜欢的话,麻烦点个在看和点赞。谢谢各位。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DBA札记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 安装 && 运行
  • Ollama项目
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档