前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用ollama的免费API零代码开发第一个AI应用

用ollama的免费API零代码开发第一个AI应用

作者头像
AIGC部落
发布2024-06-24 19:05:06
1140
发布2024-06-24 19:05:06
举报
文章被收录于专栏:Dance with GenAIDance with GenAI

首先安装ollama软件,

然后打开cmd或者powershell命令提示符,然后输入:

ollama run llamafamily/llama3-chinese-8b-instruct

这就在本地电脑安装了一个llama3大模型的中文版,然后就可以调用ollama的api,基于llama3大模型来开发各种AI应用。这个api调用的是本地电脑上的大模型服务,所以不会有任何费用;而且不联网传输,数据很安全。

首先安装ollama的Python库:pip install ollama

然后在deepseek的代码助手中输入提示词:

你是一个Python编程专家,现在要完成一个编写AI应用的Python脚本,具体步骤如下:

ollama的模型是'llamafamily/llama3-chinese-8b-instruct';

用ollama库输入内容“将以下内容翻译为英文:为什么天是蓝色的?”

解析流式响应,提取出文本内容;

ollama库的使用示例:

import ollama

stream = ollama.chat(

model='llama3',

messages=[{'role': 'user', 'content': 'Why is the sky blue?'}],

stream=True,

)

deepseek代码助手生成的代码:

import ollama

# 定义消息列表,包含要翻译的内容

messages = [{'role': 'user', 'content': '将以下内容翻译为英文:为什么天是蓝色的?'}]

# 调用ollama库的chat函数,指定模型和消息列表,并开启流式响应

stream = ollama.chat(

model='llamafamily/llama3-chinese-8b-instruct', # 使用你提供的模型名称

messages=messages,

stream=True, # 开启流式响应

)

# 遍历流式响应,提取文本内容并输出

for chunk in stream:

# 检查chunk是否包含'message'字段

if 'message' in chunk:

# 提取'content'字段并打印

print(chunk['message']['content'], end='')

运行程序,返回结果:why is the sky blue? 说明程序运行成功了。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-05-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Dance with GenAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档