前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[AI Embedchain] 开始使用 - 常见问题解答

[AI Embedchain] 开始使用 - 常见问题解答

作者头像
从零开始学AI
发布2024-08-08 21:28:50
1050
发布2024-08-08 21:28:50
举报
文章被收录于专栏:AI

Embedchain 支持 OpenAI 的 Assistant API 吗?

是的,支持。请参考 OpenAI Assistant 文档页面。

如何使用 MistralAI 语言模型?

使用 Hugging Face 提供的模型:mistralai/Mistral-7B-v0.1

代码语言:python main.py
复制
import os
from embedchain import App

os.environ["HUGGINGFACE_ACCESS_TOKEN"] = "hf_your_token"

app = App.from_config("huggingface.yaml")
代码语言:yaml huggingface.yaml
复制
llm:
  provider: huggingface
  config:
    model: 'mistralai/Mistral-7B-v0.1'
    temperature: 0.5
    max_tokens: 1000
    top_p: 0.5
    stream: false

embedder:
  provider: huggingface
  config:
    model: 'sentence-transformers/all-mpnet-base-v2'

如何使用 OpenAI DevDay 发布的 ChatGPT 4 turbo 模型?

使用 OpenAI 提供的模型 gpt-4-turbo

代码语言:python main.py
复制
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'xxx'

# 从 gpt4_turbo.yaml 文件加载 llm 配置
app = App.from_config(config_path="gpt4_turbo.yaml")
代码语言:yaml gpt4_turbo.yaml
复制
llm:
  provider: openai
  config:
    model: 'gpt-4-turbo'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: false

如何将 GPT-4 用作 LLM 模型?

代码语言:python main.py
复制
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'xxx'

# 从 gpt4.yaml 文件加载 llm 配置
app = App.from_config(config_path="gpt4.yaml")
代码语言:yaml gpt4.yaml
复制
llm:
  provider: openai
  config:
    model: 'gpt-4'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: false

我没有 OpenAI 积分,如何使用一些开源模型?

代码语言:python main.py
复制
from embedchain import App

# 从 opensource.yaml 文件加载 llm 配置
app = App.from_config(config_path="opensource.yaml")
代码语言:yaml opensource.yaml
复制
llm:
  provider: gpt4all
  config:
    model: 'orca-mini-3b-gguf2-q4_0.gguf'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: false

embedder:
  provider: gpt4all
  config:
    model: 'all-MiniLM-L6-v2'

在 Embedchain 中使用 OpenAI 模型时如何流式响应?

可以通过在配置文件中将 stream 设置为 true 来实现。

代码语言:yaml openai.yaml
复制
llm:
  provider: openai
  config:
    model: 'gpt-3.5-turbo'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: true
代码语言:python main.py
复制
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'sk-xxx'

app = App.from_config(config_path="openai.yaml")

app.add("https://www.forbes.com/profile/elon-musk")

response = app.query("Elon Musk 的净资产是多少?")
# 响应将随着生成在 stdout 中流式传输。

如何在多个应用程序会话中持久化数据?

通过在配置文件中添加一个 id 来设置应用程序,这样可以保留数据以供将来使用。您可以将这个 id 包含在 yaml 配置中,或者直接在 config 字典中输入。

代码语言:python app1.py
复制
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'sk-xxx'

app1 = App.from_config(config={
    "app": {
      "config": {
        "id": "your-app-id",
      }
    }
})

app1.add("https://www.forbes.com/profile/elon-musk")

response = app1.query("Elon Musk 的净资产是多少?")
代码语言:python app2.py
复制
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'sk-xxx'

app2 = App.from_config(config={
    "app": {
      "config": {
        # 这将持久化并从 app1 会话加载数据
        "id": "your-app-id",
      }
    }
})

response = app2.query("Elon Musk 的净资产是多少?")

引用

本文系外文翻译,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系外文翻译前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Embedchain 支持 OpenAI 的 Assistant API 吗?
  • 如何使用 MistralAI 语言模型?
  • 如何使用 OpenAI DevDay 发布的 ChatGPT 4 turbo 模型?
  • 如何将 GPT-4 用作 LLM 模型?
  • 我没有 OpenAI 积分,如何使用一些开源模型?
  • 在 Embedchain 中使用 OpenAI 模型时如何流式响应?
  • 如何在多个应用程序会话中持久化数据?
  • 引用
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档