前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mistral 大语言模型

Mistral 大语言模型

原创
作者头像
霍格沃兹测试开发Muller老师
发布2024-09-03 12:28:34
910
发布2024-09-03 12:28:34
举报
文章被收录于专栏:muller的测试分享

Mistral AI

Mistral AI team

Mistral AI 是一家销售人工智能产品的法国公司。它由 Meta Platforms 和 Google DeepMind 的前员工于 2023 年 4 月创立。该公司于 2023 年 10 月筹集了 3.85 亿欧元,2023 年 12 月估值超过 20 亿美元

Mistral.AI 愿景与使命

我们是一个具有高科学标准的小型创意团队。我们通过突破性的创新打造开放、高效、有用且值得信赖的人工智能模型。我们的使命是让前沿人工智能无处不在,为所有建设者提供量身定制的人工智能。这需要强烈的独立性,对开放、便携和可定制解决方案的坚定承诺,以及对在有限时间内交付最先进技术的高度关注。

在线 Chat 服务 Le Chat
开源大语言模型 Mistral Mixtral

Mistral 大语言模型

Mistral-7B
  • Mistral-7B 大型语言模型 (LLM) 是一个预训练的生成文本模型,具有 70 亿个参数。
  • 在所有基准测试中均优于 Llama 2 13B
  • 在许多基准测试中均优于 Llama 1 34B
  • 接近 CodeLlama 7B 的代码性能,同时保持良好的英语任务表现
  • 使用分组查询注意力 (GQA) 进行更快的推理
  • 使用滑动窗口注意 (SWA) 以较小的成本处理较长的序列
mistral 与 llama 的对比
基于 Hugging Face Transformers 使用 mistral
代码语言:python
代码运行次数:0
复制
## Use a pipeline as a high-level helper
from transformers import pipeline

def test_mistral():
    pipe = pipeline("text-generation", model="mistralai/Mistral-7B-Instruct-v0.2")
    pipe("请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest")
使用 langchain 调用 mistral
代码语言:python
代码运行次数:0
复制
def test_mistral():
    llm = Ollama(model="mistral", base_url="http://localhost:11434")
    r = llm.invoke('请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest')
    debug(r)

Mixtral 大语言模型

Mixtral 大语言模型介绍

这是一种具有开放权重的高质量稀疏专家混合模型 (SMoE)。根据 Apache 2.0 许可。Mixtral 在大多数基准测试中都优于 Llama 2 70B,推理速度提高了 6 倍。它是最强大的开放权重模型,具有宽松的许可证,也是成本/性能权衡方面的最佳模型。特别是,它在大多数标准基准测试中匹配或优于 GPT3.5。

在这里插入图片描述
在这里插入图片描述
Mixtral 的特点
  • 可以优雅地处理 32k 令牌的上下文。
  • 可以处理英语、法语、意大利语、德语和西班牙语。
  • 在代码生成方面表现出强大的性能。
基于 Hugging Face Transformers 使用 mixtral
代码语言:python
代码运行次数:0
复制
## Use a pipeline as a high-level helper
from transformers import pipeline

def test_mixtral():
    pipe = pipeline("text-generation", model="mistralai/Mixtral-8x7B-Instruct-v0.1")
    pipe("请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest"))
使用 langchain 调用 mixtral
代码语言:python
代码运行次数:0
复制
def test_mixtral():
    llm = Ollama(model="mixtral", base_url="http://localhost:11434")
    r = llm.invoke('请为google编写web自动化测试用例,使用pytest page object设计模式,断言使用hamcrest')
    debug(r)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Mistral AI
    • Mistral AI team
      • Mistral.AI 愿景与使命
        • 在线 Chat 服务 Le Chat
          • 开源大语言模型 Mistral Mixtral
          • Mistral 大语言模型
            • Mistral-7B
              • mistral 与 llama 的对比
                • 基于 Hugging Face Transformers 使用 mistral
                  • 使用 langchain 调用 mistral
                  • Mixtral 大语言模型
                    • Mixtral 大语言模型介绍
                      • Mixtral 的特点
                        • 基于 Hugging Face Transformers 使用 mixtral
                          • 使用 langchain 调用 mixtral
                          领券
                          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档