概念定义与层级关系
Embedding(嵌入模型)指将非结构化数据(如文本、图像)转换为低维稠密向量的技术或过程,其核心目标是捕捉数据语义特征,例如:
文本Embedding:将句子映射为1536维向量,使语义相似的句子向量距离更近;
图像Embedding:将图片转换为向量,支持跨模态检索。
向量模型(Vector Model)指直接使用Embedding生成的向量进行任务处理的模型,属于Embedding技术的下游应用,例如:
分类模型:基于向量训练分类器(如SVM、神经网络)完成情感分析;
检索模型:通过向量相似度计算实现语义搜索(如Gemini Embedding的文档检索功能)
向量模型是属于应用优化型Embedding模型的子集,强调性能与场景适配性的增强
常见Embedding模型排行总结
数据截至2025年3月份
全英文Embedding模型对比分析表
基于MTEB基准测试与开源生态,以下是主流英文嵌入模型的核心指标对比:
全中文Embedding模型对比分析表
基于中文场景任务优化与开源生态,以下是主流中文嵌入模型的核心指标对比:
中英文混合Embedding模型对比分析表
基于跨语言任务优化与开源生态,以下是主流中英文混合嵌入模型的核心指标对比:
BGE系列Embedding模型对比分析表
基于检索增强生成(RAG)需求与模型特性,以下是BGE系列模型的核心差异与配置要求对比:
RAG选型建议
1. 多语言混合场景
首选:BGE-M3(完整版)支持100+语言混合检索与8192 tokens长文本处理,三模式检索(稠密+稀疏+多向量)可提升RAG召回率36。需16GB显存及多核CPU支持。
替代方案:bge-m3-retromae若无需多检索功能,可降低显存需求至12GB,但牺牲检索灵活性。
2. 纯英文高精度场景
高精度需求:bge-large-en-v1.5在英文MTEB任务中平均分63.5,优于BGE-M3的英文子项得分(61.2)。需8GB显存。
性价比选择:bge-base-en-v1.5精度下降约5%,但推理速度提升30%,适合中等规模服务器。
3. 资源受限环境
轻量化部署:bge-small-en-v1.5512维向量仅需2GB显存,QPS可达1800+,适合移动端或低功耗设备。
低成本实验:bge-m3-unsupervised无监督版本可减少标注数据依赖,但跨语言能力较弱
Embedding排行榜
Huggingface上的mteb是一个海量Embeddings排行榜,定期会更新Huggingface开源的Embedding模型各项指标,进行一个综合的排名,大家可以根据自己的实际应用场景,选择适合自己的Embedding模型。
Embedding排行地址
领取专属 10元无门槛券
私享最新 技术干货