首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

2023异想大会|印象笔记乔迁:AI模型不是“越大越好”

5月18日,由《财经天下》周刊、「市界」和《博客天下》联合主办的“2023异想大会”在北京召开。大会间隙,「市界」与印象笔记高级副总裁乔迁进行深入交流,探讨AI大模型的未来商业化图景。

在ChatGPT掀起的全球大模型热潮中,作为效率软件企业代表的印象笔记也踏上了自研大模型之路。3月初,印象笔记公布了自研轻量化大语言模型“大象GPT”。4月18日,基于大象GPT的AI服务功能“印象AI”在印象笔记旗下全线产品上线。

不同于部分大模型采用了千亿级别的训练参数规模,大象GPT是一个“轻量化”的模型。乔迁告诉「市界」,“轻量”既体现在大象GPT采用了百亿级的参数规模,也体现在相较于更大参数规模的模型,大象GPT的算力成本得到了相对优化。(注:ChatGPT的参数规模达到了1750亿。)

乔迁称,之所以采用这种轻量化的技术路线,是因为印象笔记认为在具体的商业化场景中,AI模型的发展方向并不是“越大越好”。

他讲道:“有关于什么才是一个‘好模型’这个问题,答案其实很难定义。难道参数规模越大就越好?还是说迭代越快就越好?这些标准都是片面的。参数规模极大的模型,也可能因为不了解细分领域的知识而无法满足客户需求。因此我们倾向于认为越适合用户使用场景的模型才是越好的。”

而这考验的是将大模型“plug in(外挂)”到具体使用场景中的能力。乔迁认为:“在具体的、多样的使用场景中,可能更适合使用‘混合模型’,可以将其理解为大模型叠加小模型,就是在通用的大模型基础上引入行业的数据资产,两者深度对接。”

异想大会召开当天,正是印象AI“面世”一个月的日子。乔迁告诉「市界」,经过用户的深度使用与反馈,印象笔记总结出了现阶段在效率软件市场中AI大模型应用还面临的三大挑战。

首先是提升用户与模型的交互效率,具体来说是用户编写Prompt(提示词)的效率。针对具体的写作需求,通用的大模型往往无法仅凭几个词就准确生成内容,需要用户进行多次、细致地描述。

这就需要应用企业预设固定的写作模版,来减少用户与模型的沟通成本。

其次,则是满足用户的客制化需求,也就是针对用户个人习惯进行模型调优。某些情况下,统一、固定的模版难以满足千人千面的写作需求。

在提供统一标准服务的基础之上,模型还需要“学会”理解不同用户的独特需要,提供调整的空间。

最后则是数据确权与数据隐私的问题。模型不仅要为客户提供贴心服务,还必须明确法律的边界。这需要整个社会共同探索和规划出数据使用的尺度。

(作者|董温淑,编辑|董雨晴)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230522A03EHL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券