据 The Decoder 10 月 12 日报道,Meta AI 研究人员提出了一种基于提示的方法 Chain-of-Verification (CoVe),可显著减少 ChatGPT 等聊天机器人的幻觉问题。
据悉,使用 CoVe 时,聊天机器人首先要对提示做出回应,然后根据这些输出生成问题来验证语句。然后,这些“验证问题”会作为独立于第一个输入的新提示执行,以防止第一个输出中的错误信息被采用。最后,语言模型会根据单独收集的事实来验证第一个输入。所有测试均使用 Llama 65 B 完成。
研究小组的研究表明,单个问题的答案中包含的错误明显减少,这使得 CoVe 能够显著提高提示语的最终输出。对于基于列表的问题,CoVe 可以将准确率提高一倍以上,大大降低错误率。而对于更复杂的问答场景,该方法仍能提高 23% 的准确率。不过,对于较长的内容,团队仍需检查验证答案是否前后矛盾。
领取专属 10元无门槛券
私享最新 技术干货