许多流行的人工智能应用——如机器翻译、对话式人工智能和问答系统——都依赖于自然语言生成技术,即生成语法和语义连贯的新文本序列。有时需要调节语言生成器的输出:例如,在不同场景下,机器翻译模型可能需要生成更正式或更地道的翻译;对话式人工智能模型可能需要更侧重于传递信息或引导人类对话者回应。
传统上,构建提供此类控制的自然语言生成模型意味着需要在适当类型的标注数据上重新训练模型。但某中心人工智能组织的研究人员发明了一种无需重新训练即可调节语言生成器输出的方法。
研究人员在自然语言生成模型中添加了三个"控制旋钮",可以改变模型输出。这种方法在题为《基于编码器-解码器变换器的零样本控制生成》的论文中进行了详细描述。
1. 注意力偏置
与普遍观点相反,研究人员发现可以直接操作训练后模型的权重和参数。通过注意力偏置机制,可以强制训练后的模型比通常更关注上下文的特定部分。例如,在对话模型中,若希望下一个响应更具信息性,可以强制模型更关注提供的知识片段。
2. 解码器混合
该方法将具有不同技能的两个解码器进行混合。例如,一个解码器学会了基于对话历史进行回应,另一个解码器则擅长从输入中复制内容。通过混合这两个解码器,可以结合它们学到的技能,生成更具信息量的响应。
3. 输入增强
通过向输入添加特定的附加信息来实现控制。例如,若希望生成疑问句,可以用特定方式编码一批问题,并用这些问题编码来增强输入,模型就能生成更多疑问句。这种方法类似于语言模型中的"引导"概念,但首次在小型模型上实现了有效应用。
研究人员发现,将注意力偏置应用于自注意力机制时,模型会开始生成无意义内容。深入研究表明,自注意力模块主要负责生成语言的流畅性。这一发现带来了重要的附加贡献:在某些情况下,可以使用减少44%权重和参数的模型仍获得有竞争力的结果,显著降低了训练成本和碳足迹。
这项研究不仅提供了实用的模型控制方法,还通过分析失败案例推动了对其内部工作机制的深入理解。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。