首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Ilya承认Scaling Law到头了,Meta和谷歌寻找替代o1的方法

夕小瑶科技说 原创

作者 | 小鹿

近期,全球科技界的目光都集中在OpenAI即将推出的下一代模型上,究竟会是o2还是GPT-5?

o2代表了全新的训练范式,而GPT-5则代表了继续Scaling Law的路线。

实际上,这个问题已经在11月份的时候,有Reddit网友向Altman提出过:

Altman最新谈到OpenAI的动态时,与OpenAI寻求新路径的努力是相呼应的--下一代技术不会是GPT的简单迭代

为什么不再是GPT-5了?

首先,GPT系列模型,即生成式预训练Transformer模型,其核心特点是依靠数据驱动的Scaling Law来推动性能的提升。

论文《Scaling Laws for Neural Language Models》提出语言建模性能随着模型大小、数据集大小和用于训练的计算量的增加而平稳提升。为了获得最佳性能,这三个因素必须同时扩大。当不受其他两个因素的限制时,经验性能与每个单独因素之间具有幂律关系。

然而,随着技术的不断进步,这种依赖于数据量和模型规模增长的模式开始显现出其局限性,优化和改进的速度逐渐放缓。

OpenAI的资深前合伙人,同时也是早期推动暴力scaling的重要人物之一的Ilya在接受路透社采访时提到:“实际上,Scaling Law已经达到了极限,就要到头了!”

在数据方面,目前全球可用于训练的数据已经接近都被抓过来训练了,且仅仅通过向模型提供更多未标注数据的方式已无法实现进一步的提升。

在训练算力方面,随着模型规模的增大,所需的计算资源也在增加。但是好巧不巧,最新的研究表明,通过在推理阶段增加算力的使用也能有效提升模型性能,而不仅限于增加训练数据和算力。

在这样的背景之下,OpenAI的o1模型不再是对GPT模型的扩展,它代表了一种全新的训练范式。

这种范式探索了超越传统GPT架构的新途径,可能涉及到更深层次的算法创新和训练策略的彻底变革。

当Altman提及「o1及其后续版本」时,这暗示了Orion模型可能会与推理能力更加紧密地结合,并有可能被重新命名为「o2」。

Scaling Law没错,但是现阶段不能再这样用了

那这样看来Scaling Law是不是已经到天花板了?

Ilya 指出:我们不仅需要关注规模的扩大,更重要的是“扩大正确的规模”。即在保持效率和效果的同时进行规模扩大,变得尤为重要。

Ilya 的这一观点引发了一个核心问题:当我们谈论规模扩大(scaling)时,我们究竟在扩大什么?

在AI领域,规模扩大通常意味着模型的复杂性、数据集的大小以及计算资源的投入。然而,这种无差别的规模扩大往往导致资源的浪费和效率的低下。

而各大科技巨头们现在都认识到这个问题了!

OpenAI想到的新办法是测试时计算(inference-time computation)。

这种策略通过在模型推理过程中增加计算资源的投入,使得模型能够实时地生成和评估多个选项,而不是仅限于一个固定答案。

这种策略的核心优势在于,它使得模型在处理复杂的任务时,如解决数学问题、编程挑战或需要类似人类的推理和决策的场景,能够进行更深入的思考和分析。

以OpenAI的o1模型为例,该模型通过在训练和测试阶段引入不同级别的计算资源,实现了规模的扩展。这种双重规模扩展不仅提升了模型的性能,还降低了对能源和硬件资源的过度依赖。

各大公司也同样认识到不能再像以前一样使用Scaling Law了!

Meta的研究团队提出了一种名为“思维偏好优化”(Thought Preference Optimization, TPO)的技术,旨在训练大语言模型在执行任务前进行“思考”,而不仅仅依赖于特定的训练数据。

通常,LLMs被训练以回答用户问题或执行指令,模仿人类专家的反应。对于需要推理和规划的复杂问题,这种思考能力至关重要,并且可以应用于各种任务。

论文地址:https://arxiv.org/pdf/2410.10630

即通过探索可能的思考生成空间,使模型能够在缺乏直接监督的情况下学习如何思考。

对于每个指令,他们使用评判模型对思考候选者进行评分,以评估它们的响应质量,然后通过偏好优化进行调整。

Google的研究团队也提出了采用链式推理(CoT)方法来解决多步骤问题,并在生成多个答案后选择最佳答案。

通过在测试时增加计算量来改进大型语言模型(LLMs)的输出,是构建能够自我改进并处理开放式自然语言问题的代理的关键步骤。

该研究团队研究了LLMs在增加推理时计算量时的表现,重点是探讨如果允许LLM使用固定但非琐碎的推理时计算量,它能在一个具有挑战性的提示上提高多少性能。

这个问题的答案不仅影响LLM的性能,也影响LLM预训练的未来以及如何在推理时计算和预训练计算之间做出权衡。

我们得到一个提示和一个测试时计算预算,以在此预算内解决问题。在上述抽象中,有不同的方法可以利用测试时计算。这些方法中的每一种在给定的特定问题上可能更有效或者效果较差。我们如何确定对于给定提示最有效的测试时计算利用方式?与仅使用一个更大的预训练模型相比,这种方法的表现如何?

尽管这一点很重要,Google的研究团队探索了两种主要机制:

对密集的、基于过程的验证器奖励模型进行搜索

根据测试时的提示,自适应地更新模型对响应的分布。

该团队发现,这两种情况下,扩展测试时计算的不同方法的有效性根据提示的难度而有很大的不同。

这一观察激发了应用一种“计算最优”的扩展策略,该策略旨在最有效地自适应地分配测试时计算。使用这种计算最优策略,与最佳基线相比,Google的研究团队可以将测试时计算扩展的效率提高4倍以上。此外,在FLOPs匹配评估中,该团队发现在较小的基础模型取得一定非琐碎成功率的问题上,测试时计算可以用来超越一个大14倍的模型。

结语

过去的AI发展确实验证了Scaling Law的有效性,一直受到关注和争议。

支持者认为,持续扩大规模是通往人工通用智能的必由之路,而批评者则指出,单纯追求规模化过于简单化,忽视了算法创新的重要作用。

事实上,规模扩展和算法创新并非对立,而是相辅相成。

Scaling Law的未来发展或许需要与其他技术路线相结合,例如模型压缩、专用硬件加速、少样本学习等,以实现算力和算法的最佳配合。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OcvnZgLhVxURPXj__2E96wJA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券