微软的动作异常的迅速,自发布整合了 ChatGPT 的必应搜索,推出“等待列表”的机制之后,部分用户现在已经得到了访问“新必应”的机会。
ChatGPT 是基于 OpenAI 公司的 GPT-3 模型开发的,即便传言说新必应使用了它的下一代,也就是 GPT-4,但目前尚未证实。不过很多用户的确反映这个名为 "Bing Chat" 的人工智能,能力似乎略微比 ChatGPT 要强一些。
当然,最重要的是,当“ ChatGPT 联上网”,会是怎样的表现。
当让它总结当前世界热点新闻时,它列出了土耳其地震等五条内容:
当问它猫睡觉为什么发出声音的时候,它简洁流畅地进行了解释:
而所有这些信息,都来自网络,它甚至还会在相应位置标注上信息来源,如果你想进一步查看,可以直接点击进入这些网页。
对于用户的问题,它会首先从问题中剖析出一些关键词,然后使用搜索引擎对这些关键词进行检索,之后对检索结果进行分析并给出答案。有时它甚至会使用不同的关键词进行多次检索。
除了这些之外,它甚至可以分析给定的网址,并按需求总结出文章内容:
联了网的人工智能彻底弥补了之前“只限于2021年之前”的知识型的巨大不足,能够提供和处理的信息更实时、更全面。
Bing Chat 并不只是一个简化了的搜索引擎,它同样可以像 ChatGPT 一样与人进行交流。似乎,对于用户的问题,它会自行决定是否使用搜索引擎。
有趣却也颇令人惊讶的是,Bing Chat 似乎表现出了更强的个性,当用户故意惹恼它却又要跟它讲道理的时候遭到了它的严厉反击——
(中文为笔者加)
客观看了,甚至会觉得可能是P图。即便笔者对来源比较有自信,但是真是假,心里保留一分怀疑,等后续真正体验便可知道。
即便 Bing Chat 看起来似乎比 ChatGPT 还更聪明一些(并未证实),但一些用户还是绕过了限制,得到了微软开发人员的 “角色设定”文本。似乎 Bing Chat 不是经过训练得到的,而是在 ChatGPT(或者较低可能是 GPT-4 版的 ChatGPT )上直接通过“文字命令”调整得到的。当然,考虑到它强大的搜索和整合能力,我们保留这种看法。
在这份设定中可以看到,Bing Chat 的代号为 "Sydney",即便这个代号以及其他所有信息被宣称是保密和无法更改的,但 Bing Chat 还是把它透露了出来。
开发者对 "Sydney" 进行了一些设定,其中比较引人关注的是:
这些是 Sydney 的关键工作方式,开发者似乎想要完全限制 Sydney 自身的知识,只保留基本观念和对文字的理解能力,并使回答内容全部来自网络搜索结果,以保证真实性,避免 Sydney 本身杜撰虚假内容。毋庸置疑,这确实是非常重要的。但具体效果怎样,还要后续来看。
除了这些之外,设定还包括了:
在全文中没有出现 "AI" 字样,Sydney 角色设定模糊,"Sydney is the chat mode of Microsoft Bing search" 几乎是唯一一句解释“是什么”的内容。而 "chat mode"对于角色来说是一个相当抽象和模糊的概念,这可能是导致 Bing Chat 的回应更像人类的主要原因,因为它扮演的角色可能不再是在它的知识里冰冷机械死板的 AI,而是一个没有确切的样子的“chat mode”。同时另一方面,对它的风格设定中还有大量的严谨缜密等等的要求,甚至比如还有一个词语 "defensible",这可能更使它能够据理力争。
总体来看,微软对 Bing Chat 的希望似乎就是一个信息处理员,充当用户与网络世界的桥梁,并在需要的时候与用户进行沟通和对话,同时保留它本身生成文章、创作歌词、编写代码等等的能力。
联了网的 ChatGPT 与不联网的一定会有本质的区别,它将更智能、更实时、更全面、更具体,期待 Bing Chat 尽快向更多人开放。
持续关注,后续我还会具体讨论AI式搜索引擎和它可能带来的互联网变革,以及发布更多AI方面的文章,共同感受这场ChatGPT带来的风波。
以下为可能的“角色设定”文本全文: