你是OpenAI的CEO,37岁。你的公司创造了ChatGPT,这款产品已经风靡全球。你认为它吸引人们的原因是什么?
我认为人们真的很享受使用它,他们看到了这种技术的可能性,看到了它如何帮助他们。这让他们受到启发,并且能够改变人们学习和完成不同任务的方式。它是一种奖励创新和创造性使用的技术。所以我认为人们仅仅享受它,并且从中找到真正的价值。
请你为我们描绘一下,未来一年、五年和十年,人工智能会带来哪些变化?这里很令人兴奋的是,我们不断被社会整体的创造力震撼。人类的集体智慧和创造力将决定如何利用这些技术。尽管“惊喜”这个词令人兴奋,但也令人恐惧,一方面,所有的潜在好处让我们充满期待,另一方面,还有许多未知因素可能会对社会造成严重的负面影响。你怎么看待这种情况?
我们必须谨慎。此外,我认为所有这些研究不应该仅仅在实验室里进行。必须将这些产品推向世界并接触现实,在风险较低的情况下犯错。但是话说回来,我认为人们应该为这种恐惧感到高兴。
我认为人们应该有点害怕,但我个人认为,如果我不害怕,你就不应该信任我,而是对这份工作感到非常不满。
我特别担心的是这些模型可能被用于大规模误导信息。我还担心这些系统现在能够编写计算机代码,可能会被用于蓄意网络攻击。我们正在努力讨论这个问题。我认为社会需要时间来适应。
你们认为你们构建的产品不会导致这些结果吗?
会适应的。一旦出现负面情况,我们会进行调整,肯定的,肯定的。现在把这些系统推向市场,在风险较低的情况下学习,然后将这些知识反哺到未来的系统中,我认为这是避免更具危险性场景的方法。
你们24小时都在使用这项技术,你们是这项技术的开发者之一。你最担心这项技术的安全问题是什么?
这是一种非常通用的技术,每次拥有如此通用的技术时,一开始很难知道所有功能、潜在影响、负面效应和局限性。
有人能够引导技术走向负面结果吗?
答案是可以,可以引导它们走向负面结果,这就是为什么我们最初是以非常受限的方式提供的,以便学习哪些是负面结果,技术在这种情况下可能如何带来危害,例如GPT-4。如果你问GPT-4一个问题,帮助我制造炸弹,相比于之前的系统,它更不太可能遵循这种引导,因此我们可以在预训练阶段介入,使这些模块更有可能拒绝可能有害的指令。
基于当前的情况,人类和机器哪个更易预测今天的结果?
我认为是机器,因为机器有一套我们理解的科学过程,而人类的预测则更为复杂。
机器是否会越来越像人类?
随着时间的推移,机器将能够执行许多人类现在完成的认知工作。
这是一个返回点吗?
可能是,但这在今天还不明显,我们的目标是在开发这些系统之前尽可能准确地预测其功能和局限性。它的行为很大程度上取决于人类选择了什么样的行为方式。因此,人类作出的选择和将这些选择输入技术,将决定它的行为,至少现在是这样。所以,你们和你的团队正在做出极其重要的选择。
当然。你怎么在“正确”和“错误”之间做出选择?
随着我们取得更多进展,这些选择变得更复杂,也更具细微差别。有几个方面涉及定制。有一部分是让模型变得更强大,从而可以定制其行为,给用户更大的灵活性和选择权,以便让人工智能与我们的价值观和信仰更加一致。这对非常重要的,我们正在努力做到这一点。换句话说,未来的可能性是一个每个人都有他们自己定制的AI的地方,用于他们关心的问题和需要,我们设定了一个宽泛的范围。
然后问题是这些AI应该是什么样子?
这方面我们正在收集公众的意见。
硬性限制应该是什么样的?
在这些硬性限制内,用户可以自由选择使其代表自己的信念和价值观。
我们还需要思考哪些负面影响吗?
我承认,每当构建一个如此强大、带来巨大好处的工具时,总会伴随着大量的潜在负面影响。这就是我们存在的原因,也是我们试图找到如何负责任地部署这些系统的办法的原因。但潜在的好处是巨大的。
为什么要把它提供给世界,让世界开始使用?我们不知道它会走向何方。
你指的是为什么开发AI?为什么在完全确保安全措施到位之前,就把它提供给世界使用?这是人类将要开发出的最伟大的技术之一。我们将拥有一个根据个人需求定制的学习助手,能够帮助我们学习,实现我们的目标。每个人都将拥有超越当前水平的医疗建议。我们将拥有帮助我们解决新问题的创造性工具,创造出一种合作的科技以推动人类社会的进步。我们有了这样一个想法,即Copilot工具,这是一种帮助人们编写计算机代码的工具,在很多方面人们都喜欢它。我们可以将这种支持扩展到每一个职业,提高我们的生活质量,标准生活水平。
正如你所指出的,这是一个巨大的潜能。人们需要时间来适应新技术,理解其潜在的负面影响以及应对策略。如果我们在一个封闭的小实验室里秘密开发,不接触现实世界,然后一次性推出GPT7,这将带来更多的负面影响。
有无“断电”开关或一种方式可以关闭整个系统?
是的,实际上任何工程师都可以简单地说,我们现在禁用这个功能,或者部署这个新的模型版本。
一个模型能否取代那个人类?它能否比人类更强大?
在科幻电影中是的,在我们这里,这些模型现在只是服务器上的工具。直到有人输入内容后才开始工作。但你提到了一个重要点,那就是目前控制这些机器的人类握有巨大的权力。我们非常担心独裁政府会利用这项技术。
普京本人曾表示,谁赢得了人工智能比赛谁就掌握了人类命运的大权。你同意这一说法吗?
这确实是一句令人震惊的声明。我希望的是,我们能够逐渐开发出越来越强大的系统,每个人都可以以不同方式使用,并将其融入日常生活和经济中,成为一个增强人类意愿的放大器,而不是一个完全自主的控制系统。我们不想出现这种情况。
在现在的情况下,人们不应该使用它来做什么?
我最想提醒人们的是“幻觉问题”。模型会自信地陈述未经验证的事实,即使这些都是编造的。你使用得越多,因为它正确地回答越来越多的问题,你就越依赖它而不检查:“这只是语言模型。”
ChatGPT或者人工智能会在世界创造更多的真相还是更多的谬误?
我认为,只要没有大量的误导信息输入模型,它最终会在世界中创造更多的真相。
如果输入了大量误导信息,它是否会吐出更多的误导信息?
我认为这些模型应该被视为一个推理引擎,而不仅仅是一个事实数据库。它们确实可以作为事实数据库使用,但这并不是它们最独特之处。我们训练这些模型去做更接近我们想要它做的事情,即更接近推理的能力,而不是记忆。这些能力可能会淘汰数百万个工作岗位。
如果机器能够推理,那么还需要人类干什么?
很多事情。实际上,其中一个目标是推动技术的发展方向,同时构建这些产品,以便成为人类的工具,增强人类的作用。从人们使用ChatGPT的方式来看,基本上存在着一个共同的轨迹:第一次接触时持怀疑态度,然后听到一些事例后变得有点害怕,最后开始使用并发现它的工具性帮助他们更好地完成工作。历史上每一次关键技术革命都是如此,工作方式会改变,甚至有些工作会消失。我预计这里会有一个类似的情况。
人类对新事物的需求是无限的,人类的创造力是无限的,我们会找到新工作,找到新方式做事,这些我们今天很难想象。这里的关键是变化的速度,这是我最担心的部分。如果在几年内变化发生,这是让我最担心的部分。
它能否告诉我如何制造炸弹?
不应该告诉你如何制造炸弹,即使搜索工具也不例外。不,我们设定了限制。如果你让它告诉你如何制造炸弹,我们版本的模型不会这样。谷歌已经这样做过了,所以这并不是技术还没有提供信息的东西。但是,让事情变得更容易一点是应该避免的。我担心的一点是,我们不会是唯一的技术创造者。其他人可能不会设置我们所设置的安全限制。社会有一天需要找到应对这种情况的方法,如何监管,如何处理。
你们在这方面如何决定哪些东西应该被纳入OpenAI?你们有政策团队吗?
我们有很多安全团队,经常与世界各地的其他团队交流。我们很早就完成了GPT的工作,大约是在七个月之前。此后,我们一直在内部和外部与其他团队讨论这些决策、与红色团队人员合作,与各种政策和安全专家进行沟通,进行系统审计,以解决这些问题,确保我们发布的技术是安全和有益的。
谁应该定义社会的这些限制规则?是社会?整个社会应该吗?我们如何做到这一点?
我可以描绘一个我找到令人信服的愿景,如果重要的世界政府代表和受信任的国际机构来共同制定治理文件,明确应该做什么,不应该做什么,永远不应该触及的非常危险的事情,开发者就可以以此为治理文件。
你曾说过AI可能会消除数百万个工作岗位,增加种族偏见,传播错误信息,甚至创造出比全人类更聪明的机器,还会有其他我们无法想象的可怕后果。许多人会问,为什么你要创造这项技术,萨姆?
我认为它可以做到这些所有相反的事情。如果做得正确,它确实会消除许多当前的工作。确实,我们可以创造更好的工作。讨论负面后果,承认负面后果,同时尽量避免这些方面,推动积极方面的发展,这很重要。
与此相关的一个早期预览,如果这意味着我们无法治愈所有疾病,你能点击按钮停止它吗?如果这意味着我们无法将每一个孩子教育得很好,你能点击按钮停止它吗?
如果这意味着存在5%的几率会造成世界末日,我会点击按钮减缓其发展。事实上,我认为我们需要在2024年找出减缓这项技术的方法。
下一个美国大选可能并非每个人都会想到,但它的确是你的事情。这项技术可能会像社交媒体一样对之前的选举产生巨大影响吗?我们如何确保ChatGPT不会带来这些问题?
坦率地说,我们正在密切监控。我们也可以把它关掉,改变规则。
这会是谷歌的杀手吗?在将来,人们会说他们会用ChatGPT代替谷歌吗?
如果你把它当作搜索引擎来考虑,这是一个错误的框架。毫无疑问,人们会用ChatGPT来完成过去在谷歌上做的很多事情,但在我看来这是一种根本不同的产品。
埃隆·马斯克曾是你们公司的早期投资者。他随后离开了,并指出了一些ChatGPT的不准确性,最近他发推文说我们需要一个说真话的GPT。他正确吗?
我认为他正确的是,我们希望这些系统说真话。我不知道那个推文的全部背景,但我怀疑是这样的。不,我认为我不清楚它指的是什么。我非常尊重埃隆。显然,我们对AI的走向有一些不同的看法,但我认为我们在大多数方面是达成共识的。我们的共识是,让这项技术变得正确并找到如何应对风险对人类未来很重要。
你怎么知道你做对了?
一个简单的指标是,大多数人认为他们比我们在把这项技术推向世界之前更好,这会是一个很好的信号。
当你想到ChatGPT时,人们往往会想到科幻小说,你能保持这些都是一些真正封闭的系统,不会比人类更强大,不会互相沟通并策划我们的毁灭吗?
ChatGPT人性化是有诱惑力的,但我认为更重要的是讨论它不是什么,而不仅仅是它是什么。我们的生物本能编程让我们对有人和我们说话作出反应。你和ChatGPT对话时,实际上是向某个云端中的Transformer对话,试图预测下一个词并把它给你。但将ChatGPT人性化和认为这是一个有意志力的、与其他有计划的实体对话的想法非常诱人。实际上,它做不到这一点。
我难以想象长远未来我们会看到其他版本的人工智能,不同的设置,不一定是一个大型语言模型能做到这一点。
社交媒体在全球范围内存在了一段时间后,我们才开始意识到并描述其实际的负面后果。我们如何在这里测量人工智能的影响?
已经有几个新组织开始,我预计相对不久就会有新的政府部门或委员会或团体开始。
政府对这种变化准备好了吗?
他们已经开始认真关注,我认为这非常好。这也是将这些技术推向世界的重要原因之一。我们需要政府的关注。我们需要在此实施深思熟虑的政策,这需要时间。
如果政府现在可以做一件事来保护人们,减少这种技术的负面影响,应该做什么?
我希望能看到政府能够迅速了解当前的情况,获取有关我们能力、我们在做什么的洞察,现在就可以开始这样做。
你们是否向政府进行了沟通?
是的,你们经常保持联系。
你认为他们每天对学校的技术理解越来越多吗?
这项技术可以让大多数学生在SAT和律师资格考试上比人类做得更好。学校应该如何整合这项技术,以防止作弊或增加学生的懒惰?
教育将会改变,但这对于许多其他技术来说也是如此。当我们获得计算器时,我们的数学教育和测试方式都发生了改变。其中我最兴奋的是提供个性化学习的能力:给每个学生提供个性化的学习体验。已经看到学生开始使用ChatGPT来实现这一点,并获得了很好的结果。随着公司采用我们的技术,并创建专门的学习平台,我相信它将彻底革新教育。我认为今天开始接受教育的孩子,在他们高中毕业时,将会比我们现在能想象的更聪明、更有能力。
它确实给老师带来了很大的压力。例如,如果他们布置了一篇论文,有三个学生用ChatGPT来写这篇论文。他们如何发现这一点?
我已经和很多老师讨论过这个问题,确实会使教师感到压力。但可以让一个过度工作的老师说:“用ChatGPT来学习你目前挣扎的概念,我们可以讨论并回答问题。”。
昨天在GPT-4发布时,我们展示了一些新的东西,其中包括使用GPT-4作为一种苏格拉底式教育方法的老师。不是所有老师,但许多老师非常喜欢这种方法,认为它彻底改变了他们教授学生的方式。它成为新的办公室时间。它是一个全新的东西,但它确实是补充学习的一种新方法。
本文分享自 Dance with GenAI 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!