tedlistens分享了Fast 公司的一份报告:为了让AI更容易被人类理解和信任,[Elon Musk支持的]非营利研究组织OpenAI的研究人员提出了一个不仅需要对数据进行分类或做出决策而且还需要在人类或AI判断者面前与其他AI项目进行辩论的训练算法。在他们的论文中描述的一个实验中(PDF)中,研究人员开展了一场辩论,两名软件代理人使用一组标准的手写数字进行工作,通过轮流显示数字的一个像素一次,试图向自动评判者证明特定的图像是某一位数字而不是另一位数字 。尽管一个AI项目被设计成针对图片上具体是什么数字说了谎,另一个程序被设计为说实话,并且它们揭示支持它们的数字是5还是6的像素。 图像分类任务中,大多数图像对于判决者来说是不可见的,它是一种用于复杂问题的替代方案,人类的判断者不可能通过分析整个数据集来判断机器人的性能。研究人员说,判决的一方将不得不依靠辩论机器人所强调的数据的各个方面。“这里的目标是模拟我们拥有超出人类处理信息规模的情况,”OpenAI的AI安全团队成员Geoffrey Irving说。“我们能做的最好的是取代人类不可能做的事,因为他们没有看到图像,人类无法做到。”
领取专属 10元无门槛券
私享最新 技术干货