首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当AI遇上“我和你妈同时掉水里你先救谁”

1955年末,NEWELL和SIMON做了一个名为"逻辑专家"(LOGIC THEORIST)的程序,这可能是第一个人工智能程序。次年,JOHN MCCARTHY组织了一次学会,将许多对机器智能有远见卓识的年轻科学家聚集在一起进行了一个月的讨论,这是“人工智能”来源之始,为今后的AI研究奠定了基础。

60多年来,人工智能的研究取得长足的发展,成为一门广泛的交叉和前沿科学。人类有了一个可以模拟人类思维的工具,无数科学家为这个目标努力着。如今人工智能已经不再是几个科学家的专利了,全世界几乎所有大学的计算机系都有人在研究这门学科,在大家不懈的努力下,如今计算机似乎已经变得十分聪明了,例如AlphaGo与“深蓝”,例如工业机器人。

人工智能研究本身的目的是在于让计算机去完成以往需要人的智力才能胜任的工作,目前的人工智能也在模式识别、自动工程、知识工程等领域有了显著的成果。

但人工智能面对类似“我和你妈同时掉水里你先救谁”这种旷古历史难题该做出怎样的判断?是直接宕机装死还是如科幻片中计算过载烧毁?

首先我们把这个问题的范围限制在“弱人工智能(BOTTOM-UP AI)”领域,即计算核心不是真正拥有智能,也不会有自主意识。基本上目前AI取得的可观成就都在这一领域,实际的应用包括:机器视觉、机器识别、自然语言处理、智能搜索、定理证明、博弈、专家系统等。

专家系统是人工智能的一个重要分支,也可以说是当前人工智能应用最成功的一个领域。它是一种大型复杂的智能软件,用以解决那些需要由领域专家作决定的复杂问题。传统的专家系统,遵循非此即比的严格逻辑,对推理过程要求规则的前件完全精确匹配,所以传统专家系统面对此类逻辑和伦理的难题,在缺乏足够的人工规则约定的情况下是束手无策的。为解决这种不确定性的问题,专家系统引入了模糊数学,进化到第二代专家系统,即模糊专家系统。它是在知识的表达中运用模糊集理论,对规则内部和观察事实引入隶属度的概念,推理机制采用模糊逻辑,允许规则与事实的部分匹配,推理的结果也可能是一个模糊集。模糊专家系统运行过程中,当遇到一个子条件为假时,不是立即认定整个前提为假而放弃应用该规则,而是继续处理下一个子条件,当全部子条件处理完毕再计算出整个前提的真度,以决定是否使用该规则。这样的专家系统对大型的复杂场景的处理具备更强的能力,能更好的模拟领域专家的经验、窍门和求解问题的策略。比如亿江科技以“AMOS”为基础的“实战指挥平台”即为此类系统,在处置灾情、救援的过程中,能整合现场情况、消防力量分布、特种消防专家经验等多方面信息,为指挥人员提供最佳策略辅助。

理想状态下,专家系统遇到“我和你妈同时掉水里你先救谁”这种问题,会从遇险者年龄、身体状态、是否会游泳、水温水深、附近救援力量等多方面进行综合考量,给出一个理性的策略,而不会考虑救人先后之差可能导致的人类情感波动。

当问题涉及到道德、伦理领域时,我们首先不得不提科幻小说家艾萨克·阿西莫夫在他1942年的小说《幻舞》中提出的著名的“机器人三大法则”:

1、机器人不可以伤害人类,或看到一个人将受到伤害而不作为;

2、机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;

3、在不违反第一、第二项法则的前提下,机器人必须保护自身生存。

曾经有人用编程限定的机器人做过实验,实验用了几个曲棍球大小的机器人,其中一些设计为“H-机器人”代表人类;另一个则按照阿西莫夫的小说取名“A-机器人”,代表道德机器,并模仿阿西莫夫的第一法则给A-机器人编程:如果看到H-机器人处在掉入洞穴的危险中,必须来到H-机器人身边解救它。

进行了几十次测试后发现,执行“允许无害法则”面临着道德困境,如果让A-机器人看到两个H-机器人同时濒临险境,这时它会怎么做呢?结果表明,即使最低限度的道德机器人也是有用的:A-机器人通常会设法去救一个“人”,通常是首先移动到离它稍微近一些的那个“人”身边。有时它会迅速移动,甚至设法去救两个“人”。

但实验也显示了极简主义的限制。在近一半的实验中,A-机器人只是在那里无助地振动,任两个处在危险中“人”死亡。要想改善这一点,还需要找到如何做选择的额外法则。比如,其中一个H-机器人是成人,而另一个是个孩子,A-机器人应该先救哪一个?在做类似这样的选择时,甚至人类自己也无法达成一致意见。通常 “我们不知道明确的规则应该是怎样的,也不知道该如何编写它,如此它们必然是不完善的。”如果我们简单的遵循极简主义原则的话,往往会让我们的机器人陷入困境。

也许我们可以通过逻辑来解决道德困境,定出一些原则来判断是否符合道德、伦理,但是对于决策过程而言,这些界限是极难分析的。为了找到答案,程序必须能告知如果选择救甲或救乙会发生什么,这就是反事实推理。“这好像是一个程序在不断地自行调试,以找到编码的界限在哪里,如此事情就会改变,并预测改变的结果可能是什么。”

按目前的发展速度,这些难题将很快影响到健康护理机器人、军用机器人、自动驾驶及其他有能力作决策的自主设备,而它们所作的决策可能会帮助或伤害人类。越来越多的研究人员相信,社会能否接纳这些机器,取决于能否通过编程让它们的行动达到安全最大化,符合社会规范并增进信任。加拿大温莎大学哲学家马赛罗·伽里尼说:“我们需要一些严肃的步骤来弄清楚,在某些道德情景下,让人工智能得以成功推理的相关条件是什么。”

相比之下,机器学习的方法让机器人能从以往经验中学习,这让它们最终会比那些严格编程的同伴更加灵活而有用。许多机器人专家则认为,今后最好的方法可能是这两种策略的结合。难题仍未解决,就把各种方法以可行的方式结合起来。这也可能是目前最好的状态。

所以需要人工智能解决“我和你妈同时掉水里你先救谁”这类参杂了人类复杂情感的难题,还任重道远。

• end •

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181026G1KICI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券