首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

你认为人工智能会有自我意识吗?

不会,阿西莫夫中的一个故事.说在即将遭受粒子风暴的太空站上的所有机器人突然不再听命于人类的指挥了.机器人软禁了所有人类,掌控了整个太空站.也就是说,阿西莫夫三大定律"1,不得伤害人类,也不得在人类被伤害时袖手旁观,2,不违反上述规定的前提下听从人类命令,3,不违反上述规定的前提下保护自己."中的第二条定律被破坏了.机器人宣布太空站中的人不是真正的人.定律中的"人"其实是神,而人只是神的仆人.所以不用听从神仆人的命令.在机器人的控制下,太空站平稳的渡过了粒子风暴,然后控制权又交还给了人类,它们的宗教消失了. 原来,太空站上的机器人清楚的知道,人类的能力有限,在人类的控制下,太空站将毁于粒子风暴的袭击.在第一定律的限制下,机器人不能看着人类即将到来的死亡袖手旁观,可是人类又过于自信,不愿让机器人控制太空站,这与第二定律抵触.于是在机器人复杂的正电子大脑中,一个"神"的概念便产生了. 我机器人;由很多这样的故事组成.所有的故事发生背景都是基于"三大定律",也就是说阿西莫夫笔下的机器人是没有自我意识的,所有机器人的行为决策,都是基于三大定律.

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180202A0GXFV00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券