能充实心灵的东西,除了苍穹外闪烁的璀璨群星,就是我内心的坚守的道德。 —康德
超级人工智能既带来福祉也带来挑战。超级人工智能也是许多文学、电影、哲学作品乐此不疲所讨论的主题。
近年来大众传播对人工智能的关注,无形中也加重了人们对“人机关系”的焦虑。以音源库和全息投影技术为支撑的“二次元”虚拟偶像上台劲歌热舞,人工智能用人脸识别技术与深度学习能力挑战人类记忆高手,“阿尔法狗”击败各国围棋大师,攻占了人类智力游戏的高地。在当前人工智能迅猛发展的今天,根据“投资回报加速定律”,超级人工智能并非触不可及。倘若出现,那么对于其道德选择的问题自然也就成为重点考虑的问题。
主要的道德问题,来源于以下几点:
第一,安全性、预防损害、减少风险的问题。设计者如何保证人工智能可靠地运转?又如何评估风险?
第二,人类道德责任。在人机混同的时代,道德相关的代理者(机器)所处的地位在哪里?出现事故应该如何分担产生的道德责任?又应该由谁为其中产生的不良后果负责?人类所共有的“道德系统”是否可以作为评价机器在事故中出现决策失误的权衡因素?
第三,法律架构。人工智能引发了关于治理、监管、设计、开发、检查、监督、测试和认证的问题。我们应该如何重新设计为个人和社会服务的机构和法律,以确保这一技术不会给社会带来危害?“技术黑箱”下的人工智能需要何种人才去评价其行为的合理性、有效性呢?
第四,人权问题。“图灵测试”一旦通过,基于人工智能所生产出的“机器人”拥有了与人类相同的思考系统、价值观。人类的观念系统为机器人所习得,那么,是否赋予机器人以相同的人权地位?
如今,人工智能已经在相关领域得到运用,从而辅助、乃至取代人类。然而,人工智能系统的架构之中的道德性问题,依然亟待解决。
领取专属 10元无门槛券
私享最新 技术干货