科技舆情聚合监测平台显示:截至2月3日,本文被中国科学报等15家媒体转载。
2018年,人工智能在无人驾驶汽车领域“连续撞车”,多家公司出现了安全事故。人工智能技术在安全、隐私等诸多方面面临挑战,人们开始质疑,“人工”和“智能”究竟能否和谐相处?
在这种焦虑情绪的影响下,人们开始思考人工智能未来的走向。日前在北京召开的新兴科技峰会上,这一话题受到专家的广泛关注。
在互联网时代,每个人都可能受到网络流言的困扰,很多谣言集中在食品安全、健康等领域,有可能产生非常恶劣的影响。
以医疗信息为例,用户在搜索信息时,由于认知不足,很难判断这些信息是不是完整、准确以及信息源是什么,这导致了“魏则西事件”“权健火疗”等悲剧的发生。
“医疗信息的检索结果关乎人的生命,用户必须整理这些信息,避免被有特殊目的的人推送错误信息而导致严重后果。”美国宾夕法尼亚大学计算机和信息科学系教授丹·罗斯说。
罗斯认为,人工智能中的自然语言处理技术可以帮助人们解决这一社会问题,它能够帮助人们去了解信息源,了解语意背后的证据,担起“谣言侦探”的重任。
信息源包括信息的来源、目的、内容等,而对于各种说法背后的证据,可以使用神经网络进行分类,将大量的信息按支持度的强弱组织成证据链,了解不同说法的立场,检查不同说法的真实性。
罗斯也坦言,目前自然语言处理技术还面临很多挑战,比如语意的模糊性,一词多义或者一种意思有多种说法,在这些情况下的理解完全取决于具体的应用场景。但他仍然呼吁人们多关注这个领域,严堵谣言的扩散。
峰会上,也有专家认为,人工智要真正“适应”人类社会,还需要一段很长的路。
卡内基梅隆大学计算机科学学院机器人研究所教授凯迪娅·斯凯洛认为,机器人终将出现,会和人类一起工作、战斗、照顾老人,但是在这一天来临前,人们还需要在社会、心理方面做大量工作。
比如让机器人从事照顾老人的工作,它需要知道在进入房间前敲门;如果老人突发疾病,它又要能够直接闯入,并快速把老人送到医院,需要超速时,它也要打破交通限速的规则。“这些决策都带有很大的不确定性,需要人们提前规定优先级。”斯凯洛说。
有时机器人会干出一些“啼笑皆非”的事。有研究发现,在清理垃圾时,如果程序告诉机器人清理得越多,分数就越高,机器人会为了获得高分,把已经清理好的垃圾倒掉,再重新清理一次。
斯凯洛认为,如果只让机器人去工作,那么它们很好控制;一旦人类要与它们有更多互动,未来使用机器人会变得越来越有挑战性。
“想让机器人在社会中的被接受程度更高,它们必须要有社会性,它们的行为应该是我们可接受的,要符合社会行为的准则。”斯凯洛说。
领取专属 10元无门槛券
私享最新 技术干货