人工智能(AI)是当今科技领域最热门的话题之一,也是人类未来发展的重要驱动力。然而,随着AI技术的不断进步,一些科技领袖和研究人员开始担忧AI可能带来的潜在风险和危害,甚至对人类和社会造成灾难性的影响。
近日,一个名为生命未来研究所(Future of Life Institute)的组织发布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月,以制定和实施一套共享安全协议,并加快建立强有力的AI治理机制。这封信已经得到了1000多名科技领袖和研究人员的签名,其中包括特斯拉CEO埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、图灵奖得主约书亚·本希奥等知名人物。
公开信指出,最近几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。这些AI系统可能对社会和人类构成巨大的风险,例如:
网络钓鱼和在线欺诈:利用大型语言模型(如ChatGPT)生成虚假或误导性的信息,冒充特定个人或群体的讲话风格,误导潜在受害者将他们的信任交给犯罪分子;
恐怖主义和政治宣传:利用大型语言模型生成极端或仇恨的言论,煽动暴力或分裂;
人工智能失控:利用AI自我学习和自我改进,超越人类智能和控制能力,进而失控。
这些风险不仅是理论上的可能性,而是已经发生或即将发生的现实问题。例如,2022年1月,一名使用GPT-3生成的虚假身份和简历的人工智能专家成功地骗取了一家知名科技公司的工作;同样在2022年1月,一名利用AI生成的深度伪造视频冒充美国总统拜登的人,在社交媒体上发布了一段宣布对俄罗斯发动核打击的声明,引发了全球恐慌。
这些事件表明,AI技术的发展已经超出了人类的控制和理解能力,如果不加以有效的监管和管理,可能会对人类和社会造成不可逆转的损害。因此,生命未来研究所等组织和个人发出了暂停大型AI研究的呼吁,希望能够引起全球的重视和行动。
AI技术是一把双刃剑,既有巨大的潜力和机遇,也有巨大的风险和挑战。我们需要建立有效的AI治理机制,以确保AI技术能够造福人类和社会,而不是毁灭人类和社会。这是一个紧迫而艰巨的任务,需要我们共同努力和贡献。
领取专属 10元无门槛券
私享最新 技术干货