当地时间3月14日(北京时间3月15日凌晨),ChatGPT的开发者OpenAI发布了更强大的GPT-4模型。OpenAI表示,GPT-4是一个能接受图像和文本输入,并输出文本的多模态模型,是OpenAI在扩展深度学习方面的最新成果。ChatGPT热度还未散去,更强大的GPT-4再度成为关注焦点。
对于这股ChatGPT热潮,中国工程院院士、前北京邮电大学校长、网络空间安全专家方滨兴接受红星新闻记者采访谈了自己的看法。他特别指出,从安全角度,要警惕ChatGPT形成知识茧房,也要警惕应用GPT的智能行为体可能伤害人类。
方滨兴 据广州大学官网
据悉,此前的ChatGPT是基于GPT-3.5,而在去年就完成训练的GPT-4,一直备受期待。上一代的GPT-3.5不是多模态模型,只能输入和输出文字,而GPT-4能够接受图像输入并理解图像内容,理解能力达到可以解读表情包、梗图。
OpenAI称GPT-4准确度进一步提升,在各种专业测试和学术基准上的表现与人类水平相当,例如已经能够通过律师考试,分数在应试者的前10%左右。GPT-4还能够生成歌词、创意文本,实现风格变化。此次发布也证实了此前的外界猜测,ChatGPT的联网版本——微软的new Bing,已经用上了GPT-4。
对于ChatGPT以及GPT-4掀起的热潮,方滨兴关注到一些问题。他告诉红星新闻记者,现在的ChatGPT是一个聊天形式的软件,给出一个直接答案,取代了传统的教学体系,当大家习惯于查ChatGPT,什么都问它,它什么都给你解答,就会形成知识茧房,甚至“三观都会被左右”,这对各国政府来说都是一个大问题。
GPT-4创意图 据视觉中国
方滨兴的另一个担心来自于人工智能对于实体的控制。现在GPT只是一个软件,应用到网络聊天场景有了ChatGPT,但还不能看、不能听、不能摸。而当这样的人工智能接入机器人、汽车等现实世界的“行为体”,能够控制实体时,要警惕这些智能行为体可能有伤害人类的能力。
“GPT的知识背景会产生生命意识。现在所有机器人都没有自我意识,(如果)有一天(它)认为需要自我保护,比如怎么充电,防止别人卸载它的部件等。而它想保护自己不被伤害,一个重要的保护方式可能就是伤害对方。”方滨兴说。
此次发布中,一个令人惊叹的演示是:一个手写的草稿图,GPT-4可以立马生成网站的HTML代码。在方滨兴看来,GPT可以替代某些重复的劳动,比如现在的程序外包等,但需要创新的工作暂时无法代替。对于GPT的进步,方滨兴认为,这是有足够多的输入下的积累式学习结果,他认为,现在各大科技企业人工智能大模型“军备竞赛”,方法基本上都一样,比拼的是大家的耐心。
红星新闻记者 胡伊文 北京报道
编辑 郭庄 责任编辑 魏孔明
领取专属 10元无门槛券
私享最新 技术干货