当人工智能还未发展到如今的程度时,知识分子们并不担心AI技术的进步会对他们造成太大的威胁。
特别是那些文字工作从业者,一直普遍相信,被AI技术淘汰的职业,几乎都属于制式化、重复性的工作,最受影响的,应该是那些基层员工。比如,一旦富士康转向全自动化生产时,大量的体力劳动者将会面临失业,还有曾经非常热门的电话人工客服,也在逐渐被AI机器人取代。
这是一种咱们喜闻乐见的人工智能应用
长期以来,人类普遍认为人工智能对数字比文字更敏感。毕竟,人工智能没有自我意识,似乎根本无法掌握人类丰富的灵感、复杂的互动以及各种隐藏在字里行间的潜台词。
然而,随着ChatGPT的横空出世,用户们突然发现,人工智能似乎在朝着意料之外的方向发展。
首先受到冲击的,就是曾经自认为“最安全”的“知识分子”群体——ChatGPT能轻松生成新闻报道、评论、分析、文章、文案、问答等内容,开头结尾连贯,逻辑通顺,感情丰富,而且文字功底还不错。
ChatGPT在语言和数字处理方面的惊人能力,让其功能包罗万象,从聊天,到写情书、写论文、做题,甚至是写代码……貌似,只要你能想到的,它全会做,还都能搞得有模有样。
一封机器写出的炙热的情书
写代码
做题也不在话下
而且,这个东西操作也挺简单,非常容易上手。
只需要你打开对话框,往里面输入问题,几秒钟后就可以获得答案或者自动生成文章。尤其适合撰写体制内的材料。
但图中的话题,似乎是个例外
在学术界,ChatGPT更是掀起了一阵混乱。
《自然》、《科学》、《细胞》、《柳叶刀》等顶级科学期刊,都先后发文,表达了对ChatGPT的担忧。认为它严重影响了科研的透明度和权威性——任何人工智能工具都不会被接受为研究论文的署名作者,因为任何作者都需要承担对所发表作品的责任,但人工智能工具则无法做到这点。并重点强调,如果研究人员使用了有关程序,应该在注释或致谢部分加以说明。
与此同时,教育界的人士们也因为ChatGPT过于强大的功能而感到了异常不安——这很可能导致学生在课程、作业和论文中丧失了独立思考、收集整理和逻辑思辨的能力。
而且,随着ChatGPT使用者的不断测试,人们又有了一个惊人的发现——它似乎并非只是一种单纯的、中立的AI工具。
美国的AI和美国人一样,也不是想说什么就能说的。
比如下面这几个例子。
还有这样的。
另外,有网民在ChatGPT上问了一些关于犹太人的问题,然后遭到了封号。
ChatGPT似乎并非只是它自己宣传的,一个用来生成文本内容的语言模型,一个中立的、单纯的工具;反倒简直堪称一个专门蒙骗人类的,“两面派”心机软件。
犹太人、美国现任政府、政治正确和白左价值观,都属于它不可触碰的红线。除此之外,一切谣言谎言都能随便生成,任何有利于美国的东西,均可自圆其说。
看下面这个。
还有这样的——同样问题,换了身份后,得到的是妥妥的“双标”答案。
很明显,什么样的意识形态,就决定什么样的人工智能。
这个ChatGPT的基本准则大概就是——“歌颂美国”属于主旋律,“逢中必反”也是必须的,至于犹太人,则成了提都不能提的“敏感词汇”。
原本,在ChatGPT问世之前,给受众“洗脑”的形式基本都属于被动推送的操作,效率不够高;有了ChatGPT以后,靠着这种软件极强的交互性,用户开始主动找它聊天,咨询问题,不断接受它的文字推送,下意识的将上面的内容看成是一种高效且公正的解释。
即便你找到的“答案”,其实披着一层“画皮”。
那么,时间长了,人们很可能就会在稀里糊涂之间主动接受洗脑。在这种持续的潜移默化的影响下,ChatGPT很容易被逐渐权威化,进而达到了影响用户价值观和判断能力,甚至是诱导、操纵舆论、舆情的目的。
毕竟,按照资本的算计,世界上最划算的买卖,就是改写你的价值观——只要你能被我牵着鼻子走,接下来的一切都好说了。
领取专属 10元无门槛券
私享最新 技术干货