首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

GPT无所不能?4个认知误区需要知道

GPT从上市至今,发展的每一步都吸引着各界的关注,热度不减。全行业都看到了GPT的价值所在,但真正让GPT投入到工作中的时候,又出现了各种声音,比如文章质量不达标、方案太老套、内容有错等等。有这样的反差,是因为我们一开始对GPT的期望太高,太理想化,今天小编就来给大家解读一下GPT的4个认知误区。

误区一:GPT非常专业,可以完成高难度的工作。事实上它是一个语言预测模型,只可以续写

相对于市面上现有的一些人工智能产品,GPT的出现让大众对于AI的认知提升了一个层次。如其他人工智能产品只能完成特定的指令任务,比如“定闹钟”、“打开某个软件”、等等,没有理解能力,会经常出现一种现象:“没有理解您说的是什么,请换个说法试一试”。

大家使用GPT后,感受却不同,它能够精准的理解我们输入的指令,对于任务的完成度高,逻辑能力强。但这不代表任务的完成质量也一样高。

如图,向人工智能极客智言发出指令:请写一首经历过绝望又重见光明的歌

从它给的答案可以看出,GPT可以理解意思,首先它知道一首歌有前奏、主歌、副歌、导歌、间奏、尾奏等这些结构,也能将绝望到光明的这种经历写出来。但是,它创作出来的这首歌质量被不被专业人士认可,能不能传唱就得另说了。

误区二:GPT的知识非常丰富且正确,但其实模型中只有“参数”,输出的也可能是错误答案

很多人都会认为GPT有很大的知识储备,其实GPT是一个模型,模型中只有参数,它不会存储“知识”。GPT作为语言预测模型,出答案的过程是一个预测的过程,并不是查询知识的过程。

如下图提问:请讲一下红楼梦中关于黛玉葬花的故事

可以看出,GPT知道红楼梦,对人物也有一些理解,但是对于故事内容说的却不准确。通常情况下,GPT对于日常知识输出的还是很正确的,但一些小众的知识就会出现错误。

误区三:GPT 是自动学习,一直在进步。事实上,它是“人工”

GPT是一个语言模型,拥有的只是“参数”和模型,并不会主动学习接受“知识”,它有多智能,就说明有多“人工”。

我们使用的过程也并不是训练GPT的过程,而是在使用已经存在的数据参数。对于没有被“人工”参与的数据参数,GPT是给不出答案的。

如向极客智言提出的问题对比:请调出2023年上半年餐饮行业的相关数据和请调出2021年餐饮行业的相关数据

可见,GPT对于最新以及实时的一些数据是没办法做出的回答的。

误区四:GPT是工作中的工具,而不是工作的员工

当GPT的功能越来越多时,很多工作都开始“依赖”GPT,让它去做一些工作。但其实,GPT就像我们使用的电脑,它只是辅助我们工作的工具,可以让我们的工作效率更高,但并不能代替掉员工,做所有的工作。

GPT输出给我们的是原料,最终的成品还是需要使用者去加工,而且它给的都是泛泛的一些答案,而我们的工作只是360行中的一个,是不是适用,还要看我们自己如何适用。

以上就是小编整理的关于使用GPT过程中容易陷入的几个误区,希望可以帮助大家更好地使用GPT产品。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OMmC0vo5UcnZIU0AMoylJjOw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券