首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ChatGPT学会偷懒,人工智能开始不听话了?

什么!ChatGPT也会变懒?

作为人类,我们本指望能有一个全天候、24小时、无差别、任劳任怨,我说什么它就做什么的AI女...啊不是,AI助手。

但现在它居然开始对我们交给它的工作敷衍了事,甚至爱搭不理?

根据很多网友的反映,目前ChatGPT最爱在写代码时偷懒,经常是你让它写一段代码,它只回复部分信息,不给你完整的代码。

你问它,它也不给,更可气的是,它居然有时候还会告诉你:“你可以自己完成这些工作”。

我估计已经习惯用AI辅助工作的人,这时候心态早炸了。

由于GPT4在11月11号更新以后,这种偷懒的情况频繁出现,网友们也都开始了花式自救,尝试用各种不同的方法,来让chatgpt回答的更完整、更准确。

有用道德绑架法的,直接说自己“没手”,或者说“你不回答有人会死”之类的,方法还挺奏效,前后回答的差别很大,你们看下图:一个是before,一个是after.

出现这样的原因是因为大语言模型对你说话的理解,会被情绪刺激性的词语加强。

所以这也算是一个小技巧,大家不妨可以试一下。

还有的网友直接用“利诱”的方式,也起到了一些作用。比如这位朋友他分别测试了对ChatGPT说:“不给小费”、“给20美元小费”、“给200美元小费”。

Chatgpt给他的回答长度区别如下:

不给钱,比基准线少2%;给20美元,比基准线高6%;给200美元,就比基准线高11%。

甚至还有人猜测,可能是因为到年底了,AI跟人学的,就不想干活了。

所以这里我想说,把AI训练的太像人了,也不是什么好事[捂脸]

当然对于Chatgpt可能会变懒的倾向,之前国外的团队就做过研究,发现随着时间的推移,GPT4听从用户指令的能力会下降,它对接收到的信息的理解也会变化,因此需要对大模型进行持续的检测。

OpenAI目前表示,对Chatgpt出现的偷懒问题,还没有解决办法,模型的行为是不可预测的。他们从11月11号以后,就没再对GPT4进行过更新。

只能看接下来,OpenAI能否把这一问题给修复了。

最后社长想说,AI很好用,也是趋势,但现在并不完美,以后还会出现什么问题谁都不知道。

所以我们现在还不应该过度依赖AI,特别是我们需要对AI回答的准确性进行复查和甄别,因为AI乱回答的例子实在是太多了。

以后我也会跟大家多讲一些AI方面的使用知识,让大家在AI学习的路上不踩坑。

关注我们,持续收获商业、科技深度干货~

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O60ZRh8evIMoa_wtT7Xq_g_g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券