OpenAI终于开始解决目前最为人诟病的数据安全性问题了。ChatGPT的用户现在可以选择关闭聊天历史,避免自己输入的数据被用来训练ChatGPT的AI模型。相关设定可以在「设定(Settings)」当中的「数据控制(Data Controls)」中找到,包括一个「聊天历史与训练」的开关,以及输出数据和删除账号的选项。
不过就算关掉了历史与训练,OpenAI依然会储存你的输入内容30天的时间。OpenAI表示这是为了避免滥用,并且只有在有监管需求时,才会查看这些输入记录。过了30天之后,你输入的内容将会被永久移除。至于输出数据的选项,除了让你可以保留一份记录之外,也可以让用户更清楚了解ChatGPT究竟是收集了什么数据。
除了多这个控制之外,OpenAI还将在现有的ChatGPT Plus之外,新增一个「ChatGPT Business」的订阅层级。这个层级是以「需要更精确控制数据的专业人士」及「想更好地管理员工使用的企业」为对象,预设就是不会使用数据来进行训练的。这个新订阅层级将在「未来数个月」正式上线。
本月稍早,三名Samsung员工因为将敏感信息「泄露」给了ChatGPT而上了新闻,也凸显了使用聊天机器人时的数据控管问题,特别是企业机密。此次ChatGPT的改动,也可以视为是对类似情况的响应吧。
领取专属 10元无门槛券
私享最新 技术干货