首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI撰写的审稿惹争议,科学家的评价难辨真伪

今年4月初,匹兹堡大学神经学家Greg Siegle在一次会议上得知了一条令他感到不安的消息。他的一位美国国立卫生研究院(NIH)的同事表示,在撰写审查报告时将人工智能工具ChatGPT视为不可或缺的助手。该同事声称使用ChatGPT能够显著节省时间,只需将提案的部分内容如摘要、目标和研究策略等粘贴到AI工具中,并要求其生成相应的评估信息。

然而,根据《科学》报道,NIH和其他资助机构反对使用ChatGPT等在线生成AI工具进行分析和制定同行评议评论。从6月23日开始,NIH禁止使用这些工具,而澳大利亚研究委员会(ARC)也从7月7日起禁止使用AI生成的同行评议。许多其他机构也正在考虑采取相应对策。

NIH的一名发言人表示,他们已经成立了一个内部工作组来研究是否可以适度使用AI作为价值审查过程的一部分。资助机构对于保密性的重视至关重要。申请过程中,部分内容可能需要通过在线AI工具进行处理,这些信息将成为AI训练数据的一部分。NIH担心这些数据可能被发送、保存、查看甚至滥用。此外,批评人士也担心AI生成的评论可能存在偏见,因为它们只是从现有信息中提取,可能无法满足科学创新所需的创造力。NIH官员认为,这个过程中可能会丧失他们所重视的原创性思想,同时也可能面临科研成果被剽窃的风险。

对于NIH目前禁止使用AI工具进行同行评议的合理性存在不同意见。一方面,考虑到问题的敏感性和AI工具的新颖性,采取谨慎的措施是必要的;另一方面,一些研究人员认为AI工具可以提供改进评估过程的机会。随着时间的推移,随着技术的发展,情况可能会发生变化,但需要确保使用这些工具时遵守相关原则和准则。

微信扫描下方的二维码阅读本文

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OIMzLwo3Dnq_NjXgVLKo8R_w0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券