站长之家(ChinaZ.com) 7月27日消息:谷歌、微软等四家领先的人工智能公司于周三宣布成立了一个新的行业组织,旨在确定最佳的安全实践,并推动该技术在应对重大社会挑战方面的应用。
该组织强调,在政策制定者制定新规则之前,该行业可能需要继续自我监管。
Anthropic、谷歌、微软和OpenAI称这个名为Frontier Model Forum(前沿模型论坛)的新组织有四个主要目标,谷歌在一篇博文中概述了这些目标:
1. 推进AI安全研究,促进前沿模型的负责任开发,最小化风险,并实现对能力和安全性的独立、标准化评估。
2. 确定前沿模型的负责任开发和部署的最佳实践,帮助公众了解技术的性质、能力、局限性和影响。
3. 与政策制定者、学者、民间社会和公司合作,共享有关信任和安全风险的知识。
4. 支持开发能够应对社会最大挑战的应用程序,例如气候变化缓解和适应、早期癌症检测和预防以及打击网络威胁。
满足若干标准的组织可以加入该组织。这些标准包括开发或部署前沿模型,即“大规模的机器学习模型超越了目前最先进的现有模型的能力,并能执行各种各样的任务,”谷歌在博文中表示。他们还必须通过技术和机构方法表现出对安全的承诺。
该组织表示,在未来几个月内,将组建一个多样化背景的咨询委员会来指导其优先事项。创始公司将咨询民间社会组织,以制定其治理设计和资金筹集。
此举发生在政策制定者权衡何种适当的技术监管措施,同时又不会阻碍创新并让该国在AI竞赛中失去优势。
参议院多数党领袖查克·舒默(D-N.Y.)一直在带头努力制定一个AI立法框架,而其他很多涉及技术影响不同方面的法案已经被提出。白宫还一直在与行业领袖和AI专家举行会议,并最近宣布领先企业同意自愿承诺安全开发AI。
谷歌和 Alphabet 全球事务总裁肯特·沃克 (Kent Walker) 表示:「我们很高兴与其他领先公司合作,分享技术专业知识,以促进负责任的人工智能创新。我们都需要共同努力,确保人工智能造福每个人。」
微软副董事长兼总裁 Brad Smith 表示:「创造人工智能技术的公司有责任确保其安全、可靠并始终处于人类控制之下。这一举措是将科技行业聚集在一起,负责任地推进人工智能并应对挑战,使其造福全人类的重要一步。」
OpenAI 全球事务副总裁 Anna Makanju 表示:「先进的人工智能技术具有给社会带来深远影响的潜力,而实现这一潜力的能力需要监督和治理。至关重要的是,人工智能公司——尤其是那些致力于最强大模型的公司——必须在共同点上保持一致,并推进深思熟虑且适应性强的安全实践,以确保强大的人工智能工具拥有尽可能广泛的利益。这是一项紧迫的工作,本论坛完全有能力迅速采取行动,以提高人工智能安全水平。」
Anthropic 首席执行官 Dario Amodei 表示:「Anthropic 相信人工智能有潜力从根本上改变世界的运作方式。我们很高兴与行业、民间社会、政府和学术界合作,促进该技术的安全和负责任的开发。前沿模型论坛将在协调最佳实践和分享前沿人工智能安全研究方面发挥至关重要的作用。」
领取专属 10元无门槛券
私享最新 技术干货