首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

清华大学金融科技研究院副院长魏晨阳:大模型以超级助理的形式,会给千行百业带来降本增效的巨大机遇

北京商报讯(记者 李秀梅)12月8日,由北京商报社主办的2023年度(第九届)北京金融论坛在北京召开。清华大学金融科技研究院副院长魏晨阳在演讲中表示,在过去不到70年的时间里,在ChatGPT之前,已经有很多人工智能惊艳时刻:1997年,深蓝把全球国际象棋大师打败了;2011年IBM的Waston也有非常惊人的业绩;图像识别方面,8年前人工智能超越了人类;2016年AlphaGo打败了全球围棋1号高手;人工智能在不同时刻以不同方式都已经向我们展现了其能够达到、超越人类能力。而以ChatGPT为代表的消费级应用的面世,极大提升了我们对AI价值的感知和想象空间。

“现在全球对AI赋能充满了渴望,处在积极尝试的活跃期。”魏晨阳引用2001年诺贝尔经济学奖迈克尔斯宾塞教授的观点表示,目前我们处在非常令人振奋的伟大新起点。

魏晨阳表示,中观来看,大模型时代,将来在落地的场景上,可能会最大地影响未来的生活、工作以及研究、娱乐模式。大模型以超级助理的形式,会给千行百业带来降本增效的巨大机遇。

具体到金融行业,魏晨阳表示,金融行业数字化进程基本走在大部分实体经济的前面,这是因为金融行业本身对于数字化接受程度高,以及金融行业比较早通过科技赋能提升服务跟产品的质量。

魏晨阳用保险行业举例表示,每一类保险都要经过产品设计、销售、定价承保、保单管理、出事的理赔全流程,更不用说有寿险、产险、健康险,每个保单每个环节就是一个场景。如果把人工智能赋能到这些场景,会看到保险业态里可能会有很多超级代理人、人工智能AI代理的应用场景落地。

谈及大模型落地的风险及挑战,魏晨阳表示,数据方面,数据质量、规模和多样性会影响大模型的效果和性能;数据获取、处理、清洗和标注等需大量资源,要建立起完善的数据采集、处理、管理和安全等体系;数据资源和数据处理能力不足,会限制大模型的应用效果和准确性。隐私方面,大模型的训练和应用过程中可能涉及用户的隐私信息及企业的敏感数据,需要采取措施保护用户隐私和企业数据安全。算力则是大模型训练的另一个刚需。

对于应对措施及建议,魏晨阳认为,治理方面,未来要用数据质量保证大模型训练效果,对于隐私要有一定明确的界定,避免有害输出,也就是大模型界广泛谈的对齐机制,跟价值观对齐、道德伦理对齐,另外要尊重知识产权,加强版权保护。场景方面,当前科技公司有很强的能力,但是他们结合具体金融机构场景落地的时候,对业务场景和赋能痛点还缺乏必要了解。很多大厂有自己的场景跟数据,但是出于种种约束,与科技公司能力还不能很好地匹配。这需要研发能力结合场景,首先需要中性的创新平台,实现有效率的交流和对接。在微观上,要关注创新的起点与退出,全球90%以上创业公司最终退出是被大企业买掉,很多连续的成功创业者,可以持续专注在零到一的创新点,通过并购及时实现退出,把注意力放在下一个创新上。活跃稳定的并购机制,对形成和保持纯粹聚焦的创新氛围,十分重要。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OHdmATbgYN3tYp5N_Kv1aFOA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券