大语言模型是否和区块链一样是一场华丽的难以落地的美梦?或者说是否会快速掉入摩尔定律后期的挤牙膏状态?您怎么看待?
区块链,元宇宙,LLM,都是这些年风口的一些技术。
朋友,你可以调研一下:
区块链,现在有哪些典型应用场景。
元宇宙,现在有哪些典型应用场景。
LLM,现在有哪些典型应用场景。
你就会知道,LLM是不是一场华丽的的美梦了。
大模型从2022年11月份ChatGPT发布的出圈到今天短短两年,落地的场景已经非常多,包含但不限于文学作品的创作、AI搜索、各种各样的智能体等,包括我们所在的程序员行业也没有免于被大模型折叠,目前我个人的代码AI含量已经无限接近于100%。
问题作者说落地难,我理解当下让大模型能输出一个正确性和可靠性为100%的内容,那的确是困难的,但当前解决这些问题的工程手段有很多,像多Agent之类的,通过多种不同角色的Agent相互协同和验证输出结果,让结果最大程度逼近正确。大致正确,这个程度在很多领域已经可用,虽然不是最终答案,但已经可以对原有的生产过程加速巨大,也能算是落地的一种方式了。
当下To C的产品形态中,像ChatGPT, 元宝这类聊天机器人算一种成熟的形态了,一定程度上把用户的搜索习惯都改变了,通过聊天来获取更多的信息和答案。
在To B的场景中,正确性和可靠性较为看重,这块会随着agentic workflow体系的成熟会有更多能看得到的B端落地场景,而当下B端的场景,较为成熟悉的不是有RAG嘛?
AI一天,人间一年,AI正在极速的发展着,大模型把智能这件事情变成了水电媒一样的基础设施(token)的存在,进程已经展开,我们都回不去了。
两者有本质不同。
区块链(BC)更像一种偏于一隅的技术,可以解决各行各业中所面临的数据安全保障、可信数据空间构建等问题。
而大语言模型(LLM)的发展潜力巨大,他是一种系统的技术体系,解决全局性的革新,会深入各行各业的业务场景、智能化提升、云和基础设施等方方面面;但它当前也面临着许多挑战,如典型业务场景的选择、提高模型的训练效率、降低推理成本、提高模型的泛化能力等。
大语言模型并不完全遵循摩尔定律,但一定程度上受限于GPU、NPU等硬件技术的创新;本质上,大语言模型是基于智能硬件(xPU等)、调度和管理平台、算法、数据、应用场景等等各块木桶拼板构建的全集,是人工智能发展的必然阶段。