首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

作者头像
新智元
发布于 2025-04-09 02:04:02
发布于 2025-04-09 02:04:02
1230
举报
文章被收录于专栏:新智元新智元

员工困在繁琐的报销流程里,沟通时间长、费用报销难、降低工作效率,财务埋在一叠叠繁杂的报销单中,核验工作量大、费控规则难执行、数据整理滞后、预算管控难以落实……这些都是企业管理者面临的困局。

如果说员工平时差旅报销金额还算小的话,那么占据企业支出大头的行政采购所面临的报销问题更难控制。《2021爱分析·中国采购数字化趋势报告》中的最新数据显示,在企业的全部支出成本构成中,有60%的成本来自于采购。

采购报销和成本的控制一直是企业支出管理的难点,在整个供应链管理流程中是“上游控制”的主导力量。支出方式过于多样化、供应商管理零散、财务人力投入大都会导致信息的不对等,影响后续发票的报销以及成本管控。

如何能让预算管控和费用报销不再是纸上谈兵?报销只是其中的一个行为,真正的内涵在于管理,构建出“点、线、面”立体的费用管控体系,是对管理学的高度认知和总结。

始于费控,高于费控

费控即费用控制,它的对象是费用,核心目的是管控,了解企业的钱都花在哪?花钱之后是否能达到我们预期的价值?怎样用最少的钱实现最大效果?

2016年企业财务支出管理SaaS平台涌现,很多服务商都是直接从报销SaaS起家的,所做的也是单纯对报销流程的简化处理。要知道报销的形式永远可以变,但企业支出管理的本质是不会变的。

某家大型系统集成服务提供商,涉足智能交通、自动化系统、数字化医疗等多个行业,项目基本都是规模大、周期长,因此对于费用管控更加严格。

企业在经过一段时间ERP预算管理后仍然出现很多问题,比如费用实际发生时不能按照预算执行;部门与部门间费用混淆不清、权责不明;项目按照月度管理,无法知道具体时间费用情况;管理层无法了解支出明细,影响审批;缺乏一体化的支出管控工具等。

由此可见,优化管理理念是重中之重,建立一体化的管控体系才能彻底解决长期以来面临的问题。

“分贝通”模式,干掉报销

与同行者用“费控”切入不同,分贝通立志从源头上做场景化的分控管理,他们的广告语为“干掉报销”,主打“费控+支付+场景”的支出化管理平台,在多场景的企业支出环节做到报销、支付的一体化管理。

一个视频了解下~

分贝通一直深度布局供应链上游的各类供应商,包括机票、酒店、采购、快递、外卖等,自营商旅业务的年GMV已经位列中国商旅行业前五,经历了从API连接2C平台、B2B/代理、直连终端供应商再到自营直采的扩充过程。

分贝通通过API资源对接+直连+自营三管齐下的场景化运营,覆盖了中国1600多个城市,对接40+航空公司、70万+九点、七大打车平台、90万+餐厅……几乎涵盖日常差旅必要支出的所有场景,一个平台全部搞定。

以往报销需要经过垫付、收集发票、申请报销、财务审核、报销打款等多个步骤,现在只需要通过分贝通,企业的支出管理明细就能一目了然。

1、预算管控

传统企业预算制度标准很难严格执行,数据滞后根本无法了解预算实际情况,传统的费控报销软件虽然通过线上流程提高了报销效率,但属于事后报销,根本无法严格管理。

分贝通采用了事前审批、事中支付、事后结算的形式,在整体支出流程中扮演着管控者的角色,因人而异的费用标准,提前预设在系统中,让企业的费用标准真正落地实施,能有效的实现对预算的严格把控。

2、费用控制

通过对接架构、权限、审批、规则、预算等OA办公系统,把费用控制在合理的范围之内,对接支付系统,不需要员工垫付,分贝通企业支出管理平台企业支付覆盖90%的业务场景,实现企业直接支付,有利于事后对数据的监控。

3、财务管理

分贝通打通APP支付、虚拟卡支付、网银付等多种支付方式,大大减少了财务记账的工作量,加强了员工报销的管理及财务人员的工作效率,缩短了报销的周期和质量,降低出错率,提高员工的满意度。

4、采购一体化协同

在行政采购中,分贝通对内实现了财务结算的全流程一体化协同,对外也实现了与供应商管理的一体化协同,集合采购申请、商城、企业支付、统一结算的采购支出管理全流程。

从核心价值来看,如何让预算管控和费用报销不再是纸上谈兵,就要实现企业内部、行政部、业务部以及财务部的一体化协同,实现企业与外部各大供应商的一体化协同,构建专业的支出管理体系。

这个体系将极大解决企业在传统运营中所遇到的成本高、费控难、效率低、不透明问题,实现最大限度的降低成本,迈向数字化转型的新行列。

云巴巴严选云,一站式综合科技服务平台,助企业数字化轻松转型。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
LLM 大模型学习必知必会系列(一):大模型基础知识篇
2023 年,随着 LLM 技术的发展,中国模型研究机构的开源模型迎来了爆发式的增长:
汀丶人工智能
2024/05/11
3.6K0
LLM 大模型学习必知必会系列(一):大模型基础知识篇
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
最近,来自Technion、谷歌和苹果的研究人员发现,LLM「真实性」的信息集中在特定的token,而且并得均匀分布。
新智元
2025/02/14
1230
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
就在刚刚,UCL、Cohere等机构的研究人员发现:在LLM执行推理任务时,竟存在着一种「程序性知识」。
新智元
2025/02/15
890
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
威斯康星麦迪逊大学和谷歌的研究人员最近开发了一个名为ASPIRE的系统,可以让大模型对自己的输出给出评分。
新智元
2024/01/23
4440
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型
在模型训练过程中,数据及数据处理是最为重要的工作之一。在当前模型训练流程趋于成熟的情况下,数据集的好坏,是决定了该次训练能否成功的最关键因素。
汀丶人工智能
2024/05/26
4.9K0
LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型
【知识】 LLM中的Scaling Laws是什么?
近年来,随着大语言模型(LLM)的参数规模和训练数据量呈指数级增长,研究者发现模型性能与规模之间存在可预测的扩展规律(Scaling Laws)​。所谓Scaling Law,指的是模型性能(如测试集上的损失或准确率)如何随着模型参数数量、训练数据量以及计算量的增加而变化的经验性定律​。这一概念最初由OpenAI在2020年的开创性工作提出​。掌握Scaling Laws有助于我们在训练LLM时进行模型大小、数据规模和算力投入之间的权衡,指导训练方案的设计​。
小锋学长生活大爆炸
2025/04/09
1.1K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
摘要主要介绍了大型语言模型(LLMs)在实际应用中面临的挑战,比如幻觉、知识更新缓慢和答案缺乏透明度等问题,并提出了检索增强生成(Retrieval-Augmented Generation,RAG)作为一种解决方案。RAG通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性,减少模型产生的幻觉,尤其是在知识密集型任务中。
唐国梁Tommy
2023/12/21
17.5K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
LLM 大语言模型定义以及关键技术术语认知
LLM(Large Language Models)是基于 Transformer 架构(可以理解为不同寻常的大脑)的深度神经网络,通过海量文本数据训练获得语言理解和生成能力。其核心特征包括:
山河已无恙
2025/03/03
4551
LLM 大语言模型定义以及关键技术术语认知
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。
deephub
2024/06/03
3950
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
LLM 系列(五):模型训练篇
大语言模型(Large Language Model, LLM)的训练是人工智能领域最复杂、最资源密集的任务之一。从2017年Transformer架构的提出,到2022年ChatGPT的横空出世,再到2025年DeepSeek-R1的突破性进展,LLM的训练技术经历了快速的演进和深度的优化。
磊叔的技术博客
2025/07/02
8370
LLM 系列(五):模型训练篇
LLM 的幻觉到底是什么,有什么办法解决?
LLM 时常会出现一些神奇的现象—— 幻觉 Hallucination ,在 AI 领域,幻觉是指模型生成的信息可能 不真实 或 不准确 ,这是一个常见的问题,而 Truthfulness 指的是模型输出的 真实性 或者叫 可靠性 ,显然如果模型输出的真实性越高,那么出现幻觉的概率就是越低的。
NewBeeNLP
2024/02/28
1.8K0
LLM 的幻觉到底是什么,有什么办法解决?
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
“ 本文及上一篇综述了最近关于语言模型中幻觉问题的研究进展,主要集中在ChatGPT发布后的研究。文章讨论了如何评估、追踪和消除幻觉,并探讨了现有挑战和未来方向。希望本文能为对LLM幻觉问题感兴趣的朋友提供有价值的资源,促进LLM的实际应用。”
技术人生黄勇
2024/07/19
1.1K0
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
最近,谷歌DeepMind和斯坦福的研究人员发现:大模型在处理逻辑推理任务时,问题中信息呈现的顺序对模型的表现有着决定性的影响。
新智元
2024/02/26
2420
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
最近,来自CAIS、CMU、斯坦福、康奈尔、马里兰、宾大等机构的学者又有了令人震惊的发现——
新智元
2023/10/08
3510
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略
2024年7月7号,OpenAI安全团队负责人,Lilian Weng分享了一篇博客介绍了LLM中幻觉的由来、检测和对抗策略,分享给大家,以下为翻译全文。
AgenticAI
2025/03/18
2590
OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略
IBM | 提出具有「情景记忆」的大模型:Larimar,无需训练,可快速更新模型知识!
随着大语言模型应用场景的不断拓展,如何高效、准确地更新大语言模型 (LLM) 知识是当前急需解决的问题。为此,IBM研究人员提出了一种新型架构Larimar,其设计灵感来源于大脑,特别是海马体的情景记忆功能。Larimar通过分布式情景记忆系统增强了LLMs的能力,使知识更新既高效又准确。这种记忆系统支持动态、一次性的知识更新,无需进行计算成本高昂的重训练或微调。
ShuYini
2024/03/25
4130
IBM | 提出具有「情景记忆」的大模型:Larimar,无需训练,可快速更新模型知识!
全景解读 LLM 后训练技术
本文介绍了大语言模型的后训练技术,包括微调、强化学习和测试时扩展,探讨其挑战与未来方向,并提供实践指南。
一点人工一点智能
2025/03/20
2750
全景解读 LLM 后训练技术
Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈
一提scaling law,人们重点关注的是参数规模、数据量等因素,却忽视了「精度」这一关键变量。
新智元
2025/02/14
1480
Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈
分享10篇优秀论文,涉及LLM对齐、LLM评估、LLM隐私、RAG增强等热门话题!
紧跟技术发展趋势,快速了解NLP领域最新动态。今天继续给大家分享10篇最新论文,其中涉及大模型幻觉、大模型对齐、大模型剪枝、大模型隐私、大模型毒性、大模型评估、RAG能力增强、Transformer架构优化等热门研究方向。
ShuYini
2024/01/31
8860
分享10篇优秀论文,涉及LLM对齐、LLM评估、LLM隐私、RAG增强等热门话题!
goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性
LLMs(大型语言模型)能够记忆并重复它们的训练数据,这可能会带来隐私和版权风险。为了减轻记忆现象,论文作者引入了一种名为"goldfish loss"的微妙修改,在训练过程中,随机抽样的一部分标记被排除在损失计算之外。这些被舍弃的标记不会被模型记忆,从而防止模型完整复制训练集中的一整个标记序列。
deephub
2024/07/01
1820
goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性
推荐阅读
LLM 大模型学习必知必会系列(一):大模型基础知识篇
3.6K0
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
1230
AI做数学学会「动脑子」! UCL等发现LLM「程序性知识」,推理绝不是背答案
890
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
4440
LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型
4.9K0
【知识】 LLM中的Scaling Laws是什么?
1.1K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
17.5K0
LLM 大语言模型定义以及关键技术术语认知
4551
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
3950
LLM 系列(五):模型训练篇
8370
LLM 的幻觉到底是什么,有什么办法解决?
1.8K0
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
1.1K0
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
2420
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
3510
OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略
2590
IBM | 提出具有「情景记忆」的大模型:Larimar,无需训练,可快速更新模型知识!
4130
全景解读 LLM 后训练技术
2750
Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈
1480
分享10篇优秀论文,涉及LLM对齐、LLM评估、LLM隐私、RAG增强等热门话题!
8860
goldfish loss:减少训练数据泄漏,提高大语言模型输出的多样性
1820
相关推荐
LLM 大模型学习必知必会系列(一):大模型基础知识篇
更多 >
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档