首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >知识提示和图模互补正在流行:万字拆解大模型时代如何构建下一代“知识护城河”

知识提示和图模互补正在流行:万字拆解大模型时代如何构建下一代“知识护城河”

原创
作者头像
走向未来
发布2025-10-18 10:12:56
发布2025-10-18 10:12:56
1360
举报

图模互补与知识提示:大模型时代知识工程的机遇、挑战与未来

走向未来

我们正处在一个由生成式人工智能(Generative AI)和大语言模型(LLM)驱动的技术变革时代。这场变革正以前所未有的深度和广度渗透到各个行业,尤其是在知识密集型领域,其影响尤为深远。知识工程(Knowledge Engineering, KE),作为一门致力于以机器可读方式捕获、表示和维护人类知识的学科,正站在这次变革的风口浪尖。知识图谱(Knowledge Graphs, KGs)作为结构化知识的核心载体,长久以来一直是构建智能系统的基石。如今,LLM的崛起不仅为知识工程带来了前所未有的机遇,也引入了全新的复杂性。

LLM与知识工程的融合,催生了一种新的实践范式——“知识提示”(Knowledge Prompting)。这指的是知识工程师利用精心设计的提示(Prompts),引导LLM从其庞大的非结构化信息中提取、生成和推理出结构化的知识,用于知识图谱的构建和维护。这种新范式预示着知识工程的效率将得到极大提升,但同时也伴随着一系列严峻的挑战。知识的准确性如何保证?生成结果如何评估?工程师的技能需求发生了怎样的变化?以及,我们如何确保整个过程是负责任且合乎伦理的?

本文基于英国伦敦国王学院、德国耶拿大学、西班牙马德里理工大学等多个研究机构的最新论文、W3C的《PROV-O: The PROV Ontology》等多个成果,(这些参考资料可以从“走向未来”【https://t.zsxq.com/xpWzq】知识星球中获取),深入剖析生成式AI/大模型与知识工程结合所带来的变革,系统地探讨从业者在使用生成式AI时所面临的核心挑战,分析他们为适应新技术所必须具备的新技能,审视现有评估方法的局限性并探索新的评估范式,最后,本文将讨论伦敦国王学院提出的旨在增强透明度和可信度的实践框架——“知识图谱卡片”(KG Cards)。通过这次深入的探索,期望为知识工程师、AI研究人员以及技术决策者提供一幅清晰的路线图,以更好地驾驭这场由生成式AI引领的知识工程革命。

生成式AI与知识工程的交汇

为了理解生成式AI带来的冲击,我们首先需要审视知识工程的现有格局及其与AI技术的复杂互动。传统的知识图谱生命周期是一个涉及多方协作、兼具手动与自动流程的复杂过程。根据领域内的共识,知识图谱的生命周期通常包含四个核心阶段:

  1. 需求收集(Requirement Collection):此阶段由知识工程师与领域专家协作,明确知识图谱的范围、目标用户和成功标准。通过用户故事和能力问题(Competency Questions)等方式,定义知识的边界和应用场景。珠峰书《知识图谱:认知智能理论与实战》一书提出的“六韬法”的“龙韬:场景”中系统探讨了应用场景中如何探讨所需的知识图谱及知识边界等问题。
  2. 知识图谱构建(Knowledge Graph Construction):这是知识工程的核心环节。它涉及本体工程(Ontology Engineering)——设计定义域内概念、属性和关系的模式(Schema/TBox),以及知识集成——从各种异构数据源(结构化、半结构化、非结构化)中提取实体、关系和事实,形成实例数据(ABox)。此过程大量依赖自然语言处理(NLP)技术,如命名实体识别(NER)、关系抽取(RE)和实体链接(Entity Linking)。同时,众包和协作编辑平台(如Wikidata)也成为大规模构建知识图谱的重要途径。珠峰书《知识图谱:认知智能理论与实战》的第2章《知识图谱模式设计》、第3章《实体抽取》和第4章《关系抽取》等系统介绍了如何构建知识图谱。
  3. 知识图谱维护(Knowledge Graph Maintenance):知识是动态变化的,知识图谱必须持续更新。维护阶段包括知识的丰富(如链接到外部开放数据)、推理(通过逻辑规则或神经符号方法发现新知识,参考珠峰书《知识图谱:认知智能理论与实战》一书的第6章《知识计算》和第7章《知识推理》)和精炼(如链接预测、不一致性检测和错误修正)。
  4. 知识图谱部署与应用(Knowledge Graph Deployment):最终,知识图谱通过端点(如SPARQL)对外提供服务,支撑各种智能应用,例如搜索引擎、问答系统、推荐系统以及近年来兴起的检索增强生成(Retrieval-Augmented Generation, RAG)系统,参考灯塔书《知识增强大模型》和珠峰书《知识图谱:认知智能理论与实战》一书的第8章《知识图谱行业应用》。

在这个生命周期中,知识工程师、机器学习专家、领域专家、数据工程师乃至众包工作者等多种角色相互协作,共同确保知识图谱的质量和效用。LLM的出现,正以前所未有的方式颠覆上述的每一个环节。它不仅仅是作为现有NLP工具的升级版,更是一种能够执行端到端知识密集型任务的新兴力量。

LLM与知识图谱之间形成了一种共生关系:一方面,LLM极大地增强了知识图谱的构建和维护能力。例如,它可以直接根据用户故事生成能力问题,甚至初步的本体设计;能够从非结构化文本中高效地抽取出高质量的三元组;还可以用于知识补全,预测知识图谱中缺失的链接。另一方面,知识图谱也为LLM提供了重要的支持。高质量的知识图谱可以用于训练、增强(如通过RAG为LLM提供实时、准确的外部知识以减少“幻觉”)和评估LLM。

这种新兴的共生关系是知名学者王文广的灯塔书《知识增强大模型》中反复强调的核心思想。作为一名在AI芯片、大模型训练与产业应用领域拥有丰富实践经验的高级工程师,王文广将这种结合系统性地总结为“图模互补应用范式”。灯塔书的第八章详细阐述了知识图谱如何为大模型带来确定性、可追溯性和强大的逻辑推理能力,而大模型则赋予了知识图谱无与伦比的自然语言交互和知识抽取能力。这一理论框架不仅深化了我们对二者关系的理解,更为从业者提供了一套清晰的、可落地的实践指南,指导如何在实际项目中发挥“1+1>2”的协同效应。

这种深度融合催生了“知识提示”这一核心实践。知识工程师的角色正在从传统的“建模者”和“集成者”,转变为与AI协作的“引导者”和“验证者”。他们需要设计出能够精确引导LLM思维链、激发其内部知识并以结构化格式输出的提示。这不仅是一项技术挑战,更是一门艺术。

知识工程师的核心挑战:驾驭不确定性

尽管前景广阔,但在实践中,知识工程师们普遍反映,将生成式AI融入日常工作流程充满了挑战。这些挑战集中在数据、提示和评估三个方面,核心都指向了如何驾驭LLM内在的不确定性。

挑战一:数据集的困境

在任何数据驱动的任务中,获取高质量的数据集都是首要任务。在知识工程任务中,数据集既是构建知识图谱的原材料,也是评估模型性能的基准(Ground Truth)。然而,参与研究的工程师们发现,为特定的、前沿的知识工程任务(如利用LLM进行本体对齐或推理)寻找合适的、带有标注的公开数据集极为困难。这种数据稀缺性不仅拖慢了项目进度,也使得模型的验证变得棘手。

有趣的是,挑战中也蕴含着机遇。一些工程师指出,LLM本身或许就是解决数据集问题的答案。他们认为LLM在从非结构化文本中提取概念、关系甚至约束方面表现出巨大潜力,理论上可以用来快速“合成”或“创建”任务所需的初始数据集。然而,这又引出了一个循环问题:如何验证由LLM生成的数据集的质量?这凸显了在生成时代,数据获取与数据验证之间相互交织的复杂关系。

挑战二:提示工程的艺术与科学之争

提示(Prompting)是与LLM交互的核心。然而,参与者们普遍认为,设计高效的提示是一项极具挑战性的工作。这主要体现在以下几个方面:

  • 耗时的迭代过程:为了获得理想的输出,工程师们需要反复尝试和调整提示的措辞、结构和示例。这个过程极其耗时,且缺乏系统性的方法论指导。
  • 一致性难题:即便找到了一个看似有效的提示,LLM的输出也常常缺乏一致性。对于需要自动化处理成千上万次调用的场景,这种不一致性是致命的,常常导致脚本中断或结果质量参差不齐。输出格式的微小语法错误也可能破坏整个自动化流程。
  • 不可复现性:一位受访者将提示工程描述为“不那么科学”的活动。由于LLM的黑箱性质和数十亿参数带来的复杂性,即使是完全相同的提示,在不同时间也可能产生不同的输出。这种不可复现性严重挑战了科学研究和工程实践的基本原则。

对于这一挑战,工程师们的看法出现了分歧。一些人认为,随着经验的积累和社区“提示模板”的出现,这一问题可以得到缓解。而另一些人则认为,这暴露了LLM作为工程工具的根本缺陷,其内在的不可控性使其难以在严肃的生产环境中被完全信任。

挑战三:评估的迷雾

在所有挑战中,评估(Evaluation)被认为是最大、最根本的障碍。传统的知识工程任务有相对明确的评估指标,如本体的逻辑一致性、知识抽取的精确率和召回率等。然而,当引入LLM后,评估变得异常复杂。

  • 缺乏基准:对于许多利用LLM的新兴任务,如“从一段描述生成本体”,根本不存在所谓的“黄金标准”(Gold Standard)可供比较。评估在很大程度上依赖于领域专家的手动审查,这既昂贵又主观。
  • 手动评估的局限:即便有专家参与,手动评估也面临巨大挑战。评估一个本体的好坏,不仅要看其是否准确反映了领域知识,还要看其结构是否合理、是否易于扩展和推理。这些都不是简单的对错判断。
  • 传统指标的失效:当LLM的输出是生成性的自然语言文本(如生成的能力问题)或包含了其训练数据中的额外知识时,传统的基于精确匹配的指标(如F1分数)就显得力不从心。例如,LLM在被要求从“X出生在Y”中提取三元组时,除了生成预期的(X, 出生地, Y),还可能生成(Y, 是一个, 国家)或(Y, 属于, 欧盟)。这些额外知识可能对补全知识图谱很有价值,但如何自动评估其准确性和相关性,是一个悬而未决的问题。同样,如何评估LLM错过了哪些本应在文本中但未被提取的知识,也超出了传统评估框架的范畴。

总而言之,知识工程师们发现,与LLM的互动不仅仅是技术问题,更是一个关于如何管理不确定性、建立信任和量化价值的深刻挑战。

重塑评估范式:在生成性语境下衡量成功

评估的困境迫使我们必须重新思考,在生成式AI辅助的知识工程中,“成功”到底意味着什么。研究中的知识工程师们不仅指出了现有评估方法的不足,还提出了一些富有启发性的新方向。工程师们普遍认为,现有评估技术不足以应对LLM带来的挑战,主要原因在于:

  1. 输出格式的非结构化:LLM的原始输出是“字符串”,即便通过提示要求其生成JSON或OWL等结构化格式,也常常因为格式错误或内容不一致而需要大量后处理工作。如何直接评估这些半结构化或错误的“生成性文本”的质量,目前缺乏有效工具。
  2. 多样性与相似性问题:LLM的输出具有多样性。对于同一个任务,它可能生成多个语义上相似但表达方式不同的有效答案。而传统评估方法多依赖于精确匹配,无法很好地处理这种语义等价性,导致评估结果偏低。
  3. 对“额外知识”和“缺失知识”的无力:如前所述,现有方法难以评估LLM生成的、超出输入文本范围但可能正确的知识,也无法量化LLM未能从输入中提取出的隐含知识。

面对这些局限,工程师们提出了多种创新的评估思路,这些思路超越了单纯的准确性度量,更加关注实用性、健壮性和人机协作效率。

  • 构建黄金标准与工具集:对于本体设计等任务,一个可行的方向是社区共同构建一套高质量的、跨领域的黄金标准本体,作为评测的基准。此外,可以开发专门的工具包,让LLM学会使用类似OntoClean或OOPS!这样的工具,对它自己生成的本体进行自动化的逻辑和质量检查。
  • 真实场景下的性能测试:有工程师建议,评估应更多地关注知识图谱在真实应用场景中的表现。例如,衡量一个由LLM辅助构建的知识图谱在支持下游查询时的效率(每秒查询数)、数据一致性以及查询的简洁性。这种面向应用的评估更能反映其商业价值。
  • 借鉴其他领域的先进技术
    • 事实核查(Fact-checking):对于LLM生成的额外知识,可以引入事实核查技术,通过链接到权威信源来验证其真实性。
    • 对抗性算法(Adversarial Algorithms):可以设计一个攻击者LLM,专门用来寻找构建者LLM所生成知识的漏洞和矛盾。如果知识图谱能够经受住这种对抗性的考验,其健壮性就得到了证明。
    • 自博弈(Self-play):借鉴强化学习中的概念,可以让一个LLM针对同一问题生成多种不同的答案(如多个版本的本体设计),然后让它自己去比较、评审这些答案,最终投票选出或融合出一个更优的方案。
  • 转向“用户满意度”评估:多位受访者提出了一个重要的观点:或许我们应该改变评估的焦点,从追求绝对的正确性转向优化用户满意度。他们认为,LLM的核心价值在于作为人类的智能助手,能够将知识工程师从繁琐的重复性工作中解放出来,比如起草能力问题、生成代码模板等。在这种人机协作的模式下,评估的重点应该是LLM提供的建议是否有用、是否能激发人的灵感、是否显著提升了工作效率。最终的评估标准,是与AI协作的人类专家的满意度和生产力。

这些新颖的观点标志着知识工程评估理念的一次重要转变:从单一、静态的准确性度量,走向一个更多元、动态、以人为中心的综合评估框架。

知识工程师的技能演进:人与AI的共舞

生成式AI的融入,正在深刻地重塑知识工程师的技能需求。未来的知识工程师不再仅仅是知识的建筑师,更需要成为驾驭强大AI工具的指挥家。研究揭示了在新时代下,哪些技能依然重要,哪些技能亟待培养。

尽管技术日新月异,一些基础技能的重要性反而更加凸显:

  • 深厚的本体工程知识:对本体设计原则、描述逻辑和知识表示的深刻理解,是设计高质量提示、定义任务目标和评估LLM输出质量的基础。没有这些知识,工程师将无法为LLM提供有效的上下文,也无法判断其生成内容的优劣。
  • 沟通与协作能力:知识工程本质上是跨学科的协作。在团队中清晰地解释技术概念、理解领域专家的需求、引导项目向正确方向发展的能力,依然至关重要。

与此同时,一系列与生成式AI直接相关的新技能正成为知识工程师的新标配:

  • 高级提示工程(Prompt Engineering):这无疑是本次研究中被反复提及的最关键的新技能。它远非简单的试错,而是一项需要理解LLM工作原理的系统性工程。优秀的提示工程师需要知道如何构建提示的不同组成部分,例如:
    • 角色分配(Persona):赋予LLM一个专家角色(如“你是一个生物信息学领域的本体工程师”)。
    • 任务描述(Task Description):清晰、无歧义地描述任务。
    • 少样本学习(Few-shot Learning):在提示中提供几个高质量的示例,引导LLM理解期望的输出格式和内容。 有趣的是,工程师们对提示工程的看法存在分歧。一些人认为它门槛不高,任何开发者都能掌握;而另一些人则认识到其复杂性和深度,认为精通提示工程是发挥LLM能力的关键,并渴望学习更多高级技巧。
  • 技术与编程能力:与LLM的高效互动越来越多地依赖于编程。通过API(而不是图形界面)与LLM交互,可以实现大规模、自动化的知识处理。因此,熟练掌握Python等编程语言,熟悉Hugging Face、PyTorch等模型库,以及使用Git等版本控制工具进行协作开发的能力,变得越来越重要。
  • 硬件与计算资源知识:对于需要对LLM进行微调(fine-tuning)以适应特定领域的高级任务,了解如何使用GPU集群等高性能计算资源也成为了加分项。

研究也清晰地揭示了当前知识工程师群体中存在的技能鸿沟。许多传统的语义网(Semantic Web)专家缺乏系统的NLP背景,这使得他们在理解和应用高级提示技术时感到吃力。反之,许多具备强大NLP和机器学习背景的工程师,又可能缺乏对本体论和知识表示形式化方法的深入理解。未来的知识工程教育和培训,必须致力于弥合这一鸿沟,培养兼具两种技能的复合型人才。为了弥合这一差距并始终站在技术前沿,持续学习和社群交流变得不可或缺。强烈建议加入最具价值知识星球“走向未来” (https://t.zsxq.com/xpWzq),一起探讨生成式人工智能、大模型、AIGC、AI芯片和机器人等的产品、技术和应用实践,探讨如何使用各种不同的人工智能大模型和智能体来为工作增效,为生活添彩。立即加入“走向未来”知识星球,一起走向AGI的未来。

穿越伦理迷宫:知识工程中的负责任AI

当强大的生成式AI被用于构建代表我们世界知识的基础设施——知识图谱时,其伦理和社会影响不容忽视。然而,研究结果揭示了一个令人担忧的现象:在知识工程师群体中,对负责任AI(Responsible AI)的认知和实践普遍不足。他们或者不清楚具体需要关注哪些风险,或者认为这超出了自己的职责范围,是其他领域专家应该考虑的问题。这种将技术工程与伦理考量相分离的谷仓效应(各自为政)非常普遍。这并非源于缺乏兴趣,更多是由于缺乏相关的培训、工具和制度化的流程,使得伦理考量难以被整合到紧张的开发周期中。

当话题聚焦到偏见(Bias)这一更具体的概念时,工程师们的认知也显示出局限性。绝大多数人认为偏见主要来源于训练数据。他们很少认识到,偏见也可能存在于模型架构、本体设计(即知识的分类和组织方式)以及人机交互的整个流程中。一些工程师表现出一种对偏见的无奈甚至默许的态度,认为人类本身就是有偏见的,所以AI有偏见在所难免。这种心态可能会阻碍其主动采取措施去检测和缓解偏见。同时,对于如何系统性地缓解偏见,大多数人表示没有概念或怀疑现有测试的有效性。还有人担心,进行去偏见处理可能会损害模型的性能,这反映了在公平性与效用性之间存在的潜在权衡。此外,作为个体的工程师常常感到自己无力改变系统性的偏见问题,或者认为这并非自己的首要责任。

生成式AI的引入,为知识图谱带来了新的偏见来源。LLM本身可能携带和放大其训练数据中存在的社会偏见(如性别、种族、地域歧视)。因此,我们迫切需要将负责任AI的原则和实践,深度整合到知识工程的每一个环节。这不仅仅是提供一个偏见清单让工程师去检查。更重要的是,要在工程流程中创造出进行伦理审议的空间和机制。这意味着需要开发新的工具来度量和监控LLM辅助构建的知识图谱中的公平性,并为工程师提供关于偏见来源、影响和缓解策略的系统性培训,培养他们的责任感和行动力。

建立信任与采纳:在希望与疑虑间寻求平衡

对于生成式AI在知识工程中的未来,受访的工程师们展现出一种复杂而矛盾的心态,既有对其潜力的巨大热情,也伴随着深刻的怀疑和谨慎。

乐观者认为,LLM是强大的“智能助手”,虽然不能完全替代人类专家,但可以在多个方面极大地提升知识工程的效率和体验:

  • 效率提升:将工程师从耗时、重复的任务(如编写文档、初步数据提取)中解放出来。
  • 降低门槛:让经验不足的用户也能在指导下完成一些复杂的任务,如本体设计。
  • 促进协作:LLM的自然语言能力可以作为不同学科专家之间沟通的桥梁,促进知识的共享和整合。
  • 工具创新:可以利用LLM来改进现有的知识工程工具,或创造全新的、更智能化的辅助系统。

然而,怀疑的声音同样强烈。许多工程师认为,在目前的阶段,将LLM用于生产级别的、严肃的知识图谱构建还为时过早。他们的顾虑主要集中在:

  • 幻觉与过时知识:在没有检索增强(RAG)的情况下,LLM的知识受限于其训练数据,可能过时,甚至会“一本正经地胡说八道”(即幻觉)。
  • 缺乏置信度表达:LLM在给出答案时,通常不会提供其对该答案的置信度或不确定性评估。这使得用户难以判断哪些信息是可靠的,哪些需要进一步验证。
  • 评估体系的缺失:如前文所述,缺乏健全的评估方法是阻碍信任和采纳的最根本原因。一位工程师直言:“我可以用它来快速生成一些测试数据,但对于生产环境,我不会使用它……因为我永远不知道哪一部分是真正正确的。”

这种希望与疑虑并存的局面,清晰地指明了未来研究和发展的方向:我们必须在不断发掘LLM潜力的同时,致力于解决其可靠性、可控性和可评估性的核心问题,才能真正建立起人与AI之间的信任。解决这些问题的关键技术路径,正是以检索增强生成(RAG)为代表的知识增强方法。对此,王文广的灯塔书《知识增强大模型》一书提供了极为宝贵的实践指导。该书的第四章“检索增强生成”和第九章“知识图谱增强生成与GraphRAG”,为读者构建了一幅从入门到精通的路线图。书中不仅详细拆解了通用的RAG流程——从知识库构建、文本分块、向量化,到检索与生成,更进一步探讨了GraphRAG等前沿技术,展示了如何利用知识图谱的结构化优势进行更精准、更具深度的知识检索。对于那些希望将LLM从玩具变为可靠生产力工具的工程师和决策者而言,这本书无疑是指明方向的灯塔。

构建透明度框架:知识图谱卡片与模型卡片

为了应对上述挑战,特别是解决透明度、可解释性和责任归属的问题,研究者们基于现有成果,提出了一个专门针对知识工程领域的文档化框架,旨在系统性地记录和披露知识图谱及其构建过程中的关键信息。

像模型卡片(Model Cards)和数据卡片(Data Cards)这样的框架,在提升机器学习模型和数据集的透明度方面已经取得了巨大成功。然而,它们并不能完全满足知识图谱的独特需求。知识图谱不仅仅是数据,它还包含着复杂的模式(本体、Schema)、语义关系和设计决策。因此,我们需要一个能够描述这些独特方面的文档标准。为此,研究者们提出了知识图谱卡片的概念,这是一个结构化的文档框架,旨在为知识图谱提供全面、透明的说明书。它包含六个核心部分:

  1. 知识(Knowledge):描述知识图谱覆盖的领域、语言、时间范围以及其旨在回答的能力问题。这有助于用户理解其知识边界。
  2. 来源(Provenance):详细记录知识的来源。包括使用了哪些数据集(并链接到它们的Data Cards)、是否使用了众包(并说明众包平台和人群信息)、以及是否、如何使用了生成式AI。
  1. 图谱构建(Graph Construction):说明构建知识图谱所使用的方法论、工具和流程。包括数据预处理、知识提取、集成和策展的具体技术细节。
  2. 质量(Quality):提供关于知识图谱质量的量化和定性描述。涵盖准确性、覆盖度、连贯性(逻辑一致性)、完备性和简洁性等多个维度。
  3. 许可(Licensing):明确知识图谱的使用许可、发布者、资金来源和相关政策。
  4. 透明度(Transparency):这是最关键的部分,专门用于阐述与负责任AI相关的议题。包括数据平衡性分析、可解释性说明、已知的局限性,以及所采用的公平性度量和偏见缓解措施。

通过使用知识图谱卡片,在共享和使用知识图谱时,能够主动地、透明地披露其背景信息,从而帮助用户做出更明智的判断。

除了为知识图谱本身创建卡片,研究者也建议将现有的“模型卡片”框架,应用于知识工程流程中使用的各种模型,特别是知识图谱嵌入模型(如TransE等,详见珠峰书《知识图谱:认知智能理论与实战》第7章《知识推理》部分,有系统性的介绍)。为这些模型提供模型卡片,可以清楚地说明其预期用途、性能指标、训练数据、潜在的偏见和伦理考量,从而提升整个知识工程生态系统的透明度和可信度。

展望知识工程的未来航向

生成式AI正以不可逆转之势,重塑知识工程的版图。它带来了前所未有的效率提升和自动化潜力,但同时也带来了关于评估、技能和伦理的深刻挑战。这次对知识工程师实践的深入研究,为我们揭示了在这一新时代下知识工程的未来航向。

未来,知识工程将不再是孤立的人类智力活动,而是一个深度人机协作的领域。知识工程师的角色将演变为AI的提示者、验证者和伦理监督者。要成功扮演这些新角色,他们必须拥抱一种融合了传统知识表示、高级提示工程、NLP技术和负责任AI原则的混合技能集。前方的道路并非一帆风顺,这条通往未来的道路充满挑战,但也孕育着无限可能,它呼唤着先行者们共同探索。加入最有价值的知识星球【走向未来】【https://t.zsxq.com/xpWzq】!在这里共同探索大模型时代知识工程的无限可能——从技术原理到产品落地,从应用实践到未来趋势。即刻加入,马上启程,一起驾驭方向盘,走向光明未来,不负热爱!当然,在这个过程中,我们也必须正视并系统性地解决当前面临的核心问题:

  • 发展新的评估基准和方法,从追求静态的准确性转向衡量动态的、以人为中心的效用和满意度。
  • 弥合技能鸿沟,通过教育和培训,培养能够驾驭LLM复杂性的新一代知识工程师。
  • 将负责任AI原则嵌入到整个生命周期中,使伦理考量成为工程实践不可或缺的一部分,而非事后的附加品。
  • 推广透明度框架,如知识图谱卡片,以建立特定范围内的信任和问责机制。

尽管有人预测,LLM的最终发展可能会让知识图谱变得过时。但在可预见的未来,两者的结合——利用知识图谱的严谨性来约束和增强LLM的创造力,同时利用LLM的灵活性来加速和扩展知识图谱的构建——无疑是一条强大而务实的前进道路。关键在于,知识工程师能否以一种批判性、创造性和负责任的态度,驾驭这项变革性的技术,用它来构建更加智能、可靠和公平的知识未来。这场变革才刚刚开始,而知识工程师正是绘制新航图的核心力量。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 图模互补与知识提示:大模型时代知识工程的机遇、挑战与未来
    • 生成式AI与知识工程的交汇
    • 知识工程师的核心挑战:驾驭不确定性
      • 挑战一:数据集的困境
      • 挑战二:提示工程的艺术与科学之争
      • 挑战三:评估的迷雾
    • 重塑评估范式:在生成性语境下衡量成功
    • 知识工程师的技能演进:人与AI的共舞
    • 穿越伦理迷宫:知识工程中的负责任AI
    • 建立信任与采纳:在希望与疑虑间寻求平衡
    • 构建透明度框架:知识图谱卡片与模型卡片
    • 展望知识工程的未来航向
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档