前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >01 | 什么是提示工程(Prompt Engineering)-如何借助大模型开发一个虚拟女朋友

01 | 什么是提示工程(Prompt Engineering)-如何借助大模型开发一个虚拟女朋友

作者头像
机器学习之禅
发布于 2024-07-04 08:15:55
发布于 2024-07-04 08:15:55
5180
举报
文章被收录于专栏:机器学习之禅机器学习之禅

关于如何构建虚拟女友的事情可能是比较宏大的开发项目,所以这个问题咱们先放一放,要借助大模型能力我们首先得来学习一下提示工程。

  • 什么是Prompt?

提示,在人工智能自然语言处理的上下文中,prompt指的是输入给语言模型的一段文本或问题,目的是引导模型生成与输入相关的回答或继续生成文本。

ChatGPT 引发大语言模型新时代之后,Prompt 即成为与大模型交互输入的代称。即我们一般将给大模型的输入称为 Prompt,将大模型返回的输出称为 Completion。

由于大模型的应用,如何写好提示(Prompt)也变成了一门学问,于是有了提示工程这样的课程。在使用大模型时,构造一个合理的Prompt决定了使用大模型的上限,所以我也在学习提示工程(Prompt Engineering),主要来源是吴恩达老师的《ChatGPT Prompt Engineering for Developers》教程,这是面向开发人员编写的课程,其中主要介绍了如何构造 Prompt 并基于 OpenAI 提供的 API 实现包括总结、推断、转换等多种常用功能,是入门 LLM 开发的第一步。

  • Prompt的功能和作用
    • 引导生成:prompt为语言模型提供了一个起点,使其能够生成与输入相关的内容。例如,在问答系统中,用户输入的问题就是prompt,模型根据问题生成答案。
    • 上下文设定:prompt可以提供背景信息或上下文,使模型能够在特定的情景下生成更相关和一致的内容。例如,“写一篇关于气候变化的文章”作为prompt会引导模型生成相关的文章。
    • 控制输出:通过设计不同的prompt,可以控制模型生成的内容风格、格式和主题。例如,给出“写一首关于春天的诗”作为prompt,模型会生成与春天相关的诗歌。
  • 实例
    • 问答
      • Prompt: “什么是量子计算?”
      • 输出: “量子计算是一种利用量子力学原理进行计算的技术…”
    • 文本生成
      • Prompt: “从前有一个小村庄,住着一位聪明的农夫,他每天…”
      • 输出: “从前有一个小村庄,住着一位聪明的农夫,他每天都在田野里辛勤劳作,照顾他的庄稼…”
    • 代码生成
      • Prompt: “写一个Python函数来计算两个数的和。”
      • 输出: “def add(a, b): return a + b”
  • 设计有效的Prompt

设计有效的prompt可以显著影响模型输出的质量和相关性。以下是一些提示:

  • 清晰明确:确保prompt表达明确,不会引起歧义。
  • 适当详细:提供足够的上下文或背景信息,使模型理解你的意图。
  • 格式和语气:根据需要设定适当的格式和语气,例如要求生成正式的报告或轻松的故事。

在这部分的学习中,主要包含了提升大语言模型应用效果的技巧和实践。包括对于开发人员该如何进行提示词设计、文本总结、推理、转换、扩展以及构建聊天机器人等语言模型典型应用场景。在具备了这些能力之后,开发人员可以借助大模型的能力助力自己项目的开发,创造出激动人心的APP。在这里,比如我设定一个目标,就是构建一个虚拟女朋友/虚拟男朋友,来试试看大模型能给我们提供哪些能力支持。

随着 LLM 的发展,其大致可以分为两种类型,后续称为基础 LLM指令微调(Instruction Tuned)LLM。基础LLM是基于文本训练数据,训练出预测下一个单词能力的模型。其通常通过在互联网和其他来源的大量数据上训练,来确定紧接着出现的最可能的词。例如,如果你以“从前,我有一个女朋友”作为 Prompt ,基础 LLM 可能会继续预测“她经常会对我发脾气”。但是,如果你以“女朋友为什么经常发脾气?”为 Prompt ,则基础 LLM 可能会根据互联网上的文章,将回答预测为“女朋友为什么喜怒无常?如何安抚女朋友?”,因为互联网上的文章很可能是有关女朋友情绪的问答题目列表

与基础语言模型不同,指令微调 LLM 通过专门的训练,可以更好地理解并遵循指令。举个例子,当询问“女朋友为什么经常发脾气?”时,这类模型很可能直接回答“去年你没有给她买包”。指令微调 LLM 的训练通常基于预训练语言模型,先在大规模文本数据上进行预训练,掌握语言的基本规律。在此基础上进行进一步的训练与微调(finetune),输入是指令,输出是对这些指令的正确回复。有时还会采用RLHF(reinforcement learning from human feedback,人类反馈强化学习)技术,根据人类对模型输出的反馈进一步增强模型遵循指令的能力。通过这种受控的训练过程。指令微调 LLM 可以生成对指令高度敏感、更安全可靠的输出,较少无关和损害性内容。因此。许多实际应用已经转向使用这类大语言模型。

如果你将 LLM 视为一名新毕业的大学生,要求他完成这个任务,你甚至可以提前指定他们应该阅读哪些文本片段来写关于如何解决女朋友情绪问题的文本,这样能够帮助这位新毕业的大学生更好地完成这项任务。本书的下一章将详细阐释提示词设计的两个关键原则:清晰明确和给予充足思考时间。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习之禅 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
02 | 提示(Prompt)的原则-如何借助大模型开发一个虚拟女朋友
前面说过,“提示”现在是一门科学了,咱们不能再小看“提示”这个事情了。我想很多朋友都经历过,当你的女朋友突然发脾气,你还不知道发生了什么的时候,你的女朋友会说:“我已经提示过你了!”,然后你表现出一脸愕然“啊?”,这时候你就能理解可见给出一个好的“提示”是多么的重要了。
机器学习之禅
2024/07/04
6630
02 | 提示(Prompt)的原则-如何借助大模型开发一个虚拟女朋友
解读提示工程(Prompt Engineering)
提示工程(Prompt Engineering),也称为上下文提示,是一种通过不更新模型的权重/参数来引导LLM行为朝着特定结果的方法。这是与AI有效交流所需结果的过程。提示工程可以用于各种任务,从回答问题到算术推理乃至各种应用领域,理解提示工程,能够帮助我们了解LLM的限制和能力。
半吊子全栈工匠
2023/10/23
10K0
解读提示工程(Prompt Engineering)
● 我掌握的新兴技术:Tencent Hunyuan(混元)Prompt Engineering for Developers
Tencent Hunyuan(混元)Prompt Engineering for Developers。
不惑
2024/02/04
5660
● 我掌握的新兴技术:Tencent Hunyuan(混元)Prompt Engineering for Developers
提示工程Prompt Engineering
上一篇大型语言模型LLM中,介绍了什么是LLM、LLM的基础内容,并提到LLM将利用词汇的分布生成文档。这一篇是关于提示和提示工程的介绍,主要内容是我们如何影响词汇的分布。
MySQLSE
2024/06/14
1480
提示工程Prompt Engineering
Prompt Engineering:提示词工程最佳实践与应用
随着人工智能技术的不断发展,特别是大型语言模型(LLM)的兴起,提示词工程(Prompt Engineering)逐渐成为提升AI模型性能、增强任务执行效率的关键技术。Prompt Engineering通过设计和优化提示词(Prompt),引导LLM生成特定类型的输出,广泛应用于文本生成、数据增强、代码生成、问答系统等领域。本文将深入探讨Prompt Engineering的背景知识、功能点、优点、缺点,以及与市场其他技术的对比,并结合具体业务场景和底层原理,通过Java示例展示其实际应用。
小马哥学JAVA
2024/12/26
1.2K0
大模型Prompt-Tuning技术进阶
近两年来,随之Prompt-Tuning技术的发展,有诸多工作发现,对于超过10亿参数量的模型来说,Prompt-Tuning所带来的增益远远高于标准的Fine-tuning,小样本甚至是零样本的性能也能够极大地被激发出来,得益于这些模型的 参数量足够大 ,训练过程中使用了 足够多的语料 ,同时设计的 预训练任务足够有效 。最为经典的大规模语言模型则是2020年提出的GPT-3,其拥有大约1750亿的参数,且发现只需要设计合适的模板或指令即可以 实现免参数训练的零样本学习 。
@小森
2024/06/06
4240
大模型Prompt-Tuning技术进阶
提示词(prompt)工程指南(二):基本提示
通常,学习概念的最佳方法是通过示例进行。下面我们将涵盖一些精心制作的提示示例,以执行各种有趣和不同的任务。
云微
2023/03/31
2.6K0
LLM 效果不好?可能是 Prompt 写错了!Prompt Engineering 技术的最全综述
生成式人工智能(GenAI)系统,特别是基于Transformer架构的大型语言模型(LLM),正在迅速崛起并被广泛应用于各个行业和研究领域。这些模型能够通过文本、图像、音频或视频等多种形式的“提示”(prompt)进行交互,并根据提示生成相应的文本、图像、音频或视频输出。 LLM 从撰写营销邮件到解决数学问题,其应用范围不断拓展。 但是,想要有效地利用LLM需要掌握提示工程(prompt engineering)技术,即设计和优化提示以获得最佳结果。 这门新兴领域正快速发展,新的提示技术层出不穷,但同时也面临着术语混乱和缺乏系统性理解等挑战。
Lion 莱恩呀
2025/04/04
1.3K0
LLM 效果不好?可能是 Prompt 写错了!Prompt Engineering 技术的最全综述
【AI大模型】Prompt Engineering 基础知识与挑战
Prompt Engineering,即提示工程,是一种新兴的技术领域,它主要研究如何设计有效的提示(Prompt)来引导用户生成特定的输出。随着自然语言处理技术的快速发展,特别是预训练语言模型(如 GPT-3)的崛起,Prompt Engineering 变得越来越重要。本文将介绍 Prompt Engineering 的一些基础知识,并分享一些思考。
云帆沧海
2024/04/29
3610
【吴恩达-AIGC/ChatGPT提示工程课程】第一章 - 简介
欢迎来到本课程,我们将为开发人员介绍 ChatGPT 提示工程。本课程由 Isa Fulford 教授和我一起授课。Isa Fulford 是 OpenAI 的技术团队成员,曾开发过受欢迎的 ChatGPT 检索插件,并且在教授人们如何在产品中使用 LLM 或 LLM 技术方面做出了很大贡献。她还参与编写了教授人们使用 Prompt 的 OpenAI cookbook。
元壤教育
2023/05/01
3760
【吴恩达-AIGC/ChatGPT提示工程课程】第一章 - 简介
54百亿参数大模型进化树重磅更新!85页盘点LLM发展史,附最详细prompt技巧
此前,人大等学校的多位研究者回顾了大语言模型在背景知识、关键发现和主流技术等方面的进展,尤其强调了大语言模型的预训练、自适应调优、使用和能力评估。
新智元
2023/08/07
1.2K0
54百亿参数大模型进化树重磅更新!85页盘点LLM发展史,附最详细prompt技巧
Prompt提示工程上手指南(六):AI避免"幻觉”(Hallucination)策略下的Prompt
这是本系列的第六篇文章,在这篇中我们需要了解并处理语言模型最为棘手的问题,也就是AI"幻觉”(Hallucination)问题。在大型语言模型和聊天机器人的世界里,"幻觉"现象指的是这些智能系统有时会基于给定的提示,创造出并不存在的信息或事实。简而言之,就是这些先进的AI在对话过程中可能会偶尔"脱轨",提供与问题无关的回答,或者讲述一些与现实不符的内容。这种现象反映了AI在理解和生成语言时,尽管它们通常表现出色,但有时仍会犯错或产生与期望不符的输出。
fanstuck
2024/03/25
2.8K1
Prompt提示工程上手指南(六):AI避免"幻觉”(Hallucination)策略下的Prompt
提示工程(prompt engineering):技术分类与提示词调优看这篇就够了
在人工智能盛起的当下,出现了一个新兴的行业——提示工程(prompt engineering)。提示词,简言之,就是我们和AI说的话。在人机交互模式下,一个好的提示词,往往能产生事半功倍的效果。文本领域,好的提示词往往能超越RAG/Agent所能发挥的能力;图片对应的视觉领域,好的提示词往往能产生更好地图片/视觉效果。
山行AI
2024/04/30
5.4K0
提示工程(prompt engineering):技术分类与提示词调优看这篇就够了
面向Java开发者的ChatGPT提示词工程(1)
各位Java开发者们,欢迎来到万猫学社!在这里,我将和大家分享ChatGPT提示词工程的系列文章,希望能够和大家一起学习和探讨提示词的最佳实践。
万猫学社
2023/09/01
3860
面向Java开发者的ChatGPT提示词工程(1)
03 | 借助迭代优化思想实现最佳Prompt-如何借助大模型开发一个虚拟女朋友
在对大模型(如GPT)使用Prompt时,进行迭代优化过程非常重要,以不断改进Prompt的效果。以下是一个简要介绍: 1. 初始Prompt设计:开始时编写一个初始Prompt,明确问题或任务的要求。尽可能具体和详细,以减少模型产生误解的可能。
机器学习之禅
2024/07/04
3280
03 | 借助迭代优化思想实现最佳Prompt-如何借助大模型开发一个虚拟女朋友
Prompt Engineering 写作准则与应用示例集
如果你有一类问题,可以一直在一个对话框询问,同时进行保存,这样就会记住历史消息,相当于一次【In-context Learning(上下文学习)】
悟乙己
2023/07/09
1.2K0
Prompt Engineering 写作准则与应用示例集
从零训练一个多模态LLM:预训练+指令微调+对齐+融合多模态+链接外部系统
本文尝试梳理一个完整的多模态LLM的训练流程。包括模型结构选择、数据预处理、模型预训练、指令微调、对齐、融合多模态以及链接外部系统等环节。
zenRRan
2023/08/22
7.1K0
从零训练一个多模态LLM:预训练+指令微调+对齐+融合多模态+链接外部系统
如何基于OpenAI大模型搭建提示词工程
前言:这是一篇很好地讲解了提示词工程的文章,提示词是fine tune大模型的一种比较经济适用的方式,基于提示词搭建一套agent可能是能形成未来生产力的关键一环。
山行AI
2023/09/08
1K0
如何基于OpenAI大模型搭建提示词工程
LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关
prompt(提示词)是我们和 LLM 互动最常用的方式,我们提供给 LLM 的 Prompt 作为模型的输入,并希望 LLM 反馈我们期待的结果。 虽然 LLM 的功能非常强大,但 LLM 对提示词(prompt)也非常敏感。这使得提示词工程成为一项需要培养的重要技能。
汀丶人工智能
2024/05/09
4K0
LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关
Prompt Engineering全面自动化:LeCun看了沉默,ChatGPT看了直呼内行
机器之心发布 机器之心编辑部 在计算机领域,提示词 (Prompt) 指的是算法输出之前的那段前置左向字符串。比如最早 MSDOS 下的 C:\>,Linux 下的~:,IPython 下面的 >>> 这些都算是提示词。在 2023 年,提示词已经成为和大规模语言模型 (LLMs) 互动最自然直观的方式。 如果将 ChatGPT 比喻成哈利波特小说中的绚丽魔法,那么提示词就像召唤魔法时的咒语。 能不能用好这个魔法,取决于你念咒语时是清晰明确,还是夹杂着 “口音”。 同样一个魔法,念咒的人不同,威力也不尽相
机器之心
2023/03/29
5950
Prompt Engineering全面自动化:LeCun看了沉默,ChatGPT看了直呼内行
推荐阅读
相关推荐
02 | 提示(Prompt)的原则-如何借助大模型开发一个虚拟女朋友
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档