Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >深度解析NLP文本摘要技术:详解与实战

深度解析NLP文本摘要技术:详解与实战

作者头像
TechLead
发布于 2023-10-21 09:14:25
发布于 2023-10-21 09:14:25
2.9K00
代码可运行
举报
文章被收录于专栏:TechLeadTechLead
运行总次数:0
代码可运行

在本文中,我们深入探讨了自然语言处理中的文本摘要技术,从其定义、发展历程,到其主要任务和各种类型的技术方法。文章详细解析了抽取式、生成式摘要,并为每种方法提供了PyTorch实现代码。最后,文章总结了摘要技术的意义和未来的挑战,强调了其在信息过载时代的重要性。 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人。

1. 概述

文本摘要是自然语言处理(NLP)的一个重要分支,其核心目的是提取文本中的关键信息,生成简短、凝练的内容摘要。这不仅有助于用户快速获取信息,还能有效地组织和归纳大量的文本数据。

1.1 什么是文本摘要?

文本摘要的目标是从一个或多个文本源中提取主要思想,创建一个短小、连贯且与原文保持一致性的描述性文本。

例子: 假设有一篇新闻文章,描述了一个国家领导人的访问活动,包括他的行程、会面的外国领导人和他们讨论的议题。文本摘要的任务可能是生成一段如下的摘要:“国家领导人A于日期B访问了国家C,并与领导人D讨论了E议题。”

1.2 为什么需要文本摘要?

随着信息量的爆炸性增长,人们需要处理的文本数据量也在快速增加。文本摘要为用户提供了一个高效的方法,可以快速获取文章、报告或文档的核心内容,无需阅读整个文档。

例子: 在学术研究中,研究者们可能需要查阅数十篇或数百篇的文献来撰写文献综述。如果每篇文献都有一个高质量的文本摘要,研究者们可以迅速了解每篇文献的主要内容和贡献,从而更加高效地完成文献综述的撰写。

文本摘要的应用场景非常广泛,包括但不限于新闻摘要、学术文献摘要、商业报告摘要和医学病历摘要等。通过自动化的文本摘要技术,不仅可以提高信息获取的效率,还可以在多种应用中带来巨大的商业价值和社会效益。

2. 发展历程

文本摘要的历史可以追溯到计算机科学和人工智能的早期阶段。从最初的基于规则的方法,到现今的深度学习技术,文本摘要领域的研究和应用都取得了长足的进步。

2.1 早期技术

在计算机科学早期,文本摘要主要依赖基于规则启发式的方法。这些方法主要根据特定的关键词、短语或文本的句法结构来提取关键信息。

例子: 假设在一个新闻报道中,频繁出现的词如“总统”、“访问”和“协议”可能会被认为是文本的关键内容。因此,基于这些关键词,系统可能会从文本中选择包含这些词的句子作为摘要的内容。

2.2 统计方法的崛起

随着统计学方法在自然语言处理中的应用,文本摘要也开始利用TF-IDF主题模型等技术来自动生成摘要。这些方法在某种程度上改善了摘要的质量,使其更加接近人类的思考方式。

例子: 通过TF-IDF权重,可以识别出文本中的重要词汇,然后根据这些词汇的权重选择句子。例如,在一篇关于环境保护的文章中,“气候变化”和“可再生能源”可能具有较高的TF-IDF权重,因此包含这些词汇的句子可能会被选为摘要的一部分。

2.3 深度学习的应用

近年来,随着深度学习技术的发展,尤其是循环神经网络(RNN)变压器(Transformers)的引入,文本摘要领域得到了革命性的提升。这些技术能够捕捉文本中的深层次语义关系,生成更为流畅和准确的摘要。

例子: 使用BERT或GPT等变压器模型进行文本摘要,模型不仅仅是根据关键词进行选择,而是可以理解文本的整体含义,并生成与原文内容一致但更为简洁的摘要。

2.4 文本摘要的演变趋势

文本摘要的方法和技术持续在进化。目前,研究的焦点包括多模态摘要、交互式摘要以及对抗生成网络在摘要生成中的应用等。

例子: 在一个多模态摘要任务中,系统可能需要根据给定的文本和图片生成一个摘要。例如,对于一个报道某项体育赛事的文章,系统不仅需要提取文本中的关键信息,还需要从与文章相关的图片中提取重要内容,将二者结合生成摘要。


3. 主要任务

文本摘要作为自然语言处理的一部分,其主要任务涉及多个方面,旨在满足不同的应用需求。以下是文本摘要中的几个关键任务,以及相关的定义和示例。

3.1 单文档摘要

这是文本摘要的最基本形式,从一个给定的文档中提取关键信息,生成一个简洁的摘要。

定义: 对一个单独的文档进行处理,提取其核心信息,生成一个凝练的摘要。

例子: 从一篇关于某地震事件的新闻报道中提取关键信息,生成摘要:“日期X,在Y地区发生了Z级地震,导致A人受伤,B人死亡。”

3.2 多文档摘要

该任务涉及从多个相关文档中提取和整合关键信息,生成一个综合摘要。

定义: 对一组相关的文档进行处理,合并它们的核心信息,生成一个综合的摘要。

例子: 从五篇关于同一项技术大会的报道中提取关键信息,生成摘要:“在日期X的技术大会上,公司Y、Z和W分别发布了他们的最新产品,并讨论了未来技术的发展趋势。”

3.3 信息性摘要 vs. 背景摘要

信息性摘要重点关注文档中的主要新闻或事件,而背景摘要则关注为读者提供背景或上下文信息。

定义: 信息性摘要提供文档的核心内容,而背景摘要提供与该内容相关的背景或上下文信息。

例子:

  • 信息性摘要:“国家A和国家B签署了贸易协议。”
  • 背景摘要:“国家A和国家B自去年开始进行贸易谈判,旨在增加两国间的商品和服务交易。”

3.4 实时摘要

这是一种生成动态摘要的任务,特别是当信息源持续更新时。

定义: 根据不断流入的新信息,实时地更新并生成摘要。

例子: 在一项体育赛事中,随着比赛的进行,系统可以实时生成摘要,如:“第一节结束,队伍A领先队伍B 10分。队伍A的球员C已经得到15分。”


4. 主要类型

文本摘要可以根据其生成方式和特点划分为多种类型。以下是文本摘要领域中的主要类型及其定义和示例。

4.1 抽取式摘要

这种类型的摘要直接从原文中提取句子或短语来构成摘要,而不生成新的句子。

定义: 直接从原始文档中选择性地提取句子或短语,以生成摘要。

例子: 原文: “北京是中国的首都。它有着悠久的历史和丰富的文化遗产。故宫、长城和天安门都是著名的旅游景点。” 抽取式摘要: “北京是中国的首都。故宫、长城和天安门都是著名的旅游景点。”

4.2 生成式摘要

与抽取式摘要不同,生成式摘要会产生新的句子,为读者提供更为简洁和流畅的文本摘要。

定义: 基于原始文档的内容,生成新的句子来构成摘要。

例子: 原文: “北京是中国的首都。它有着悠久的历史和丰富的文化遗产。故宫、长城和天安门都是著名的旅游景点。” 生成式摘要: “北京,中国的首都,以其历史遗迹如故宫、长城和天安门而闻名。”

4.3 指示性摘要

这种类型的摘要旨在提供文档的大致内容,通常较为简短。

定义: 对文档进行快速概括,给出主要内容的简短描述。

例子: 原文: “微软公司是一家总部位于美国的跨国技术公司。它是世界上最大的软件制造商,并且生产多种消费电子产品。” 指示性摘要: “微软是一家大型的美国技术公司,生产软件和消费电子。”

4.4 信息性摘要

这种摘要提供更详细的信息,通常较长,涵盖文档的多个方面。

定义: 提供文档的详细内容概括,涵盖文档的核心信息。

例子: 原文: “微软公司是一家总部位于美国的跨国技术公司。它是世界上最大的软件制造商,并且生产多种消费电子产品。” 信息性摘要: “位于美国的微软公司是全球最大的软件生产商,同时还制造了多种消费电子产品。”


5. 抽取式文本摘要

抽取式文本摘要方法通过从原始文档中直接提取句子或短语来形成摘要,而不重新构造新的句子。

5.1 定义

定义: 抽取式文本摘要是从原始文档中选择性地提取句子或短语以生成摘要的过程。该方法通常依赖于文档中句子的重要性评分。

例子: 原文: “北京是中国的首都。它有着悠久的历史和丰富的文化遗产。故宫、长城和天安门都是著名的旅游景点。” 抽取式摘要: “北京是中国的首都。故宫、长城和天安门都是著名的旅游景点。”

5.2 抽取式摘要的主要技术

  1. 基于统计:使用词频、逆文档频率等统计方法为文档中的句子分配重要性分数。
  2. 基于图:如TextRank算法,将句子视为图中的节点,基于它们之间的相似性建立边,并通过迭代过程为每个句子分配得分。

5.3 Python实现

下面是一个简单的基于统计的抽取式摘要的Python实现:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import re
from collections import defaultdict
from nltk.tokenize import word_tokenize, sent_tokenize

def extractive_summary(text, num_sentences=2):
    # 1. Tokenize the text
    words = word_tokenize(text.lower())
    sentences = sent_tokenize(text)

    # 2. Compute word frequencies
    frequency = defaultdict(int)
    for word in words:
        if word.isalpha():  # ignore non-alphabetic tokens
            frequency[word] += 1

    # 3. Rank sentences
    ranked_sentences = sorted(sentences, key=lambda x: sum([frequency[word] for word in word_tokenize(x.lower())]), reverse=True)

    # 4. Get the top sentences
    return ' '.join(ranked_sentences[:num_sentences])

# Test
text = "北京是中国的首都。它有着悠久的历史和丰富的文化遗产。故宫、长城和天安门都是著名的旅游景点。"
print(extractive_summary(text))

输入:原始文本 输出:抽取的摘要 处理过程:该代码首先计算文档中每个词的频率,然后根据其包含的词频为每个句子分配重要性得分,并返回得分最高的句子作为摘要。


6. 生成式文本摘要

与直接从文档中提取句子的抽取式摘要方法不同,生成式文本摘要旨在为原始文档内容生成新的、更简洁的表达。

6.1 定义

定义: 生成式文本摘要涉及利用原始文档内容创造新的句子和短语,为读者提供更为简洁且相关的信息。

例子: 原文: “北京是中国的首都。它有着悠久的历史和丰富的文化遗产。故宫、长城和天安门都是著名的旅游景点。” 生成式摘要: “北京,中国的首都,以其历史遗迹如故宫、长城和天安门而闻名。”

6.2 主要技术

  1. 序列到序列模型 (Seq2Seq):这是一种深度学习方法,通常用于机器翻译任务,但也被广泛应用于生成式摘要。
  2. 注意力机制:在Seq2Seq模型中加入注意力机制可以帮助模型更好地关注原始文档中的重要部分。

6.3 PyTorch实现

下面是一个简单的Seq2Seq模型的概述,由于其复杂性,这里只提供一个简化版本:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import torch
import torch.nn as nn

class Encoder(nn.Module):
    def __init__(self, input_dim, emb_dim, hidden_dim):
        super(Encoder, self).__init__()
        self.embedding = nn.Embedding(input_dim, emb_dim)
        self.rnn = nn.GRU(emb_dim, hidden_dim)

    def forward(self, src):
        embedded = self.embedding(src)
        outputs, hidden = self.rnn(embedded)
        return hidden

class Decoder(nn.Module):
    def __init__(self, output_dim, emb_dim, hidden_dim):
        super(Decoder, self).__init__()
        self.embedding = nn.Embedding(output_dim, emb_dim)
        self.rnn = nn.GRU(emb_dim + hidden_dim, hidden_dim)
        self.out = nn.Linear(hidden_dim, output_dim)

    def forward(self, input, hidden, context):
        input = input.unsqueeze(0)
        embedded = self.embedding(input)
        emb_con = torch.cat((embedded, context), dim=2)
        output, hidden = self.rnn(emb_con, hidden)
        prediction = self.out(output.squeeze(0))
        return prediction, hidden

# 注: 这是一个简化的模型,仅用于展示目的。在实际应用中,您需要考虑添加更多细节,如注意力机制、优化器、损失函数等。

输入: 原始文档的词向量序列 输出: 生成的摘要的词向量序列 处理过程: 编码器首先将输入文档转换为一个固定大小的隐藏状态。然后,解码器使用这个隐藏状态作为上下文,逐步生成摘要的词向量序列。

7. 总结

随着科技的迅速发展,自然语言处理已从其原始的文本处理任务进化为复杂的多模态任务,如我们所见,文本摘要正是其中的一个明显例子。从基本的抽取式和生成式摘要到现今的多模态摘要,每一个阶段都反映了我们对信息和知识的不断深化和重新定义。

重要的是,我们不仅仅要关注技术如何实现这些摘要任务,更要明白为什么我们需要这些摘要技术。摘要是对大量信息的简化,它可以帮助人们快速捕获主要观点、节省时间并提高效率。在一个信息过载的时代,这种能力变得尤为重要。

但是,与此同时,我们也面临着一个挑战:如何确保生成的摘要不仅简洁,而且准确、客观,并且不失真。这需要我们不断完善和调整技术,确保其在各种场景下都能提供高质量的摘要。

关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-09-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 TechLead 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Serverless 实战:如何结合 NLP 实现文本摘要和关键词提取?
对文本进行自动摘要的提取和关键词的提取,属于自然语言处理的范畴。提取摘要的一个好处是可以让阅读者通过最少的信息判断出这个文章对自己是否有意义或者价值,是否需要进行更加详细的阅读;而提取关键词的好处是可以让文章与文章之间产生关联,同时也可以让读者通过关键词快速定位到和该关键词相关的文章内容。 文本摘要和关键词提取都可以和传统的 CMS 进行结合,通过对文章 / 新闻等发布功能进行改造,同步提取关键词和摘要,放到 HTML 页面中作为 Description 和 Keyworks。这样做在一定程度上有利于搜索
腾讯云serverless团队
2020/06/06
1.4K0
变身抓重点小能手:机器学习中的文本摘要入门指南 | 资源
基于机器学习的自动文本摘要工具,将一键解放你的双手,化身抓重点小能手,为你捕捉关键,排除冗余。
量子位
2019/05/10
6900
变身抓重点小能手:机器学习中的文本摘要入门指南 | 资源
NLP信息抽取全解析:从命名实体到事件抽取的PyTorch实战指南
随着互联网和社交媒体的飞速发展,我们每天都会接触到大量的非结构化数据,如文本、图片和音频等。这些数据包含了丰富的信息,但也提出了一个重要问题:如何从这些海量数据中提取有用的信息和知识?这就是信息抽取(Information Extraction, IE) 的任务。
TechLead
2023/10/21
5.1K0
NLP信息抽取全解析:从命名实体到事件抽取的PyTorch实战指南
了解AIGC——自然语言处理与生成
近年来,AIGC(AI Generated Content)技术迅猛发展,自然语言处理(Natural Language Processing, NLP)与生成技术的结合,使得机器不仅能够理解人类语言,还能进行文本的创作和生成。这一能力广泛应用于文本创作、对话系统、语言翻译、内容推荐等场景。本文将深入探讨自然语言处理与生成的核心技术、关键模型,以及如何通过代码实现一些重要功能。
hope kc
2024/11/21
2320
循环神经网络教程第二部分-用python,numpy,theano实现一个RNN
作者:徐志强 链接:https://zhuanlan.zhihu.com/p/22289383 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 在本部分,我们将会从头开始用python实现一个完整的循环神经网络,然后hui用Theano(一个可以在GPU上进行运算的库)对实现进行优化。我会跳过一些对理解循环神经网络不是很重要的代码片段,但完整的代码可以在这里找到。
bear_fish
2018/09/19
7400
循环神经网络教程第二部分-用python,numpy,theano实现一个RNN
NLP机器翻译全景:从基本原理到技术实战全解析
机器翻译,作为自然语言处理的一个核心领域,一直都是研究者们关注的焦点。其目标是实现计算机自动将一种语言翻译成另一种语言,而不需要人类的参与。
TechLead
2023/10/21
1.5K0
NLP机器翻译全景:从基本原理到技术实战全解析
多模态大模型篇
在CV方向上,一般我们输入的都是图片,无论这个图片多大,都会resize到一个统一的尺寸。最终经过CNN的提取,变成一个特征向量,那么这个特征向量的维度是一样的。再经过softmax变成一个分类(Class)的概率
算法之名
2023/10/16
9960
多模态大模型篇
NLP 进行文本摘要的三种策略代码实现和对比:TextRank vs Seq2Seq vs BART
来源:Deephub Imba本文约8400字,建议阅读15分钟本文将使用Python实现和对比解释NLP中的3种不同文本摘要策略。 本文将使用 Python 实现和对比解释 NLP中的3种不同文本摘要策略:老式的 TextRank(使用 gensim)、著名的 Seq2Seq(使基于 tensorflow)和最前沿的 BART(使用Transformers )。 NLP(自然语言处理)是人工智能领域,研究计算机与人类语言之间的交互,特别是如何对计算机进行编程以处理和分析大量自然语言数据。最难的 NLP
数据派THU
2022/05/27
8920
NLP 进行文本摘要的三种策略代码实现和对比:TextRank vs Seq2Seq vs BART
文章太长不想看?ML 文本自动摘要了解一下
你是否曾将一篇冗长的文档归纳为一个小的段落?你用了多长时间呢?手动归纳总结耗费时间、枯燥乏味。文本自动摘要可以克服此类难题,帮你轻松归纳出一篇文章的中心思想。
机器之心
2019/07/12
1.5K0
文章太长不想看?ML 文本自动摘要了解一下
自动文本摘要
摘要的主要思想是找到包含整个集合的“信息”的数据子集。这种技术在今天的工业中被广泛使用。搜索引擎就是一个例子;其他的例子包括文档、图像集合和视频的汇总。文档摘要试图通过寻找信息最丰富的句子,对整个文档进行有代表性的总结或抽象,而在图像摘要中,系统会找到最具代表性和最重要的(或最显著的)图像来做代表。对于监控视频,则会从平平无奇的环境中提取出重要的事件。
AI研习社
2018/11/30
1.9K0
自动文本摘要
精品教学案例 | 基于TextRank的新闻摘要(Python实现)
本案例适合作为大数据专业自然语言处理课程的配套教学案例。通过本案例,能够达到以下教学效果:
数据酷客
2020/05/09
2.5K0
精品教学案例 | 基于TextRank的新闻摘要(Python实现)
NLP实战 | BERT文本分类及其魔改(附代码)
每天给你送来NLP技术干货! ---- 写在前面 本文主要介绍了两种文本分类模型:BERT文本分类基础模型,及基于Bert和TextCNN的魔改模型。在作者实际的有关文本分类的工作中取得了F1值超越Bert基础模型近4%的效果。 1. Baseline:Bert文本分类器 Bert模型是Google在2018年10月发布的语言模型,一经问世就横扫NLP领域11项任务的最优结果,可谓风头一时无二。 有关于Bert中transformer的模型细节,我们在此就不赘述了。感兴趣的朋友,可以看看《The Illus
zenRRan
2022/10/10
6.5K0
NLP实战 | BERT文本分类及其魔改(附代码)
对话摘要技术在美团的探索(SIGIR)
总第512篇 2022年 第029篇 随着互联网产生的文本数据越来越多,文本信息过载问题日益严重,对各类文本进行一个“降维”处理显得非常必要,而文本摘要就是其中一个重要的手段。 本文首先介绍了经典的文本摘要方法,随后分析了对话摘要的模型,并分享了美团在真实对话摘要场景中面临的挑战。同时基于实际的场景,本文提出了阅读理解的距离监督Span-Level对话摘要方案(已发表在SIGIR 2021),该方法比强基准方法在ROUGE-L指标和BLEU指标上提升了3%左右。 1. 对话摘要技术背景 2. 文本摘要与对
美团技术团队
2022/05/27
1.1K0
对话摘要技术在美团的探索(SIGIR)
独家 | Python利用深度学习进行文本摘要的综合指南(附教程)
本文介绍了如何利用seq2seq来建立一个文本摘要模型,以及其中的注意力机制。并利用Keras搭建编写了一个完整的模型代码。
数据派THU
2019/07/17
2.4K0
独家 | Python利用深度学习进行文本摘要的综合指南(附教程)
AI 写作(五)核心技术之文本摘要:分类与应用(5/10)
文本摘要在 AI 写作中扮演着至关重要的角色。在当今信息爆炸的时代,人们每天都被大量的文本信息所包围,如何快速有效地获取关键信息成为了一个迫切的需求。文本摘要技术正是为了解决这个问题而诞生的,它能够对长篇文本进行提炼,提取出关键信息,为用户节省时间和精力。
正在走向自律
2024/12/18
3310
AI 写作(五)核心技术之文本摘要:分类与应用(5/10)
基于BERT的中文自动摘要实践指南
我们每天接收的文字信息量已远超人类处理能力。据最新研究,普通职场人日均接触文字信息超过10万字,但有效留存率不足5%。这种信息过载催生了文本摘要技术的蓬勃发展。本文将深入解析如何运用前沿的BERT模型,在JupyterLab环境中搭建智能摘要系统,让机器成为人类认知世界的"信息过滤器"。
不惑
2025/04/18
1530
基于BERT的中文自动摘要实践指南
【论文复现】命名实体识别
命名实体识别(NER)是自然语言处理领域的一个核心任务,它的目标是从文本数据中找出并分类出各种命名实体,这些实体往往指的是特定的名词,比如人名、地理位置名称以及机构或组织名称等。
Eternity._
2024/11/28
3310
【论文复现】命名实体识别
【NLP】文本自动摘要任务的心得总结
由于最近需要进行组内的知识分享,因而借此机会将文本摘要的一些基本知识以及本人的一些实践经验做成文稿,一方面用来组内分享,一方面也是总结一下过去在该领域的一些心得体会。因个人的能力所限,本文实质上是对文本摘要的不完全总结,如有未能囊括的知识点,还请同学们多提意见,一起进步。
yuquanle
2019/11/14
4.4K0
【NLP】文本自动摘要任务的心得总结
[AI学习笔记]工业级知识蒸馏在DeepSeek中的实践:从理论到部署全解析
在当今的人工智能领域,模型的规模和复杂度不断攀升,以追求更高的准确性和性能。然而,大型模型往往伴随着高昂的计算成本、存储需求以及部署难度。知识蒸馏作为一种高效的技术手段,旨在将大型模型(教师模型)的知识迁移到小型模型(学生模型),从而在保持性能的同时,降低模型的复杂度和资源消耗,使其更易于部署和应用。DeepSeek 作为一个在自然语言处理等领域具有广泛影响力的技术项目,面临着如何在保证模型性能的前提下,实现高效部署和资源优化的挑战。因此,将知识蒸馏技术引入 DeepSeek 的实践具有重要的现实意义。
数字扫地僧
2025/03/19
2710
[AI学习笔记]工业级知识蒸馏在DeepSeek中的实践:从理论到部署全解析
从规则到神经网络:机器翻译技术的演化之路
机器翻译(Machine Translation, MT)是人工智能领域的一项关键技术,旨在实现不同语言之间的自动翻译。自从20世纪中叶首次提出以来,机器翻译已从简单的字面翻译演变为今天高度复杂和精准的语义翻译。这项技术的发展不仅彻底改变了全球信息交流的方式,而且对于经济、政治和文化交流产生了深远影响。
TechLead
2023/12/05
1.9K0
从规则到神经网络:机器翻译技术的演化之路
推荐阅读
相关推荐
Serverless 实战:如何结合 NLP 实现文本摘要和关键词提取?
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验