Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI,又一领域超过人类水平

AI,又一领域超过人类水平

作者头像
CodeInHand
发布于 2018-08-15 09:39:03
发布于 2018-08-15 09:39:03
6680
举报
文章被收录于专栏:Pytorch实践Pytorch实践

语法改错是一个大家比较陌生的领域,大致可以认为对英文进行语法改错。给定一句带有语法错误的话,AI对其进行修正得到正确的语法表示。最近微软亚洲研究院给出论文称当前Deep Learning模型已经超过人类水平。具体论文参考(论文地址:https://arxiv.org/abs/1807.01270)

Reaching Human-level Performance in Automatic Grammatical Error Correction: An Empirical Study

常见的语法错误归纳为如下列表:(具体包括动词时态、情态动词、代词错误、冠词使用错误等)

对于语法改错任务,已有的方法一般包括两种:(1)基于分类,先找到错误类型再修改;(2)基于翻译模型,认为有错误的句子为源句子,正确的句子为目标句子。上文就沿用了Seq2Seq的翻译模型,模型结构依旧沿用微软自己的ConvSeq2Seq,具体结构图如下所示:

由于目前的语法改错都存在两个问题:(1)受到训练数据的影响,训练数据中没有见过的语法错误,不能很好地改正;(2)多个错误同时存在的时候,很难做到一次全部都修正。微软的论文在这两个方面做了很好的改进。如下图描述Seq2Seq语法改错过程,Single-round的inference难以改正多处错误。

针对问题(1),文章给出fluency boost learning方案,即在训练过程增加数据,让模型能够看到更多的错误,增强模型的泛化能力。

文章定义流畅度指标如下:

式子中的P表示语言模型计算得到的句子概率。f(x)越大说明这一句子越流畅。

文中提出了三种fluency boost learning的方案,均可以理解为找到流畅度小于正确句子的生成句子,用于数据补充。

A. Back Boosting

通过自定义一个Seq2Seq的错误生成模型,即将原来改错数据进行倒序,用正确的句子生成错误的句子。然后再在生成的句子中挑选流畅度比正确句子低的句子保留。然后再与正确句子构建pair用于改错模型的训练。(本质依然是增添训练数据,让模型见到更多的错误)。

B. Self Boosting

self-boost方法不用额外定义一个错误生成模型,而是使用自身的生成模型,每次挑选top k个生成句子与正确句子进行比较,如果流畅度较低即保留用于训练数据的补充。

C. Dual Boosting

Dual模型实质是将back boost和self boost进行融合的过程。需要说明的是,模型是同时进行训练。

针对问题(2),文章给出boost inference方案;即预测过程进行增强,主要包括两个方面:一是多轮预测;二是循环预测。

A. multi-round

由于句子中出现多个错误时,不能一次进行改错。需要进行多轮修改。根据定义的流畅度指标,只有当流畅度不再增强时,就不再进行下一轮的语法纠错。

B. round-way

分别定义两个解码器,一个从右至左进行解码,另一个从左到右进行解码。right-to-left能够很好的解决冠词错误的问题(只有知道右边的名词才能确定冠词形式),而left-to-right能够解决主谓一致的问题(只有知道主语,才能确定谓语形式)。

结果说明

使用的测试数据集包括CoNLL-2014,CoNLL-10, JFLEG test,测试指标GLEU为BLEU的改进版本,F0.5可以理解为MaxMatch量。具体结果如下:

与人类语法改错水平进行比较

无论是在F0.5还是GLEU指标上,该系统语法纠错的效果均超过了人类水平。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-08-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CodeInHand 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
你的英语不行!微软亚研自动语法纠错系统达到人类水平
用于语法纠错(GEC)的序列到序列(seq2seq)模型(Cho et al., 2014; Sutskever et al., 2014)近年来吸引了越来越多的注意力(Yuan & Briscoe, 2016; Xie et al., 2016; Ji et al., 2017; Schmaltz et al., 2017; Sakaguchi et al., 2017; Chollampatt & Ng, 2018)。但是,大部分用于 GEC 的 seq2seq 模型存在两个缺陷。第一,seq2seq 模型的训练过程中使用的纠错句对有限,如图 1(a)所示。受训练数据的限制,具备数百万参数的模型也可能无法实现良好的泛化。因此,如果一个句子和训练实例有些微的不同,则此类模型通常无法完美地修改句子,如图 1(b)所示。第二,seq2seq 模型通常无法通过单轮 seq2seq 推断完美地修改有很多语法错误的句子,如图 1(b)和图 1(c)所示,因为句子中的一些错误可能使语境变得奇怪,会误导模型修改其他错误。
机器之心
2018/07/26
5580
你的英语不行!微软亚研自动语法纠错系统达到人类水平
【论文解读】基于Transformer增强架构的中文语法纠错
语法纠错(Grammatical Error Correction, GEC)任务,旨在利用自然语言处理技术,自动识别并纠正非中文母语学习者书写的文本中所包含的语法错误,拼写错误,语序错误,标点错误等等,是自然语言处理的一项重要任务。下面这对语句就是语法纠错任务的一个示例,每个输入对应一个输出,左侧输入的是一句可能带有错误的文本,右侧输出的是纠正后的结果,句中红色的字是有修改的地方。
zenRRan
2020/04/17
2K0
【论文解读】基于Transformer增强架构的中文语法纠错
ACL 2019论文分享: 让机器有自主意识地和人类对话
(对人机对话技术不是很了解的读者,建议先阅读此前的一篇公众号内容“一文看懂人机对话”)
用户1386409
2019/07/16
1.5K0
ACL 2019论文分享: 让机器有自主意识地和人类对话
CCL2022 中文语法纠错评测
每天给你送来NLP技术干货! ---- 中文语法纠错任务(Chinese Grammatical Error Correction,CGEC)旨在自动检测并修改中文文本中的标点、拼写、语法、语义等错误,从而获得符合原意的正确句子。近年来,中文语法纠错任务越来越受到关注,也出现了一些有潜在商业价值的应用。为了推动这项研究的发展,研究者通过专家标注以及众包等形式构建一定规模的训练和测试数据,在语法检查以及语法纠错等不同任务上开展技术评测。同时,由于中文语法纠错任务相对复杂、各评测任务以及各数据集之间存在差异,
zenRRan
2022/05/18
2.9K0
CCL2022 中文语法纠错评测
AI技术讲座精选:用端到端训练模型进行语法智能纠错
现有的拼写检查系统可以识别拼写错误,但无法识别出语法错误,本文的亮点在于使用流行的 seq2seq + attention 模型,在大规模拼写检查数据集上进行训练,用以简单的语法错误识别任务。 对上下文敏感的拼写检查系统(例如 Autocorrect)虽然可以纠正大量的来自于即时消息、电子邮件和短消息中的输入错误,但却对即便是最最简单的语法错误无能为力。举个例子,信息“ I’m going to store ”将不会被自动纠错系统报错,但人们通常更倾向于说“ I’m going to the store ”
AI科技大本营
2018/04/26
2K0
自然语言处理-错字识别(基于Python)kenlm、pycorrector
当然,针对不同业务场景,这些问题并不一定全部存在,比如输入法中需要处理前四种,搜索引擎需要处理所有类型,语音识别后文本纠错只需要处理前两种, 其中’形似字错误’主要针对五笔或者笔画手写输入等。
学到老
2019/01/25
16.7K0
自然语言处理-错字识别(基于Python)kenlm、pycorrector
文本智能校对大赛冠军方案!已落地应用,来自苏州大学、达摩院团队
近期参加了2022 蜜度中文文本智能校对大赛,经过2个月的比赛,在600余名参赛者中取得了第一名的成绩,相关技术也已在钉钉文档等产品落地应用。借此机会,笔者想和大家分享下对中文文本纠错任务的一些看法。
Datawhale
2022/10/31
1.6K0
文本智能校对大赛冠军方案!已落地应用,来自苏州大学、达摩院团队
华为杨浩:小知识驱动大数据,构建知识可认知的 AI 应用
基于深度学习的神经网络机器翻译已经在通用翻译、领域翻译、翻译评估和自动译后编辑等多个场景,产生了巨大的商业价值,但是仍然存在着两个典型问题。一方面,过译漏译等质量问题仍然存在;另一方面,端到端的神经网络黑盒架构使专家介入优化比较困难,传统离散知识不能很好融入模型算法。 在 2021 年 11 月 25 日和 26 日,AICon 全球人工智能与机器学习大会(北京)上,我们邀请到了华为文本机器翻译实验室主任杨浩,他将从离散知识和神经网络模型的融合角度为你带来《知识驱动的机器翻译研究和实践》,希望可以为你带来启发。
深度学习与Python
2022/03/23
5550
华为杨浩:小知识驱动大数据,构建知识可认知的 AI 应用
【AAAI 2020】微软亚洲研究院6篇精选论文在家必看!
编者按:AAAI 2020 明天将在纽约开幕,然而这次的情况有些许不同,许多国内的小伙伴因疫情影响无法到现场参加会议。各位小伙伴在家中做好日常防护的同时,是时候开启“云参会”模式啦。本届 AAAI 中微软亚洲研究院有29篇论文入选,本文为大家介绍的6篇精选论文涵盖多维数据普适分析、文本风格迁移、句子改写、集成学习、实体链接任务等多个前沿主题,如果你不能去到大会现场,先来看看这些精选论文吧。
zenRRan
2020/02/20
6990
2018 NLPCC Chinese Grammatical Error Correction 论文小结
这一段时间,笔者一直在研究语音识别后的文本纠错,而就在八月26-30日,CCF的自然语言处理和中文计算会议召开了,笔者也从师兄那里拿到了新鲜出炉的会议论文集,其中重点看的自然是其shared task2:grammatical error correction的overview以及优胜团队的论文。本文总结了优胜团队的论文并给出了一些可能的改进方向。
zenRRan
2018/10/09
2.3K0
2018 NLPCC Chinese Grammatical Error Correction 论文小结
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
本文将通过介绍入选NLP领域顶级学术会议 ACL 的论文,解读腾讯 AI Lab 的重点研究方向:自然语言理解、对话系统和文本生成,以及机器翻译等。
zenRRan
2019/08/19
1K0
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
推断速度达seq2seq模型的100倍,谷歌开源文本生成新方法LaserTagger
序列到序列(seq2seq)模型给机器翻译领域带来了巨大变革,并成为多种文本生成任务的首选工具,如文本摘要、句子融合和语法纠错。模型架构改进(如 Transformer)以及通过无监督训练方法利用大型无标注文本数据库的能力,使得近年来神经网络方法获得了质量上的提升。
机器之心
2020/02/24
6600
推断速度达seq2seq模型的100倍,谷歌开源文本生成新方法LaserTagger
ACL 2019对话系统论文综述,一文带你纵览16篇前沿研究
这次会议共接收到投稿 2905 篇,比 2018 的 1544 近乎翻倍,接收文章数为 660 篇,接收率为 22.7%,与 2018 年的 24.9%,2017 年的 23.3% 差别不大。
机器之心
2019/08/20
1.8K0
文字语义纠错技术探索与实践
文本语义纠错的使用场景非常广泛,基本上只要涉及到写作就有文本纠错的需求。书籍面市前就有独立的校对的环节来保障出版之后不出现明显的问题。在新闻中我们也时不时看到因为文字审核没到位造成大乌龙的情况,包括上市公司在公开文书上把“临时大会”写成为“临死大会”,政府文件把“报效国家”写成了“报销国家”。有关文本纠错的辅助工具能给文字工作人员带来较大的便利,对审核方面的风险也大幅降低。
用户10103085
2022/12/21
1.4K0
文字语义纠错技术探索与实践
重磅!一文彻底读懂智能对话系统!当前研究综述和未来趋势
作者:蒙 康 编辑:王抒伟 笔者在最近的研究中发现了一篇非常好的有关对话系统的论文,《A Survey on Dialogue Systems:Recent Advances and New Frontiers》,论文来自于京东数据团队,论文引用了近124篇论文,是一篇综合全面的介绍对话系统的文章,可谓是诚意满满,今天我们将其重点进行解读,以飨读者。 前言 1 拥有一个虚拟助理或一个拥有足够智能的聊天伙伴系统似乎是虚幻的,而且可能只在科幻电影中存在很长一段时间。近年来,人机对话因其潜在的潜力和诱人的商业
机器学习算法工程师
2018/03/06
2.9K0
重磅!一文彻底读懂智能对话系统!当前研究综述和未来趋势
当深度学习遇见自动文本摘要
本文介绍了深度神经网络在自动文本摘要任务中的研究进展。首先介绍了自动文本摘要任务的基本概念,然后详细阐述了基于深度神经网络的自动文本摘要方法,包括基于抽取式摘要和基于生成式摘要的方法。最后,文章对自动文本摘要方法的未来发展方向进行了探讨。
腾讯云开发者社区
2017/07/25
11.3K2
当深度学习遇见自动文本摘要
中文语法纠错全国大赛获奖分享:基于多轮机制的中文语法纠错
中文语法纠错任务旨在对文本中存在的拼写、语法等错误进行自动检测和纠正,是自然语言处理领域一项重要的任务。同时该任务在公文、新闻和教育等领域都有着落地的应用价值。但由于中文具有的文法和句法规则比较复杂,基于深度学习的中文文本纠错在实际落地的场景中仍然具有推理速度慢、纠错准确率低和假阳性高等缺点,因此中文文本纠错任务还具有非常大的研究空间。 达观数据在CCL2022汉语学习者文本纠错评测比赛的赛道一中文拼写检查(Chinese Spelling Check)任务中取得了冠军,赛道二中文语法纠错(Chinese Grammatical Error Diagnosis)任务中获得了亚军。本文基于赛道二中文语法纠错任务的内容,对比赛过程中采用的一些方法进行分享,并介绍比赛采用的技术方案在达观智能校对系统中的应用和落地。赛道一中文拼写检查的冠军方案会在后续的文章分享。
用户10103085
2022/12/22
9500
中文语法纠错全国大赛获奖分享:基于多轮机制的中文语法纠错
Transformer自动纠语法、改论文,我们试了试这个免费英文写作新神器
在当前疫情下,我们已经离不开居家学习了,各种备考也得提到日程上。机器之心的读者大多数都是理科生,数学、计算机都还是有一些「天赋」。然而对于英语,貌似这些天赋帮不到我们什么,缺乏「语感」的我们在写作文时经常会犯一些拼写、语法错误。
机器之心
2020/04/14
2.7K0
Transformer自动纠语法、改论文,我们试了试这个免费英文写作新神器
NLP任务之中文拼写 语法纠错 介绍与综述
在很多中文NLP相关的落地场景都会涉及到文本纠错的相关技术,例如跟各种形式机器人的语音或者文字对话,或者用手机扫描相关的PDF或者图片,或者跟人聊天时用输入法打字等等,无论是通过ASR识别的语音信息,通过OCR识别得到的图片信息,还是用户真实通过输入法的文字,都有可能出现错误。这些错误会影响文本的可读性,不利于人和机器的理解,如果这些错误不加处理,会传播到后续的环节,影响后续任务的效果。常见的中文错误类型包括以下几种:
大鹅
2022/07/20
4.2K1
全国中文纠错大赛达观冠军方案分享:多模型结合的等长拼写纠错
中文拼写检查任务是中文自然语言处理中非常具有代表性和挑战性的任务,其本质是找出文本段落中的错别字。这项任务在各种领域,如公文,新闻、财报中都有很好的落地应用价值。而其任务的困难程度也赋予了它非常大的研究空间。达观数据在CCL2022汉语学习者文本纠错评测比赛的赛道一中文拼写检查(Chinese Spelling Check)任务中取得了全国冠军,赛道二中文语法纠错(Chinese Grammatical Error Diagnosis)任务中获得了亚军。本文基于赛道一中文拼写检查任务的内容,对比赛过程中采用的一些方法进行分享,并介绍比赛采用的技术方案在达观智能校对系统中的应用和落地。赛道二中文语法纠错的获奖方案已经分享在达观数据官方公众号中。
用户10103085
2022/12/22
2.1K0
全国中文纠错大赛达观冠军方案分享:多模型结合的等长拼写纠错
推荐阅读
相关推荐
你的英语不行!微软亚研自动语法纠错系统达到人类水平
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档