日前,深圳市光明区光明小学六年级412名学生在英语听说模拟考试中,迎来了“AI”考官。考试任务一键下发、语音发音音素级诊断、学情报告即时生成……AI贯穿了整个英语听说考试实施流程。在提高考务管理人员工作效率和评分精准度的同时,帮助老师搭建了“教、考、评”的教学链路数据闭环。此次英语模拟考试由腾讯英语君听说考试系统提供技术支撑。 临近期末,为了让学生尽快适应英语听说考试的形式和内容,光明小学六年级举行了英语听说模拟考试。考试前,光明小学的老师借助系统提供的题型设计能力和题库资源,创建了听选图片、听选信息、模仿
12月17日,中国政府采购网发布公告,宣布腾讯云计算(北京)有限公司成功中标,将为上海初中学业水平考试听说测试提供服务。从2021年开始,上海市初中学业水平考试外语科目将增设听说测试,考生规模9万余人。届时,腾讯教育将作为上海市教育考试院的官方中考评测引擎合作方(试运行)。为未来中考外语听说测试提供准确、智能、高效的评分服务。 (中标公告) 据了解,由腾讯教育旗下腾讯英语君团队研发的腾讯英语君听说考试系统、听说考试评分系统、听说考试模考系统是一套针对中高考英语听说考试评分环节的智慧化升级方案。依托腾
基于文本的翻译系统已经取得了非常大的进步,从最早的查词匹配、语法规则,再到神经翻译系统、Transformer预训练等,翻译结果越来越精准,支持的互译语言数量也超过了200种。
本文报告主要分享AI技术对语言教育引起的改变,着重介绍针对现今语言教育中存在的问题,进行自动化测评、自适应学习、场景智能对话等相关AI技术的研究与应用。
不知道AI落地趋势变化是否已让你感知?2018年下半年开始,技术先发正在被产品、场景为王替代。
近日,腾讯云计算(北京)有限责任公司中标深圳市光明区2020-2021学年上学期中小学期末考试英语听说项目,将为光明区教科院提供英语听说考试全流程技术支持服务。 据了解,此次项目涵盖光明区共41所中小学,包含小学、初中、高中三个学段,考生规模超过51000人。在此次期末考试中,各学校将采用腾讯教育旗下的腾讯英语君听说考试系统,进行英语听说考试的阅卷,同时通过行业首创的人工定标+机器学习+自有双引擎纠错评分的方式优化评分的准确度。 (深圳光明区玉律学校期末英语听说考试现场) 广东省早于全国其它地区已英语
---- 新智元报道 编辑:David 好困 【新智元导读】大热天的,别整天抱着单词本不放了,找个新朋友陪读陪聊陪作业,它不香么? 大家先来猜猜,这个「赛马场巨头」是什么? 没错,是「The Lord of the Rings」指环王。 显然,「赛马场巨头」主要是错误地理解了「Ring」的含义。其实,稍有常识的人都知道,Ring是指拳击台,所以「正确」的译名是:拳皇。(开个玩笑) 不过讲道理,你不太能苛求一个上世纪90年代的翻译。 但是在互联网发达的现在……烧烤「丈夫」就不太合适了吧。 以及,
“再穷不能穷教育,再苦不能苦孩子”,作为娃的爸妈,不仅仅要努力工作保证物质支持,更要关注娃的学习状况,而且时刻都怕娃“输在了起跑线上”,可是,现在孩子们的起跑线也太多了点,英语、各种艺术特长,甚至跳绳,忙的不亦乐乎。然而家长也不是全才啊,这不,我的姐姐最近就开始发愁女儿的英语口语问题了,自己发音不准确,报班又不知道哪家靠谱,眼看着孩子就要落后于小伙伴了,了解到这个情况后,我拿出英语课本,想到自己每次都是60飘过的英语成绩,又放了回去,拿起了我的武器——代码。
大型语言模型以其强大的性能及通用性,带动了一批多模态的大模型开发,如音频、视频等。
在中考英语听说微技能系列在线训练课堂中,学生通过电脑、平板学生端参与口语任务活动,学生每一个单词的发音在2秒内得到了精确到音节级别的评估反馈。3月22日,在深圳市龙岗区全区初中英语教研会上,龙岗区外国语学校的三位英语教师正基于腾讯英语君教考练平台,尝鲜英语听说云端教学新模式。 腾讯英语君是腾讯教育面向英语教学及听说训练考试打造的智慧英语听说教学解决方案。腾讯英语君依托行业领先的人工智能技术,助力英语听说教学实现音素级口语评测,并且打通课前、课中、课后的教学数据闭环,实现个性化教学的同时,促进“双减”政策的进
选自arXiv 作者:王雨轩等 机器之心编译 参与:李泽南、吴攀 最近,谷歌科学家王雨轩等人提出了一种新的端到端语音合成系统 Tacotron,该模型可接收字符的输入,输出相应的原始频谱图,然后将其提供给 Griffin-Lim 重建算法直接生成语音。该论文作者认为这一新思路相比去年 DeepMind 的 WaveNet 以及百度刚刚提出的 DeepVoice 具有架构上的优势。点击阅读原文下载论文。 现代文本转语音(TTS)的流程十分复杂(Taylor, 2009)。比如,统计参数 TTS(statist
“没想到我的中文语音测评分数竟然还没有英文高,看来我要好好练习一下自己的普通话发音了。” 1月9日,在腾讯2019微信公开课PRO展区,智聆口语评测体验现场受到参会者的“团宠”,黄色的屏幕前围满了跃跃欲试的参会者,都想测试下自己的中英文发音水平。“这是我第一次体验AI口语评测。之前觉得只有参加那种专业口语测评考试才有机会体验到,现在通过微信小程序就很简单的完成了。而且,单词、句子、段落、自由说、情景对话等评测模式一应俱全,还有不同维度的打分,对英语口语训练挺有帮助。”来自深圳的孙小姐在微信小程序上
Tacotron是谷歌于2017年提出的端到端语音合成系统,该模型可接收字符的输入,输出相应的原始频谱图,然后将其提供给 Griffin-Lim 重建算法直接生成语音
人工智能在最近几年很火,那人工智能到底能做些什么呢?教育又将会迎来怎样的变革呢?以下是科大讯飞研究院北京分院副院长付瑞吉的思考。 《科学》杂志预测,到2045年,人类工作的50%将会被AI所取代。因为中国有很多劳动密集型企业,所以中国77%的工作将会被AI取代。可以想象一下,到那个时候,我们去银行办理业务,柜台里做的都是机器人;去餐厅吃饭,都是机器人为我们服务。 那么AI在教育领域里都能做些什么呢? 我们每年的英语听说考试会有大概 3000万分钟的录音,如果全部由人工评分的话,工作量是非常巨大
中国教育装备展示会是由中国教育装备行业协会主办的全国性教育装备专业展会,以整合营销、调节供需、技术推广、聚焦联系和交易、产学研结合与产业联动等为功能,已发展成为我国乃至全球教育装备行业规模最大、影响最广、专业性最强的品牌展会。
机器之心报道 参与:机器之心编辑部 今日,微软研究团队表示,微软和微软亚研创造了首个在质量与准确率上匹配人类水平的中英新闻机器翻译系统。黄学东告诉机器之心,他们采用专业人类标注与盲测评分代替 BLEU 分值而具有更高的准确性,且新系统相比于现存的机器翻译系统有非常大的提升。因此,根据人类盲测评分,微软机器翻译取得了至少和专业翻译人员相媲美的效果。 微软亚洲与美国实验室的研究者称,其中英新闻机器翻译系统在常用的新闻报道测试集 newstest 2017 上达到了人类水平。该测试集由来自业界和学界的团队共同开发
AI科技评论消息:2017年10月4日,Deepmind发表博客称,其一年前提出的生成原始音频波形的深层神经网络模型WaveNet已正式商用于Google Assistant中,该模型比起一年前的原始模型效率提高1000倍,且能比目前的方案更好地模拟自然语音。 以下为Deepmind博客所宣布的详细信息,AI科技评论摘编如下: 一年之前,我们提出了一种用于生成原始音频波形的深层神经网络模型WaveNet,可以产生比目前技术更好和更逼真的语音。当时,这个模型是一个原型,如果用在消费级产品中的计算量就太大了。
今年8月,谷歌人工智能研究人员与ALS治疗发展研究所合作,分享了一个针对有说话障碍的人的语音到文本转录服务Euphonia项目的细节。他们表明,使用母语和非母语英语使用者的音频数据集和帕罗特龙(一种针对有障碍人群的人工智能工具)的技术,可以大大提高语音合成和生成的质量。
英语作为教育改革的热点学科,近年来越发强调对学生听说运用能力的考核。随着“双减”政策的深入,英语听说教学面临着提升课堂教学质量、提高作业设计水平的新命题。 近日,腾讯教育旗下智慧英语听说教学解决方案——腾讯英语君亮相深圳市龙岗区初中英语教研会,只需通过一个软件一套答题器,就可以帮助学校搭建起英语听说互动课堂,助力解决英语听说教学训练不足、学生口语水平难提升的问题,为“双减”之下的英语听说教学提质增效带来了新思考。 一键搭建英语听说互动课堂 音素级口语评测实时纠错 “哑巴英语”是中国学生学习英语常见的现象
夏乙 编译自 DeepMind Blog 量子位 出品 | 公众号 QbitAI 上个月,Google Assistant英语和日语版终于用上了DeepMind一年前推出的语音合成算法:WaveNet
谷歌DeepMind2016年的深度生成模型 WaveNet 将机器语音合成的表现与人类之间水平的差距至少缩减了 50%
随着元宇宙的火爆以及数字人建模技术的商业化,AI 数字人驱动算法,作为数字人动画技术链的下一关键环节,获得了学界和工业界越来越广泛的兴趣和关注。其中谈话动作生成 (由声音等控制信号生成肢体和手部动作)由于可以降低 VR Chat, 虚拟直播,游戏 NPC 等场景下的驱动成本,在近两年成为研究热点。
机器之心专栏 机器之心编辑部 华为东京研究所 - Digital Human Lab 与东京大学等合作进行了研究,提出了目前为止最大规模的数字人多模态数据集:BEAT。 随着元宇宙的火爆以及数字人建模技术的商业化,AI 数字人驱动算法,作为数字人动画技术链的下一关键环节,获得了学界和工业界越来越广泛的兴趣和关注。其中谈话动作生成 (由声音等控制信号生成肢体和手部动作)由于可以降低 VR Chat, 虚拟直播,游戏 NPC 等场景下的驱动成本,在近两年成为研究热点。然而,由于缺乏开源数据,现有的模型往往在由姿
失语症的特征是部分或全部丧失口头或书面沟通的能力。失语症患者可能在说话、阅读、写作、识别物体名称或理解他人所说的内容方面存在困难。常见的失语症是由脑损伤引起的,如在创伤事故或中风时的大脑缺氧。它也可能是由脑瘤、阿尔茨海默病或脑炎等感染引起的。失语症可能是暂时的,也可能是永久性的。失语症不包括因失去肌肉控制而造成的语言障碍。失语症可以根据其临床表现或者受损部位进行分类,其中,原发性进行性失语症(PPA)被定义为病人进行性、有限度的语言障碍,病程迁延多年,无占位病变、梗死或其他脑部病变可解释其临床表现,语言障碍为病程中唯一或突出的神经系统异常。
AI科技评论按:苹果的新一期机器学习开发日记来了~ 这次苹果介绍了通过讲话就能唤醒Siri的“Hey Siri”功能是如何从技术上实现的,同时也介绍了为了从用户体验角度改善“Hey Siri”的表现,苹果的工程师们都做了哪些取舍和调整。与之前的文章一样,苹果的产品开发中并没有令人震惊的新技术,但严谨、细致、以用户为中心打磨产品的态度是自始至终的。AI 科技评论编译如下: iOS设备上的“Hey Siri”功能可以让用户无需接触设备就唤醒Siri。在iOS设备上,有一个非常小的语音识别器一直在运行着,就等
这几天谷歌上线了一个名为“ Learn with Google AI”的在线学习网站,旨在教授大众人工智能和机器学习,让每一个人在零基础的条件下可以快速学习了解AI,这体现出一个现象:人工智能在经历2017年的酝酿后,正在进入大众领域。不只是越来越多的普罗大众知道了人工智能,更重要的是,人工智能就像三年前“互联网+”浪潮席卷教育、金融、娱乐等行业一样,正在渗透到各个行业,形成“AI+”效应,其中教育就是一个重点行业。 智能教育时代已经来临 2017年金融行业最热门的概念已不是互联网金融,而是FinTec
腾讯云智聆口语评测(英文版)(Smart Oral Evaluation-English,SOE-E)是腾讯云推出的语音评测产品,是基于英语口语类教育培训场景和腾讯云的语音处理技术,应用特征提取、声学模型和语音识别算法,为儿童和成人提供高准确度的英语口语发音评测。腾讯云智聆口语评测(英文版)支持单词和句子模式的评测,多维度反馈口语表现,可广泛应用于英语口语类教学应用中。
Meta 创建了一个能够翻译 200 种不同语言的人工智能模型,包括许多目前商业工具不支持的语言。Meta 正在开源该项目,希望其他人能够在其工作的基础上进行开发。
这是国际级会议第一次正式使用AI作为翻译。2018年博鳌亚洲论坛,真准备这么干。据称经过数月PK和方案选配,博鳌论坛最终选定了技术合作方。
Supermemo是个不错的背单词的软件(本人并不代理该软件,并非给它做广告),但实际上它可以用来记忆其它的材料。这个软件写得非常早,1992与就有DOS版本,可使用习惯与微软常见软件的风格很不一样,一开始上手时,非常非常的不习惯,用了这1年多才渐渐摸出点门道。
人工生成的人类语音被称为语音合成。这种基于机器学习的技术适用于文本到语音转换、音乐生成、语音生成、启用语音的设备、导航系统以及视障人士的可访问性。
这篇论文描述了Tacotron 2, 一个直接从文本合成语音的神经网络架构。系统由两部分构成,一个循环seq2seq结构的特征预测网络,把字符向量映射为梅尔声谱图,后面再接一个WaveNet模型的修订版,把梅尔声谱图合成为时域波形。我们的模型得到了4.53的平均意见得分(MOS),专业录制语音的MOS得分是4.58。为了验证模型设计,我们对系统的关键组件作了剥离实验研究,并且评估了使用梅尔频谱替代语言学、音长和F0特征作为WaveNet输入带来的不同影响。我们进一步展示了使用紧凑的声学中间表征可以显著地简化WaveNet架构
选自arxiv 机器之心编译 参与:吴攀、李亚洲、蒋思源 机器翻译一直是人工智能研究领域的重头戏,自去年谷歌推出了神经机器翻译(GNMT)服务以来,相关技术的研发并没有止步不前,在多语言翻译和 zero-shot 翻译上也取得了引人注目的进展。近日,谷歌大脑和英伟达联合发布的一篇论文《序列到序列模型可以直接转录外语语音(Sequence-to-Sequence Models Can Directly Transcribe Foreign Speech)》将机器翻译这方面的研究又向前推进了一步,实现了从一种语
教育技术的迭代发生了很多次,如果把学校教育作为知识传播的核心来讲,第一次迭代是邮寄函授,第二次迭代是广播电视大学的出现,第三次迭代就是互联网。
在我们的深夜、太平洋时间的上午 10 点,OpenAI 召开春季发布会,推出了一款名为GPT-4o的“旗舰级”生成式人工智能模型,并将在未来几周内在公司面向开发者和消费者的产品中迭代推出。该模型将向免费客户开放,这意味着任何人都可以通过 ChatGPT 访问 OpenAI 最先进的技术。
---- 新智元报道 编辑:Emil、小匀 【新智元导读】数据稀缺以及开发成本高,多语种识别和翻译被认为是机器翻译技术难以跨越的难题。但随着国际交流日益频繁,跨地域、跨文化间的无障碍沟通成为不断增长的刚性需求。近期科大讯飞表示,通过系统性创新,他们将在10年内让机器在70+语言之间实现互通。 下一个十年,人工智能会从「黑盒」变「白盒」吗? 下一个十年,人机共存时代会真正到来吗? 下一个十年,哪个学科又会与人工智能深入交叉,引发颠覆式的革新呢? 人工智能核心技术的逐渐成熟推动智能产品的落地,以语
选自Medium 作者:Bharath Raj 机器之心编译 参与:高璇、王淑婷 近期,skymind.ai 发布了一份非常全面的开源数据集。内容包括生物识别、自然图像以及深度学习图像等数据集,现机器之心将其整理如下:(内附链接哦~) 最近新增数据集 开源生物识别数据:http://openbiometrics.org/ Google Audioset:扩展了 632 个音频分类样本,并从 YouTube 视频中提取了 2,084,320 个人类标记的 10 秒声音片段。 地址:https://resea
英文作文的批改,以往完全依赖于教师的主观判断,既需要教师做大量重复性的工作,又难以规避批量批改中对细节错误的忽视。如何用机器又准又快的批改作文,给老师减负,就成了一个迫在眉睫的任务。
[深度数据]·深度学习数据集大全 数据来自 skymind.ai 整理 最近新增数据集 开源生物识别数据:http://openbiometrics.org/ Google Audioset:扩展了 632 个音频分类样本,并从 YouTube 视频中提取了 2,084,320 个人类标记的 10 秒声音片段。 地址:https://research.google.com/audioset/ Uber 2B trip data:首次展示 2 百万公里的出行数据。 地址:https://moveme
2020年12月29日,上海市浦东新区进才中学北校英语听说模拟训练测试圆满完成,腾讯教育及其官方指定深度战略合作伙伴朗鹰教育为本次考试提供全程技术支持与保障。通过腾讯教育旗下的英语君听说考试系统,在老师组卷、学生考试及考试监控等听说考试实施流程中,极大地提高了考务管理人员的工作效率;同时通过机器评分验证,有效提升了评分的准确度。 (进才中学北校英语听说考试现场) 在本次初中英语听说考试中,上海市浦东新区进才中学北校共有1395名学生参加,分布在羽山校区及苗圃校区,包含初二及初三两个年级。在考试之前,腾
近期,skymind.ai 发布了一份非常全面的开源数据集。内容包括生物识别、自然图像以及深度学习图像等数据集,现机器之心将其整理如下: 最近新增数据集 开源生物识别数据:http://openbiometrics.org/ Google Audioset:扩展了 632 个音频分类样本,并从 YouTube 视频中提取了 2,084,320 个人类标记的 10 秒声音片段。 地址:https://research.google.com/audioset/ Uber 2B trip data:首次展示 2
由微软亚洲研究院(MSRA)的自然语言处理(NLP)团队和Microsoft Redmond的语音对话团队的研究人员在斯坦福大学的会话问答(CoQA)挑战赛中处于领先地位。
还记得我们前几天发出文章《百度超谷歌跃升全球第二,硬核语音技术成抢夺智能音箱“C位”的王牌》吗?本篇文章我们将讲述 2019年深度学习语音合成的一些进展,其中有多篇工作来自百度研究院或百度硅谷人工智能研究院。
伦敦大学学院神经病学研究所(Instituteof Neurology, UCL)的DietgoL. Lorca-Puls等人在BRAIN期刊上发表的一项研究使用了经颅磁刺激仪(TMS)和未损伤的大脑来进行“功能定位”,并对中风后语言功能进行预测。该研究表示,他们的分类准确率比使用fMRI或者未使用“功能定位”的TMS刺激的方法的分类准确率更高。 Introduction 前人对正常人经颅磁刺激(TMS)的研究报道称,对在左前缘上回leftsupramarginal gyrus (SMG)或左额下回岛盖部
经典的文本转语音(以下称 TTS)系统包括多个独立训练或独立设计的阶段,如文本归一化、语言特征对齐、梅尔谱图合成和原始音频波形合成。尽管 TTS 已经能够实现逼真和高保真度的语音合成,并在现实中得到广泛应用,但这类模块化方法也存在许多缺点。比如每个阶段都需要监督,在某些情况下需要耗费高成本的「真值」标注来指导每个阶段的输出。此外,这类方法无法像机器学习领域很多预测或者合成任务那样,获得数据驱动「端到端」学习方法的全部潜在收益。
-免费加入AI技术专家社群>> 导读:谷歌大脑和Speech团队发布最新端到端自动语音识别(ASR)模型,词错率将至5.6%,相比传统的商用方法实现了16%的改进。 传统自动语音识别系统(ASR)一直被谷歌的多种语音搜索应用所使用,它由声学模型(AM)、发音模型(PM)和语言模型(LM)组成,所有这些都会经过独立训练,同时通常是由手动设计的,各个组件会在不同的数据集上进行训练。AM 提取声学特征并预测一系列子字单元(subword unit),通常是语境依赖或语境独立的音素。然后,手动设计的词典(PM)将声
大数据文摘翻译作品 翻译:阚玺(Cathy Xi Kan) 校正:孙强 如需转载,后台留言申请授权 概述:谷歌工程师利用和语言翻译类似的技术开发出了一个用于翻译图片主题的机器学习算法 将一种语言自动
每天给你送来NLP技术干货! ---- 来源 | 机器之心 排版 | PaperWeekly 本文提出的重构预训练(reStructured Pre-training,RST),不仅在各种 NLP 任务上表现亮眼,在高考英语上,也交出了一份满意的成绩。 我们存储数据的方式正在发生变化,从生物神经网络到人工神经网络,其实最常见的情况是使用大脑来存储数据。随着当今可用数据的不断增长,人们寻求用不同的外部设备存储数据,如硬盘驱动器或云存储。随着深度学习技术的兴起,另一种有前景的存储技术已经出现,它使用人工神经网
领取专属 10元无门槛券
手把手带您无忧上云