Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >人工智能会取代人类棋手吗?棋王卡斯帕罗夫告诉你……

人工智能会取代人类棋手吗?棋王卡斯帕罗夫告诉你……

作者头像
企鹅号小编
发布于 2018-01-31 02:15:26
发布于 2018-01-31 02:15:26
7820
举报
文章被收录于专栏:企鹅号快讯企鹅号快讯

小编看到了一个很有趣的访问--Alpla Go之父Demis Hassabis与前国际象棋棋王卡斯帕罗夫一起讨论关于人工智是否能取代人类棋手的话题,于是特地翻译成中文,让大家围观一下两个天才之间的对话。

他们之间还有个小插曲。 早在20多年前他们就见过面,不过当时Demis还是个十几岁的毛头小伙,还有点狂妄自大,没想到一转眼他成了万众瞩目的人工智能界新星。所以,千万不要小看你身边不起眼的年轻人哦~

1

20年前有一个自大的小伙子

很多年前卡斯帕罗夫在伦敦举办了一个小型家庭聚会, 晚饭时曾偶然和一个小伙子聊过天。 这个小伙子是个国象神童--他在13岁的时候已经达到特级大师的级别(等级分2300 +),还同时担任好几个国际象棋青年队的队长。

男孩热情地向棋王介绍了他正在开发的电脑游戏。 他离开后,友人曾对卡斯帕罗夫说:“他真是个不知天高地厚的小伙子!““但是他也很聪明,”卡斯帕罗夫回答说。 谁也不知道那个狂妄自大的小伙子多年后会变成震惊全世界的人工智能之父-Demis Hassabis。

2

小伙子变身人工智能之父

二十多年以后,Demis Hassabis将他的软件公司DeepMind以5亿美元的价格出售给谷歌,并随后研发了一个人工智能系统,打败了无数围棋高手,一举成名。

前段时间,DeepMind再次刷新了人们对人工智能的认知,并且抢占了成千上万的主流新闻媒体的头条--因为他们开发了新一代人工智能系统AlphaGO Zero。AlphaGO Zero与AlphaGo最大的不同是做到了真正的自我学习,经过3天的训练,就以100:0的战绩完胜前代AlphaGo。”

最近Demis Hassabis在谷歌访谈节目中采访了棋王卡斯帕罗夫,以下为Demis采访卡斯帕罗夫和的部分内容:

1.你认为人工智能系统将对国际象棋产生怎样的影响?好的影响还是坏的呢?

卡斯帕罗夫:“技术是不分好坏的。它正在发生,我们必须适应它。 现在不同了,年轻一代的棋手们和我们的学习方式非常不同。

我记得我学棋时有很多书,每一本书都很珍贵,我有我的笔记本,我记录了我下棋时的分析并珍藏它们。在八十年代,他们是绝密和强大的武器。 但是现在,当你用电脑看它们的时候,你就会觉得这些秘密武器也许错漏百出。”

“当你看现在年轻的国际象棋棋手时,他们对待比赛的方式和他们看待棋子的方式是不同的。他们指出错误,给出一堆电脑数据。但当我问他们为什么这样的下法是错误的时,他们的回答是:“因为机器是这样说的。”“不知怎么的,他们的思想被机器所劫持了。”

卡尔森之所以如此成功以及他仍然是国象界的中坚力量的原因之一就是他从未把机器视为智慧的终极源泉。对他来说,这更像是一个计算器,来验证他对下棋的理解和分析的准确性。

卡斯帕罗夫信条:一个人加上一台机器将轻而易举地击败一台超级计算机。这是因为人增强了机器的创造力,而创造力是机器永远无法取代人类的原因。

人工智能在棋类领域展示了它不败的战绩,你认为在生活的其他领域它也将全面战胜人类吗?

卡斯帕罗夫:我无法忍受世界末日的预言。电影终结者2和3就讲述了人类加上机器的配合,打败了超级计算机的故事。这些事情迟早会发生的。试图减慢这个自然发展过程有什么意义呢?

我们用技术来代替人类活动的某些功能这绝对是正常的,这叫做进步。人类还能做很多事情,我们需要寻找新的挑战和新的领域。

在与深蓝的比赛中,人们希望你赢吗?(小编注:

大多数想让我输的人都是在国际象棋界的。我当了12年的世界冠军,很多人都想看到我输掉的一天。因为我在人类国象界已经是无人能超越了,他们就把希望寄托在机器上。”(笑)

如果可以,你会再次和深蓝来一场对战吗?(来自AlphaGo研究科学家Thore Graepel的11岁女儿维多利亚的提问)

呃... 有几个问题。第一,我退休了,不玩专业国际象棋了;第二,深蓝已死。我想在1998年能有机会再次和深蓝对战,但那已经成为历史了。我和其他电脑下棋,只要我还是一个活跃的棋手,我从不回避挑战。我写的一本书就是以我在1985年和电脑对战的故事开始的,那时我赢了所有比赛,但是没有人觉得意外--那是我的黄金时代: 机器很弱,我的脑子很强。(笑)

本文节选并编译自Chessbase.

原文作者Frederic Friedel

编译:余禾页

本文来自企鹅号 - 映美杯中国国际象棋甲级联赛媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 映美杯中国国际象棋甲级联赛媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ICML 2023 Workshop | Siamese SIREN:隐式神经表征的音频压缩
隐式神经表征 (INRs) 已经成为一种很有前景的表示各种数据模式的方法,包括3D形状、图像和音频。虽然最近的研究已经证明了 INRs 在图像和 3D 形状压缩方面的成功应用,但它们在音频压缩方面的潜力仍未得到充分开发。基于此,本文提出了一项关于使用 INRs 进行音频压缩的初步研究。
用户1324186
2023/09/27
5880
ICML 2023 Workshop | Siamese SIREN:隐式神经表征的音频压缩
Relu激活函数Out了?正弦周期激活函数在隐式神经表示中大显神威!
下图就是一些我们经常使用的激活函数,从这些激活函数的图像可以看出它们有的是局部线性的有的是非线性的,有的是一个函数表达式下来的,有的是分段的。但其表达式好像都不是很常见,给人一种应凑的感觉有没有?
AI科技评论
2020/07/15
2.4K0
Relu激活函数Out了?正弦周期激活函数在隐式神经表示中大显神威!
学界 | 深度神经网络为什么不易过拟合?傅里叶分析发现固有频谱偏差
众所周知,过参数化的深度神经网络(DNN)是一类表达能力极强的函数,它们甚至可以以 100% 的训练准确率记住随机数据。这种现象就提出了一个问题:为什么它们不会轻易地过度拟合真实数据?为了回答这个问题,我们使用傅立叶分析研究了深度神经网络。我们证明了具有有限权重(或者经过有限步训练)的深度神经网络天然地偏向于在输入空间上表示光滑的函数。具体而言,深度 ReLU 网络函数的一个特定频率分量(k)的大小至少以 O(k^(-2))的速率衰减,网络的宽度和深度分别以多项式和指数级别帮助网络对更高的频率建模。这就说明了为什么深度神经网络不能完全记住 delta 型的峰函数。我们的研究还表明深度神经网络可以利用低维数据流形的几何结构来用简单的函数逼近输入空间中存在于简单函数流形上的复杂函数。结果表明,被网络分类为属于某个类的所有样本(包括对抗性样本)都可以通过一条路径连接起来,这样沿着该路径上的网络预测结果就不会改变。最后,我们发现对应于高频分量的深度神经网络(DNN)参数在参数空间中所占的体积较小。
机器之心
2018/07/26
9870
学界 | 深度神经网络为什么不易过拟合?傅里叶分析发现固有频谱偏差
如何从频域的角度解释CNN(卷积神经网络)?
时域卷积=频域乘积,卷积神经网络大部分的计算也在卷积部分,如何从频域的角度思考卷积神经网络,如何从频域的角度解释ResNet。
abs_zero
2020/11/11
1.3K0
如何从频域的角度解释CNN(卷积神经网络)?
性能优于ReLU,斯坦福用周期激活函数构建隐式神经表示,Hinton点赞
这个非线性激活函数效果比 ReLU 还好?近日,斯坦福大学的一项研究《Implicit Neural Representations with Periodic Activation Functions》进入了我们的视野。这项研究提出利用周期性激活函数处理隐式神经表示,由此构建的正弦表示网络(sinusoidal representation network,SIREN)非常适合表示复杂的自然信号及其导数。
机器之心
2020/06/29
1.5K0
性能优于ReLU,斯坦福用周期激活函数构建隐式神经表示,Hinton点赞
ICML 2019 | SGC:简单图卷积网络
题目:Simplifying Graph Convolutional Networks
Cyril-KI
2022/11/17
8870
ICML 2019 | SGC:简单图卷积网络
SIREN周期激活函数
CNN强大的学习能力使其能拟合任意函数,然而这种网络架构无法对信号进行细致的建模,很难去表示信号在时域,空域的衍生信息。我们提出以「周期激活函数来表示隐式神经网络」,并「证明这些网络非常适合复杂的自然信号及其导数」。而在实验中也表明SIREN相较于其他激活函数对于音视频任务有更好的效果。
BBuf
2020/07/09
1.9K0
SIREN周期激活函数
另一个角度看神经网络回归-频域分析
神经网络模型被广泛应用在回归问题中。神经网络模型的回归精度与训练数据的分布有关。本文从训练数据的频域的角度来对该问题进行分析
绿盟科技研究通讯
2019/12/11
2K0
另一个角度看神经网络回归-频域分析
WACV 2023 | ImPosing:用于视觉定位的隐式姿态编码
标题:ImPosing:Implicit Pose Encoding for Efficient Visual Localization
3D视觉工坊
2023/04/30
3070
WACV 2023 | ImPosing:用于视觉定位的隐式姿态编码
上海交大 | 神经网络的两个简单偏好(频率原则、参数凝聚)
我是 2017 年 11 月开始接触深度学习,至今刚好五年。2019 年 10 月入职上海交大,至今三年,刚好第一阶段考核。2022 年 8 月 19 号,我在第一届中国机器学习与科学应用大会做大会报告,总结这五年的研究以及展望未来的方向。本文是该报告里关于理论方面的研究总结(做了一点扩展)。报告视频链接可以见:
ShuYini
2022/12/06
2.5K0
上海交大 | 神经网络的两个简单偏好(频率原则、参数凝聚)
深度神经网络中的数学,对你来说会不会太难?
选自MIT 机器之心编译 参与:Jane W 这是一篇讲解深度学习数学的系列文章,但并非是基础数学,还涉及到了拓扑与测度论等内容。本文为该系列文章的第一部分,机器之心会持续把后续内容全部放出。更规范
机器之心
2018/05/09
7050
深度神经网络中的数学,对你来说会不会太难?
2025最新卷积神经网络(CNN)详细介绍及其原理详解
本文详细介绍了卷积神经网络(CNN)的基础概念和工作原理,包括输入层、卷积层、池化层、全连接层和输出层的作用。通过举例和图解,阐述了CNN如何处理图像,提取特征,以及如何进行手写数字识别。此外,讨论了池化层的平移不变性和防止过拟合的重要性。 本文是关于卷积神经网络(CNN)技术教程,整体内容从基础概念到实际示例,逐层剖析 CNN 的各个组成部分与作用,并通过手写数字识别案例帮助大家更直观地理解其工作原理。
猫头虎
2025/06/08
1.4K0
2025最新卷积神经网络(CNN)详细介绍及其原理详解
NeurIPS 2023 | 神经网络图像压缩:泛化、鲁棒性和谱偏
目前,神经图像压缩(NIC)在分布内(in-distribution, IND)数据的 RD 性能和运行开销表现出了卓越的性能。然而,研究神经图像压缩方法在分布外(out-of-distribution, OOD)数据的鲁棒性和泛化性能方面的工作有限。本文的工作就是围绕以下关键问题展开的:
用户1324186
2024/01/04
5200
NeurIPS 2023 | 神经网络图像压缩:泛化、鲁棒性和谱偏
Tacotron2论文阅读
这篇论文描述了Tacotron 2, 一个直接从文本合成语音的神经网络架构。系统由两部分构成,一个循环seq2seq结构的特征预测网络,把字符向量映射为梅尔声谱图,后面再接一个WaveNet模型的修订版,把梅尔声谱图合成为时域波形。我们的模型得到了4.53的平均意见得分(MOS),专业录制语音的MOS得分是4.58。为了验证模型设计,我们对系统的关键组件作了剥离实验研究,并且评估了使用梅尔频谱替代语言学、音长和F0特征作为WaveNet输入带来的不同影响。我们进一步展示了使用紧凑的声学中间表征可以显著地简化WaveNet架构
mathor
2020/08/13
1.6K0
90后华裔教授一年连发三篇Nature子刊!首个量子神经网络QuantumFlow开源
---- 新智元报道   作者:姜炜文 编辑:好困 【新智元导读】近日,华裔教授姜炜文再获量子计算革命性突破,在QuantumWeek上开源了首个量子神经网络设计栈,加速了神经网络在量子计算机上的发展。 神经网络是当下计算应用中发展最快,使用最广的机器学习算法。然而,随着应用不断复杂化导致网络结构不断扩大,存储性能瓶颈已逐渐凸显。 在传统计算平台上,N个数字比特只能表示1个N位数据,然而在量子计算中,M个量子比特却同时能表示2^M个数据,并能同时操作这些数据。 量子计算机如此强大的存储与计算能力,使其
新智元
2023/05/22
3360
90后华裔教授一年连发三篇Nature子刊!首个量子神经网络QuantumFlow开源
一位上海交大教授的深度学习五年研究总结
我是2017年11月开始接触深度学习,至今刚好五年。2019年10月入职上海交大,至今三年,刚好第一阶段考核。2022年8月19号,我在第一届中国机器学习与科学应用大会做大会报告,总结这五年的研究以及展望未来的方向。本文是该报告里关于理论方面的研究总结(做了一点扩展)。报告视频链接可以见:https://www.bilibili.com/video/BV1eB4y1z7tL/
黄博的机器学习圈子
2022/11/07
9000
一位上海交大教授的深度学习五年研究总结
既是自编码器,也是RNN,DeepMind科学家八个视角剖析扩散模型
如果你尝试过目前最火的 AI 绘画工具之一 Stable Diffusion,那你就已经体验过扩散模型(diffusion model)那强大的生成能力。但如果你想更进一步,了解其工作方式,你会发现扩散模型的形式其实有很多种。
机器之心
2023/09/08
5710
既是自编码器,也是RNN,DeepMind科学家八个视角剖析扩散模型
图神经网络 GNN GAT & GCN(一)
知乎: https://www.zhihu.com/people/gong-jun-min-74
zenRRan
2020/04/21
3.6K0
图神经网络 GNN GAT & GCN(一)
最基本的25道深度学习面试问题和答案
近年来,对深度学习的需求不断增长,其应用程序被应用于各个商业部门。各公司现在都在寻找能够利用深度学习和机器学习技术的专业人士。在本文中,将整理深度学习面试中最常被问到的25个问题和答案。如果你最近正在参加深度学习相关的面试工作,那么这些问题会对你有所帮助。
deephub
2022/11/11
9840
最基本的25道深度学习面试问题和答案
解读 | 如何从信号分析角度理解卷积神经网络的复杂机制?
机器之心原创 作者:Qintong Wu 参与:Jane W 随着复杂和高效的神经网络架构的出现,卷积神经网络(CNN)的性能已经优于传统的数字图像处理方法,如 SIFT 和 SURF。在计算机视觉领域,学者们开始将研究重点转移到 CNN,并相信 CNN 是这一领域的未来趋势。但是,人们对成效卓著的 CNN 背后的机理却缺乏了解。研究 CNN 的运行机理是当今一个热门话题。基本上,有三种主流观点:1>优化、2>近似、3>信号。前两种观点主要集中在纯数学分析,它们试图分析神经网络的统计属性和收敛性,而第三种观
机器之心
2018/05/07
8570
解读 | 如何从信号分析角度理解卷积神经网络的复杂机制?
推荐阅读
相关推荐
ICML 2023 Workshop | Siamese SIREN:隐式神经表征的音频压缩
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档