问耕 编译整理 量子位 出品 | 公众号 QbitAI 神经网络持续在游戏界立功,这次拿下的是经典游戏:《马里奥赛车64》,而且只需要很小的计算力就能完成。 先来看看成果,这段视频是训练两天半之后的表
选自medium 机器之心编译 参与:Nurhachu Null、路雪 本文介绍了一种机器学习方法:通过增强拓扑的进化神经网络(Evolving Neural Networks through Augmenting Topologies,NEAT)。该方法受到进化过程的启发,能够将复杂问题分解,进而解决问题。 在这篇文章中我要阐述一种机器学习方法,叫作「通过增强拓扑的进化神经网络」(Evolving Neural Networks through Augmenting Topologies,NEAT)。
我们可以通过在Javascript中逐步形成神经网络来发展抽象艺术。见这里的画廊(gallery)。点这里尝试Web应用程序,并从头开始不断发展自己的艺术作品!
网按:本文为Cookie Engineer写就,主要对机器学习进行了简单的介绍,AI科技评论编译,未经许可不得转载。 经常有人问我如何开始学习机器学习,他们面临的最大困难就是机器学习背后的数学原理。我承认其实我也不喜欢数学。数学是对事物的一种抽象描述,用数学来描述机器学习,会过于抽象,且不容易理解。因此在这个系列的文章中,我尝试使用伪代码或者JavaScript来描述我所讲述的内容。 我在GitHub上创建了项目仓库,我会将一些实验代码同步到代码库中,以便您可以跟随我的步骤,或者在这些实验代码之上实现自己的
作者 | Murat Vurucu 编译 | 聂震坤 什么是NEAT? NEAT全称是增强拓扑神经网络(Neuroevolution of augmenting topologies),描述了在人类进
编者按:近年来,神经网络借鉴了生物学策略的相关理论知识,实现了大飞跃,完成了之前无法完成的任务。神经进化作为人工智能的一个研究领域,试图通过进化算法而非随机梯度下降来设计和构建神经网络。本文作者Paul Pauls,作为机器学习GDE和开源爱好者,他在Medium上写了一篇关于神经进化算法的文章,详细介绍了神经进化算法的基本概念,以及这几年重要的研究成果。
Joe Crozier 和我最近刚从YHack 回来,那是一个耶鲁大学举办的36小时编程马拉松,有1500人参加。这是我们连续第二年参加这个比赛,也是我们第二次成功进入前8 ! 我们的项目,“crAI
来源:Medium 作者:Nikolai Savas 翻译:王婉婷 Joe Crozier 和我最近刚从YHack 回来,那是一个耶鲁大学举办的36小时编程马拉松,有1500人参加。这是我们连续第二年
来源:otoro 编译:weakish 编者按:Google Brain机器学习开发者hardmu使用TensorFlow,基于CPPN网络生成了许多有趣的高分辨率抽象艺术图片。一起来看看他是怎么做的吧。 📷 钻石恒久远 本文尝试使用TensorFlow探索复合模式生成网络(Compositional pattern-producing networks)。相关代码放在github上。乍看起来,用TensorFlow实现CPPN是高射炮打蚊子,因为用numpy就可以实现CPPN。不过,用TensorFlow
使用Python实现《Flappy Bird》类,主要包括物理引擎和死亡机制以及像素精度碰撞检测
大概自 2012 年以后 [1],人工智能行业的爆发式增长几乎都是反向传播训练的(深度学习)神经网络模型所带来的。包括用于图形分类、自动语音识别、语言翻译、机器人以及能玩单人或多人游戏的自主智能体等领域的模型。
QQ图片20180204220437.jpg
利用递归神经网络玩的"史莱姆排球"游戏。你能打败AI吗?
开放的环境与物种间的竞争是达尔文进化论中实现自然进化的两个重要的驱动力,而这两个驱动力在最近的 AI 模型演进方法的研究工作中却没有体现出来,在同一个世代中,更快的黑斑羚和更快的猎豹比它们更慢的同类更容易生存下来——由此进化出更快的黑斑羚和猎豹品种。基于基因和自然选择理论的这些原理可以帮助AI获得大的进步么?
我记得在当年Java小程序仍然很受欢迎的时候有个游戏叫“软泥小排球”。虽然这个游戏在物理上面有一些投机取巧的部分,但是许多跟我一样的孩子却被它深深的吸引了,并且日以继夜的花费时间在宿舍打游戏而没有做其他实际性工作。
【新智元导读】神经演化方法在上世纪80年代被提出,由于神经网络的兴起而一度遭受冷遇。不过现在,谷歌大脑和 OpenAI 都在重新审视这种方法。通过在深度学习中引入大自然的智慧——演化/适者生存,我们能够得到更聪明、更有效的算法吗? 现代人工智能被开发来模仿自然——人工智能领域的主要追求是在计算机里复制人类生理决策的过程。 30 多年来,大多数 AI 在类脑方面的发展都围绕着“神经网络”,这个词借用了神经生物学的术语,将机器思维描述为数据在神经元——彼此相连的数学函数——之间的运动。但自然还有其他的妙法:计
选自QZ 作者:Dave Gershgorn 机器之心编译 参与:吴攀、黄小天、李亚洲 现代机器智能建立在模仿自然的基础之上——这一领域的主要目的是在计算机中复制人类通过生物方式具备的强大决策能力。
AI科技评论消息,最近,Youtube 上的知名游戏博主 SethBling 训练了一个叫 MariFlow 的神经网络来玩 Mario Kart 游戏。在进行15个小时的游戏训练并做了一些针对性的改进后,这个神经网络在 50cc Mushroom Cup 中获得了金牌。 这并不是 SethBling 第一次在游戏中应用神经网络“通关”。此前 SethBling 曾经创建了另一个神经网络MarI/O,通过训练,这个神经网络自己演变成玩“超级马里奥世界”(Super Mario World)的高手。SethB
一开始,它们什么都不懂,刚开局就GG。但有了进化算法 (Evolution) ,AI可以在一代一代更迭中,掌握强大的游戏技能。
Youtube 上的知名游戏博主 SethBling训练了一个叫 MariFlow 的神经网络来玩 Mario Kart 游戏。看懂他怎么做的,你也能举一反三。 最近,Youtube 上的知名游戏博主 SethBling 训练了一个叫 MariFlow 的神经网络来玩 Mario Kart 游戏。在进行15个小时的游戏训练并做了一些针对性的改进后,这个神经网络在 50cc Mushroom Cup 中获得了金牌。 这并不是 SethBling 第一次在游戏中应用神经网络“通关”。此前 SethBling 曾
它在MNIST数字分类任务上,未经训练和权重调整,就达到了92%的准确率,和训练后的线性分类器表现相当。
【新智元导读】新智元之前发布周志华老师的Deep Forrest论文引起了广泛关注和讨论。本文作者Ji Feng正是该论文的参与者,他在知乎上对这篇论文的评论做了几点评价,例如:没有BP到底行不行?端到端不是模型能够work的必要条件。 【Ji Feng】:作为论文参与者之一,我做的很有限,在这里擅自谈谈我个人对周老师gcForest的一点愚钝看法。这里声明:所有观点仅仅代表我个人。 先说几点个人的结论: 1. 这是一个Deep Model,只不过building blocks是决策树。 这篇工作不是来
国际财经媒体Quartz报道,据谷歌和美国“开放人工智能实验室”(OpenAI)的一项研究,类达尔文进化论的神经进化理论可以帮助人工智能算法进化优化。 现代人工智能是为了模仿自然而生,其最主要的目标就是将人类天生的决策能力复制到计算机中。 受人脑工作方式的启发,近三十年来人工智能的发展都围绕着“神经网络”。神经网络的概念借用自神经生物学,将机器的思考描述为在神经元这种相互连接的数学功能单元之间的数据传递。但是,自然界还有其它一些好概念。计算机科学家目前正在重新审视一门古老的学科,并建议将进化过程引入到人工智
昨天,谷歌大脑 David Ha 等人一篇名为《Weight Agnostic Neural Networks》的论文引爆了机器学习圈。其「颠覆性」的理论让人惊呼:「到头来我们对神经网络一无所知?」
神经网络负责处理画面中的一切信息,包括远处的风景,你每按下一次键控制车左转或右转、车撞到边栏等操作。
作者:Sirui Xie、Hehui Zheng、Chunxiao Liu、Liang Lin
强化学习的钟摆平衡问题我没有太多的研究。系统中似乎有许多状态,输出(电机速度)应该是一个连续的变量,它不能很好的工作,强化学习得到不同的速度,甚至产生更快、不变、更慢的离散状态。
【新智元导读】数据科学家 Flavian Hautbois 评选出了 7 月份他最喜爱的人工智能和数据处理相关论文的 Top 10。让我们来看看吧! 数据科学家 Flavian Hautbois 评选
翻译 | AI科技大本营(rgznai100) 参与 | Shawn Sicara团队精挑细选,了10篇在今年7月发表的大数据相关文章(Sicara是一家从事Agile数据开发的公司,总部位于巴黎),
在这篇文章中,我将介绍一下我们最近的文章[1609.09106] HyperNetworks。我作为Google Brain Resident工作在这篇论文上- 一个伟大的研究计划,我们可以从事一年的机器学习研究,并且享受工资和福利!Brain团队正在接受2017年计划的申请:请参阅g.co/brainresidency。
神经网络训练中 “权重” 有多重要不言而喻。但谷歌前段时间发表的研究表明,即使抛弃神经网络权重训练,使用随机共享权重,也可以执行各种任务。
前不久,我们报道了谷歌给出首个神经网络训练理论的证明。这一研究在训练深度神经网络被戏谑为 “调参炼丹” 的当下,犹如一道希望的强光,射进还被排除在 “科学” 之外的深度学习领域,激动人心。
属性网络在现实世界中被广泛的用于建模实体间的连接,其中节点的联通边表示对象之间的关系以及关于节点本身的描述中节点的属性信息。举了3个例子:
前不久,新智元报道了谷歌给出首个神经网络训练理论的证明。这一研究在训练深度神经网络被戏谑为 “调参炼丹” 的当下,犹如一道希望的强光,射进还被排除在 “科学” 之外的深度学习领域,激动人心。
无论是图像分类还是强化学习,在通过训练神经网络来完成一项给定任务时,都需要对神经网络中每个连接的权重进行调优。
本贴总结了2019年Reddit机器学习板块中分享的17个令人印象深刻的项目、研究、demo以及更多相关内容。其中既包括AI大厂的高光项目(GPT-2、StyleGAN等),也有小团队甚至个人做出的有趣的东西。希望小伙伴们能在这些精选资源中获得自己的收获。
随着深度学习在各个领域的井喷式进展,一些学术领域显得有些混乱。因此survey就显得至关重要。一篇好的survey能提供该领域的全面视角,还能帮助其他领域的学者更好的了解该方向,同时也能对该领域现存的问题进行收集总结等等。
为了筛选2019年一些令人惊叹的机器学习项目。根据reddit上机器学习类目中的内容,作者盘点了过去一年中最受欢迎的17个机器学习项目、研究论文、demo。希望你能在这个列表中获得一些鼓舞人心的、有教育意义的启发。
2019年即将过去。国外最热论坛Reddit的机器学习板块,也为大家提供了一个优秀的学习讨论场所。
导语 在深圳的研发部培训中,我们组给定一个有趣的课题便是:马里奥游戏的智能通关,本文就神经网络和增强学习两个点进行整理,并将我们最后用的NEAT算法以及扩展找到的DRL算法进行了简单梳理。如果能够在游
机器之心原创 作者:Angulia Chao 参与:Joni、侯韵楚、高振 让机器具备生物一样的进化能力一直是计算机科学的一个热门研究领域,今年三月份,谷歌的多位研究者提出了一种图像分类器的大规模进化方法,机器之心也曾报道过这项研究,参阅:《深度 | 谷歌和 OpenAI 新研究:如何使用达尔文进化论辅助设计人工智能算法?》。研究发布之后,机器之心的技术分析师又对这项重要研究进行了更加深度细致的解读。 论文:图像分类器的大规模进化(Large-Scale Evolution of Image Classi
Chapter 2.8 Hybrid Algorithm: Neuroevolution
今日,师兄说给我推荐一款神器——“LnCeVar”,我便迫不及待的上了PUBMED......
深度学习社区中对于大型神经网络的泛化性能已经有过很多讨论。尽管大型神经网络比更小的网络泛化得更好,但是原因并不是因为前者具有更多的权重参数,而是正如最近的一项研究工作所显示的,是因而更大的网络可以让优化算法在允许的一小部分解空间内找到好的解或者“彩票”。
我们定义了一些测试数据,方便验证函数的有效性;同时对于大多数初学者来说,明白函数的输入是什么,输出是什么,才能更好的理解特征函数和使用特征:
大家好,我是来自PaddlePaddle开源社区的李钊(@livc),目前是一名大三学生。我曾经在手机百度实习,参与推荐算法和反作弊的研发工作,目前是IDL的一名实习生。很开心作为PaddlePaddle Tutorials系列的作者之一参加 GitChat的分享。 在PaddlePaddle深度学习系列Chat的第一课中,官方开发组的张睿卿同学通过介绍一些深度学习的应用场景,带领大家了解深度学习的基本原理和工作方式,我们先来简单回顾下。 “人工智能”并不是一个很新的概念,它其实已经有60岁了,它的发展经历
【1】 Leveraging Local Domains for Image-to-Image Translation 标题:利用本地域进行图像到图像的转换 链接:https://arxiv.org/abs/2109.04468
hello诸君,暖阳高照,午间一杯清茶,又到了爬虫俱乐部向大家种草新命令新方法的时候啦! 许多同学学到的第一个Stata绘图命令想必就是scatter命令,该命令用于生成观测样本的散点图,但scatter命令存在一个缺点:当我们的数据集存在重复观测值时,scatter生成的图中不能体现那些“重合的散点”。而今天我们要介绍的命令专门用于解决这一问题——neat命令,它可以微调重复观测样本的变量值。使得其在散点图上清晰可见。 01 安装 你可以使用github 命令直接安装neat命令 github insta
领取专属 10元无门槛券
手把手带您无忧上云