首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌 MorphNet:让你的神经网络更小但更快

在优化计算成本时,较低层网络中的高分辨率神经元比低分辨率神经元更容易受到修剪。当模型尺寸较小时,在修剪权衡上正好相反。 ? MorphNet 有针对性的正则化。矩形宽度与层中的通道数成正比。...拓扑变形:当 MorphNet 学习每层神经元的数量时,算法在一个层中稀疏所有神经元的过程中可能会遇到一种特殊的情况。...当一个层有 0 个神经元时,通过切断网络中受影响的分支,可以有效地改变网络的拓扑结构。...基线方法是使用一个宽度倍增器,通过均匀地缩小每个卷积(红色)的输出数量来权衡精度和触发器。MorphNet 方法的目标是直接 FLOPs,并在缩小模型时产生更好的权衡曲线(蓝色)。...在一个完整的周期中,正则化器和宽度乘法器在相同的成本(「x1」;紫色)下提高了精度,并在第二个周期(「x2」;青色)持续改进。

51440

MorphNet:更快更小的神经网络探索

在优化计算成本时,较低层网络中的高分辨率神经元比低分辨率神经元更容易受到修剪。当模型尺寸较小时,在修剪权衡上正好相反。 ? MorphNet 有针对性的正则化。矩形宽度与层中的通道数成正比。...拓扑变形:当 MorphNet 学习每层神经元的数量时,算法在一个层中稀疏所有神经元的过程中可能会遇到一种特殊的情况。...当一个层有 0 个神经元时,通过切断网络中受影响的分支,可以有效地改变网络的拓扑结构。...基线方法是使用一个宽度倍增器,通过均匀地缩小每个卷积(红色)的输出数量来权衡精度和触发器。MorphNet 方法的目标是直接 FLOPs,并在缩小模型时产生更好的权衡曲线(蓝色)。...在一个完整的周期中,正则化器和宽度乘法器在相同的成本(「x1」;紫色)下提高了精度,并在第二个周期(「x2」;青色)持续改进。

55410
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    基于机器学习的精准定位系统

    、WiFi网络和无线传感器网络等,存在的灵活度较低、成本较高的问题,提出一种基于机器学习的精准定位系统(PPS-ML)。...其中:实景GIS服务器存储设定空间内的三维地理信息和与之对应的实景图像库;图像训练服务器通过改进后的VGG-Net进行区域机器学习,训练图像分类器,并生成位置识别模型,传入定位服务器;定位服务器通过卫星定位系统粗略定位目标所在区域...360°实景图像,通过改进的VGG-Net进行图像训练,并生成各区域的位置识别模型,这些位置识别模型将传入定位服务器中等待调用;定位服务器调取无线摄像机联合卫星定位所确定区域的位置识别模型,通过该模型对无线摄像机采集到的图像进行分类识别...2048个神经元,第三个为输出层,该层连接Softmax函数以获得类别分数进行分类,类别个数根据实际位置点确定。...在训练的过程中希望当前输入属于某个类别的概率取到最大,因此网络使用多类别交叉熵函数(categorical-cross entropy)来计算损失,即i式中: 为种类数量; 为标签,当类别为

    66570

    PNAS | 理解单个神经元在深度神经网络中的作用

    2.2 场景分类器中神经元的角色 作者在文中提出疑问:在上述的图像分类神经网络中如何使用物体检测神经元? 网络压缩的研究表明,在确保整体神经网络分类准确度的同时,可以通过重新训练消除许多神经元。...估计单个神经元重要性的一种方法是研究删除该神经元对整体平均网络精度的影响。 为更细致地了解网络中每个神经元的逻辑作用,作者评估在移除单个神经元时,神经网络对每个单独场景进行分类的能力的影响。...在上图2-2 A中,当每个神经元从网络中单独移除时,四个 conv5_3 神经元对滑雪胜地的平衡分类精度造成的损害最大;剖析显示,这些最重要的神经元可以探测出滑雪场中突出的视觉概念。...2-2 B则表明当对场景类别中最重要的神经元全部删除时,所有类别的分类精度下降到接近机会的水平。...在研究过程中,作者发现神经元并没有严格的对应于像素模式,如图2-3 E:当烤箱或椅子部件神经元被激活时,会生成烤箱和椅子的各种视觉外观。

    84630

    【Nature重磅】谷歌AI自动重构3D大脑,最高精度绘制神经元

    自动分析大脑连接数据,将精度提高一个数量级! 连接组学(Connectomics)旨在全面地映射神经系统中发现的神经元网络的结构,以便更好地理解大脑如何工作。...对于分类器训练,数据集的一小部分由KNOSSOS的人类注释器分段。然后使用这些注释作为训练FFN的ground-truth。 ?...当神经纤维被诸如somata或血管的组织结构中断时,分割质量通常会降低,这些组织结构比典型的轴突,树突和FOV大几个数量级。...滞后和近似尺度不变性 由FFN重建的神经突形状取决于初始种子在神经突内的位置,并且当重建神经突的顺序或种子的位置改变时,它会发生显著改变。...第一个(“baseline”)方法结合了一个3D卷积神经网络,利用网格搜索对关联图域参数进行了优化,并对标记数据进行了随机森林分类器的聚类。

    95120

    神经网络中的量化与蒸馏

    通过减少模型中权重和激活的位宽度,缩小模型大小,从而潜在地提高推理速度。 神经网络有相互连接的神经元,每个神经元都有在训练过程中调整的权重和偏差。...量化旨在通过使用较低的位数(如8位整数)来表示权重和激活,来减少内存占用。但这引入了量化误差,所以量化的目标是在精度和内存使用之间取得平衡。...速度和硬件兼容性:在特定的硬件加速器上,低精度的算法可以更快。 内存效率:更少的数据意味着更少的内存带宽需求。 缺点 准确性权衡:较低的精度有时会影响模型性能。...当经验丰富的作者开发新的章节(更新教师模型)时,新作者也会编写他们的章节(更新学生模型),并在此过程中向经验丰富的作者学习。这两本书同时写作,两个作者的作品相互启发。...在神经网络中,这种方法涉及单个网络学习和自我改进,使用其更高级的层或后期的训练来增强其较早的层或初始阶段,有效地教会自己变得更高效和准确。

    29620

    神经网络 vs. 支持向量机

    image.png 随着时间的推移改进神经网络性能的技术列表有助于它击败SVM: 1.反向传播:多层感知器(MLP)具有输入、隐藏和输出神经层。...当堆叠时,较低层可以捕获较低级别的细节(即,将面与背景分开的线),中间隐藏层可以捕获中级细节(即,正方形和圆形),输出层可以检测到高级别的特征(即眼睛的像素位置)。...当RELU用于深层神经网络时,反向传播信号将减小到零或当它到达输入层时爆炸成大数,没有适当的反向传播信号,权重在下层中永远不会改变。...如果我们正在构建一个模型来识别狗的模型,那么我们可以使用模型的较低层来确定图像中的动物是否是狗。 6.更快的优化器:优化器计算反向传播信号,这有助于网络调整所有层的神经元权重。...Adam的表现优于其他优化者。 7.学习率调度:找到合适的学习率至关重要。强烈建议在开始时使用高学习率并在训练期间减少学习率。 8.l1/l2正规化:当性能与先前的时期相比实际下降时,停止训练网络。

    3.1K00

    如何确定神经网络的层数和隐藏层神经元数量?

    不论是回归还是分类任务,选择合适的层数以及隐藏层节点数,在很大程度上都会影响神经网络的性能。...二、隐藏层的层数 如何确定隐藏层的层数是一个至关重要的问题。首先需要注意一点: 在神经网络中,当且仅当数据非线性分离时才需要隐藏层!...但对于涉及时间序列或计算机视觉的复杂数据集,则需要额外增加层数。单层神经网络只能用于表示线性分离函数,也就是非常简单的问题,比如分类问题中的两个类可以用一条直线整齐地分开。...因此我的经验是,在使用BP神经网络时,最好可以参照已有的表现优异的模型,如果实在没有,则根据上面的表格,从一两层开始尝试,尽量不要使用太多的层数。...当神经网络具有过多的节点(过多的信息处理能力)时,训练集中包含的有限信息量不足以训练隐藏层中的所有神经元,因此就会导致过拟合。

    2K10

    超级干货 | 用万字文章总结25种正则化方法(值得收藏)

    一些图像处理任务,如图像分类和目标检测,已经通过使用卷积神经网络(CNN)性能得到了显著的改进。像ResNet和EfficientNet一样,许多架构在创建时已经在至少一个数据集上取得了出色的结果。...它通过增加CNN不同阶段的数据的可变性来操作。当处理图像时,最直接的方法是随机改变图像,比如旋转和翻转。 虽然这种类型的正则化工作得很好,但应该考虑到一些问题。...一些作品主要是基于Dropout进行的改进,当然其中也有一些是全新的方法。 1.5 正则化方法的缺点 第一个是标签不随输入或在神经网络的中层直观地改变。...对于目标检测任务,当只使用该数据集中的可用数据训练模型时,平均精度(mAP)提高了0.5,当训练数据与VOC2012训练数据集结合时,平均精度(mAP)提高了0.4。图4显示了随机擦除是如何工作的。...它的实验显示了ImageNet数据集上的相关结果,当使用ResNet-50时,Baseline精度提高了近2%,打败了其他正则化方法,如Cutout和AutoAugment,使用AmoebaNetB时,

    4.5K30

    GoogleNet_我和我的祖国论文摘要

    为了避免梯度消失,网络额外增加了2个辅助的softmax用于向前传导梯度。文章中说这两个辅助的分类器的loss应该加一个衰减系数,但看caffe中的model也没有加任何衰减。...为了解决什么问题提出的BN BN的来源 BN的本质 为了解决什么问题提出的BN 训练深度神经网络时,作者提出一个问题,叫做“Internal Covariate Shift”。...应用于最先进的图像分类模型,Batch Normalization与达到相同的精度的模型相比训练步数减少14倍,并且显著超过原始模型的精度。...使用辅助分类器 其实在第一篇论文中GoogLeNet中就使用了辅助分类器,使用了2个,那么它的优势就是 把梯度有效的传递回去,不会有梯度消失问题,加快了训练 中间层的特征也有意义,空间位置特征比较丰富...那么传统的卷积神经网络的做法,当有pooling时(pooling层会大量的损失信息),会在之前增加特征图的厚度(就是双倍增加滤波器的个数),通过这种方式来保持网络的表达能力,但是计算量会大大增加。

    35580

    戴琼海团队新作登上Nature:提出光电可重构计算模式,迈向AI新时代

    该工作的主要研究内容是:提出了一种光电可重构计算模式,通过构造一个衍射处理器(DPU),它可以有效地支持不同的神经网络,并实现数百万个神经元的高模型复杂度。...作者将训练后的神经网络进行测试,测试结果是:在手写数字图像和人类动作视频分类基准数据集上,其精度与电子计算方法相当。...此外,目前光神经网络的模型复杂度和实验性能都较低,导致网络性能(如分类精度)与最先进的电子神经网络相比存在较大差距。...所以,作者提出了一种用于大规模神经形态光电计算的可重构DPU,可以通过编程改变功能,从而构建不同类型的人工神经网络架构。此外,还配备了极高数据吞吐量的光学调制器和光电探测器。...作者评估了D-RNN++相对于读出节点数量的实验序列和动作精度,如上图所示。

    2.1K31

    赫尔辛基大学AI基础教程:先进的神经网络技术(5.3节)

    我们在前一节详细研究的简单分类器能力有限,甚至无法正确分类所有笑脸。...通过在网络中增加更多层并使用反向传播来学习权重理论上上可以解决问题,但会出现另一个问题:权重的数量变得非常大,因此达到令人满意的精度所需的训练数据量可能会变得大到不现实。...通常很难训练神经网络来基于输入图像的像素来检测这些特征,因为特征可以以不同尺寸出现在图像中的不同位置和不同上:移动物体或摄像机角度即使物体本身看起来相同,也会显著改变像素值。...当输入是猫的照片时,两个神经元被激活,一个用于左耳,另一个用于右耳。...在训练开始时,对抗模型很容易区分训练数据中的真实图像和生成模型的拙劣的尝试。然而,随着生成网络逐渐变得越来越好,对抗模型也被迫改进,循环一直持续到最终生成的图像几乎无法与真实图像进行区分。

    41220

    Soft-NMS – Improving Object Detection With One Line of Code

    随着深度学习的出现,滑动窗口方法被卷积神经网络生成的类别无关区域建议所取代。在目前最先进的检测器中,这些建议输入到分类子网络中来为他们分配特定的分数。另一个并行的回归网路对这些区域的位置进行精炼。...从那时起,贪婪最大抑制开始于一个带有得分S的检测框B列表。目标检测流程在过去十年内几乎没有改变。当AP被用作一个评估度量时,NMS依然达到了最佳的表现,因此被广泛的使用在最先进的检测器中。...因此,抑制所有邻近的低Nt检测盒将增加失误率。此外,当Ot较低时,使用像0.7这样的高Nt会增加误报,从而降低多个阈值的平均精度。...我们改变这些参数,并且用MS-COCO的minival集来衡量每个检测器的平均精度。注意,AP在0.3到0.6之间是稳定的,并且在这两个检测器的范围之外显著下降。...有趣的是,当不好的检测(假阳性)与好的检测(真阳性)有很小的重叠时,以及当它们与好的检测有较低的重叠时,Soft-NMS会有所帮助。

    2.1K20

    14.S&P2019-Neural Cleanse 神经网络中的后门攻击识别与缓解

    对于给定的任务和数据集,改变训练中对抗性输入的比例,使攻击成功率达到95%以上,同时保持较高的分类准确率。这一比例从10%到20%不等。然后利用改进的训练数据对DNN模型进行训练,直至收敛。...为了最大限度地减少对清洁输入的分类准确率的影响,当修剪的模型不再响应反向触发器时,停止修剪。 图 9显示了在GTSRB中修剪不同比例神经元时的分类准确率和攻击成功率。...当修剪10%到30%的神经元时,可以将攻击成功率降低到0%。然而,我们观察到YouTube人脸中的分类精度受到了更大的负面影响,如图21所示。...注意,当注入后门时,特洛伊木马攻击模型的分类精度会下降,原始未受感染的木马攻击模型的分类准确率为77.2%(表IV中未展示),当后门被修补后,该值就得到了改善。...如表IV所示,使用原始触发器的撤销学习实现了具有相似分类精度的较低的攻击成功率。因此,用反向触发器来撤销学习是一个很好的近似,可以用原始的方法来撤销学习。

    1.8K30

    脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能

    但是,当算法被转移到芯片上时,一旦在模拟组件上遇到不匹配,它们的性能就会崩溃。...突触电流由前一层的峰值和隐藏的循环连接乘以各自的权重(W)获得。刺激被整合到在神经元细胞膜(V)上,当神经元越过阈值时触发脉冲(S)。...(E)神经形态系统可以通过训练来进行稀疏活动的分类,当扫描正则化强度时,不止一个数量级的隐层脉冲计数中可以看到高性能状态。...替代梯度法有效地解决了芯片在计算机上训练时的缺陷。首先,脉冲神经网络利用芯片上模拟神经元的不同电压执行一项简单的任务,将电压记录发送回计算机。...在那里,算法自动学习如何最好地改变神经元之间的连接,以保持与模拟神经元的良好互动,并在学习的同时不断地在芯片上更新它们。当训练完成后,峰值神经网络可在芯片上执行任务。

    38620

    博客 | 闲话神经网络

    参考:神经网络用作分类器 十万个为什么 神经网络从名不见经传到现在大红大紫,成了AI浪潮的主力。...水果在平板上的坐标就是输入数据,维度是2,即x1和x2,线性可分,一个分类器就行;线性不可分的三角形区域,就得综合3个二分类器的结果,即y1、y2和y3围成的区域。其实,这就是有3个神经元的隐含层。...为了尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。...保证准确率的前提下隐藏层节点数最少可以是多少个? 《神经网络隐藏层节点数最少可以是多少个?》搭建了一个81*n*2的神经网络,通过改变n的值测量这个网络隐藏层节点数量的极小值。...虽然有研究表明,浅而肥的网络也可以拟合任何的函数,但需要非常的“肥胖”,可能一层就要成千上万个神经元,直接导致参数的数量增加到很多很多。当准确率差不多的时候,参数的数量却相差数倍。

    80130

    深度丨机器学习零基础?手把手教你用TensorFlow搭建图像识别系统(三)

    如果你已经通过我以前的博客文章,你会看到神经网络分类器的代码非常类似于softmax分类器的代码。...当使用到损失函数时,我会进一步讲述细节。 ? 由于神经网络有2个相似的图层,因此将为每个层定义一个单独的范围。 这允许我们在每个作用域中重复使用变量名。...后续改进 也许你正在想训练softmax分类器的计算时间比神经网络少了很多。...事实确实如此,但即使把训练softmax分类器的时间增加到和神经网络来训练所用的时间一样长,前者也不会达到和神经网络相同的性能,前者训练时间再长,额外的收益和一定程度的性能改进几乎是微乎其微的。...通过改变参数,如隐藏层中的神经元的数目或学习率,应该能够提高模型的准确性,模型的进一步优化使测试精度很可能大于50%。如果这个模型可以调整到65%或更多,我也会相当惊喜。

    1.4K60

    Meta-Transfer Learning for Few-Shot Learning:元迁移学习的小样本学习

    本文提出了一种新的元学习方法,称为meta-transferlearning(MTL),当仅使用少量带有标记的数据时,它可以帮助深度神经网络快速收敛,并且降低过拟合发生的概率。...本文还提出了一种新的学习策略,称为hard task(HT)meta-batch,以往的meta-batch包含的是一些随机任务,而HT meta-batch根据之前在训练时出现的具有较低验证准确度的失败任务...图1 MTL方法三阶段 如图1所示,本文的方法共包含3个阶段: a)在大规模数据集上训练一个DNN,并固定较低层级的卷积层作为特征提取器(Feature Extractor); b)在MTL阶段,学习特征提取器神经元的...这一阶段主要通过学习得到一个特征提取器Θ,在后续的meta-training和meta-test阶段,Θ将会被冻结,而这一阶段得到的分类器θ将会被去掉。...的损失来优化当前的base-learner(分类器)θ ′,也就是对θ 进行更新: ? 与式(1)不同的是,这里并没有更新Θ。

    3.5K20

    《Scikit-Learn与TensorFlow机器学习实用指南》 第10章 人工神经网络

    生物神经元接收短的电脉冲,称为来自其他神经元的信号,通过这些突触。当神经元在几毫秒内接收到来自其他神经元的足够数量的信号时,它就发射出自己的信号。 ?...例如,让我们构建一些执行各种逻辑计算的 ANN(见图 10-3),假设当至少两个输入是激活时神经元被激活。 ?...在 1949 出版的《行为组织》一书中,Donald Hebb 提出,当一个生物神经元经常触发另一个神经元时,这两个神经元之间的联系就会变得更强。...除了输出层之外的每一层包括偏置神经元,并且全连接到下一层。当人工神经网络有两个或多个隐含层时,称为深度神经网络(DNN)。 ?...(当这些类是互斥的时)。

    86631

    农林业遥感图像分类研究

    当各种深度学习模型尚未应用于计算机视觉领域时,有学者提出使用纹理基元森林(TextonForest)[5],和随机森林(RandomForest)[6]方法作为语义分割的分类器。...当网络包含两个或更多隐藏层时,通常称为深层神经网络。隐藏层中的每个神经元通过加权连接与相邻层中的所有神经元“完全连接”。当执行预测(正向通过网络)时,网络通过执行一系列矩阵运算来处理输入数据。...宽度和高度表示移动窗口尺寸或每个滤波器中神经元的排列,深度表示卷积层中的滤波器数量。每个滤波器都考虑了3D输入体积的全深度(原始输入图像或来自先前卷积层的堆叠特征图)。...假阴性的数量由地面实况对象的数量减去真阳性的数量产生。根据TP / FP分配,可以计算排序列表中每个实例的精度和召回率。精度(P)是与地面实况对象匹配的所有预测实例的百分比。...迭代训练时,使用 Early_stopping 算法检测训练过程,当验证集上的精度在 10 次迭代内没有提升时,采用 Early_stopping 的方式终止程序,并保存最优的模型参数,在下次修改超参数后继续在该模型的基础上微调

    97620
    领券