腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
关联问题
换一批
神经网络近零参数去除的方法有哪些?
如何进行神经网络的剪枝操作?
神经网络中近零参数去除的意义是什么?
文章
(9999+)
问答
(5150)
视频
(3)
沙龙
(31)
1
回答
如何
实现
神经网络
中
近
零
参数
的
去除
/
剪枝
?
、
、
、
、
我需要删除
神经网络
的
近
零
权重,以便
参数
分布远离
零
点。removing nearzero weights and weight-scaling 我在这篇论文中遇到了问题:https://ieeexplore.ieee.org/document/7544366 我想知道
如何
在我
的
PyTorch/TensorFlow程序
中
实现
这一点,例如使用自定义激活层?或者定义一个损失函
浏览 25
提问于2021-04-08
得票数 0
回答已采纳
1
回答
如何
去除
信号
中
的
噪声?
、
、
、
我使用2000信号作为我
的
数据,其中一些是清晰
的
,有些是坏信号。所有清晰
的
信号都有峰值,所有的坏信号都像鼻窦,但有噪音。我正在使用
神经网络
对这些数据进行训练(代码如下)。贝娄有一个信号,我想保留,和一个有噪音
的
信号,我想删除它(第二个)。有什么方法可以做到吗?我想删除这些信号,因为当我做ANN训练时,它们会破坏我
的
准确性。两个信号:我
的
代码: X_train, X_test, Y_train, Y_test = train_test_split(X, Y, tes
浏览 0
提问于2022-09-13
得票数 1
1
回答
优化极大极小算法
、
、
、
、
我已经用JavaFX制作了TicTacToe和
的
游戏,并为每个游戏
实现
了AI。对于Nine Men's Morris,我还没有
实现
移除工厂,所以现在它更像是复杂
的
TicTacToe。我已经使用了带有alpha-beta
剪枝
的
极小极大算法,虽然AI做了相当不错
的
移动,但Nine Men's Morris
的
计算移动非常慢。如果我让AI玩整个游戏,需要几分钟。对于评估函数,我一直在使用评估板上每条线路
的
函数,其中线路值是
浏览 5
提问于2015-10-25
得票数 0
1
回答
在
实现
人工
神经网络
的
同时,
如何
减少训练值
中
的
误差?
、
、
问题是,在我
的
训练值
中
,我得到了一个几乎0.8-1.0
的
错误,这是不可接受
的
。我
如何
找到减少错误
的
方法?我试过降低训练率,但没有效果。我目前正在使用excel工作表
中
的
数据集来训练我
的
系统。下面是指向我正在使用
的
示例数据集
的
链接:,这里是我使用
的
代码:import xlrd if(
浏览 4
提问于2016-06-30
得票数 0
回答已采纳
4
回答
L1正则化在Keras/Tensorflow *真的*L1-正则化吗?
、
、
、
、
利用L1正则化方法对Keras
中
的
神经网络
参数
进行keras.regularizers.l1(0.01)正则化,得到稀疏模型。我发现,虽然我
的
许多系数接近于
零
,但它们
中
的
一些实际上是
零
。通过查看,它建议Keras简单地将
参数
的
L1范数添加到损失函数
中
。 这将是不正确
的
,因为
参数
几乎肯定永远不会像L1正则化时所期望
的
那样(在浮点错
浏览 8
提问于2017-03-31
得票数 13
1
回答
PyTorch -在
神经网络
中有效地应用TopK梯度坐标
、
、
、
我有一个序贯
神经网络
(标准ResNet模型),对于常数k (关于1000,但将来可能会增加),我想做以下工作: grad = torch.cat(param_grad
浏览 7
提问于2020-12-25
得票数 1
1
回答
特征选择,是否有可能将包装和嵌入式方法结合起来?
、
、
、
我用
神经网络
预测PM10浓度(一个回归问题)。由于包装方法依赖于模型,因此通过对数据集中所有特征进行优化
的
神经网络
模型将不能正常工作(因为包装器每次减少数据集中
的
特征,就必须重新调整
神经网络
的
隐层大小)。所以我
的
问题是,我可以使用嵌入方法(Lasso)作为包装方法
中
的
估计量吗?这是我要问
的
特性选择部分: from mlxtend.feature_selection import SequentialFeatureSe
浏览 0
提问于2019-09-01
得票数 0
回答已采纳
1
回答
initial_sparsity
参数
在基于sparsity.PolynomialDecay() TensorFlow 2.0量级
的
权重
剪枝
中
的
应用
、
、
我正在尝试教程,并遇到了
参数
initial_sparsity。从50%
的
initial_sparsity开始是什么意思?这是否意味着50%
的
重量从一开始就被修剪,然后
实现
了90%
的
稀疏性修剪?( end_step = 0, frequency=100} 初始化具有恒定稀疏性
的
剪枝
计划稀疏性应用于区间begin_step、end_step
的</em
浏览 3
提问于2020-01-31
得票数 6
2
回答
Tensorflow
中
变长序列
的
双向LSTM
、
、
我想在tensorflow
中
训练一个双向LSTM来执行序列分类问题(情感分类)。
如何
使用双向LSTM来管理这个问题?"sequence_length“
参数
是否自动从后向序列
中
的
高级位置开始工作? 谢谢
浏览 4
提问于2017-03-21
得票数 7
2
回答
如何
在PyTorch
中
修剪小于一个阈值
的
重量?
、
、
、
如何
修剪小于阈值
的
CNN (卷积
神经网络
)模型
的
权值(让我们考虑修剪所有<= 1
的
权值)。 对于一个以.pth格式保存
的
权重文件,我们
如何
实现
这个目标呢?
浏览 5
提问于2020-05-05
得票数 9
1
回答
在火炬
中
强制nn.Parameter (矩阵)
参数
中
的
结构
、
、
、
在PyTorch库
中
,可以定义具有某些初始值
的
神经网络
参数
nn.Parameter,例如,在我
的
例子
中
,我想对这个
参数
强制执行一些结构。例如,考虑一个严格
的
下三角形式(在矩阵
参数
的
情况下),因此some_param
的
形式如下:[a21 0 0 0 ] [a
浏览 8
提问于2022-03-07
得票数 1
1
回答
如何
拟合n个小于n
的
神经元
的
特征
、
、
假设我有一个由784个数字组成
的
特性,我想用它作为一个从
零
开始
实现
的
神经网络
的
输入,它
的
第一层有64个神经元。 我
如何
在64个神经元
中
输入784个数字?
浏览 0
提问于2023-03-30
得票数 0
回答已采纳
1
回答
两个
神经网络
的
骨干是
如何
训练
的
?
假设,我有一个骨干网络(卷积
神经网络
)。网络结束后,输出输入到两个
神经网络
中
。两者都建立在特征提取器(CNN)输出
的
基础上。现在,如果我想从
零
开始训练这个完整
的
网络,在两个不同
的
任务上,骨干网络之后
的
层权重可以很容易地更新,但是我应该
如何
更新骨干网络
的
权重。我
的
意思是,我可以计算两个损失
的
梯度,是主干网
中
梯度
的
平均值,还是一定要加权和?如果是加权
浏览 0
提问于2020-07-30
得票数 0
回答已采纳
2
回答
没有所有连接
的
神经网络
层
、
、
、
、
神经网络
稠密层
中
的
权重是(n,d)矩阵,我想强迫其中
的
一些权值始终为
零
。我有另一个(n,d)矩阵,它是条目可以是非
零
的
掩码。这个想法是,该层不应该是真正密集
的
,而是缺少一些连接(即等于0)。
如何
在使用PyTorch (或Tensorflow)进行培训时
实现
这一点?我不希望这些重量在训练时变成非
零
。 如果它不直接支持它,一种方法是在每次迭代训练之后将所需
的
条目归
零
。
浏览 3
提问于2020-09-14
得票数 4
回答已采纳
2
回答
CNN
的
重量
剪枝
、
、
当我在CNN上读到关于减肥
的
文章时,我感到很困惑。它是适用于所有的层,包括卷积层,还是只用于稠密层?
浏览 0
提问于2019-12-02
得票数 0
回答已采纳
2
回答
规范化为[0,1] vs [-1,1]
、
、
、
、
我已经阅读了一些关于使用
神经网络
进行关键点检测
的
教程。我注意到,对于输入(图像),通常除以255 (由于值在0和255之间,因此归一化为0,1 )。但对于目标(X/Y)坐标,我注意到更常见
的
是归一化到-1,1。造成这种差异
的
任何原因。X = np.vstack(df['Image'].values) / 255.
浏览 0
提问于2017-10-06
得票数 11
1
回答
如何
在Hibernate中使用临时表批量删除记录?
、
、
、
、
我发现创建了类似于MultiTableBulkIdStrategy
的
东西,但是我找不到
如何
使用它
的
任何例子。 我有遗留代码(使用hibernate 4.3.11),它使用临时表从多个表中进行批删除。在这些表
中
可能有1000行,但也可能有10毫行。因此,为了确保我不会用一些疯狂
的
delete来杀死DB,我创建了临时表,其中我一次放置(使用带有某些条件
的
select查询)1000个ids,然后使用这个临时表从4个表
中
删除数据。它是用上面提到
的
方法使用本机S
浏览 2
提问于2017-12-08
得票数 15
回答已采纳
1
回答
基于TD学习
的
经典反向传播
神经网络
在棋盘游戏中
的
应用
、
、
我想问一下,在棋盘游戏中使用标准
的
反向传播
神经网络
和TD学习方法是否有意义? 利用标准
的
反向传播算法,从整个游戏结束
浏览 2
提问于2012-07-04
得票数 3
回答已采纳
1
回答
是否有一种方法可以修复keras
中
节点
的
权重和偏差?
、
、
我正在训练一个ANN模型,它必须产生积极
的
预测(例如,一些物体
的
长度)。我计划
实现
这个约束
的
方法是在现有的
神经网络
末尾附加一个单节点层(输出层),并将此输出节点指定为
零
偏差。我想知道
如何
在训练过程
中
“修复”节点/层
的
权重和偏差。
浏览 26
提问于2021-01-07
得票数 0
1
回答
Python千层面
中
的
定权
神经网络
、
我试图用Python
中
的
千层面模块来训练
神经网络
。我不想要一个由lasagne.layers.DenseLayer定义
的
完全连接
的
网络。相反,我想将一些权重
参数
修正为
零
。有人知道怎么做吗?我找到
的
最接近
的
解决方案如下:layer1.params[layer1.W].remove("trainabl
浏览 0
提问于2016-08-07
得票数 0
点击加载更多
扫码
关注
腾讯云开发者公众号
洞察
腾讯核心技术
剖析业界实践案例
相关
资讯
Dropout可能要换了,Hinton等研究者提出神似剪枝的Targeted Dropout
优Tech分享|基于模型剪枝的高效模型设计方法
神经网络模型压缩与加速方法在边缘设备上的应用
MIT教授博士论文:面向深度学习的高效方法与硬件加速
自动驾驶中多模态下的Freespace检测到底如何实现轻量化
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券
首页
学习
活动
专区
圈层
工具
返回腾讯云官网