腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
尝试
学习
如何
实现
单个
神经元
、
我在Pytorch中有这段代码,但是不能让它工作。我使用Numpy作为return (X.T * W).sum(axis=1) +B 但是使用Pytorch时,我一直收到这个错误... def neural_network_neurons(W, B, X): z1 = torch.matmul(X, W) + BW = torch.tensor([[1.2, 0.3, 0.
浏览 8
提问于2020-01-25
得票数 0
1
回答
ANN BackProp/梯度检验问题
、
、
我首先在10,000个MNIST数据示例上试用了它,然后在
尝试
复制符号函数时,以及在试图复制XOR门时又试了一次。每一次,无论时代的#,它总是产生输出的所有输出
神经元
(不管可能有多少)都是大致相同的值,但成本函数似乎正在下降。我使用的是批处理梯度下降,所有这些都是使用向量完成的(每个训练示例都没有循环)。__weights[w] - (.01*Weight_Delta_List[w]) 我甚至
实现
了梯度检查,并且值是不同的,我想我会
尝试
用Approx替换回传播
浏览 1
提问于2014-12-24
得票数 0
回答已采纳
1
回答
一种分段特征的神经网络分类
、
、
,是否有可能通过神经网络
实现
这一点?(使用的
神经元
/层数将不受限制) 编辑:你也能给出一个数字例子作为例子吗?
浏览 2
提问于2014-09-22
得票数 0
回答已采纳
2
回答
一个神经网络需要多少个时代才能学会平方?(包括测试结果)
、
、
、
、
我的目标是而不是,建立一个能为我计算数字平方的神经网络,但我认为这将是一个很好的实验,看看我是否正确地
实现
了反向传播算法。这看起来是个好主意吗?无论
如何
,我担心我没有正确地
实现
学习
算法(完全)。我的测试(结果): 使用偏置节
浏览 5
提问于2015-06-06
得票数 3
1
回答
是否有一条规则来查找和设置DNN隐藏层的
神经元
数量?
、
、
、
我的情况是:多类分类问题,有5个特征(列在我的数据中),15个类,
单个
标签。我的模型是:一个输入层有5个
神经元
,一个隐层有ReLU,一个输出层有softmax。我有两个问题: 输入层有多少个
神经元
?我试着调整输入层的
神经元
数量,比如77个
神经元
,性能提高了,我很困惑。我
尝试
了随机搜索cv来查找隐藏层的数量、
神经元
数量和
学习
速率,我在Scikit
学习
中使用了Randomizedsearchcv,然后best_params会显示如下内容:
浏览 10
提问于2022-06-19
得票数 1
回答已采纳
2
回答
测试损失在20小时后似乎增加了。
、
、
我使用8层完全连接的神经网络(tensorflow)训练MNIST,得到了如下结果。我能知道为什么测试损失在20年代之后增加了吗?这是因为过度适应吗?这些是网络配置:L2: 800 neuronsL4: 200 neuronsL6: 60 neuronsL8: 10 neuronsactivation function: Reludropout r
浏览 1
提问于2018-03-27
得票数 0
回答已采纳
1
回答
RNN/LSTM信元的解释
、
、
目前我正在
学习
RNN,特别是LSTM网络。我读过很多主题,包括和我仍然有一些误解。下面的图像来自,它表示
单个
RNN单元在时间上展开。1.我是否正确理解,从前馈神经网络的角度来说,RNN细胞不是
单个
神经元
,而是其内部的一层
神经元
? 文章中的另一张图像代表了在时间上展开的
单个
LSTM单元。2.基于第一个问题的逻辑,从前馈神经网络的角度看,LSTM细胞不是一个单一的
神经元
,而是一组4层的
神经元
,在它的内部?。
浏览 4
提问于2020-04-24
得票数 4
回答已采纳
1
回答
在人工神经网络中,损失函数的减少是否依赖于隐藏层中
神经元
的数量?
、
、
出于
学习
目的,我正在用python编写我自己的ANN。我已经为GD和激活函数
实现
了最常见的优化,并计算了数值梯度,以确保ANN计算的梯度是正确的。我已经
尝试
过非常简单的例子,它们工作得很好,但最近我试图用MNIST数据集训练一个ANN。我从数据集中的前100或1000张图像开始,只是为了获得要使用的隐藏层和每层
神经元
的数量的感觉。例如,我从16个
神经元
的
单个
隐藏层开始,对于提到的样本效果很好,损失函数逐渐减少,但是如果我使用几乎任何其他数量的
神经元
,则无论我使用多少个时
浏览 1
提问于2018-12-11
得票数 0
1
回答
从支持向量机到神经网络的移动(反向传播)
、
、
我读过一些关于神经网络是
如何
工作的文献,但是这个理论很重,我不知道它将
如何
适用于我的情况。所以,如果有人能帮我说清楚,尤其是神经网络的架构,那就太好了。如果有200个特征,这将
如何
导致神经网络的结构(就数字层(隐藏层)和中子而言)? 在支持向量机中,我有一个分类(基本正确和错误)和多类分类(标签),这种差异将
如何
适用于神经网络的输出层?
浏览 2
提问于2014-03-06
得票数 1
3
回答
卷积神经网络--多通道
、
、
、
当输入层存在多个通道时,
如何
执行卷积操作?(例如RGB) sum = 0.0 然而,我不明白
如何
扩展这个模型来处理多个
浏览 1
提问于2015-01-01
得票数 27
回答已采纳
1
回答
scikit
学习
如何
实现
输出层
、
、
、
在科学
学习
中,输出层有多少个
神经元
?正如所述的,您只能指定隐藏层的大小和它们的
神经元
,而不能指定输出层的任何内容,因此我不确定scikit是
如何
实现
输出层的。对于只有一个
神经元
的输出层,使用softmax激活函数有意义吗?
浏览 1
提问于2017-11-17
得票数 3
回答已采纳
2
回答
FeedForward神经网络:使用多个输出
神经元
的单类网络
、
、
、
我构建了一个具有以下结构的
单个
FeedForward网络: 我的问题是: 创建具有多个输出的
单个
网络是一种好方法吗?也就是说,我应该为每一个数字创建一个独立的网络吗?实际上,“10个分类器”共享隐藏层的相同
神经元
--我不确定--它是否降低了网络
学习
浏览 2
提问于2015-06-05
得票数 0
回答已采纳
2
回答
Logistic回归机器
学习
模型可以在这里工作吗?
、
、
、
、
我在上10年级,我希望在患者数据上使用机器
学习
模型来找到一周中的时间和患者依从性之间的相关性。我们的目标是创建一个机器
学习
模型,该模型可以意识到给定过去的数据,患者很可能会在下一个时间段19错过他们的药物治疗。我相信logistic回归必须用于仍然具有固有线性数据分布的数据,但我不确定。
浏览 27
提问于2018-12-20
得票数 0
2
回答
神经网络中
神经元
的进化
、
我研究了这个课题,我认为我对非增长的神经网络是
如何
工作的,以及它们的权重是
如何
进化的,我有足够的理解,但是我找不到一个解释,
如何
确定网络是否需要产生一个新的
神经元
,以及我应该从多少个
神经元
开始。我是一名计算机科学专业的学生,也是职业程序员,所以我对算法和图表有很好的理解,但我还没有
学习
人工智能。
浏览 3
提问于2017-04-15
得票数 0
回答已采纳
1
回答
多层感知器有时不收敛于正确答案- XOR
、
、
我已经
实现
了一个多层感知器,并首先设计了训练方法,以进行一定数量的训练。我针对XOR逻辑门对网络进行了训练,大多数时候网络会
学习
如何
解决问题,但偶尔网络只会
学习
两个训练示例,并停留在其他两个示例上。这是正常的,是一个多层感知器有时无法正确
学习
,还是这是我的
实现
中的一个错误。如果重要的话,
实现
是在C++中,并且多层感知器是标准的前馈反向传播神经网络;2个输入
神经元
,2个隐层
神经元
,1个输出
神经元
。 我是否应该使用两个输
浏览 0
提问于2013-07-17
得票数 1
回答已采纳
2
回答
从头开始
实现
dropout
、
、
、
此代码
尝试
使用dropout的自定义
实现
:import torch.nn as nn# import torchvision.transforms], Step [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, i+1, total_step, loss.item())) 自定义dropout
实现
为dropout_value = self.custom_dropout(self
浏览 0
提问于2019-01-09
得票数 18
回答已采纳
1
回答
神经网络不
学习
,收敛于一个输出
、
我正在
尝试
编写一个神经网络程序,现在我正在测试它。我已经将其简化为2个训练示例,其中2个输入和1个输入。它不会
学习
。我不知道
如何
在重载的情况下寻求帮助,所以我会把我正在做的事情贴出来:For i = 1 to 1000 For j = 1 to Samples
浏览 1
提问于2014-05-08
得票数 1
1
回答
有大量数据样本的神经网络的参数值应该是多少?
、
、
、
对于小数据集,我得到了很好的训练结果,但对于大数据输入,我无法设置
学习
率、动量率等恒定参数的值。对于
学习
率和动量率的设置有什么好的建议,以便我能快速得到结果。或者我应该引入增加
学习
率比率,如果我引入
学习
率,那么应该是什么值?
浏览 1
提问于2014-10-16
得票数 0
2
回答
CNN的辍学与FCNN的Dropout
、
、
在PyTorch nn模块中,有两种类型的辍学:一个Dropout2d -随机零出整个频道。使用Bernoulli分布的样本,每个信道将在每个前向呼叫上独立地被零点化,概率为p。 我的问题是当我们使用CNN时,我们在卷积层中使用的是哪一种。在这个纸中,有人说我们使用第一种。但我不太清楚一般的做法是什么。
浏览 0
提问于2019-06-06
得票数 4
1
回答
如何
保存神经网络的“构建块”?
我正在做一种神经网络,用
神经元
和“突触”。它有点像转盘b型网,连接可以去任何地方。它从一个随机生成的网络开始,它在
神经元
之间有随机连接。对
神经元
有不同影响的电、化学变异体。关键是: 网络基本上是与其他
神经元
相连的一系列
神经元
。我不知道
如何
做“交叉”,以形成新一代的表现最好的父母为基础的蚊帐。更具体地说,如果我基于
单个
连接组合它们,我将打破任何可能由特定的
神经元
和连接所形成的潜在“结构”或功能。这很可能是我错过了什么,我正在
学习
这一点,
浏览 0
提问于2015-02-01
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Nature | 揭秘人类语言产生的神经元机制:单个神经元如何编码自然语言
银杏教育拟开发人工智能在线学习平台 实现数字化教育新尝试
如何用TensorFlow实现深度学习常见训练技巧?
大数据是如何实现分析的,该怎样学习
如何使用 Julia 语言实现「同态加密+机器学习」?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券