腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5575)
视频
沙龙
1
回答
在
PyTorch
中
实现
全
连通
层
丢
包
、
、
如何在
Pytorch
中将dropout应用于以下完全连接的网络: class NetworkRelu(nn.Module): super
浏览 29
提问于2019-03-14
得票数 5
2
回答
PyTorch
CNN线性
层
在
conv2d后的形状
、
、
我试着学习
PyTorch
,并遇到了一个教程,其中CNN的定义如下, def __init__(self):我不明白为什么线性特性的数量是4*7*7。我知道4是最后一个Conv2d
层
的输出维。 7*7是怎么进来想象的?
浏览 1
提问于2021-01-31
得票数 1
回答已采纳
1
回答
微调的正确方法--把一个完全连接的
层
训练成一个单独的步骤
、
我
在
caffenet中使用微调,它工作得很好,但是我
在
Keras 关于微调的博客
中
读到了这篇文章(他们使用经过训练的VGG16模型): “为了进行微调,所有
层
都应该从经过适当训练的权重开始:例如,你不应该把一个随机初始化的完全连接的网络放在一个预先训练过的卷积基础上这是因为随机初始化的权值引发的大梯度更新会破坏卷积基
中
的学习权重。
在
我们的情况下,这就是为什么我们首先训练顶级分类器,然后才开始与它并排微调卷积权。”因此,作为微调的另一步,它们
在
全
浏览 0
提问于2017-03-20
得票数 2
1
回答
卷积网络:
全
连接
层
中
的
丢
包
、
、
、
、
我
在
tensorflow.What
中
构建了一个小的卷积网络,我注意到如果我向完全连接的
层
添加一个丢弃概率,那么我必须使用较低的学习率,否则我会得到梯度超调。有没有什么可以解释为什么这种情况一直发生?
浏览 13
提问于2017-03-09
得票数 1
1
回答
在
pytorch
中
实现
丢
字
、
我想在我的网络
中
添加单词丢失,这样我就可以有足够的训练示例来训练嵌入“灌篮”令牌。据我所知,这是标准做法。让我们假设灌篮令牌的索引是0,填充的索引是1(如果更方便的话,我们可以切换它们)。这是一个简单的CNN网络,它
实现
了我期望它工作的方式: def __init__(self, params): logit = self.fc(pooled)不要介意填充物-火把没有
浏览 0
提问于2018-05-04
得票数 5
回答已采纳
2
回答
如何利用截断的SVD减小
全
连通
(`“InnerProduct”)
层
、
、
、
、
在
的“3.1截断SVD快速检测”一节
中
,作者提出了利用技巧来减少
全
连通
层
的大小和计算时间。给定一个经过训练的模型(deploy.prototxt和weights.caffemodel),我如何使用这个技巧将一个完全连接的层替换为一个截断的
层
?
浏览 0
提问于2016-11-08
得票数 7
回答已采纳
1
回答
接收UDP数据
包
、
、
为了发送UDP数据
包
,
在
FPGA上
实现
了一个自定义以太网程序。
在
接收端,有一个简单的UDP服务器接收这些数据
包
.我怎样才能找到
丢
包
的地方?工作和"FPGA“U
浏览 1
提问于2022-03-31
得票数 0
回答已采纳
1
回答
访问Tensorflow/Keras
中
的输入层数据
、
、
、
、
原作者采用了预先训练的网络,
在
全
连通
层
和卷积
层
之间添加了“超像素池
层
”。在这一
层
中
,对卷积特征映射进行上采样,并对每个超像素的特征进行平均。我的问题是,为了成功地
实现
这一点,我需要计算每幅图像的超像素。如何访问批处理过程
中
由keras/tensorflow使用的数据来执行SLIC过度分割?分别处理输出,然后将它们送入一个完全连接的
层
。然而,这使得不可能对网络进行进一步的培训。
浏览 3
提问于2017-06-16
得票数 0
回答已采纳
1
回答
当使用交叉熵损失时,是否应该使用softmax作为输出?
、
、
、
针对
中
的MNIST数据集,对2
层
隐
层
的
全
连通
深神经网络进行了分类。 我想在两个隐藏
层
中使用tanh作为激活,但最后,我应该使用softmax。为此,我选择了nn.CrossEntropyLoss() in
PyTOrch
,它(正如我所发现的)不想使用一个热编码的标签作为真正的标签,而是使用类的LongTensor。
浏览 0
提问于2019-04-14
得票数 30
回答已采纳
1
回答
Torch:为什么当数据大小相同时,卷积
层
比
全
连接线性
层
还要慢?
、
、
、
、
我正在用torch7(LUA5.3),
实现
一个神经网络来训练mnist数据集,但是我
在
torch中发现了两个奇怪的问题:我做了一些简单的实验来证明:(1)当批处理尺寸为500,特征尺寸为784(28 * 28)时,对于完全
连通
的线性
层
,输入大小为(2)<
浏览 7
提问于2017-12-22
得票数 1
1
回答
通过一个连接连接到我们的EC2实例,而不是其他连接。
、
、
、
、
我们
在
北奥斯汀的戴尔校园部署了一个自动咖啡师,通过时代华纳有线公司提供互联网服务。OSX Yosemite膝上型计算机A通过电缆调制解调器20% - 30%的
丢
包
冲击我们的美东EC2实例。iPhone B通过LTE
包<
浏览 0
提问于2015-09-22
得票数 0
1
回答
什么是交错
层
的卷积?
在
FaceNet纸
中
,他们这样描述泽勒&费格斯模型:交错是什么意思?这与起始
层
相比如何?特别是,正如泽勒和费格斯纸业所说的 我们
在
整个论文中使用标准的完全监督的convnet模型(LeCun等人,1989年)和(Krizhevsky等人,2012年)。...网络的前几层是传统的
全
连通
网络,最后一
层
是softmax分类器。
浏览 0
提问于2016-11-18
得票数 1
回答已采纳
1
回答
(None,None,1)输入
在
keras
中
是如何工作的?
、
、
、
我正在做一个使用keras深度学习模型的项目,我需要将其转移到
PyTorch
中
。该项目的目标是
在
图像上本地化一些元素。为了训练它,我首先使用从图像中提取的补丁,然后
在
完整图像上进行推断。我读到可以使用(None,None,1)作为keras输入
层
的输入形状,目前它正在工作。然而,相同的训练系统
在
pytorch
中
似乎不起作用。因此,我想知道当我开始对
全
图进行推断时,(None,None,1)输入
层
是否做了一些特定的事情
浏览 2
提问于2019-10-03
得票数 1
1
回答
阿尔卡特朗讯OmniSwitch 9600的高平次与
丢
包
、
、
、
我们有两个阿尔卡特9600核心开关的冗余配置和两个分配开关(阿尔卡特6850's)
在
另一
层
连接的光纤到核心开关。见下图。把10.46.1.5从10.46.1.6我得到
丢
包
。从10.46.1.6到10.46.1.8,我没有
丢
包
。
浏览 0
提问于2014-04-16
得票数 1
2
回答
在
TensorFlow或
PyTorch
中
仅创建和训练指定的权重
、
、
、
、
我想知道
在
TensorFlow、
PyTorch
或其他库
中
是否有一种方法可以选择性地连接神经元。我想要在每一
层
中
建立一个具有非常多神经元的网络,但
层
之间的连接很少。我
实现
了一个自定义keras
层
,使用的方法基本上与问题中的方法相同-本质上是通过创建一个密集
层
,其中除了指定的权重之外,所有的权重在训练和评估中都被忽略。
浏览 3
提问于2018-10-18
得票数 0
3
回答
在
角膜
中
添加lstm
层
后的
全
连通
层
、
、
在
keras
中
,我知道要创建这样一种LSTM
层
,我应该编写以下代码。但我不知道该如何添加致密
层
,从LSTM细胞
中
获取所有信息,并输出多个神经元。我甚至不知道这是否可能。我很感谢你的帮助。
浏览 1
提问于2019-03-31
得票数 0
回答已采纳
2
回答
TCP可以接受无序段吗?
、
、
、
、
TCP是面向连接的协议,IP不是面向连接的协议.
在
发送到传输层排序操作之前,任何数据
包
都必须在网络
层
中
完成。这就是为什么我们通过TCP
在
传输
层
中
获取有序数据
包
的原因。
在
TCP流控制
中
,无论何时,一些数据
包
都可能丢失,并且有可能出现订单错误传递。但我们总是能得到有序的确认。我的问题是
丢
包
是TCP无连接的唯一原因吗?我很难理解这个概念。
浏览 0
提问于2021-09-08
得票数 0
回答已采纳
1
回答
TCP如何处理物理
层
中
的数据
包
丢失
、
、
我同意第一部分关于TCP如何处理
丢
包
的问题,但不确定在物理
层
中
响应不正确的第二部分。 ( a) TCP协议固有的一个假设是,丢失确认(ACK)是由网络
中
的拥塞引起的。解释TCP如何响应丢失的确认,并讨论当物理
层
作为无线载波
实现
时,为什么此响应不正确。简要讨论这种情况的后果。
浏览 4
提问于2018-01-02
得票数 0
回答已采纳
1
回答
将丢弃应用于LSTM网络
中
的输入
层
(Keras)
、
、
、
在
Keras
中
是否可以将
丢
包
应用到LSTM网络的输入
层
?(LSTM(10, input_shape=(look_back, input_length), return_sequences=False))我们的目标是
实现
以下效果
浏览 11
提问于2018-07-27
得票数 1
回答已采纳
1
回答
udp
丢
包
、
、
、
、
该程序是
在
Delphi7 (TldUDPClient和TldUDPServer组件用于发送和增强数据)
中
编写的。我需要测试这个程序
在
30%的数据
包
丢失。这是我的网络组件和
丢
包
模拟之间的能力问题吗?或者
在
实际情况下,当我遭受
包
丢失时,我也会看到这一点吗?我可以使用哪一个防火墙或其他软件来模拟
丢
包
?
浏览 3
提问于2011-11-23
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
商川科技携手三维家,在中至信家居实现100%全覆盖精准对接
龙门石窟在全省5A景区中率先实现5G全覆盖
华为发布业界首个无损工业光网解决方案,打造超高可靠工业网络
如何排查网络丢包问题
继linux命令之后,我又给你们整理了网络命令归纳,快给我来收藏
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券