腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(242)
视频
沙龙
1
回答
在
添
加我
自己
的
致密
层
后
,
vgg16
模型
的
可
训练
参数
发
生了
变化
、
、
、
、
vgg16_model = tf.keras.applications.vgg16.VGG16() model=顺序() 对于vgg16_model.layer中
的
层
:-1 model.add(layer) model.summary() #去掉最后一
层
致密
层
? 对于model.layers中
的
层
: layer.trainable=False #for transfer learning i have freeze the layers Mode
浏览 28
提问于2021-01-10
得票数 0
4
回答
深度学习:使用预
训练
网络
的
早期激活
、
、
我有大约25k张图像,属于14个不同
的
类别(不同种类
的
颈线,例如v形颈,圆颈等)。图像主要包含服装
的
顶部和/或
模型
的
面部。下面是一些示例: 为了做到这一点,我想在
VGG16
的
第一个块(
在
imagenet上预先
训练
)之后提取特征,因为前几个块
的
特征图将捕获物体、线条、形状等。============Trainable params: 3,3
浏览 0
提问于2018-02-03
得票数 2
1
回答
在
Keras
的
BatchNormalization
层
中,attrubutes‘
可
训练
’和‘
训练
’有什么区别?
、
、
、
、
根据tensorflow
的
正式文件:设置layer.trainable = False
的
意思是冻结该
层
,即它
的
内部状态
在
训练
期间不会改变:它
的
可
训练
权重不会在fit()或train_on_batch()期间被更新,它
的
状态更新也不会运行。通常,这并不一定意
浏览 12
提问于2020-07-04
得票数 3
回答已采纳
1
回答
有没有一种方法可以改变DL4J中神经网络
的
拓扑结构,而不必对其进行再
训练
?
、
、
、
、
我需要对已经经过培训
的
现有deeplearning4j (DL4J)
模型
进行更改。网络由一个输入
层
、一个Graves LSTM和一个RNN输出
层
组成。我
的
问题是:是否有可能在LSTM
层
中添加一个或多个未经
训练
的
神经元,而不必重新构建新
的
配置
模型
(我认为这需要再培训)?我想做这样
的
事情,比如,将一个或多个神经元添加到一个现有的
层
中,或者将一个完整
的
层</em
浏览 2
提问于2018-05-27
得票数 3
回答已采纳
3
回答
良好
的
训练
/验证准确性,但测试精度不高
、
、
、
、
我使用
VGG16
预
训练
模型
训练
了4种眼病
的
分类
模型
。我对机器学习非常陌生,所以我不知道从结果中得出什么。在对9万张图片进行了大约6个小时
的
训练
之后:验证损失一直保持
在
1-2之间(准确性确实提高到85%) (我意外地重新运行了单元格,无法看到输出)
在
查看了混淆矩阵之后,我
的
测试似乎表现不佳。我还保存
浏览 1
提问于2020-08-10
得票数 0
回答已采纳
2
回答
VGG 16
模型
训练
与tensorflow
、
、
我正在尝试使用来自keras
的
VGG16
来
训练
图像检测
的
模型
。因此,我想知道,下面的代码做错了什么吗?np.math.ceil(len(x_train) / batch_size)) input_tensor =
浏览 4
提问于2021-01-26
得票数 0
回答已采纳
1
回答
一个简单
的
神经网络可以学习应用于四个数字求和
的
正弦函数吗?
、
、
、
、
我有一个简单
的
多层感知器,只有一个隐藏
层
,
在
隐藏
层
和输出
层
都有tanh激活。作为作业
的
一部分,我创建了一个包含1000个示例
的
数据集。我使用前80%
的
数据集来
训练
MLP,并在最后20%
的
数据集上每1000个时期测试一次,直到50000个时期。使用MSE损失函数,
训练
和测试损失总是相对相似的,但在50,000个
训练
周期期间不会减少太多,并且会上下跳跃相当多。
训练
和测
浏览 1
提问于2018-04-29
得票数 0
7
回答
为什么VGG-16
训练
的
准确性没有多大
变化
?
、
、
、
目前,我正试图
在
VGG-16
模型
上
训练
一个数据集。问题是,准确性没有太大
的
变化
,但它并没有坚持一个固定
的
准确性。图中
的
情节如下。有什么建议吗?我遵循了几个指南来解决这个问题,这个问题是关于卡住
的
准确性,但它们不起作用。200年代具有Imagenet权值
的
50个历元代码 该
模型
的
输入大小为224x224x3
的
600幅图像。此外,两个标签狗和猫
浏览 0
提问于2019-05-19
得票数 5
3
回答
任何CNN
模型
(包括
VGG16
)
在
二进制分类中
的
50%验证准确率
、
、
、
、
我对CNN非常陌生,我有一个二进制分类问题,产
生了
50%
的
验证精度。我尝试过创建
自己
的
模型
,并实现了
VGG16
,所有这些都使验证
的
准确率达到了50%左右。import warningsfrom tensor
浏览 5
提问于2020-08-12
得票数 0
2
回答
DNN中
的
可学习
参数
、
我最近遇到了“可学习
参数
”这个术语,谷歌搜索并没有多大帮助,因为大多数搜索都是
在
CNN而不是DNN中描述可学习
的
参数
。这两者有什么区别吗? 如何计算DNN中可学习
参数
的
数量?我是机器学习
的
新手,所以我希望能在这方面提供一些帮助。
浏览 0
提问于2019-03-23
得票数 1
2
回答
使用张量流自定义对象检测增加类数W/附加数据
的
细化
模型
问题
、
、
、
、
以Tensorflow
的
自定义对象分类API w/ SSD MobileNet V2 FPNLite 320x320为基础,我能够
训练
我
的
模型
使用
训练
数据1(约200幅图像)成功地检测A和B类。这在测试集1上执行得很好,它只有A类和B类
的
图像。 我想在
模型
中添加几个类,所以我构建了一个单独
的
数据集,
训练
数据2(大约300张图像)。该数据集包含B类和新
的
C类、D类和E类
的
标记数据,但是它不包
浏览 3
提问于2021-04-08
得票数 0
2
回答
Tensorflow中具有3个隐藏DenseVariational
层
的
回归
模型
--
训练
过程中返回nan作为损失
的
概率
、
、
、
、
在
训练
期间,
模型
返回nan作为损失(可能意味着导致溢出
的
巨大损失)。由于合成数据
的
函数形式并不过于复杂,数据点与
参数
的
比率乍一看也不可怕,至少我想知道问题出在哪里,以及如何纠正它。代码如下--附带一些可能有用
的
图片: mo
浏览 4
提问于2020-11-23
得票数 0
2
回答
摆脱过度适应有什么意义?
、
、
我知道,如果您
的
模型
太大或者数据太稀疏,那么您
的
模型
可能会开始记忆数据,并且
在
新数据上表现不佳。但是,在哪些情况下,添加退出、正则化等会提高验证集
的
准确性?例如,如果我
的
训练
acc为95%,val
的
准确率为70%,那么排除过度是否只会使
训练
精度降低到val
的
准确度?还是有办法真正提高
训练
的
准确性?我想会有一些直觉,但这将是非常感谢!
浏览 0
提问于2019-05-17
得票数 1
回答已采纳
2
回答
word2vec学习上下文词
的
可能原因是最相似的词而不是相似的上下文中
的
单词
、
、
、
、
我正在观察我
的
word2vec
模型
,学习上下文中最相似的单词,而不是类似上下文中
的
单词。我不明白为什么它(通常是word2vec,特别是我
的
模型
)能够这样做,并想知道原因。我
在
keras中实现了最初
的
word2vec。我选择了带有点积
层
的
变体,而不是层次化
的
softmax,并在维基百科转储中
训练
了
模型
,我把它分成5克。对于每个单词,我用一个二进制目标标签构造8对作为
训练</
浏览 0
提问于2018-12-07
得票数 1
回答已采纳
2
回答
新图像尺寸
的
传递学习
、
、
、
转移学习:将经过
训练
的
神经网络用于新
的
分类任务。我不明白为什么改变输入形状不会影响卷积
层
的
重量和为什么它会影响完全连接
的
层
权重。 如果我
的<
浏览 0
提问于2019-08-16
得票数 1
回答已采纳
3
回答
Keras SimpleRNN
的
参数
数量
、
、
、
、
我有一个这样
的
SimpleRNN:model.add(Dense(1, activation="linear"))simple_rnn_1 (SimpleRNN) (None, 10) 120 我对simple_rnn_1
的
参数
号120很好奇。有人能回答我
的
问题吗?
浏览 2
提问于2018-05-02
得票数 8
11
回答
如何通过表情包文字识别提取出文字,作为关键字搜索?
在
我们
的
表情项目当中需要从形形色色
的
网络表情中找出对应
的
文字,作为关键字搜索。
浏览 2281
提问于2018-08-24
6
回答
在
训练
全卷积网络时,如何处理BatchNorm
层
?
、
、
、
对像素级语义分割
的
完全卷积神经网络(FCNs)
的
训练
是非常内存密集型
的
。因此,我们经常使用batchsize=1来培训FCNs。然而,当我们用BatchNorm ( BN )
层
完成预先
训练
的
网络时,batchsize=1对BN
层
没有意义。那么,如何处理BN
层
呢?一些备选方案: 删除BN
层
(将BN
层
与前面的
层
合并,用于预先
训练
的
模型</
浏览 11
提问于2017-06-19
得票数 3
2
回答
keras - evaluate_generator
在
相同
的
训练
数据下产生不同
的
准确率
、
、
、
、
TL;博士,我
的
模型
是为一个时代而
训练
的
-为了测试目的。然而,当我对evaluate_generator方法进行多次评估时,每次运行相同
的
训练
数据时,都会得到不同
的
精度。为什么会发生这种情况,在对同一
模型
的
相同
训练
数据进行多次评估时,是否有办法获得相同
的
准确率? 我正在研究对话行为分类
的
语言问题,我
的
模型
是基于论文
的
。作为参考
浏览 2
提问于2019-04-17
得票数 1
回答已采纳
2
回答
具有预
训练
卷积基
的
keras
模型
中损失函数
的
奇异行为
、
、
、
、
我试图
在
Keras中建立一个
模型
,从图片中进行数值预测。我
的
模型
有densenet121卷积基,顶部有几个额外
的
层
。除了最后两个
层
之外,所有
层
都设置为layer.trainable = False。
在
培训期间,我得到了loss: ~3,而对同一批数据
的
评估给出了loss: ~30 1/1 32/32 =====
浏览 0
提问于2018-07-01
得票数 10
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
卷积神经网络到底学到了什么?
白话CNN经典模型:VGGNet
卷积神经网络VGG16这么简单,为什么没人能说清?
Mini-VGG实现CIFAR10数据集分类
基于深度学习的分心驾驶检测
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券