腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5257)
视频
沙龙
1
回答
为什么
要
重塑
VGG_UNet
分割
模型
的
最后
一层
?
、
、
、
、
我想使用深度学习(在python中)来解决多类
分割
任务。这里是对主要从GitHub收集
的
vgg_unet
模型
的
总结。因此,在我
的
数据集中有8个标签可用。因此,在
最后
的
卷积层,每个类
的
分类有8个通道。_______________________________________________________________________ 但是,在主GitHub页面中,他将conv2d_5层(我
的
模型</em
浏览 74
提问于2020-08-10
得票数 0
回答已采纳
1
回答
AttributeError:在导入TensorFlow
模型
Keras时,'Functional‘对象没有属性'predict_segmentation’
、
、
、
我成功地训练了一个Keras
模型
,比如:from keras_segmentation.models.unet import
vgg_unet
model =
vgg_unet
(n_classes=50, input_height=512, input_width=608) model.train(checkpoints_path="/tmp/vgg_unet_1", epochs=5并
浏览 10
提问于2021-12-06
得票数 1
回答已采纳
2
回答
为什么
tensorflow
的
MNIST教程中
的
x变量张量被
重塑
为-1?
、
、
、
、
我正在学习TensorFlow教程x = tf.placeholder(tf.float32, shape=[None, 784]) 后来它
重塑
了x,我试着去理解
为什么
。为了应用这
一层
,我们首先将x整形为4d张量,第二和第三维对应于图像
的
宽度和高度,
最后
的
维数对应于彩色通道
的
数目。
为什么
x被
重塑
?
浏览 5
提问于2017-01-21
得票数 8
回答已采纳
1
回答
Tensorflow
模型
文件大小差异很大
例如,框架提供了两个
模型
: 其中包含一个未经训练
的
版本。首先,我感到有点惊讶
的
是,我
的
微调
模型
有点大,因为我只将
最后
一层
从21个类更改为14个类,所以我希望
模型
文件
的
大小会稍微小一些,但由于差异太小,我没有注意到。但是,当我使用相同
的
模型
文件(我指的是预先训练
的
模型
)
浏览 3
提问于2017-11-15
得票数 0
1
回答
RNN和CNN在Tensorflow活动识别中
的
应用
、
、
、
全部在Tensorflow中y = tf.placeholder(tf.float32, [None, n_classes]) 但是我从
最后
一层
得到
的
展平输出只有我应该
重塑
我
的
扁平化输出吗?我应该如何
浏览 3
提问于2017-06-18
得票数 0
2
回答
Keras多类语义
分割
标签
、
、
对于语义
分割
,
最后
一层
通常如下所示我
的
问题是,我如何为此准备标签?例如,如果我有10个类
要
识别,每个类都有不同
的
颜色。对于每个标签图像,我是否需要对一种特定
的
颜色应用蒙版,将其转换为灰度图像,以便我可以与
模型
输出中
的
1个滤镜进行比较?或者有没有一种方法可以传递一个完整
的
RGB图片
浏览 16
提问于2018-07-30
得票数 5
回答已采纳
1
回答
LSTM批量
、
、
、
我一直试图建立一个LSTM
模型
,但我对batch_size有点困惑。我在使用Tensorflow中
的
Keras模块。我用四层建立了我
的
模型
,每个层都有100单元。对于第
一层
,我将输入形状指定为(200, 3)。前三层有return_sequences=True,
最后
一层
没有,然后我做了一些softmax分类。当我用m
浏览 0
提问于2018-12-05
得票数 0
回答已采纳
1
回答
微调冷冻重量nnUNet
、
、
、
早上好,我遵循了github杂志上
的
说明: 微调一个nnUNet
模型
(pyTorch)到一个预先训练
的
模型
,但是这个方法重新训练所有的权重,我想冻结所有的weigths,只训练
最后
一层
的
权重,将
分割
类
的
数量从
浏览 42
提问于2022-10-02
得票数 0
回答已采纳
1
回答
我
的
真实情况是一系列
的
灰度图像
、
我
的
目标是训练一个U网络,其中我
的
基本事实是灰度图像(240,240,1)与一组输入医学图像MRI T1/T2/T1 T1Contrast/FLAIR (240,240,4)相关。我想知道如何配置我
的
unet
的
最后
一层
(softmax?sigmoid?),以及如何使
模型
理解将使用地面实况
的
灰度值来计算损失。
最后
一层
应该提供256级灰度(?)...我可以把我
的
问题看作是2
浏览 7
提问于2021-07-06
得票数 0
1
回答
使用niftynet预训练
模型
时遇到
的
问题
、
、
我想使用niftynet上可用
的
dense_vnet
模型
进行2类
分割
,它最初是做9类
分割
的
vars_to_restore = ^)).)*$ 错误: tensorflow.python.framework.errors_impl.InvalidArgumentError:赋值要求匹配两个张量
的
形状
浏览 0
提问于2019-05-31
得票数 0
回答已采纳
1
回答
神经网络中不冻结层
的
奇怪后果
、
、
、
、
我在研究“
为什么
我们
要
冻结层”,我发现答案是:“不要丢失预先训练过
的
模型
的
信息”,但是,我们只是冻结了早期层(我知道
为什么
)。例如:我们
的
数据与
模型
所训练
的
数据非常相似。假设我们没有冻结任何
一层
。
模型
会犯很小
的
错误,收敛也会更少,我们不会破坏任何信息(即使权重变化很小)。我说错了吗?如果我不是,那我们
为什么
要
冻结任何
一层
?
浏览 0
提问于2022-08-29
得票数 0
回答已采纳
1
回答
在Keras中复制图层
的
参数
、
我正在尝试取一个
模型
中
的
最后
一层
(旧
模型
),并创建一个只有
一层
的
新
模型
(新
模型
),它具有与旧
模型
的
最后
一层
完全相同
的
参数。我想以一种与旧
模型
的
最后
一层
碰巧是什么无关
的
方式来做这件事。这会产生以下错误: TypeError: __init__() missin
浏览 0
提问于2016-12-11
得票数 1
2
回答
Keras上LSTM序列
模型
的
维数问题
、
、
、
我想训练一个简单
的
LSTM
模型
,用于118个多类
的
128个时间步骤和6个特性
的
序列数据。数据集
的
尺寸如下所示:y_train, y_testshape: (batch, 118) 其中标签由118个类
的
一个热编码表示。
浏览 7
提问于2022-05-14
得票数 1
回答已采纳
1
回答
当使用交叉熵函数进行二值分类时,
模型
输出标量和二维向量之间存在较大差距
、
当我使用u-net进行两个类别的语义
分割
时,我在
模型
最后
一层
的
输出分别设置为1个通道和2个通道。然后使用交叉熵损失来度量: BCEloss和CrossEntropyLoss。但两者之间
的
差距很大。前者
的
性能是正常
的
,但后者
的
准确率很低,召回率很高。我用了pytorch。
浏览 26
提问于2020-04-09
得票数 0
回答已采纳
1
回答
如何将
最后
一层
移动网络
的
输出提供给Unet
模型
?
、
、
、
我试图建立一个图像
分割
模型
,在imagenet数据集上预先训练过
的
Keras移动网络
模型
。无论如何,为了进一步训练这个
模型
,我想在现有的
模型
中增加U-net层,并且只训练u-net体系结构
的
层,并以移动网
模型
帮助作为骨干。问题:移动网
模型
的
最后
一层
是维度(7x7x1024),这是一个RelU层,我希望将其重新构造为(256x256x3),这可以被U-net输入层理解。
浏览 5
提问于2019-12-03
得票数 1
回答已采纳
3
回答
基于TensorFlow
的
图像
分割
、
、
、
我正在尝试使用TensorFlow来识别图像数据中
的
特征
的
可行性。我有50x50px
的
细胞核灰度图像,我希望对其进行
分割
-对于每个像素,期望
的
输出将是0或1。0表示背景,1表示核。示例输入:是否可以使用TensorFlow对我
的
数据集执行这种类型
的
机器学习?我可能会有数千张图像用于训练集。我假设标签是一个50x50
的
数组? 另外,对于这次分析
的
浏览 11
提问于2016-04-04
得票数 4
1
回答
从头开始Yolo数据集和输出
、
、
、
、
嗨,我从头开始编写了一个YOLO
模型
,然后才意识到我
的
数据集不适合
模型
的
输出。这就是我
的
意思:
模型
输出一个S x S x (B * 5 + C)矩阵。y0
的
形状是(7,5)。我如何让
模型
使用我
的
标签。根据我所知道和阅读
的
内容,标签以yolo算法
的
x,y,w,h,objectiveness_score, class_scores格式出现,所以
为什么
模型
将输出3D矩阵
浏览 11
提问于2021-01-27
得票数 1
回答已采纳
1
回答
1x1卷积与TimeDistributed
的
差(稠密())
从几次运行来看,它们似乎是,而且直觉地说,因为我
的
数据
的
通道维数是1,我
的
理解是,完全连接
的
行为就像一个卷积层。是否有更好
的
计算(它们有相同数量
的
参数)?,(批,64)点从
模型
中出来。我
的
模型
是:model.add(Reshape([64, 1], input_shape=(64,))) 将尺寸
重塑
为3D。方差标
浏览 0
提问于2019-01-04
得票数 0
回答已采纳
1
回答
ImageNet
模型
在Keras中
的
输出是什么?
、
、
在其中一个教程代码中,正在使用ImageNet/MobileNetV2
模型
。 它是网络
的
最终输出层吗?实际上,我希望
模型
将返回
最后
一层
的
输出,其维度将是
模型
所具有的分类类型
的
数量。例如,1000,0,0,如果在1000种不同类别的图像上训练。 这不是输出层吗?还是真的是这样?另外,我所指
的
代码,将GlobalAveragePoolin
浏览 3
提问于2019-11-25
得票数 0
回答已采纳
1
回答
仍然对model.train()感到困惑
、
、
、
我读了这里所有关于model.train()
的
帖子,仍然不明白它是怎么回事。具体地说,当我使用DenseNet或VGG等预训练
模型
时,所有参数都冻结在
最后
一层
旁边,不使用drop-out或批量归一化,当使用model.train()时,训练损失开始
要
小得多,但随后以大约与不使用它时相同
的
速度减少
为什么
?
浏览 30
提问于2020-12-12
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
人工智能模型为什么比基于规则判断的程序要更"智能"?
深度学习在AR平台的应用
使用神经网络解决拼图游戏
语义分割——解读无人车眼中的世界
卷积神经网络到底学到了什么?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券