腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
在
单次通过
中
,两个
图像
作为
输入
,两个
图像
作为输出?
、
、
、
、
我被困在一件事上,如果我们必须将两个
图像
作为
输入
传递给UNET,我们可以通过连接它们来完成它,就像下面的代码一样for _ in range(num_inputs):self.input_height, self.input_width, self.input_features)))x = Conv2D(32, (
3
,
3
), activation='relu', padding='same')(x) 但是,我
浏览 5
提问于2021-02-06
得票数 5
2
回答
在
Python
中
对
3
通道
输入
图像
使用
U-net
进行
图像
分割
、
、
、
我
使用
概述的herein代码,
使用
unet
进行
图像
分割
。 我的
输入
图像
是256x256x
3
。而对应的分段掩码是256×256。我已经更改了Unet的
输入
大小: def unet(pretrained_weights = None,input_size = (256,256,
3
)): 并为输出获取具有256x256x1图层的网络当我尝试
使用
.fit_generator运行时,我得到以下错误: Valu
浏览 96
提问于2020-06-11
得票数 0
回答已采纳
1
回答
我想知道正确的Tensorflow对象检测- api模型用于植物病害检测和杂草检测?
、
、
我正在考虑下面的选项Mask ,但我不知道该
使用
哪个选项,也不确定我的图片贴上了正确的标签给下面的输出。 我的标签更侧重于
在
图像
的各个部分检测疾病,而不是将整个
图像
归类为疾病。
浏览 4
提问于2020-04-05
得票数 1
回答已采纳
1
回答
Unet
输入
和输出
、
、
我是计算机视觉的新手,正在尝试训练一个模型,该模型采用正常的
3
通道
图像
(RGB)并给出输出,这只是一个简单的二进制掩模。据我所知,名为Unet的架构是这样做的。例如,TernausnetV2
在
kaggle竞赛中表现得非常好。在这种模型架构
中
,我认为的
输入
和输出是正确的吗? 我有
3
通道
图像
(RGB)和二进制蒙版
图像
(大小与
3
通道
图像
相同,所有值都是1或0)。
浏览 106
提问于2019-09-22
得票数 1
2
回答
Pytorch -
使用
UNet执行
图像
去模糊/
图像
重建
、
、
、
、
目前,我正在处理一个数据集,其中我有两种
图像
:“锐化版本”的
图像
和“模糊版本”的相同
图像
,其中模糊是人工添加的。我的目标是训练一个模型,该模型接受模糊版本的
图像
,并尝试尽可能多地
对
图像
进行
去模糊处理,以便“去模糊
图像
”更接近于锐化版本。
在
文献
中
,UNet架构似乎是一个效果良好的模型。此外,我还可以通过Pytorch ()
使用
预先训练好的
U-Net
。我现在的问题是:当我用我的
浏览 33
提问于2021-06-02
得票数 0
1
回答
CNN的
3
幅图片作为一种
输入
(
U-Net
)
、
、
、
、
我的主管告诉我,如果我的U-网
分割
网络
在
输入
时有RGB
图像
,那么我可以
使用
不同
图像
的
通道
-- R的中值滤波,G的归一化,B的canny边缘检测(例如)。我不知道该怎么做。
浏览 0
提问于2021-04-01
得票数 1
回答已采纳
1
回答
CNN的输出应该是
图像
我刚开始深造,所以我有一个问题:什么是像样的(也许不是最难的)变体来保持大小或预测相同大小的
图像
?是通过同样的垫子吗?是通过换位卷积还是过采样?我是否应该在最后
使用
FCN并将其重塑到
图像
大小?我在用火把。我会很高兴有任何提示,因为我没有
在
互联网上找到很多
浏览 2
提问于2021-01-12
得票数 0
回答已采纳
1
回答
在
CNN中
使用
图像
时,尺寸意味着什么?
、
、
图像
大小为(32,256,256,6)。我认为没有必要知道net是什么以及它是做什么的。我的问题纯粹是分析性的。
3
], stride=1, scope='conv
3
')normalizer_fn=None, scope='conv7') # 32*248*2
浏览 3
提问于2020-10-15
得票数 0
1
回答
使用
* RGB和深度
图像
进行
分割
、
我这里有两个帧,一个是RGB
图像
,第二个是同一RGB
图像
的深度图。图片在这里: ? 我想
使用
两幅
图像
直接在前面的两个植物上执行前景提取。理想情况下,我的最终结果是黑色背景
中
的两种花卉的彩色
图像
-从绿色的尖端到底部。我在想,掩蔽也许会有用? 我的问题是,我是否可以将RGB
图像
中
的颜色数据与深度图中的“形状”数据结合起来?如果我只有RGB
图像
,那么我将很难分离出前面的两种植物,因为后面有所有相似的颜色的植物,而且我可能会失去植物的
浏览 56
提问于2021-09-21
得票数 0
1
回答
如何可视化
图像
分割
结果
、
、
我正在
使用
u-net
对
N>1类
进行
语义
分割
.
输入
大小为(128,128,
3
),输出大小为(128,128,N)。如何正确地将预测看作大小为n1 x n2 x 1的
图像
?我的尝试是:如果输出张量
中
的每一个(i,j)向量(大小为N)得到一个标量并绘制一个128 x 128
图像
的话,我就取最大值。
浏览 0
提问于2018-11-02
得票数 2
回答已采纳
1
回答
从QuPath中注释的整个幻灯片
图像
导出组织区域蒙版时出现的问题
、
、
我正在尝试将
U-Net
多类
分割
程序应用于整个幻灯片组织病理学明场
图像
,这些
图像
在QuPath
中
由几个组织区域类别标注,如肿瘤、正常组织、间质等。请参阅多类注释示例(仅显示幻灯片的一小部分): 我需要将QuPath注释带到一个完整的幻灯片二进制多
通道
PNG
图像
中
,其中每个组织区域类别在相应的
通道
中都有其掩码编码(对于幻灯片中的所有区域/元素),此外还有一个背景
通道
注释所有未注释的像素。或者,我可以<em
浏览 40
提问于2020-05-23
得票数 0
1
回答
为什么u网的掩模
图像
可以用较小的掩码?
、
、
、
、
U网的
输入
图像
大小为572*572,而输出掩码大小为388*388。如何用较小的面罩蒙住
图像
?
浏览 3
提问于2017-05-17
得票数 3
1
回答
我必须
使用
TIFF
图像
中
的哪个颜色
通道
?
、
、
我将
使用
下面的数据集来
使用
U-Net
网络
进行
语义
分割
。此数据集包含脑部MR
图像
和手动FLAIR异常
分割
口罩。
图像
取自肿瘤影像档案馆(TCIA)。它们对应于包括
在
癌症基因组图谱(TCGA)低级别胶质瘤收集中的110名患者,至少有流体衰减反转恢复(FLAIR)序列和可获得的基因组聚类数据。肿瘤基因组簇和患者数据
在
data.csv文件中提供。我发现大脑
图像
是TIFF格
浏览 0
提问于2020-08-03
得票数 0
回答已采纳
6
回答
将
图像
中
的每个像素乘以一个因子
、
、
、
、
我有一个
使用
拜耳滤镜创建的
图像
,颜色略有偏离。我需要将每个像素的RG和B乘以某个因子( R、G和B各有不同的因子)才能得到正确的颜色。我
使用
的是
python
映像库,当然也是用
python
编写的。
浏览 2
提问于2012-06-05
得票数 2
回答已采纳
1
回答
如何在Keras中
使用
类权重
进行
图像
分割
、
、
、
、
我正在尝试
使用
一个用Keras实现的
U-Net
版本来
分割
医学
图像
。我的网络的
输入
是
3
D
图像
,输出是两个单热编码的
3
D
分割
图。我知道我的数据集非常不平衡(没有太多需要
分割
的东西),因此我想
对
我的损失函数(目前是binary_crossentropy)
使用
类权重。有了类权重,我希望模型能更多地关注它必须
分割
的小东西。
浏览 23
提问于2021-01-25
得票数 3
回答已采纳
1
回答
如何理解/调试/可视化
U-Net
分割
结果
、
、
、
、
我正在训练一个
U-Net
架构来完成
分割
任务。这是
使用
Keras
在
Python
中
实现的。我现在遇到了一个问题,我正在努力理解: 我有两张来自显微镜
图像
系列的非常相似的
图像
(这些是连续的
图像
),其中我目前的
U-Net
模型在其中一个上表现非常好,但在紧随其后的下一个上表现得非常差。然而,两者
在
肉眼上几乎没有区别,直方图看起来也非常相似。在其他测量
中
,模型
在
整个帧范围内的
浏览 1
提问于2020-06-25
得票数 0
1
回答
卷积结构的差异
、
、
、
我很难理解多频道CNN的不同之处:
在
题为“用于任务诱发的fMRI数据分类的多
通道
2D卷积神经网络模型”(https://www.hindawi.com/journals/cin/2019/5065214/#sec2.1)图1
中
,作者
使用
一个频道来表示
输入
图像
类型。
图像
是一个二维灰度矩阵。从图上看,
图像
数=
通道
数=不同CNN数。这是真的吗?我的印象是,不管有多少频道,
浏览 0
提问于2020-07-19
得票数 2
回答已采纳
2
回答
UNET与简单的自动编码器有什么不同?
、
、
、
、
在
简单的自动编码器
中
,我们不
使用
Transpose2D Conv。上采样是如何发生的,如果我们
在
自动编码器中
使用
Transpose2D,它与UNET有什么不同?
浏览 57
提问于2021-02-03
得票数 0
1
回答
如何将最后一层移动网络的输出提供给Unet模型?
、
、
、
我试图建立一个
图像
分割
模型,
在
imagenet数据集上预先训练过的Keras移动网络模型。无论如何,为了进一步训练这个模型,我想在现有的模型
中
增加
U-net
层,并且只训练
u-net
体系结构的层,并以移动网模型帮助作为骨干。问题:移动网模型的最后一层是维度(7x7x1024),这是一个RelU层,我希望将其重新构造为(256x256x
3
),这可以被
U-net
输入
层理解。
浏览 5
提问于2019-12-03
得票数 1
回答已采纳
1
回答
在
训练CNN的同时,如何识别哪一幅
图像
生成了特定的特征图?
、
假设我给CNN提供了
3
张灰度
图像
,其合并形状为
3
,28,28。此过程将为每个
图像
生成多个特征映射。如何识别特定
图像
对应的特征映射。__init__() self.pool = nn.MaxPool2d(2, 2) self.fc1 = nn.Linear(256, 120) self.fc2 = nn.Linea
浏览 1
提问于2021-08-28
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Kaggle车辆边界识别第一名解决方案:使用预训练权重轻松改进U-Net
Kaggle车辆边界识别第一名解决方案
论文《医学图像分割综述:U-Net的成功》解读之六:概率设计
论文推荐:DCSAU-Net,更深更紧凑注意力U-Net
图像语义分割的工作原理和CNN架构变迁
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券