腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
图像
宽度
和
高度
对
迁移
学习
模型
精度
的
影响
、
、
、
、
我有4类1280x720像素
的
近1000张人们正在做某些手势
的
图像
。这个想法是使用
迁移
学习
。 下面是使用Inceptioon
的
代码,目标
图像
大小为640,360。# Save transfer learning model model.save('inceptionv3-original-image-transfer-learning.model') 7个历元
的
准确率为如果目标
图像
大小为200,113,则在7个时期
浏览 28
提问于2020-09-16
得票数 0
1
回答
对于
迁移
学习
,我应该只使用“完全相同”
的
输入形状吗?
、
、
、
我用(5x128x128x3)大小
的
输入形状训练了一个CNN
模型
,得到了(5x128x128x3)
的
训练权重。顺便说一下,我想使用这个权重来训练(7x128x128x3)大小
的
输入数据ValueError: Error when checking input: expected input_1 to
浏览 0
提问于2019-09-20
得票数 2
2
回答
如何为CNN培训准备频道
图像
?
、
、
、
、
我正在训练一个六通道
图像
用于细胞分割,这是分开
的
。下面描绘
的
六个
图像
是相同
的
,但在不同
的
渠道。 ? 我应该如何排列输入到我
的
网络中
的
数组?使用numpy.dstack将所有这些放到数组中?我知道我们也应该注意滤镜
的
数量
和
大小,这是要像对待RGB
图像
一样对待
的
,但我是深度
学习
和
计算机视觉
的
新手,我有这个问题困扰着我。我使用
浏览 13
提问于2020-01-04
得票数 1
1
回答
迁移
学习
的
基
模型
选择
、
、
对于给定
的
图像
分类问题,是否有一个给出直觉
的
金科玉律,给出一个需要使用
的
基本
模型
。然而,我未能找到很好
的
参考,为基础模式
的
选择。 谢谢
浏览 0
提问于2019-05-21
得票数 1
回答已采纳
1
回答
如何利用tensorflow对象检测API提高目标检测
精度
?
、
、
、
我正在应用tensorflow对象检测api来构建一个
模型
来检测单个对象。我自己
的
数据集包含2150张用于训练
的
图像
和
540张用于测试
的
图像
。 所有的
图像
都是1920年(
宽度
)乘以1080 (
高度
)。每幅
图像
中
的
物体都很小,大约55乘15,还有很多噪声。下面是(我
的
dataset
的
一个示例映像),它被正确识别(大多数
图像
无法识别
浏览 2
提问于2017-09-11
得票数 1
2
回答
使用LightGBM
的
特性重要性
、
、
、
、
我用几种算法训练了一个
模型
,包括随机森林
学习
算法
和
LightGBM算法.这些
模型
在
精度
和
其他统计数据方面表现相似。 问题是这两种算法在特征重要性方面的不一致行为。我使用了默认参数,我知道它们使用不同
的
方法来计算特征
的
重要性,但我认为
高度
相关
的
特征
对
模型
的
预测总是有最大
的
影响
。随机森林
对
我来说更有意义,因为<em
浏览 4
提问于2020-10-21
得票数 3
回答已采纳
1
回答
CNN链接器中验证
精度
的
下降
、
、
我正在使用CNN在Chainer中
对
细胞
图像
进行分类。随着主/训练
精度
的
提高,
模型
的
验证
精度
也在下降。我想知道为什么验证准确率在下降,有什么方法可以提高验证准确率。数据形状为( 32,3,60,80),其中32是批量大小,3是通道,60
和
80分别是
高度
和
宽度
。 我已经在除最后一层之外
的
所有层中应用了relu
和
dropout。在该
模型
中,
浏览 24
提问于2019-01-08
得票数 1
回答已采纳
2
回答
创建以坐标点为中心
的
ee.Geometry.Rectangle并以像素为单位指定大小
、
我想创建一个以特定坐标点为中心、以像素为单位具有特定
宽度
和
高度
值
的
ee.Geometry.Rectangle。ee.Geometry.Rectangle接受矩形
的
最小
和
最大角
的
坐标点;但是,我不想传递这些坐标点,而是执行类似于folium库
的
操作 folium.Map(location=[lon,lat], zoom_start我之所以要这样做,是因为我将使用以特定坐标点为中心
的
图像
,并希望测试
图像
浏览 4
提问于2020-03-19
得票数 0
1
回答
从视频流中重构卡
、
、
、
(来自棋盘游戏) 目前,我一直在使用卡片中
的
文本使用OCR来查找卡片,但它并不是100%
的
精确性,因为排版非常特殊。我一直在考虑使用
图像
分类,但我不确定这是正确
的
方法,因为我将为数百个课程进行培训。(通过400+不同的卡) 谢谢你
的
帮助!
浏览 0
提问于2019-07-29
得票数 1
3
回答
图像
分类
的
100%准确率
和
0损失
、
、
我正在使用CNN
和
预先训练
的
模型
VGG16进行
图像
分类,我
的
数据集有3个类,每个类有将近900幅
图像
。经过5次训练后,我
的
模型
达到了1
的
精度
,0.00073
的
列车损耗,val-损失=0.00000,val-
精度
=1,达到100%
的
精度
正常吗?我必须补充说,我
的
每个班级
的
图像
非常相似,因此这使<
浏览 0
提问于2021-09-24
得票数 1
2
回答
对于流行
的
计算机视觉
模型
,是否有实际
的
最小输入
图像
大小?(例如,vgg、resnet等)
、
、
、
、
根据关于传递
学习
的
预先训练
的
计算机视觉
模型
(例如)
的
文件,输入
图像
应该是“3通道RGB形状
的
图像
(3xHxW)
的
迷你批次,其中H
和
W至少应该是224”。然而,当在3通道
图像
上运行传输
学习
实验时,当
图像
的
高度
和
宽度
小于预期时(如小于224),网络通常运行平稳,性能良好。 因此,在我看来,“最小<
浏览 3
提问于2021-10-06
得票数 2
2
回答
如何在python中调整
图像
大小以进行机器
学习
?
、
、
、
我使用了一个
图像
数据集进行机器
学习
训练。每个
图像
都有64px
的
宽度
和
64px
的
高度
。现在,我想使用来自google
的
图像
来测试我
的
机器
学习
模型
。问题是google
图像
比训练
图像
大,我想调整它们
的
大小,使它们
的
高度
和
宽度
为64px (就像训练
浏览 0
提问于2020-02-28
得票数 0
2
回答
当转换为移动视图时,在html中存在
图像
大小调整
的
问题
、
、
我刚刚开始
学习
前端网络开发。我在做我
的
投资组合
模型
,我在
图像
大小上有问题。我正在使用引导框架。当我使用img响应类
的
图像
时,我上传
的
图像
的
高度
和
宽度
将自动设置。因为我想自己设置
高度
,所以我更改了
图像
的
高度
(在css文件中)。但是,现在,当我缩小浏览器
的
宽度
以查看我
的<
浏览 1
提问于2015-03-27
得票数 0
回答已采纳
1
回答
在
迁移
学习
过程中,您可以使用不同
的
图像
大小吗?
、
、
、
、
我在EfficientNets上使用著名
的
Github repo进行训练。我按如下方式编写了
模型
初始化类: class CustomEfficientNet(nn.Module): def __init__(self, config: type, pretrained中,我倾向于使用Resize(img_size = 512, img_size=512)进行某些
图像
分类任务
的
训练(主要是Kaggle竞赛)。所以这里
的
问题是,EfficientNetB5
的
官方输入大小是456x45
浏览 143
提问于2020-12-31
得票数 1
回答已采纳
1
回答
YOLO训练
和
预测是如何
对
多个网格中
的
对象进行工作
的
?
、
、
到目前为止,我
对
YOLO
的
理解是,它期望将训练
图像
划分为固定网格,其中每个网格都有标签,如P(对象是否存在)、对象包围框、对象类。类似地,它将为每个
图像
预测返回相同
的
输出。如果它是正确
的
,我无法映射这些
图像
,用于训练
和
预测,其中一些对象是多个网格
的
一部分。在训练过程中,我们只提供与特定(单一)网格相对应
的
包围框信息,它如何包含多个网格
的
边界框信息?注:非最大抑制是再次混淆,如果它是相关
的</
浏览 0
提问于2020-02-01
得票数 2
1
回答
当目标占据
图像
上
的
整个区域时进行目标检测?
、
我有7-8节课
的
混合课程。最初,我们有一个
图像
分类
模型
,现在将其转移到目标检测
模型
。仅对于一类,待检测对象占据整个
图像
。我们可以将边界框尺寸设置为
图像
的
整个
宽度
和
高度
吗?会不会
影响
性能呢?
浏览 20
提问于2019-07-01
得票数 0
回答已采纳
1
回答
在CNN
模型
中,验证曲线是否稍大或更低?
、
、
、
、
它们都是用相同
的
角点序列层来训练
的
,而第二层是使用更多
的
样本来训练
的
,即增强数据集。 我
对
第一个情节中
的
曲折有些困惑,否则我认为它比第二个好。在第二幅图中,没有曲折,但验证
的
准确性往往比火车高,这是过火还是相当大?
浏览 9
提问于2022-07-01
得票数 0
回答已采纳
1
回答
用训练发生器改进
图像
分类
模型
、
、
是否有可能用生成器(有条件地训练类)改进
图像
分类
模型
。(因此,这是相同
的
源/目标分布
和
相同
的
源/目标任务,而不是域适应) 注意:“改进”可以是在鲁棒性、校准、或彻底
的
精确/召回改进、OOD性能方面。例如,我在数据A上训练
图像
分类
模型
,然后在数据A上有条件地训练GAN以生成具有类提示
的
图像
。然后利用GAN生成额外
的
样本来训练我
的
图像
分类
浏览 0
提问于2023-05-14
得票数 0
2
回答
基于TensorFlow
的
图像
识别
、
、
我是TensorFlow
的
新手,正在寻求
图像
识别方面的帮助。有没有一个例子展示了如何使用TensorFlow来训练自己
的
数字
图像
以进行
图像
识别,就像中使用
的
图像
网络
模型
一样 我查看了CIFAR-10
模型
训练,但它似乎没有提供训练您自己
的
图像
的
示例。
浏览 3
提问于2016-01-09
得票数 13
回答已采纳
1
回答
不同
的
输入
图像
大小/分辨率如何
影响
语义
图像
分割网络
的
输出质量?
、
、
、
、
在尝试使用在另一个数据集()上训练
的
深度
学习
网络
对
一个数据集()中
的
图像
执行
图像
分割时,我意识到在主观感知
的
输出质量方面存在很大差异(可能在对(M)IoU进行基准测试时也是如此)。这提出了我
的
问题,输入
图像
的
大小/分辨率是否以及如何
影响
语义
图像
分割网络
的
输出,该网络已经在与输入
图像
不同
的
大小或分辨率
的
浏览 5
提问于2018-03-09
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
BigQuery提供Explainable AI功能,可解释特征对机器学习模型的影响
算法之外:人工智能和机器学习对组织的影响
MathWorks赵志宏:借助迁移学习和自动标注,解决AI模型训练中的两大难题
谷歌开发新模型EfficientNets,缩放CNN的精度与效率超越现有模型
华中科大提出EAT-NAS方法:显著提升大规模神经模型搜索速度
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券