腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
确定
RetinaNet
模型
的
锚
点
大小
?
、
、
、
、
我正在尝试在pytorch中为我
的
自定义数据集实现一个
RetinaNet
模型
,然而,我对
如何
选择一些超参数感到有点困惑。例如,
模型
使用了[32, 64, 128, 256, 512]
的
锚定
大小
、[0.5, 1, 2]
的
锚定比例和[1, 1.25, 1.58]
的
锚定比例,但是对于我们自己
的
数据集,我们
如何
确定
这些数字呢?在为
锚
框生成部分选择param时,我们可以采取
浏览 36
提问于2020-09-18
得票数 0
1
回答
如何
在预测期间设置--config config.ini?
、
、
、
、
我有训练
模型
,使用keras-
retinanet
进行对象检测,并在config.ini文件中更改
锚
点
大小
: [anchor_parameters]strides= 8 16 32 64 128 scales = 1 1.2 1.6 我已将此配置保存在文件config.ini中,并将其作为训练
的
输入,如下所示: !batch-size 1 \ --epochs 5
浏览 9
提问于2019-12-23
得票数 0
1
回答
关于
RetinaNet
的
困惑
、
、
我最近一直在学习
RetinaNet
。我读了原始
的
报纸和一些相关
的
文章,并写了一篇文章分享我所学到
的
:。然而,我仍然有一些困惑,我在文章中也指出了这一
点
。有人能指点我吗?然而,在这种情况下,焦点损失(见下面的定义)将
如何
惩罚
锚
,如果它是一个假阴性? 对于每个匹配
的
锚
点
,回归子网预测四个数字,我们表示为$P^i = (P^i_x,P^i_y,P^i_w,P^i_h)$。前两个数字指定
锚
点
浏览 4
提问于2018-12-17
得票数 11
回答已采纳
1
回答
PyTorch -训练用于目标检测
的
不平衡数据集(设置权重)
、
、
、
、
我对PyTorch非常陌生,我正在尝试使用对象检测
模型
来进行传输学习,以便学习
如何
检测新
的
数据集。下面是加载数据集
的
方式:我将
浏览 11
提问于2022-08-10
得票数 1
1
回答
张量流动物园
模型
对象检测-尺寸影响结果吗?
、
、
、
假设640x640是图像
的
大小
,我想知道如果输入图像大于
模型
大小
会发生什么。例如,如果我们使用:如果640x640是图像
大小
,作为输入
的
图像
大小
为1915x1080,它会影响目标检测
的
质量吗?如果是,我们应该使用SSD ResNet50 V1 FPN 1024x1024 (
RetinaNet
50)以获得更高
的
性能吗
浏览 2
提问于2021-03-04
得票数 0
回答已采纳
1
回答
对整个
模型
和主干网使用预训练权值
的
TorchVision
、
、
、
TorchVision检测
模型
有一个weights和一个weights_backbone参数。使用预训练
的
weights是否意味着
模型
在引擎盖下使用了预训练
的
weights_backbone?我正在训练一个
RetinaNet
模型
,并且不
确定
我应该使用哪两个选项,以及不同之处。
浏览 18
提问于2022-11-18
得票数 1
回答已采纳
1
回答
如何
使用
模型
/官方/视觉/检测训练自定义
模型
进行目标检测?
如何
使用训练用于对象检测
的
自定义
模型
浏览 4
提问于2020-03-04
得票数 2
1
回答
更快
的
R中
的
锚
大小
调谐
、
、
、
、
我正在训练更快
的
R来检测来自无人机摄影
的
小物体: 25x25到30x30像素。到目前为止,我已经在.config文件中给出
的
默认
锚
点
维度中这样做了: grid_anchor_generator {aspect_ratios: 0.5 aspect_ratios: 2.0原始
的
更快
的
-RCNN<e
浏览 5
提问于2021-08-26
得票数 0
1
回答
如何
将XML注释[xmin,ymin,xmax,ymax]转换为表格区域?
、
我们正在使用
retinanet
对象检测器
模型
来检测和提取表中
的
数据。在使用1000+图像注释之后,我们得到了一个很好
的
模型
。然而,当我们想要提取数据时,我们
的
问题就出现了。最常用
的
是Camelot,但它并不像我们希望
的
那样工作,所以我们尝试使用tabula来代替。当我们在area参数中使用XML注释时,它不起作用。环顾四周后,我们看到tabula只使用PDF
点
单位。
如何
将XML
点
转换为PDF
浏览 27
提问于2021-03-26
得票数 0
1
回答
不能改变锚位置和TextureRect
大小
、
我正在创建UI,并希望将定位
点
设置到图像
的
中间,但是从布局->
锚
点
更改
锚
点
或直接设置
锚
值都不起作用。值已被更新,但
锚
点
根本没有移动。是窃听器还是我错过了什么?以下是节点树:控制 另外,我也找不到
如何
调整纹理
的
大小
。我可以设置最小
大小
,但更
浏览 0
提问于2019-11-09
得票数 0
回答已采纳
1
回答
如果使用Tensorflow
的
ObjectDetection API,需要使用NormalizeImage吗?
、
、
、
我不
确定
Tensorflow ObjectDetection API是否会自动标准化输入图像(我自己
的
数据集)。它似乎在DataAugmentations中有一个名为“NormalizeImage”
的
选项。到目前为止,我还没有指定它,我
的
模型
做得相当好。到目前为止,我
的
模型
使用了更快
的
RCNN和
RetinaNet
。
浏览 4
提问于2018-07-25
得票数 1
1
回答
TypeError:类型对象为关键字参数“training”获取了多个值
、
、
、
、
当我运行它
的
代码来训练
模型
时,它给出了错误:--冻结主干--权重{PRETRAINED_MODEL}--步骤500csv annotations.csvclasses.csv TypeError:类型对象为关键字参数“training”获取了多个值 这个
模型
不能训练,我不能弄清楚确切
的
问题
浏览 0
提问于2020-06-29
得票数 2
1
回答
如何
在
Retinanet
上测试您
的
模型
?
、
我正在使用
Retinanet
模型
来训练一个大约50班
的
分类器。链接到
模型
: 该
模型
目前正在运行和训练,大约50个时代和10000步在每一个时代。我看
浏览 0
提问于2018-01-24
得票数 0
1
回答
JQuery:指的是正确
的
"this“
、
我正在试着写一个非常简单
的
插件,在
锚
点
鼠标悬停时增加相应
的
锚
点
文本
大小
,在鼠标移出时删除
锚
点
。问题是我不能得到正确
的
“这”。jQuery); $(document).ready(function(){}); 我想我应该使用像.call()或.apply()这样
的
东西,但我不
确定
如何
浏览 0
提问于2009-10-11
得票数 0
回答已采纳
1
回答
tf2固态硬盘检测
模型
的
后处理
、
、
、
、
我需要在ios上使用tensorflow
的
检测
模型
。中提供
的
tflite
模型
文件是uint8格式
的
,这在CoreML中不能很好地工作,所以我决定下载一个完整
的
模型
并自己将其转换为tflite。所以现在我有了一个工作
的
检测
模型
(确切地说是固态硬盘mobilenetv2 ),它输出(box_encodings,class_predictions,
锚
点
)而不是(盒子,类别,分数,num_detection
浏览 4
提问于2021-06-07
得票数 1
1
回答
ARKit:
如何
在具有多个材质
的
平面上放置.obj文件
、
、
、
(anchorNode)[car object][1] } https://app.box.com/s/vdloxlqxk9rh6h4k5ggwrxm1hslktn8g 我可以放置汽车,但它是整个相机
的
场景有人能告诉我cooridnate系统或3D对象
的
问题吗?
浏览 16
提问于2018-12-24
得票数 1
2
回答
重塑Keras层
、
、
、
、
我有一个416x416
的
输入图像。
如何
创建4 x 10
的
输出,其中4是列数,10是行数?使用416x416
的
输入
大小
和最大池层,我可以获得最大
的
13 x 13输出。有没有办法在不丢失数据
的
情况下实现4x10输出?6个我想要检测
的
对象,第一个值是xmin,第二个是ymin
浏览 3
提问于2018-04-03
得票数 12
1
回答
在角膜视黄醇训练中
如何
改变批号
、
、
我正在尝试训练一个keras_
retinanet
模型
,如下面给出
的
代码所示,并且培训工作很好。我为CSVGenerator函数创建了一个fit_generator数据生成器,它继承了“生成器”超类,其中有一个名为"batch_size“
的
参数默认为"1”。我想更改这个"batch_size“变量
的
值,但我无法弄清楚
如何
做到这一
点
。任何帮助都是非常感谢
的
。 model = load_model('./da
浏览 2
提问于2018-12-12
得票数 0
回答已采纳
1
回答
Swift -
如何
识别子视图
的
手势交互,哪个部分位于父视图
的
外部
、
、
我为不同
的
形状创建了
锚
点
,这有助于调整形状
的
大小
。这工作得很好,但问题出在
锚
点
手势识别器区域(浅蓝色部分)。当
锚
点在形状内按下时,您可以移动
锚
点
,但不能选择红色区域来移动
锚
点
,因为它位于父视图之外。我
的
问题是,有没有一种方法可以识别红色区域,因为它是形状
的
子区域,但红色区域位于父视图之外?我想也许我可以扩展形状
的
帧<
浏览 2
提问于2021-03-19
得票数 0
1
回答
如何
修改ssd移动集配置以使用tensorflow对象检测API检测小对象?
、
、
、
该
模型
对这些小物体
的
高分辨率图像进行了训练,这些小物体离camera.Images非常近,是从互联网上下载
的
。我发现改变
锚
框比例和修改特性extractor.py是解决这一问题
的
解决方案。
浏览 4
提问于2020-03-05
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
RetinaNet在航空图像行人检测中的应用
设计比例:如何确定页面元素的大小?
如何减小机器学习模型的大小
参数少一半、速度快3倍:最新目标检测核心架构来了
浅谈深度学习:如何计算模型以及中间变量的显存占用大小
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券