Image Segmentation Using Deep Learning: A Survey arxiv: 2001.05566
以上基本都是detect and segment的思路。用用主backbone和一些技巧还是挺好的。
YOLACT输出masks, instance coefficients, bounding boxes, 用coeff和masks结合,最后用bounding box来crop. 由于车位角度和用到了bounding box的问题,不太适合当前项目。
TensorMask: instance segmentation. 缺点:速度慢,大概是polarMask的1/6。
ExtremeNet用了keypoint检测的思想,输出八边形轮廓。(需要仔细看一下)
以下是segment in anchor free way。
adelaide university, chunhua shen group
正负样本选择:正样本选择是center点一定范围内???
发散: 对于多物体重合,yolo使用中心点落在划分出的小方格中进行区分。对于中心点落在同一方格内的,依靠设计的anchor尺度和iou区分。
用BCE loss预测centerness(0,1数值范围),test时将centerness乘在bbox confidence score上后再做NMS.
问题:BCE loss可以预测非binary 01的回归问题,可以是0,1数值的?
不同尺度feature map用同样的head是有损伤的,在exp(x)上加入学习系统,适应尺度问题
(是否有实验证明可以完全补偿???)
比retinanet AP高两个点。(如果retinanet +IOUnet, 结果?)
adelaide university Chunhua Shen Group + sensetime, cvpr 2020
论文解析:https://zhuanlan.zhihu.com/p/109015275
基于FCOS做的,输出instance segmentation contour.
"predicting contour of instance through instance center classification and dense distance regression in a polar coordinate"
之前FCOS输出的是bbox center和 distance regression,虽然也能从pixel classification拿到segmentation,再生成contour,但多了后处理。这篇文章是end-to-end拿到contour点坐标。
速度上:对于800*1280图像,包含后处理,81ms(one V100 GPU)。比mask rcnn, tensor mask快。
正样本选择:near center +focal loss in classificatoin.
好处: 1. 和IoU loss一样,避免smooth L1 loss带来的classification loss和regression loss不平衡需要调参的问题, AP+3%。2. 极坐标系下计算,简化掉平方。可微,适合做parallel计算。(即任意多边形的iou计算)
gt处理流程:见appendix,是从pixel分割标注中生成的。标注可用cv2.findContours找到点,遍历得到极坐标系表达。根据选取的num_rays选取点。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。