Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >CVPR 2022 | 将X光图片用于垃圾分割,港中大(深圳)探索大规模智能垃圾分类

CVPR 2022 | 将X光图片用于垃圾分割,港中大(深圳)探索大规模智能垃圾分类

作者头像
机器之心
发布于 2022-08-25 11:20:30
发布于 2022-08-25 11:20:30
2000
举报
文章被收录于专栏:机器之心机器之心

机器之心专栏

作者:李易寒

研究者表示,这一工作有望让大规模的智能垃圾分类检查成为可能,提升垃圾分类回收的效率,减少环境污染。

近些年来,社会的发展带来了生活垃圾的爆发性增长,实行垃圾分类既可以减少对自然环境的破坏,同时对垃圾中的可回收资源进行回收再利用,也带来更大经济效益。垃圾分类的的检查工作是其中的重要一环,只有正确的分类才能提升回收效率和避免环境污染。传统的分类检查方法依赖于人工的翻阅。而现有的图像检查方法也需要打开垃圾袋并且把垃圾摊开。这些检查方法存在两大缺点:

  1. 翻开垃圾袋的过程比较繁琐,且对于接触垃圾的人存在污染、传播疾病的风险;
  2. 复杂繁多的垃圾容易产生视线遮挡,容易出现遗漏和错判。

考虑到上述的问题,我们提出了以下的解决方案:

  • 提出了第一个基于 X 光图片的、实例级别的垃圾分割数据集 (WIXRay)。数据集中包含 5,038 张 X 光图片,共 30,845 个垃圾物品实例。对于每个实例,我们标注了高质量的类别、bbox 以及实例级别的分割。
  • 在现有实例分割方法的基础上针对 X 光垃圾图片遮挡严重、有穿透效果的特点进行改进,提出了从易到难的策略,设计了 Easy-to-Hard Instance Segmentation Network (ETHSeg),利用高置信度的预测结果来帮助严重重叠区域的难预测物体的分割。另外,我们还增加了一个全局轮廓模块来更好地利用 X 光下物体的轮廓信息。
  • 论文链接:https://openaccess.thecvf.com/content/CVPR2022/papers/Qiu_ETHSeg_An_Amodel_Instance_Segmentation_Network_and_a_Real-World_Dataset_CVPR_2022_paper.pdf
  • 项目主页:https://lingtengqiu.github.io/2022/ETHSeg/
  • GitHub 地址:GitHub - lingtengqiu/ETHSeg: ETHSeg: An Amodel Instance Segmentation Network and a Real-world Dataset for X-Ray Waste Inspection (CVPR2022)

一、基于 X 光图片的实例分割垃圾数据集 WIXRay (Waste Item X- Ray)

此前有关垃圾分类的数据集均为稀疏的、无遮挡的 RGB 图片,这些数据的识别效率低,实际操作难度大。而已有的 X 光图像实例分割数据集多为安检物品数据集,并且这些数据集鲜有严重遮挡的情况。为了得到真实有效的垃圾分类数据集,我们提出了用 X 光扫描垃圾袋来获取稠密、有遮挡的垃圾识别数据集

数据收集

收集地点:近 8,000 居民的学校社区

垃圾类别。我们根据现有的垃圾分类方法将所有的垃圾分为可回收垃圾,厨余垃圾,有害垃圾和其他垃圾。在此基础上,我们把收集到的最常见的垃圾分为十二小类:

  • 可回收垃圾:塑料瓶,易拉罐(金属罐),纸盒,玻璃瓶,木棒(筷子),餐具;
  • 厨余垃圾:主要为食物残渣;
  • 其他垃圾:暖宝宝,干燥剂,饭盒;
  • 有害垃圾:电池(充电宝),灯泡。

具体的数量统计如下:

注:对于部分分布不平衡的类别,我们在数据采集时人为添加了事先准备的物品,例如有害垃圾中的两类。

数据标注

对于每一个垃圾物体,我们都标注了它们的类别、bbox 和实例级别的 mask。由于 X 光有穿透性, 我们可以在 X 光图像上看到重叠的物体。

因此,与传统实例分割标注不同,我们对于所有有遮挡的物体都标注了完整的形状。平均每张图片标注了 6.13 个实例,远高于此前的 X 光数据集(e.g. HiXray 2.27 个)

二、Easy-to-Hard 分割网络 (ETHSeg)

现有的实例分割方法大多针对自然图片设计,并没有考虑 X 光图像的穿透特性和一些严重遮挡的情况。因此,针对这两点,我们设计了 ETHSeg 来解决 X 光下垃圾物体实例分割的问题,主要的方法有两点:(1)显式地利用全局轮廓引导模块来获取物体的轮廓信息;(2)提出了从易到难的分解策略 (ETH) 来帮助分割遮挡区域难以分割的物体。

Baseline: Bilayer convolution network (BCNet)

BCNet 是一个自上而下的实例分割的 SOTA 方法。该方法使用了双层 GCN 结构来解决物体间遮挡的问题。尽管该方法在自然图片中取得了很好地效果,但由于 X 光图像的穿透效果和严重的遮挡,该方法在我们的数据集上效果不佳。我们在 BCNet 基础上提出了改进。

BCNet 的分割网络可以被表示为:

其中 X ∈ R (HW )×C 为输入的特征,A ∈ R (HW )×(HW ) 为自注意力模块,W 是可学习的变换矩阵,σ 表示带有 ReLU 的归一化层,Z 为更新后的特征。F 会计算两个节点 X_i 和 X_j 的点乘相似度,θ 和 ϕ 为 1 × 1 卷积。

BCNet 会将提取的 ROI 特征 X_roi 输入到第一个 GCN 层得到更新的特征 Z_0 并且求出遮挡物(occluder)的轮廓和 mask。之后更新的特征 Z_0 会被加到 ROI 特征上作为第二层 GCN 的输入(X_f = X_roi + Z_0)。第二个 GCN 层会进一步求出被遮挡物(occludee)的轮廓和 mask。

全局轮廓引导模块

BCNet 的方法虽然能够通过两层 GCN 以及轮廓和 mask 的监督解决一些局部的遮挡问题,但是该方法的轮廓监督只使用了 ROI 部分的局部监督,这对于严重遮挡而且物体轮廓比较清晰的 X 光图像效果不佳。

因此,我们设计了一个全局轮廓引导模块来更好地利用 X 光图片中的轮廓信息。我们将 backbone 得到特征上采样并预测一个全局轮廓图作为并行任务。轮廓图的监督使用高斯分布的热图表示。

从易到难的分解策略

针对数据集中的严重遮挡问题,受到人类在物体识别时,先认出简单、清晰的物体,再分辨识别困难的物体的这种方式的启发,我们提出了从易到难的分解策略。我们在分割前先根据置信度将所有物体的 bbox 分成 easy 和 hard 两个集合。

对于 easy 集合中的 bbox,我们直接求出它们的mask,同时使用 GCN 层求出更新后的特征(Z^i)_e:

easy 集合中求得的 mask 将被用于增强自注意力网络来帮助 hard 集合的分割。

与 BCNet 不同的是,我们从 easy 和 hard 集合中提取的特征是属于不同的 ROI,因此不能将两组特征直接相加。因此,我们首先根据 ROI 坐标将 easy 集合中预测的 mask 映射到整张图片的相应位置,并使用 element-wise max 与全局的 mask P 融合。P 采用软掩码,表示每个像素包含于物体的概率。利用软掩码 P , 我们提出了 mask-guided attention (A_g) 来引导 hard 集合的实例分割:

其中⊙ 表示 Hadamard product。之后同样求出 hard 实例的 mask 和更新后的特征 Z^j 并更新全局软掩码 P :

三、实验结果

基准实验

我们在 WIXRay 数据集上进行了大量的实验,包括了 one-stage 和 two-stage 的经典模型和 SOTA 模型。所有的模型均采用 ResNet-101-FPN 作为骨干网络并使用 COCO 预训练模型。实验得到的指标显示我们提出的新数据集对于一般的实例分割模型具有很大的挑战性。我们提出的 ETHSeg 模型在 mask mAP 指标上超过原来的 SOTA BCNet 1.74 点,在 bbox mAP 上也有所提升

分割结果展示

如图所示,相比于一般的实例分割模型或 BCNet,ETHSeg 在结果上漏检更少,在重叠的区域的分割准确度更高。

消融实验

实验表明,在相同的检测结果下,我们提出的两个结构(Global Structure Guidance 和 Easy-to-Hard Dissembling)对于实例分割的结果均有提升。若同时使用两个模块,则 mask mAP 有进一步地提升(总共 + 1.32)

四、结论

针对现有的人工和视觉进行垃圾检查的缺陷,我们提出用 X 光图像帮助垃圾分类的检查:

  • 我们提出了第一个基于 X 光图片的、实例级别的垃圾分割数据集 (WIXRay);
  • 针对 X 光垃圾图片遮挡严重、有穿透效果的特点进行了改进。我们提出了从易到难的策略, 设计了 Easy-to-Hard Instance Segmentation Network (ETHSeg),并在 WIXRay 数据集上达到了 SOTA。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-08-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
AI网络爬虫:deepseek爬取百度新闻资讯的搜索结果
https://www.baidu.com/s?rtt=1&bsst=1&cl=2&tn=news&ie=utf-8&word=%E8%85%BE%E8%AE%AF%E4%BA%91%E6%99%BA%E8%83%BD%E8%AF%AD%E9%9F%B3+++%E9%87%91%E8%9E%8D
AIGC部落
2024/06/28
2570
AI网络爬虫:deepseek爬取百度新闻资讯的搜索结果
AI网络爬虫:批量爬取AI导航网站Futurepedia数据
Futurepedia致力于使AI技术对各行各业的专业人士更加可理解和实用,提供全面的AI网站和工具目录、易于遵循的指南、每周新闻通讯和信息丰富的YouTube频道,简化AI在专业实践中的整合。如何把Futurepedia上的全部AI网站数据爬取下来呢?
AIGC部落
2024/06/24
1190
AI网络爬虫:批量爬取AI导航网站Futurepedia数据
AI炒股-从东方财富网批量获取上市公司的全部新闻资讯
工作任务和目标:用户输入一个上市公司名称,然后程序自动从东方财富网批量获取上市公司的全部新闻资讯
AIGC部落
2024/06/24
1300
AI炒股-从东方财富网批量获取上市公司的全部新闻资讯
AI网络爬虫:批量爬取豆瓣图书搜索结果
你是一个Python编程专家,要完成一个爬虫Python脚本编写的任务,具体步骤如下:
AIGC部落
2024/06/24
2000
AI网络爬虫:批量爬取豆瓣图书搜索结果
大伙,为啥我爬虫爬百度搜索得出的结果是0啊?
前几天在Python白银交流群【~Crazy】问了一个Python网络爬虫处理的问题,这里拿出来给大家分享下。
Python进阶者
2023/09/02
4530
大伙,为啥我爬虫爬百度搜索得出的结果是0啊?
手把手教你爬取某酷音乐付费歌曲~
爬取酷我音乐相比网易云音乐、酷狗音乐以及QQ音乐来说容易很多,没有加密算法,而且在反爬虫中不存在一些难理解的逻辑,只需要理清思路即可!本文会用爬虫+GUI制作酷我音乐下载工具
Python与Excel之交
2021/08/05
3.5K0
手把手教你用VSCode+腾讯云AI代码助手使用DeepSeek-R1打造智能开发环境
在快节奏的软件开发领域,高效与智能已成为开发者追求的核心竞争力。今天,我们将揭秘如何通过
六月暴雪飞梨花
2025/02/26
1.1K0
手把手教你用VSCode+腾讯云AI代码助手使用DeepSeek-R1打造智能开发环境
反爬篇 | 手把手教你处理 JS 逆向之字体反爬(下)
上一篇文章我们使用 Scrapy + Selenium 爬取了某个电影网站即将上映的影片
AirPython
2023/08/22
7070
反爬篇 | 手把手教你处理 JS 逆向之字体反爬(下)
AI网络爬虫-自动获取百度实时热搜榜
标题:<div class="c-single-text-ellipsis"> 东部战区台岛战巡演练模拟动画 <!--48--></div>
AIGC部落
2024/06/24
2350
AI网络爬虫-自动获取百度实时热搜榜
AI网络爬虫:批量获取post请求动态加载的json数据
网站https://www.futurepedia.io/ai-innovations的数据是通过post请求动态加载的:
AIGC部落
2024/06/24
3110
AI网络爬虫:批量获取post请求动态加载的json数据
AI炒股-用kimi批量爬取网易财经的要闻板块
标题和链接在:<a href="https://www.163.com/dy/article/J2UIO5DD051188EA.html">华为急需找到“松弛感”</a>
AIGC部落
2024/06/24
1790
AI炒股-用kimi批量爬取网易财经的要闻板块
AI网络爬虫:批量下载某个网页中的全部链接
<a hotrep="doc.overview.modules.path.0.0.1" href="https://cloud.tencent.com/document/product/1093/35681" title="产品优势">
AIGC部落
2024/07/10
2440
AI网络爬虫:批量下载某个网页中的全部链接
爬虫系列 | 基于百度爬虫的非百度搜索引擎
这是本项目的开篇,在这个小项目中,将要基于爬虫和GUI编程写一个写个小工具,目的是不用打开浏览器,也能搜到一些关键信息,并将这些信息持久化保存下来,读者可以对这些数据进行分析,比如舆情分析,或作为 NLP 的语料输入。
月小水长
2020/12/02
7800
爬虫系列 | 基于百度爬虫的非百度搜索引擎
Python 爬虫系列教程一爬取批量百度图片[通俗易懂]
很久之前就学习了Python的爬虫了,也用来做过一些项目(主要是一些课程项目),但时间比较紧,一直没有空把它写下来,这个暑假,我可能会逐渐更新Python爬虫的相关知识。
全栈程序员站长
2022/08/18
1.5K0
Python 爬虫系列教程一爬取批量百度图片[通俗易懂]
Python爬虫三种解析方式,Pyhton360搜索排名查询
在网页数据解析当中,re正则解析是比较费劲的,而且非常容易出错,网页数据结构一旦出错,则容易报出异常,而且想要匹配好正则,你的正则表达式需要熟练,不然你得一步步去尝试了,某些网页数据解析还真的只能用正则表达式去匹配。
二爷
2020/07/22
8990
Python爬虫三种解析方式,Pyhton360搜索排名查询
保姆级教学,手把手教你用Python爬虫(附详细源码)
实践来源于理论,做爬虫前肯定要先了解相关的规则和原理,要知道互联网可不是法外之地,你一顿爬虫骚操作搞不好哪天就...
查理不是猹
2022/01/11
1.4K0
Python图片爬虫,某度图片多线程爬取方法附工具脚本助手
相信不少老哥的爬虫之路都是从图片爬取开始的,之所以走上这条不归路,不就是爬几个小(美)破(女)图么,本渣渣也写过不少图片爬虫,有一篇妹子图的爬虫可谓是手把手实战教学,印象深刻,对于图片素材类爬取,不同人群有着不同的用途,就看你的初衷是什么了。
二爷
2021/07/05
7420
Python 批量爬取猫咪图片实现千图成像
本文使用的 Python 版本是 3.10.0 版本,可直接在官网下载:https://www.python.org 。
Lucifer三思而后行
2021/11/03
1K0
Python 批量爬取猫咪图片实现千图成像
爬虫篇| 爬取百度图片(一)
网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。(来源:百度百科)
润森
2019/09/02
5.5K1
爬虫篇| 爬取百度图片(一)
手把手教你用Selenium爬取拉勾网数据!
大家好,在之前我们讲解过很多基于requests+bs4的爬虫,现在换个口味,本文将基于Selenium讲解如何爬取并使用openpyxl存储拉勾网招聘数据。
刘早起
2020/11/05
1.5K0
推荐阅读
相关推荐
AI网络爬虫:deepseek爬取百度新闻资讯的搜索结果
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档