首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >273.6FPS!百度开源超轻量实时语义分割方案PP-LiteSeg,兼具高性能与高推理速度

273.6FPS!百度开源超轻量实时语义分割方案PP-LiteSeg,兼具高性能与高推理速度

作者头像
AIWalker
发布2022-04-27 14:31:48
发布2022-04-27 14:31:48
2.2K0
举报
文章被收录于专栏:AIWalkerAIWalker

paper: https://arxiv.org/abs/2204.02681 code: https://github.com/PaddlePaddle/PaddleSeg

本文提出一种轻量型实时语义分割方案PP-LiteSeg,它包含以下几个关键性模块改进:

  • FLD(Flexible and Lightweight Decoder),它用于降低传统decoder模块的计算负载;
  • UAFM(Unified Attention Fusion Module),它采用空域与通道注意力生成用于特征融合的权值;
  • SPPM(Simple Pyramid Pooling Module),它以极低的计算消耗进行全局上下文信息聚合。

相比其他方案,所提PP-LiteSeg取得了更佳的精度-速度均衡(可参考下图)。在Cityscapes测试集上,PP-LiteSeg-S取得了72.0%mIoU,推理速度达273.6FPS;PP-LiteSeg-B取得了77.5%mIoU,推理速度达102.6FPS(注:硬件为NVIDIA GTX 1080Ti)。

1Method

上图为本文所提PP-LiteSeg整体架构示意图,它包含三部分:

  • Encoder:它采用了STDCNet一文中的轻量型骨干(注:骨干部分采用SSLD方案进行预训练);
  • Aggregation:它采用SPPM进行长程关系建模,SPPM的输出包含全局上下文信息;
  • Decoder:它采用渐进式方式融合多级特征并输出最终结果。具体来说,FLD包含两个UAFM与一个分割头。

Flexible and Lightweight Decoder

上图给出了已有方案与本文方案在decoder方面的差异性对比,可以看到:已有方案(上图a)中decoder部分特征的分辨率在提升,同时通道数不变,这会导致浅层特征的计算量远大于深层特征,进而导致浅层特征的计算冗余。

为改善decoder的计算效率,本文提出了FLD,它伴随特征分辨率提升逐渐减少通道数。FLD可以更容易调节计算消耗以达成更好的平衡。

Unified Attention Fusion Module

Simple Pyramid Pooling Module

上图为本文所设计SPPM模块示意图,其实就是PPM变种,这个看图就懂了,继续略过。

2Experiments

上表&图给出了不同实时语义分割方案的性能对比(Cityscapes),可以看到:

  • PP-LiteSeg在精度-速度方面取得了SOTA均衡;
  • PP-LiteSeg-T1取得了72.0%mIoU,推理速度273.6FPS;
  • PP-LiteSeg-B2取得了77.5%mIoU,推理速度102.6FPS。
  • 相比STDC-Seg,PP-LiteSeg精度更高、推理速度更快
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AIWalker 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1Method
    • Flexible and Lightweight Decoder
    • Unified Attention Fusion Module
    • Simple Pyramid Pooling Module
  • 2Experiments
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档