【第五期论文复现赛-语义分割】BiSeNet
发布时间:2025-07-23 编辑:游乐网
BiSeNet是实时语义分割网络,针对常见加速方法损失空间信息等问题,提出双路径结构:Spatial Path保留高分辨率特征图,Context Path通过下采样增感受野,结合特征融合模块融合特征。在Cityscapes数据集复现中,以特定配置达75.19% mIoU,兼顾速度与性能。
【第五期论文复现赛-语义分割】BiSeNet-实时语义分割网络
语义分割任务需要丰富的空间信息和大的感受野,大部分模型都通过降低特征图的分辨率来加快推理速度,特征图分辨率的降低会导致模型性能的下降。为了兼顾推理速度的同时保留大的特征图分辨率,作者提出了BiSeNet,引入Spatial Path和Context Path,Spatial Path中步长较小来得到高分辨率的特征图,Context Path引入快速的下采样机制来增加感受野,最后使用特征融合模块将Spatial Path和Context Path的特征图进行有效融合。
论文:BiSeNet: Bilateral Segmentation Network for Real-time Semantic Segmentation
最新repo:https://github.com/CoinCheung/BiSeNet
复现repo:https://github.com/justld/BisNetV1_paddle
一、引言
为了使模型达到实时分割的效果,常常用3种方法对模型进行加速:
1、限制输入尺寸。通过resize或者crop来限制模型输入的大小,从而减少计算量;
2、裁剪网络的通道数。降低模型的通道(尤其是靠输入的层)能够减小计算量,但是弱化模型的空间表达能力;
3、ENet减少了下采样比率(抛弃了Encoder的低分辨率的层),从而导致模型的感受野降低,对大物体的分割效果不好。
为了弥补上述方法中的空间信息损失,研究者们使用U型的结构利用高分辨率的特征图来补充下采样时丢失的细节。但是这样的方法也有缺点:
1、高分辨率特征图的引入导致计算量增加,从而降低了模型运行速度;
2、网络浅层通道裁剪导致丢失的空间信息损失不容易被修复。
基于以上,作者提出了BiSeNet,Spatial Path的输出是1/8特征图,保留了丰富的空间信息;在Context Path最后添加了全局平均池化层,使得Context Path特征图的感受野为全局。
二、网络结构
Spatial Path的输出是1/8特征图,保留了丰富的空间信息;在Context Path最后添加了全局平均池化层,使得Context Path特征图的感受野为全局;Attention Refinement Module和Feature Fusion Module模块都引入了注意力机制。需要注意图(a)中右下角的白色方框表示global average pooling层。
三、实验结果
BiSeNet在Cityscapes数据集上的实验结果如图所示,fps在显卡NVIDIA Titan XP上计算。
四、复现环境
paddlepaddle=2.2.2
tesla V100 * 4
五、复现结果
六、快速体验
按照以下步骤即可快速体验BiSeNet训练验证过程。(想要复现完整的训练过程请使用脚本任务)
In [ ]# step 1: git clone-已包含文件,无需clone# !git clone https://github.com/justld/BisNetV1_paddle.git登录后复制 In [ ]
# step 2: unzip data%cd ~/data/data64550!tar -xf cityscapes.tar%cd ~/登录后复制 In [ ]
# step 3: training%cd ~/BisNetV1_paddle/!python train.py --config configs/bisenetv1/bisenetv1_cityscapes_1024x512_160k.yml --num_workers 4 --do_eval --use_vdl --log_iter 20 --save_interval 2000登录后复制 In [12]
# step 4: val%cd ~/BisNetV1_paddle/!python val.py --config configs/bisenetv1/bisenetv1_cityscapes_1024x512_160k.yml --model_path output/best_model/model.pdparams登录后复制
/home/aistudio/BisNetV1_paddle2024-03-11 16:09:12 [INFO]---------------Config Information---------------batch_size: 4iters: 160000loss: coef: - 1 - 1 - 1 types: - type: OhemCrossEntropyLoss - type: OhemCrossEntropyLoss - type: OhemCrossEntropyLosslr_scheduler: end_lr: 0.0 learning_rate: 0.01 power: 0.9 type: PolynomialDecaymodel: backbone: output_stride: 8 type: ResNet18_vd type: BiseNetV1optimizer: momentum: 0.9 type: sgd weight_decay: 0.0005train_dataset: dataset_root: /home/aistudio/data/data64550/cityscapes mode: train transforms: - max_scale_factor: 2.0 min_scale_factor: 0.5 scale_step_size: 0.25 type: ResizeStepScaling - crop_size: - 1024 - 512 type: RandomPaddingCrop - type: RandomHorizontalFlip - brightness_range: 0.4 contrast_range: 0.4 saturation_range: 0.4 type: RandomDistort - type: Normalize type: Cityscapesval_dataset: dataset_root: /home/aistudio/data/data64550/cityscapes mode: val transforms: - type: Normalize type: Cityscapes------------------------------------------------W0311 16:09:12.629894 2833 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 10.1, Runtime API Version: 10.1W0311 16:09:12.629941 2833 device_context.cc:465] device: 0, cuDNN Version: 7.6.2024-03-11 16:09:16 [INFO]No pretrained model to load, ResNet_vd will be trained from scratch.2024-03-11 16:09:16 [INFO]Loading pretrained model from output/best_model/model.pdparams2024-03-11 16:09:16 [INFO]There are 206/206 variables loaded into BiseNetV1.2024-03-11 16:09:16 [INFO]Loaded trained params of model successfully2024-03-11 16:09:16 [INFO]Start evaluating (total_samples: 500, total_iters: 500)...500/500 [==============================] - 81s 161ms/step - batch_cost: 0.1608 - reader cost: 0.13142024-03-11 16:10:37 [INFO][EVAL] #Images: 500 mIoU: 0.7519 Acc: 0.9572 Kappa: 0.9445 2024-03-11 16:10:37 [INFO][EVAL] Class IoU: [0.9796 0.8391 0.9183 0.4422 0.5683 0.6251 0.703 0.7758 0.92 0.6217 0.9425 0.8053 0.5925 0.9467 0.7111 0.8287 0.7332 0.5678 0.7654]2024-03-11 16:10:37 [INFO][EVAL] Class Acc: [0.9883 0.9169 0.9508 0.8329 0.8072 0.7926 0.8402 0.8981 0.9518 0.8052 0.9601 0.8769 0.7613 0.9691 0.9346 0.9342 0.9139 0.7919 0.8579]登录后复制
七、复现经验
1、如果复现的精度未达到要求,且与目标精度差距不大,可以尝试增加训练次数,若与目标精度相差较大,需要检查网络、预处理过程等是否有误;
2、优先使用PaddleSeg框架复现论文,可以节省大量的时间,同时能够在PR时提高效率。
相关阅读
MORE
+- Office文档修复神器 损坏文件抢救终身免费 07-23 【新手入门】0 基础掌握大模型训练(一):监督微调SFT算法全解析:从原理到实战 07-23
- PaddleRS:geojson-建筑提取 07-23 Gemini如何接入智能家居 Gemini智能设备控制方案 07-23
- 豆包AI编程操作说明 豆包AI自动编程技巧 07-23 AdvSemiSeg: 利用生成对抗实现半监督语义分割 07-23
- pdf转word文档怎么转?五大高效方法全攻略! 07-23 基于PPSeg框架的HRNet_W48_Contrast复现 07-23
- 【第五期论文复现赛-语义分割】BiSeNet 07-23 自学AI工具有哪些好用平台?附带免费教程推荐 07-23
- Monodepth2-基于自监督学习的单目深度估计模型 07-22 怎样用豆包AI进行推荐系统开发?协同过滤实战 07-22
- 2021 CCF BDCI基于飞桨实现花样滑冰选手骨骼点动作识别-B榜第3名方案 07-22 FRN——小样本学习SOTA模型 07-22
- deepseek界面操作说明 deepseek怎么调出专业设置 07-22 AI Overviews怎么下载不了 AI Overviews安装失败的常见解决方案 07-22
- Gemini AI怎么用来写简历 Gemini AI自动生成求职内容的方法 07-22 豆包 AI能不能导入本地文件 豆包 AI读取外部文档的操作步骤 07-22