【图像去噪】第六期论文复现赛——DnCNN
本文围绕DnCNN图像去噪算法展开复现研究。该算法基于残差学习和批量归一化,适用于图像复原。复现采用PaddlePaddle框架,在BSD68测试集、噪声15条件下,10次测试平均PSNR达31.73757,达标。文中还介绍了数据集、文件结构、环境依赖、核心代码及训练、评估等操作流程。

论文复现——图像去噪算法 DnCNN
DnCNN: Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
最新源码:https://github.com/cszn/DnCNN
最新Pytorch实现:https://github.com/SaoYan/DnCNN-PyTorch
复现地址:https://github.com/sldyns/DnCNN_paddle
1. 简介
由于深度学习的进步以及卷积神经网络在视觉方向取得的巨大成功,使得更多学者聚焦于此。作者注意到在残差网络之前,预测残差图像的策略已经被用于一些低水平视觉问题,如单幅图像超分辨率和彩色图像去噪。他认为在图像复原领域(尤其是在噪音程度较小的情况下),含噪图像与无噪图像的残差非常小,所以理论上残差学习非常适合运用到图像复原上。
而批量归一化操作通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布,这减轻了内部协变量的移位,同时使梯度变大,避免了梯度消失的问题,而且梯度变大意味着学习收敛速度快,能大大加快训练速度。
这样的网络设计就是在隐层中将干净图像 x 从含噪图像 y 中消去。在超分领域,低分辨率图片就是高分辨率图片的双三次上采样操作形成的,故超分领域的残差图片和去高斯噪声领域的残差图片是等价的,同理还有JPEG解锁领域的残差图片。因而DnCNN网络同时具有良好的盲去噪能力.
2. 复现精度
在 BSD68 测试集上做了10次测试,达到验收指标:average PSNR, noise 15: 31.73
3. 数据集与文件结构
3.1 数据集
最新代码提供的训练数据集地址:https://github.com/SaoYan/DnCNN-PyTorch/tree/master/data/train
测试数据集地址:https://github.com/cszn/FFDNet/tree/master/testsets/BSD68
**注:**所有数据已经存放在 work/data/ 文件夹下了,可以无需下载.
3.2 文件结构
DnCNN_Paddle |-- data |-- BSD68 # 测试所用的BSD68数据集 |-- train # 训练所用的数据,包含400张图片 |-- logs |-- net.pdparams # 训练过程保存的模型参数文件 |-- vdlrecords.1649579479.log # 完整的训练日志 |-- test_tipc # TIPC: Linux GPU/CPU 基础训练推理测试 |-- dataset.py # 数据及预处理相关代码 |-- export_model.py # 预训练模型的导出代码 |-- LICENSE # LICENSE文件 |-- models.py # 模型定义代码 |-- README.md # README.md文件 |-- val.py # 模型评估代码 |-- predict.py # 模型预测代码 |-- train.py # 单机单卡训练文件 |-- train2.py # 单机多卡训练文件 |-- utils.py # 一些工具文件 |-- infer.py # 模型推理代码登录后复制
4. 环境依赖
PaddlePaddle >= 2.2.0
scikit-image == 0.19.2
In [ ]!pip install scikit-image登录后复制
5. 核心代码
DnCNN 的结构并不复杂,主要为多层 CNN 配合 BatchNorm 和 ReLU,实现的残差学习.
class DnCNN(nn.Layer): def __init__(self, channels, num_of_layers=17): super(DnCNN, self).__init__() kernel_size = 3 padding = 1 features = 64 layers = [] layers.append(nn.Conv2D(in_channels=channels, out_channels=features, kernel_size=kernel_size, padding=padding, bias_attr=False, weight_attr=nn.initializer.KaimingNormal())) layers.append(nn.ReLU()) for _ in range(num_of_layers-2): layers.append(nn.Conv2D(in_channels=features, out_channels=features, kernel_size=kernel_size, padding=padding, bias_attr=False, weight_attr=nn.initializer.KaimingNormal())) layers.append(nn.BatchNorm2D(features, weight_attr=ParamAttr(initializer=nn.initializer.Constant(value=1.)), bias_attr=ParamAttr(initializer=nn.initializer.Constant(value=0.)))) layers.append(nn.ReLU()) layers.append(nn.Conv2D(in_channels=features, out_channels=channels, kernel_size=kernel_size, padding=padding, bias_attr=False, weight_attr=nn.initializer.KaimingNormal())) self.dncnn = paddle.nn.Sequential(*layers) def forward(self, x): y = x out = self.dncnn(x) return y-out登录后复制
6. 快速开始
6.1 初次训练
In [ ]!cd work && python train.py --preprocess True --data_dir data/train --val_dir data/BSD68 --num_of_layers 17 --noiseL 15 --val_noiseL 15登录后复制
参数说明:
--preprocess True 表示需要作数据预处理--data_dir data/train 训练数据路径--val_dir data/BSD68 验证数据路径--num_of_layers 17 模型层数为17层--noiseL 15 训练的噪声水平为15--val_noiseL 15 验证的噪声水平为15初次训练指定 --preprocess True,则会生成 train.h5 和 val.h5 两个文件,再次训练则不需要指定改参数:
6.2 重新训练
In [3]!cd work && python train.py --num_of_layers 17 --noiseL 15 --val_noiseL 15登录后复制
hijack_call.c:658 cuInit error unknown error登录后复制
6.3 日志读取
训练过程会将日志记录和模型参数保存在 work/logs/ 文件夹下.
日志是用 VisualDL 工具记录,可以用 Ai Studio 自带的 数据模型可视化 功能查看
6.4 模型评估
在 BSD58 数据集上作了 10 次测试,噪声强度为 15
In [ ]!cd work && python val.py --log_dir logs --data_path data/BSD68/ --test_noiseL 15登录后复制
输出如下:
10 times test on test data, Averate PSNR: 31.73937683053843, Variance: 1.7706766908902732e-05
显著达到了验收精度.
6.5 模型预测
在 BSD58 数据集上作预测,噪声强度为 15,结果存放在 work/results/ 文件夹下.
In [ ]!cd work && python predict.py --log_dir logs --data_path data/BSD68/ --save_path results/ --test_noiseL 15 --save_images登录后复制
输出为:
PSNR on test data 31.739193登录后复制
work/results/couple 中的图片为 原始图像、带噪图像、去噪结果,3 张图片拼接得到的:
6.6 单张图像去噪测试
导入单张图像,测试去噪效果,首先需要在work/test_images里上传一张图片.
In [1]# 先上传一张图片,import os.path as ospfrom IPython.display import displayfrom PIL import Imageimg_path = 'butterfly.webp' # 改成自己上传的图片名称full_img_path = osp.join(osp.abspath('work/test_images/'), img_path)img = Image.open(full_img_path).convert('RGB')print('以下为上传的图片:')display(img)登录后复制 以下为上传的图片:登录后复制
登录后复制 In [7]
!cd work && python predict_single.py --clean_img $full_img_path --save_images --log_dir logs登录后复制
Loading model ...W0602 17:50:55.775449 2009 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.2, Runtime API Version: 10.1W0602 17:50:55.779913 2009 device_context.cc:465] device: 0, cuDNN Version: 7.6.only clean image provided, noise level is 15PSNR 33.144904登录后复制 In [8]
# 去噪效果查看import globfrom IPython.display import displayfrom PIL import Imageimgs = glob.glob('work/test_images/*')for path in imgs: print(path) img = Image.open(path) display(img)登录后复制 work/test_images/butterfly.webp登录后复制
登录后复制
work/test_images/butterfly_noised.webp登录后复制
登录后复制
work/test_images/butterfly_denoised.webp登录后复制
登录后复制
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话
新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。
季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?
AI 时代最赚钱的公司,可能从来不是做 AI 的那个。作者|张勇毅编辑|靖宇淘金热里最稳赚的人,从来不是淘金的,是卖铲子的。这句老话在 2026 年的科技行业又应验了一次。只不过这次卖铲子的不是英伟
Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体
Claw AI Lab团队量子位 | 公众号 QbitAI你还在一个人做科研吗?科研最难的,从来不是问题本身,而是一个想法从文献到实验再到写作,只能靠自己一点点往前推。一个人方向偏了没人提醒,遇到歧
让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26
面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大
美国犹他州启动新试点项目:AI为患者开具精神类药物处方
IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

