1. 介绍
这是Huawei Noah‘s Ark Lab在CVPR2021上的文章。他们针对于终端设备算力有限的条件下,提出了一种有效的视频降噪算法EMVD,其主要特点在于
- 通过可学习的可逆变换,将图像的亮度和颜色信息,以及不同的频率信息进行分解,在变换域进行图像降噪处理;
-
使用了三级结构,包括时域融合(temporal fusion)、空域降噪(spatial
denoising)、时空精修(spatio-temporal refinement)三个阶段,每级结构都有明确的任务和可解释性; - 使用很小的参数和计算量就可以取得较好的效果;
2. 本文方法
降噪方法针对于RAW域图像,假设噪声模型是异质性高斯噪声,即由读出噪声和散粒噪声构成。
σ
t
2
(
y
t
)
=
a
t
y
t
+
b
t
σ_t^2(y_t)=a_ty_t+b_t
σ
t
2
(
y
t
)
=
a
t
y
t
+
b
t
在这种假设下,噪声参数
a
t
a_t
a
t
和
b
t
b_t
b
t
只与给定的传感器和相机ISO参数有关,因而可以提前进行噪声标定获得噪声参数。
整个方法流程图如下图所示.
3. 可学习的可逆变换
受YUV和小波变换的启发,可以将RAW图像的颜色信息和频率信息做分解,这种变换是线性且可逆的,可以通过设计为标准卷积操作来学习。
其中颜色变换可以设计为1 × 1卷积,输入4通道(RGGB),输出4通道;通常颜色矩阵定义为
在本文中使用该矩阵作为卷积初始化初始化。
频率变换可以像如Haar小波一样,设计为4个
n
×
n
n × n
n
×
n
的卷积。文章使用两个
1
×
n
1 × n
1
×
n
一维滤波器,包括一个低通滤波
ψ
L
\psi_L
ψ
L
和一个高通滤波
ψ
H
\psi_H
ψ
H
。两者相互组合的外积作为 $n × n $ 的卷积核初始化。
为了保证学习到的正变换和逆变换是相互可逆的,在学习时加入了约束
其中,
I
c
I_c
I
c
和
I
2
I_2
I
2
分别为秩为C和2的单位矩阵。
4. 融合阶段
该阶段的目的是使用视频的时域相关特征来减小噪声同时不引入其他的伪纹理
。因而,
时域融合
可以定义为
5. 降噪阶段
仅仅采用时域融合进行降噪是不充分的,因为图像中的运动区域不能被时域信息有效地补偿。因而,在时域融合之后进行空域降噪。
6. 精修阶段
降噪可能会带来伪纹理和信息丢失,因而在进行降噪之后,加入了精修阶段提升降噪效果,而且精修网络仅仅在最高的尺度上进行。
7. 实验
7.1 数据集
CRVD Benchmark
其包括了一个利用SONY IMX385传感器拍摄的真实RAW视频数据集(CRVD)和一个合成数据集SRVD。所有视频有五个不同的ISO水平,ISO范围为[1600,25600]。文章使用完整的SRVD加上CRVD的1-6场景作为训练集,CRVD的7-11场景作为验证集。CRVD也包含了少量没有GT的户外噪声视频作为视觉质量比较。
IMX327 Dataset
使用SONY IMX327传感器拍摄了更多的图像。使用1042张高质量RAW图合成训练集,ISO从25600到96000取值。验证集包含了6个合成噪声视频,ISO分别为25600,51200和96000。测试集使用了6个在低照度场景(1l ux以下)下拍摄的真实噪声视频。
7.2 训练
在合成IMX327数据集时,通过合成随机运动轨迹从单帧图像上进行裁剪,从而模拟不同的位移。在生成长序列数据时,可以通过将每个序列进行时间反转叠加起来。训练损失函数定义为
L
=
L
r
+
L
c
+
L
f
L = L_r + L_c + L_f
L
=
L
r
+
L
c
+
L
f
。其中
L
r
L_r
L
r
定义为
L
1
L_1
L
1
损失。
7.3 消融实验
下表展示了不同的消融实验在CRVD上测试的结果。
实验说明了在降噪阶段分配更多的参数和算力是更有效的。
下表展示了时域融合阶段使用不同核大小对结果的影响。
可以观察到对以前帧使用更大的核有利于运动补偿,从而得到更好的结果。
7.4 实验结果
左图展示了不同方法的运算开销和结果指标之间的相对关系,可以看出EMVD在比较小的计算量的条件下能取得更好的性能。右图展示了使用更多的输入帧对结果的影响。其他使用多帧输入的方法在经过初始的帧数增加后达到一个稳定的水平,而EMVD是使用递归的方法,因而积累长时间的信息更加有利。
下表展示了在Huawei P40 Pro手机芯片上,处理单精度720p视频序列的测试结果。可以看到EMVD可以实现接近30fps的处理速度。
本文提出了一种多阶段的视频降噪的方法EMVD。其最大的特点在于其可解释性和高效性。对于每一阶段的功能和效果都能给予解释和分析,整体的算法可以有效地应用于终端设备中,实现落地应用。
8. 最后