id-cnn用端到端给深度学习引入sar去斑技术

这里有个新进展,能帮合成孔径雷达(SAR)把那些斑点噪声直接处理掉。原本的方法呢,都是用统计模型或者滤波器去干扰,搞得影像边缘和噪声老是得不出平衡。不过这次提出的图像去斑卷积神经网络(ID-CNN),直接把端到端学习用到了SAR图像的后处理上。这个网络呢,给一堆卷积层设计了一套动作,让它们直接估计和去除斑点,不用像以前那样还得先对数运算、后反演。给流程简化了不少。 先说说这个噪声的数学表达方式吧。观测到的图像Y等于无噪图像X和噪声F的乘积,Y = X · F,这其中F服从伽马分布。为了线性化这个乘性噪声呢,之前的做法是把图像放到对数域里去运算,但是呢,这样做不仅要增加步骤去对数和反对数,还容易引起数值不稳定跟信息损失。还不说说网络设计巧妙的部分吧。这里把噪声图像Y看成是干净图像X和斑点F的倒数乘积,Y = X / F′。这样一来,只要网络估计出F′,然后用个除法残差层就好了。可以保留端到端特性而且不会出现数值溢出的问题。 来看一下具体架构吧。噪声估计部分用了八层卷积加批归一化还有ReLU激活函数。每层除了最后一层都用64个1×1滤波器给零填充了保持维度不变,步长一直是1防止边缘混叠。通过跳过连接直接给浅层特征加到深层上去减缓梯度消失问题。末端采用了Tanh激活函数把输出控制在[-1,1]范围内。残差层用 Y / (估计的F′) 操作把斑点给抵消掉了。 损失函数部分采用了欧氏距离加上TV正则化的组合方式来算损失。像素级欧氏损失就是针对每对图像{X, Y}来算;TV损失呢就是鼓励空间平滑来压制噪声同时保持边缘锐度。 实验部分用UCID还有BSD-500数据集构造合成数据集训练了3665对图像每对256×256大小,7:1:2划分训练集验证集测试集。在合成测试集上PSNR和SSIM都有提升3dB和0.04。在真实SAR数据上视觉效果也明显清晰多了。 总结一下就是ID-CNN用端到端方式给深度学习引入了SAR去斑技术,通过除法残差层一次性完成噪声估计跟重建。实验证明这种方法在合成跟真实数据上都有不错的改进效果啊!后续有望通过更多多通道或者多极化SAR处理提升精度跟泛化能力呢!