残差可以被认为是一个后期处理步骤,用以“改进”编解码器解码的图像。那些有着很多关于这个世界“信息”的网络,可以做出关于“修复”的认知决定。而这个想法的提出是基于残差学习的,更多有关更多信息可以参阅此篇论文。 损失函数 由于有两个网络,所以使用两个损失函数。第一个,对于ComCNN,标记为L1的定义为: 等式1.0用于 ComCNN的损失函数 说明 这个等式可能看起来很复杂,但它实际上是标准(均方误差)MSE。其中||⊃2;表示它们所包含的向量的“范数”。 等式1.1 Cr表示ComCNN的输出。θ表示ComCNN的可训练参数,Xk表示输入图像。 等式1.2 Re()表示RecCNN。该等式将等式1.1的值传递给RecCNN。θ^表示RecCNN的可训练参数(^表示参数固定) 直观的定义 公式1.0将使ComCNN修改其权重,使得在RecCNN重新创建之后,最终图像将尽可能接近实际输入图像。 RecCNN的第二个损失函数定义为: 公式2.0 说明 该函数可能看起来很复杂,但它是一种大多数标准的神经网络丢失函数(MSE)。 公式2.1 Co()表示编解码器的输出。 x ^表示ComCNN的输出。θ2表示RecCNN的可训练参数。res()只是表示网络学习的残差,它只是RecCNN的输出。值得注意的是,RecCNN训练了Co()和输入图像之间的差异,而不是直接从图像输入。 直观的定义 公式2.0将使RecCNN修改其权重,使其输出看起来尽可能靠近原始图像。 训练安排 这些模型被迭代地训练,atv,类似于GAN的训练方式。一个模型的权重是固定的,而另一个模型的权重被更新,当另一个模型的权重是固定的,而第一个模型被训练。 基准 作者将其方法与现有方法进行了比较,包括编解码器。 他们的方法比其他方法执行得更好,同时在可用硬件上使用时保持高速。作者尝试只使用其中一个网络,他们发现性能有所下降。 图3.0 SSIM(结构相似度指数)比较。较高的值表示更好的与原始相似性。作者的作品用粗体字体表示。 结论 我们研究了一种利用深度学习来压缩图像的新方法。 我们讨论了在除了图像分类和语言处理等常见的任务上使用神经网络的可能性。这种方法不仅在现有技术上一直很好,而且可以以更快的速度处理图像。返回搜狐,查看更多 (责任编辑:本港台直播) |