Dilated Convolution
Common Conv
Dilated Conv
空洞卷积在一定程度上能增大卷积神经网络的感受野,但是利用其设计语义分割网络则会存在如下两个问题。
1. The Gridding Effect
如果和之前的操作一样,仅仅只是反复叠加3*3的kernal的话,那么在过程中就会存在一定的信息损失。
2. 对小物体的分割
增大感受野对小物体的分割似乎没有好处
因此图森组提出了较好的解决方法:Hybrid Dilated Convolution (HDC)
- 叠加卷积的 dilation rate 不能有大于1的公约数。比如 [2, 4, 6] 则不是一个好的三层卷积,依然会出现 gridding effect。我们将 dilation rate 设计成锯齿状结构,例如 [1, 2, 5, 1, 2, 5] 循环结构。
- 需要满足$$M_i = max[M_{i+1}-2r_i, M_{i+1}-2(M_{i+1}-r_i), r_i]$$, 其中$r_i$,$M_i$分别代表第i层的dilation rate和最大dilation rate。
来自如何理解空洞卷积(dilated convolution)?, 作者@刘诗昆
Deconvolution
deconv大致可以分成如下三个方面
- unsupervised learning
- CNN可视化
- upsampling
呃。。一般来说上采样+卷积的性能比反卷积要好,况且反卷积存在棋盘格效应。