本文以作者阅读《Dive into Deep Learning》为线索,融合串联了自身理解感悟、原始论文、优秀文章等。如有无意侵权,请联系本人删除。
卷积神经网络,由图像处理而生,但在NLP等方面仍有较大作用。
图像分辨率大时,对模型参数数量要求很多
原理:
如果我们用MLP处理图像,用输入层图像(mathbf{X}(高H,宽W))、其隐藏层表示(mathbf{H})是矩阵或者说是二维张量,且二者形状相同。
我们想要所有隐藏神经元都能接收到每一个像素的信息,就要使用四阶张量(mathbf W)。
设 (bias=mathbf U),可以把全连接层写为:
我们为什么做(Wrightarrow V)这个公式的形式上的变换呢?
为了便于理解、过渡
[begin{split} H[1,1]& = W[1,1,1,1]cdot X[1,1] + W[1,1,1,2]cdot X[1,2] \ &+ W[1,1,2,1]cdot X[2,1] + W[1,1,2,2]cdot X[2,2]\ &=V[1,1,0,0]cdot X[1,1]+V[1,1,0,1]cdot X[1,2]\&+ V[1,1,1,0]cdot X[2,1]+V[1,1,1,1]cdot X[2,2]\ end{split}]
如果(a、b)遍历所有值,就能覆盖图像所有位置,即每个神经元都能看到整个输入图像。
然鹅,在这样的局部连接层中,权重(V)是依赖于输出位置((i,j))的,即每个位置的神经元都有独立的滤波器。这意味着如果输入图像很大,参数量会非常庞大。
所以我们可以假设,图像中不同位置的局部模式应该以相同的方式处理。即一个边缘检测器无论在图像的左上角还是右下角都应该有相同的权重,这就是平移不变性。
现在,我们运用平移不变性,即(V、U)实际与((i,j))的值无关,可以知道:
[[mathbf{V}]_{i, j, a, b} = [mathbf{V}]_{a, b} ]
同理,偏置(U)也应当与位置无关。若我们假设每个输出通道共享一个偏置(单通道情况下就是一个常数(b)),则
[[mathbf U]_{i,j}=b ]
再带入原公式,我们就顺利得到了一个二维卷积的定义。
我们称其中的(mathbf V)是卷积核 或 滤波器。
补充:
传统图像处理中的滤波器,一般要求:
但在卷积神经网络中,卷积核是通过数据自动学习得到的,没有这些约束:
CNN中的卷积核是一种特征检测器,而不是传统意义上的图像滤波器。它们被训练来检测对任务有用的模式筛选特征(如边缘、纹理、形状 · · ·),而不是保持图像属性不变。
我们再用局部性,即一个像素通常只与其邻近像素有较强的关联,而与遥远像素的关联很弱。将(|a|、|b|)限制在局部的范围之内。 在推导中就可简单将外部区域的权重设为 (0) 。
有
[[mathbf{H}]_{i, j} = b + sum_{a = -Delta}^{Delta} sum_{b = -Delta}^{Delta} [mathbf{V}]_{a, b} [mathbf{X}]_{i+a, j+b} ]
这就是一个二维离散卷积层(忽略填充、步幅)。
下面是连续函数的卷积公式:
[(f * g)(t) = int_{-infty}^{infty} f(tau) g(t-tau) dtau ]
(g(t-tau)) 表示将 (g(tau)) 翻转得到 (g(-tau)),再向右平移 (t) 个单位
然而,在在上文中我们并没有对卷积核 (V) 进行翻转,而是直接滑动,这其实是互相关。
所以我们为什么依旧用“卷积”这个词呢?
[(f * g)(i, j) = sum_asum_b f(a, b) g(i-a, j-b) ]
深度学习实际使用的互相关为:
[(f * g)(i, j) = sum_asum_b f(a, b) g(i+a, j+b) ]
注意这里的 (f) 对应卷积核,(g) 对应输入图像,与连续卷积公式中的 (f,g) 角色可能相反,但这是常用的表示方式
显然,纯黑白格子画例外,所有输入的图像都不是简简单单的二维张量,每个像素点位置的基础上都储存着灰度或者RGB三通道,所以我们可以在这里暂且认为输入是一个三维张量(实际训练中我们更多使用四维((height, weight, channel, batch_size)) )。
因此输入 (mathbf X) 是一个三维张量,形状为((C_{in},H,W)),其中 (C_{in}) 是输入通道数,那么卷积也应调为([mathbf V]_{a,b,c})
这时,对于每个空间位置的隐藏层 (mathbf H) ,我们各用一组堆叠着的二维张量的通道 表示,而每个通道都向后续层提供一组空间化的学习特征,我们称之为“特征映射”。
对于特征映射,每个映射(通道)都是一个((高度×宽度))的二维矩阵,其中每一个值都表示着某个特定特征在输入图像对应位置的激活强度。
这里的特征保留了位置信息,即映射上的每个坐标点都对应输入图像的某个区域,是空间化、保留空间结构的。
其中,浅层特征映射、中层特征映射、深层特征映射应用、意义不同:浅层特征映射检测简单模式(如边缘、纹理),中层特征映射检测组合模式,深层特征映射对应高级语义特征。
在这里,为了支持输入(mathbf X) 和隐藏层 (mathbf H) 能用多个通道,更有普适性,可以让 (mathbf V) 再添加一个坐标,使其表示 ((size_h,size_w,C_{in},C_{out})) 。
这是一个含有多个通道的隐藏层表示:
[[mathbf{H}]_{i,j,d} =b_d + sum_{a = -Delta}^{Delta} sum_{b = -Delta}^{Delta} sum_{c=0}^{C_{in}-1} [mathbf{V}]_{a, b, c, d} [mathbf{X}]_{i+a, j+b, c} ]
其中 (a,b) 是卷积核的空间维度(高度、宽度),(c) 是输入通道索引,(d) 是输出通道索引,
(b_d) 是第 (d) 个输出通道的偏置
登录查看全部
参与评论
手机查看
返回顶部