深度学习图像识别:核心技术与案例实战》 ——1.2.2 卷积与权值共享

网友投稿 543 2022-05-29

1.2.2  卷积与权值共享

卷积是CNN的核心,用卷积核作用于图像就可以得到相应的图像特征。

在传统BP神经网络中,前后层之间的神经元是“全连接”的,即每个神经元都与前一层的所有神经元相连,而卷积中的神经元只与上一层中部分神经元相连。从仿生的角度来说,CNN在处理图像矩阵问题时会更加高效。例如,人的单个视觉神经元并不需要对全部图像进行感知,只需要对局部信息进行感知即可,若距离较远、相关性比较弱的元素则不在计算范围内。从计算的角度来说,卷积使得参数量与计算量大幅度降低。

接下来将介绍卷积的具体操作。例如,原始图像大小是7×7,卷积核大小是3×3。首先将卷积核与原始图像左上角3×3对应位置的元素相乘求和,得到的数值作为结果矩阵第1行第1列的元素值,然后卷积核向右移动一个单位(即步长stride为1),与原始图像前3行第2、3、4列所对应位置的元素分别相乘并求和,得到的数值作为结果矩阵第1行第2列的元素值,以此类推。

以上就是卷积核矩阵在一个原始矩阵上从上往下、从左往右扫描,每次扫描都得到一个结果,将所有结果组合到一起得到一个新的结果矩阵的过程。操作如图1.7所示。

图1.7  二维卷积的实例

如果将大量图片作为训练集,则最终卷积核会训练成待提取的特征,例如识别飞机,那么卷积核可以是机身或者飞机机翼的形状等。

卷积核与原始图像做卷积操作,符合卷积核特征的部分得到的结果也比较大,经过激活函数往下一层传播;不符合卷积特征的区域,获得的数值比较小,往下传播的程度也会受到限制。卷积操作后的结果可以较好地表征该区域符合特征的程度,这也是卷积后得到的矩阵被称为特征平面的原因。

从上面的表述中我们可以引出权值共享的概念,即将图像从一个局部区域学习到的信息应用到其他区域。

图像的局部特征具有重复性(也称为位置无关性),即图像中存在某个基本特征图形可能出现在图片上的任意位置,于是为在数据的不同位置检测是否存在相同的模式,可以通过在不同位置共享相同的权值来实现。

用一个相同的卷积核对整幅图像进行一个卷积操作,相当于对图像做一个全图滤波,选出图片上所有符合这个卷积核的特征。例如,如果一个卷积核对应的特征比是边缘,那么用该卷积核对图像做全图滤波,即将图像各个位置的边缘都选择出来(帮助实现不变性)。不同的特征可以通过不同的卷积核来实现。

《深度学习之图像识别:核心技术与案例实战》 ——1.2.2 卷积与权值共享

图像识别 图像识别服务 Image 图像识别服务

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:poi-tl
下一篇:(精华)2020年8月29日 二十三种设计模式(十一)-享元模式(Flyweight Pattern)
相关文章