卷积核的大小会影响卷积层提取的特征信息。较大的卷积核(如5×5)能够覆盖更大的感受野,从而提取更多的空间信息。但是,较大的卷积核也意味着更多的参数和计算量。相比之下,较小的卷积核(如3×3)所需的参数和计算量较少,但覆盖的感受野也相应减小。
在实际应用中,可以通过堆叠多个较小的卷积核来达到与较大卷积核相同的感受野,同时减少参数和计算量。
感受野(Receptive Field)是指神经网络中神经元“看到的”输入区域。在卷积神经网络中,特征图上某个元素的计算受输入图像上某个区域的影响,这个区域即该元素的感受野。
filters是滤波器,filters的数量等于输出通道(output channels)的数量。每个滤波器都会产生一个输出特征图,因此滤波器的数量决定了输出特征图的数量,也就是输出通道的数量。
文章目录一、
卷积核
(convolutional kernel):1.1 介绍1.2 设计
中
的问题二、池化(pooling):没有完全整理的blog整理完的blog
一、
卷积核
(convolutional kernel):
1.1 介绍
**目标:**实现对应于输入的局部感知
**实现方式:**对输入的某个局部块进行加权求和
**理由:**感受野的提出(观察某个物体时我们既不能观察每个像素,也不能一次观察整体,而是先从局部开始认识)
**举例:**
卷积核
的
大小
一般有1x1,3x3和5x5的尺寸(一般是奇数x奇
3、sum<1,darker;sum>1,brighter.sum=0,虽然不是完全黑暗但也很暗了
如果有的像素点作用过后不在[0,255]范围内了,可以做调整,例如<0则Set to 0或取绝对值,>255则Set to 255
还有一些gaussian blur什么的
在
深度学习
的算法学习
中
,都会提到 channels 这个概念。在一般的
深度学习
框架的 conv2d
中
,如 tensorflow 、mxnet,channels 都是必填的一个参数。
channels 该如何理解?先看一看
不同
框架
中
的解释文档。
首先,是 tensorflow
中
给出的,对于输入样本
中
channels 的含义。一般的RGB图片,channels 数量是 3 (.
本文分为几个部分来详解Conv2d与Conv1d。主要侧重于Conv2d
本文记于2020年12月15日,起因是DG
CNN
中
部分
卷积
使用了二维
卷积
,部分
卷积
使用了一维
卷积
。加之之前对Conv2d与Conv1d属于一种迷迷糊糊的状态,趁着这个机会弄清楚。
Conv2d原理(二维
卷积层
)
二维互相关运算
互相关运算与
卷积
运算
虽然
卷积层
得名于
卷积
(convolution)运算,但所有框架在实现
卷积层
的底层,都采用的是互相关运算。实际上,
卷积
运算与互相关运算类似,为了得到
卷积
运算
1.
卷积
神经网络的概念
上世纪60年代,Hubel等人通过对猫视觉皮层细胞的研究,提出了感受野这个概念,到80年代,Fukushima在感受野概念的基础之上提出了神经认知机的概念,可以看作是
卷积
神经网络的第一个实现网络,神经认知机将一个视觉模式分解成许多子模式(特征),然后进入分层递阶式相连的特征平面进行处理,它试图将视觉系统模型化,使其能够在即使物体有位移或轻微变形的时候,也能完成识别。
卷积
神经网络是多层感知机(MLP)的变种,由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来,视觉皮层的
# 定义
卷积层
conv_layer = tf.keras.layers.Conv2D(
filter
s=32, kernel_size=8, input_shape=(1, 1))
# 输出
卷积层
的权重和偏置
print(conv_layer.weights)
在这里,输入是1个通道,输出是32个通道,
卷积核
大小
为8。