ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
**特征图:** 特征中往往编码了某种模式或概念在特征图的不同位置是否存在 **边界效应**:开始的输入尺寸为 28×28,经过第一个卷积层之后尺寸变为 26×26。 ![](https://img.kancloud.cn/59/df/59df2d54f2516397bc71416745d88108_579x277.png) **填充**(padding):在输入特征图的每一边添加适当数目的行和列,使得每个输入方块都能作为卷积窗口的中心。 ![](https://img.kancloud.cn/ae/9a/ae9abcdcb6daf110ac4d31238b7f8395_609x207.png) `Conv2D`层,通过`padding`参数来设置填充 : * `"valid"`表示不使用填充(只使用有效的窗口位置)(默认) * `"same"`表示填充后输出的宽度和高度与输入相同 **步幅**:两个连续窗口的距离是卷积的一个参数,叫作**步幅**,默认值为 1 **步进卷积**(strided convolution):步幅大于 1 的卷积。步幅为 2 意味着特征图的宽度和高度都被做了 2 倍下采样。 ![](https://img.kancloud.cn/1a/f7/1af799138928f594abf024234cf07d8d_579x255.png) **最大池化运算:** * 对特征图进行下采样,通常使用**最大池化**(max-pooling)运算。 * 最大池化是从输入特征图中提取窗口,并输出每个通道的**最大值** * 最大池化使用硬编码的`max`张量运算对局部图块进行变换 * 最大池化通常使用 2×2 的窗口和步幅 2 ![](https://img.kancloud.cn/97/a2/97a2805a6e905c4448b6ee21e5431ed5_534x149.png) **为什么要用这种方式对特征图下采样?:** * 这种架构不利于学习特征的空间层级结构,卷积层的特征包含输入的整体信息太少。 * 最后一层的特征图的元素太多,参数太多,会导致严重的过拟合。 **使用下采样的原因:** * 减少需要处理的特征图的元素个数 * 通过让**连续卷积层的观察窗口**越来越大(即**窗口覆盖原始输入的比例**越来越大),从而引入空间过滤器的**层级结构**