### 4.2打开问题
该报告记录了各种新型ConvNet架构和构建块的设计取得的重大进展。虽然这一进展在几个计算机视觉应用中产生了新的先进技术,但了解这些ConvNets如何实现这些结果却落后了。此外,对这些方法的性能限制(_,例如_。失效模式)几乎没有理解。因此,揭示这些ConvNets捕获的信息变得尤为重要。目前,专注于理解ConvNets的方法在本章所讨论的相关文献中变得明显。然而,虽然这里讨论的几种技术都采取了很好的措施,但它们都留下了尚未解决的悬而未决的关键问题。
实际上,针对解释ConvNets的不同技术的评论显示,最广泛采用的方法依赖于可视化。然而,基于可视化技术的最大缺陷之一是它们将对复杂和高度非线性模型的理解减少到对各种潜在解释开放的单个图像。值得注意的是,这些可视化根据所采用的技术而变化(_,例如_。以数据集为中心,以网络为中心,如图4.2和4.3所示),并且通常还取决于所考虑的体系结构以及培训策略[6]。他们的解释也非常主观。更重要的是,在最近的一项研究中显示,用随机噪声替换特征图的强响应并通过DeConvNet架构将其传播回产生与投影回特征图响应本身时所获得的相似的可视化[105]。因此,本研究表明,以数据集为中心的可视化并不一定能揭示特定要素图捕获的内容,因为它们本身依赖于网络学习的参数来生成可视化。因此,基于此讨论,以下几点成为基于可视化方法的潜在关键方法:
* 首先,通过引入评估所生成图像的质量和/或含义的度量,开发使可视化评估更客观的方法是至关重要的。
* 此外,虽然看起来以网络为中心的可视化方法更有前景,因为他们不依赖于网络本身来生成可视化(_,例如_ .DeConvNet),似乎有必要将他们的评估过程标准化为一种可能的解决方案是使用基准来生成在相同条件下训练的可视化和网络。这种标准化可以反过来允许基于度量的评估而不是当前基于解释的分析。
* 另一种方法是同时可视化多个单元,以便更好地捕获研究中表示的分布式方面,即使在遵循受控方法的情况下也是如此。
考虑到消融研究,虽然它们允许隔离网络的各个部分以识别负责更好性能的组件,但它们无法真正阐明网络学习的内容,因为他们试图解释ConvNets“孤立的高度交织的组件。值得注意的是,在他们目前的应用中,消融研究只是用来收集绩效的几个百分点,而不是从理解的角度真正增加价值。这里,基于消融的方法可能有趣的方法包括:
* 使用通用且系统组织的数据集,捕获计算机视觉中常见的不同挑战(_,例如_。视点和光照变化),并且需要具有更高复杂程度的类别(_,例如_纹理,零件和物体。实际上,最近引入了这种初始数据集[6]。对这样的数据集使用消融研究,以及对所产生的混淆矩阵的分析,可以精确定位ConvNet架构的故障模式,从而提供更好的理解。
* 此外,有关多个协调消融如何影响性能的系统研究很有意思。这些研究应该将洞察力扩展到孤立单位的表现之外
最后,尽管可视化和消融研究方法存在理解ConvNets的缺陷,但它们仍然对ConvNet的缺点有所了解,例如学习过滤器的冗余(_,例如_。见图3.8)和重要性某些非线性(_,例如_。[77,23])。这些见解反过来用于ConvNet实现的更加可控的方法,这些方法不太依赖于数据,更重要的是不那么模糊(_,例如_。[15,113,75,78,60])。这些受控方法正在成为未来研究的一个有前途的方向,因为它们可以更深入地理解这些系统相对于纯粹基于学习的方法所采用的操作和表示。实际上,前一章回顾了许多这样的见解。反过来,它们也有可能根据其精确的系统规格支持更严格的性能界限。这里有趣的方法包括:
* 逐步修复网络参数并分析对网络行为的影响。例如,一次一层地修复卷积核参数(基于手头任务的一些先验知识),以分析每层采用的内核的适用性。这种渐进的方法有可能揭示学习的作用,也可以用作初始化,以最大限度地减少培训时间。
* 类似地,可以通过分析输入信号属性(_,例如_)来研究网络架构本身的设计(_,例如_。层数或每层滤波器数。)信号的频率内容)。此方法可以帮助调整架构的复杂性以适应应用程序。
* 最后,对网络实现的受控方法的使用可以伴随对ConvNets的其他方面的作用的系统研究,其通常由于关注学习参数而受到较少关注。例子包括调查各种汇集策略以及当大多数学习参数被修复时剩余连接的作用。
- TensorFlow 1.x 深度学习秘籍
- 零、前言
- 一、TensorFlow 简介
- 二、回归
- 三、神经网络:感知器
- 四、卷积神经网络
- 五、高级卷积神经网络
- 六、循环神经网络
- 七、无监督学习
- 八、自编码器
- 九、强化学习
- 十、移动计算
- 十一、生成模型和 CapsNet
- 十二、分布式 TensorFlow 和云深度学习
- 十三、AutoML 和学习如何学习(元学习)
- 十四、TensorFlow 处理单元
- 使用 TensorFlow 构建机器学习项目中文版
- 一、探索和转换数据
- 二、聚类
- 三、线性回归
- 四、逻辑回归
- 五、简单的前馈神经网络
- 六、卷积神经网络
- 七、循环神经网络和 LSTM
- 八、深度神经网络
- 九、大规模运行模型 -- GPU 和服务
- 十、库安装和其他提示
- TensorFlow 深度学习中文第二版
- 一、人工神经网络
- 二、TensorFlow v1.6 的新功能是什么?
- 三、实现前馈神经网络
- 四、CNN 实战
- 五、使用 TensorFlow 实现自编码器
- 六、RNN 和梯度消失或爆炸问题
- 七、TensorFlow GPU 配置
- 八、TFLearn
- 九、使用协同过滤的电影推荐
- 十、OpenAI Gym
- TensorFlow 深度学习实战指南中文版
- 一、入门
- 二、深度神经网络
- 三、卷积神经网络
- 四、循环神经网络介绍
- 五、总结
- 精通 TensorFlow 1.x
- 一、TensorFlow 101
- 二、TensorFlow 的高级库
- 三、Keras 101
- 四、TensorFlow 中的经典机器学习
- 五、TensorFlow 和 Keras 中的神经网络和 MLP
- 六、TensorFlow 和 Keras 中的 RNN
- 七、TensorFlow 和 Keras 中的用于时间序列数据的 RNN
- 八、TensorFlow 和 Keras 中的用于文本数据的 RNN
- 九、TensorFlow 和 Keras 中的 CNN
- 十、TensorFlow 和 Keras 中的自编码器
- 十一、TF 服务:生产中的 TensorFlow 模型
- 十二、迁移学习和预训练模型
- 十三、深度强化学习
- 十四、生成对抗网络
- 十五、TensorFlow 集群的分布式模型
- 十六、移动和嵌入式平台上的 TensorFlow 模型
- 十七、R 中的 TensorFlow 和 Keras
- 十八、调试 TensorFlow 模型
- 十九、张量处理单元
- TensorFlow 机器学习秘籍中文第二版
- 一、TensorFlow 入门
- 二、TensorFlow 的方式
- 三、线性回归
- 四、支持向量机
- 五、最近邻方法
- 六、神经网络
- 七、自然语言处理
- 八、卷积神经网络
- 九、循环神经网络
- 十、将 TensorFlow 投入生产
- 十一、更多 TensorFlow
- 与 TensorFlow 的初次接触
- 前言
- 1. TensorFlow 基础知识
- 2. TensorFlow 中的线性回归
- 3. TensorFlow 中的聚类
- 4. TensorFlow 中的单层神经网络
- 5. TensorFlow 中的多层神经网络
- 6. 并行
- 后记
- TensorFlow 学习指南
- 一、基础
- 二、线性模型
- 三、学习
- 四、分布式
- TensorFlow Rager 教程
- 一、如何使用 TensorFlow Eager 构建简单的神经网络
- 二、在 Eager 模式中使用指标
- 三、如何保存和恢复训练模型
- 四、文本序列到 TFRecords
- 五、如何将原始图片数据转换为 TFRecords
- 六、如何使用 TensorFlow Eager 从 TFRecords 批量读取数据
- 七、使用 TensorFlow Eager 构建用于情感识别的卷积神经网络(CNN)
- 八、用于 TensorFlow Eager 序列分类的动态循坏神经网络
- 九、用于 TensorFlow Eager 时间序列回归的递归神经网络
- TensorFlow 高效编程
- 图嵌入综述:问题,技术与应用
- 一、引言
- 三、图嵌入的问题设定
- 四、图嵌入技术
- 基于边重构的优化问题
- 应用
- 基于深度学习的推荐系统:综述和新视角
- 引言
- 基于深度学习的推荐:最先进的技术
- 基于卷积神经网络的推荐
- 关于卷积神经网络我们理解了什么
- 第1章概论
- 第2章多层网络
- 2.1.4生成对抗网络
- 2.2.1最近ConvNets演变中的关键架构
- 2.2.2走向ConvNet不变性
- 2.3时空卷积网络
- 第3章了解ConvNets构建块
- 3.2整改
- 3.3规范化
- 3.4汇集
- 第四章现状
- 4.2打开问题
- 参考
- 机器学习超级复习笔记
- Python 迁移学习实用指南
- 零、前言
- 一、机器学习基础
- 二、深度学习基础
- 三、了解深度学习架构
- 四、迁移学习基础
- 五、释放迁移学习的力量
- 六、图像识别与分类
- 七、文本文件分类
- 八、音频事件识别与分类
- 九、DeepDream
- 十、自动图像字幕生成器
- 十一、图像着色
- 面向计算机视觉的深度学习
- 零、前言
- 一、入门
- 二、图像分类
- 三、图像检索
- 四、对象检测
- 五、语义分割
- 六、相似性学习
- 七、图像字幕
- 八、生成模型
- 九、视频分类
- 十、部署
- 深度学习快速参考
- 零、前言
- 一、深度学习的基础
- 二、使用深度学习解决回归问题
- 三、使用 TensorBoard 监控网络训练
- 四、使用深度学习解决二分类问题
- 五、使用 Keras 解决多分类问题
- 六、超参数优化
- 七、从头开始训练 CNN
- 八、将预训练的 CNN 用于迁移学习
- 九、从头开始训练 RNN
- 十、使用词嵌入从头开始训练 LSTM
- 十一、训练 Seq2Seq 模型
- 十二、深度强化学习
- 十三、生成对抗网络
- TensorFlow 2.0 快速入门指南
- 零、前言
- 第 1 部分:TensorFlow 2.00 Alpha 简介
- 一、TensorFlow 2 简介
- 二、Keras:TensorFlow 2 的高级 API
- 三、TensorFlow 2 和 ANN 技术
- 第 2 部分:TensorFlow 2.00 Alpha 中的监督和无监督学习
- 四、TensorFlow 2 和监督机器学习
- 五、TensorFlow 2 和无监督学习
- 第 3 部分:TensorFlow 2.00 Alpha 的神经网络应用
- 六、使用 TensorFlow 2 识别图像
- 七、TensorFlow 2 和神经风格迁移
- 八、TensorFlow 2 和循环神经网络
- 九、TensorFlow 估计器和 TensorFlow HUB
- 十、从 tf1.12 转换为 tf2
- TensorFlow 入门
- 零、前言
- 一、TensorFlow 基本概念
- 二、TensorFlow 数学运算
- 三、机器学习入门
- 四、神经网络简介
- 五、深度学习
- 六、TensorFlow GPU 编程和服务
- TensorFlow 卷积神经网络实用指南
- 零、前言
- 一、TensorFlow 的设置和介绍
- 二、深度学习和卷积神经网络
- 三、TensorFlow 中的图像分类
- 四、目标检测与分割
- 五、VGG,Inception,ResNet 和 MobileNets
- 六、自编码器,变分自编码器和生成对抗网络
- 七、迁移学习
- 八、机器学习最佳实践和故障排除
- 九、大规模训练
- 十、参考文献