ThinkSSL🔒 一键申购 5分钟快速签发 30天无理由退款 购买更放心 广告
**dropout**是神经网络最有效也最常用的正则化方法之一 对某一层使用 **dropout**,就是在训练过程中随机将该层的一些输出特征**舍弃**(设置为 0) > 假设在训练过程中,某一层对给定输入样本的返回值应该是向量`[0.2, 0.5, 1.3, 0.8, 1.1]`。使用 dropout 后,这个向量会有几个随机的元素变成 0,比如`[0, 0.5, 1.3, 0, 1.1]` > **dropout 比率**(dropout rate)是被设为 0 的特征所占的比例,通常在 0.2~0.5 范围内。 > “我去银行办理业务。柜员不停地换人,于是我问其中一人这是为什么。他说他不知道,但他们经常换来换去。我猜想,银行工作人员要想成功欺诈银行,他们之间要互相合作才行。这让我意识到,在每个样本中随机删除不同的部分神经元,可以阻止它们的阴谋,因此可以降低过拟合。” > ~~~ model.add(layers.Dropout(0.5)) ~~~ ![](https://img.kancloud.cn/18/74/187498912cc4129366c28a09fa3bd098_614x214.png)