- Objective: 降低神经网络的错误率 - Breadcrumb: 正则化技术 # 概念阐释 在每个学习周期,当神经网路从实例中估计出[[gradient descent 梯度下降|梯度]],并对[[weights 权重]]进行更新时,有一半的单元就会被随机暂时剔除。这就意味着,每个周期训练的都是不同的网络,结果是每个周期中训练的参数更少,单元之间的依赖关系更少。失活技术让深度学习网络的错误率降低了 10%。 # 实例 # 相关内容 # 参考资料 - 《深度学习》谢诺夫斯基 08