使用认知心理学解释深度神经网络

发布时间:2017-07-20 16:26:36 | 来源:DeepMind | 作者:机器之心 | 责任编辑:胡俊


      我们尝试使用深度神经网络(即匹配网络和 Inception 基准模型)进行这次实验,实验发现神经网络像人类一样更倾向于物体形体而不是颜色或纹理,所以它们有着「形状偏好」。



       这表明匹配网络和 Inception 分类器为形状使用一个归纳性的偏好(inductive bias)而消除不正确的假设,因此我们更加清楚了神经网络到底是如何解决一次性词语学习问题。

 

      观察形状偏好并不是我们唯一有意思的发现:



·         我们观察到形状偏移是在早期神经网络的训练过程中逐步出现的。这也许会联想到让人类的形状偏好到底是如何出现的:心理学家发现,较小儿童的形状偏好要比青少年小,并且成年人的形状偏好相对其他阶段是最大的。

·         我们发现使用不同的随机种子进行初始化和训练会得到不同程度偏移的神经网络。这就说明在深度学习系统进行实验时,我们必须使用大量已训练的模型来得出有效的结论,这正像心理学家不会根据单个主题得出一个结论一样。

·         我们发现神经网络即使在形状偏好十分不同时,它都可以实现相同的一次性学习性能。因此这证明了不同的神经网络能发现复杂问题多种等价高效的解决方案。

 

这一在标准神经网络架构中未被认识到的偏好发现表明,使用人工认知心理学解释神经网络解决方案的潜力巨大。在其他领域中,来自 episodic 记忆文献的洞见可用于理解 episodic 记忆架构,来自语义认知文献的技术可被用于理解形成概念的模型。这些以及其他领域丰富的心理学文献,赋予了我们一个极为强大的工具来解决神经网络黑箱问题,更深入地理解神经网络的行为。

1  2  3  4  5  6  7  8  9  10