AlexNet论文精读


论文链接

ImageNet Classification with Deep Convolutional Neural Networks (nips.cc)

背景

imageNet比赛的任务是将几百万个图片分为几千个类,AlexNet,是于2012年由Imagenet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。

概览

摘要

做了一个新的网络模型,中间使用了哪些层,结果比第二名的结果好很多。

结论

没有结论,只有讨论(说明和展望)

关键图

深度神经网络的一个图片训练出来最后的向量,在语义空间中的表示特别好,相似的图片会放在一起,分类效果较好。

表格数据对比:自己的结果特别好

结论:效果特别好,使用了神经网络。

研读

介绍

大的数据集、大的模型、防止过拟合,使用了新的网络模型,新的技术,而不是现有的技术的融合来优化。

预处理:imagenet的图片大小尺寸都不一样。我们的模型将图片裁剪为256*256,没有其余的任何预处理,没有抽取特征,原始的图片输入,神经网络可以处理直接得到输出,是一种end to end的模式。(奥卡姆剃刀原则,简单有效的东西是能够持久的)

架构

如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。

ReLU=max(0,x)。并不是效果特别好,而是因为简单,好用。

pooling层:做了一些重叠方面的改动

卷积:压缩后的一个像素可以代表原始图片中的一大块像素,通道数不断增加每个通道数是去看一种特定的模式。有多少个通道数就可以识别图片中的多少种模式。全连接层作为“’分类器’将学到的”分布式特征表示“映射到样本标记空间中。

双GPU训练、分布式训练

降低过拟合

过拟合:给你一些题目,你把题目背了下来,你根本就没有理解题是在干什么,所以考试的时候肯定考不好

神经网络的可解释性问题

一个诟病:神经网络到底学的是什么东西,到底发生了什么得到了一个这么好的结果

虽然很多时候不知道在学什么,但是有一些神经元还是很有对应性的,在底层的神经元学到了一些局部的信息,比如纹理和方向

在上层中学到的是比较全局点的,比如一个手,一个动物,一个动物,或者其他信息

神经网络到底学的是什么仍然是一个不可解释性的问题,是去学一个东西的形状还是学一个东西的纹理


文章作者: April
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 April !
  目录