- Objective: 深度学习的大爆炸时刻,图像识别论文 - Breadcrumb: 机器学习 - 深度学习 # 概念阐释 AlexNet 是在[[CNN 卷积神经网络]]上的迭代,由杰夫·辛顿和他的两个学生带着亚历克斯·克里泽夫斯基和伊尔亚·苏茨克维共同发表。论文的主要结论是,模型的深度对于模型的性能来说至关重要。 - 数据:标记过的[[ImageNet]]数据集 - 性能:使用了[[GPU]]进行训练 ## 设计架构 AlexNet 包含 8 层,前5层是卷积层,之后一些层是最大池化层,最后 3 层是全连接层。 # 实例 # 相关内容 ## 影响 AlexNet 在 2012 年这个 AI 的重要历史时刻出现,改变了人们对[[Deep Learning 深度学习]]的看法,刺激了更多使用卷积神经网络和 GPU 来加速深度学习的论文的出现。截至 2024 年,AlexNet在谷歌学术上被引用超过 157,000 次。 ## 由来 AlexNet 的前身来源于辛顿到谷歌接替吴恩达的「谷歌猫[[小猫论文]]」项目,辛顿发现谷歌猫的问题:错误的神经网络和错误的计算能力。回到多大后,辛顿和[[Ilya Sutskever]]、Alex Krizhevsky立刻创建了新的神经网络,并参加了[[ImageNet]]大赛。最后以惊人的 84% 准确率拿到了冠军。 **大算力**:AlexNet 之所以震惊学界和产业界,是因为AlexNet让世人真正看到了深度学习的大算力、大数据和算法都实现了。谷歌猫用了 16000 块 CPU,而AlexNet 只用了 4 块 GPU。 **大数据**:2012年,ImageNet的图片数量扩大到了1000个类别总共1500万张,李飞飞用6年时间补足了数据这块短板。 # 参考资料 - [2012 改变人类命运的 180 天](https://readwise.io/reader/shared/01jb6tcby1ba2b2t3nz8vfekfe) ## todo - [ ] [The moment we stopped understanding AI AlexNet](https://readwise.io/reader/shared/01jczrxsvw7p98030jk254en2r)