# WHY
为什么早期人工智能发展缓慢?
1. 主张[[符号人工智能]]基于逻辑和计算机程序构建人工智能(但其实深度学习的成功是基于数据的井喷),因为:
1. 计算机在进行逻辑运算、符号操作和规则应用方面非常高效
1. 积木世界
2. 图像识别
3. MYCIN、Cyc 项目
2. 数字计算机非常原始,存储器成本高昂
2. 对于大脑的认识尚未开始
1. 大脑功能的基本原理在 20 世纪 50 年代才被揭开,并且在80 年代,才在生物学以外对大脑的接触变得更加广泛
3. 感知器(深度学习的前身)被证明能力有限,深度学习进入 10 年寒冬
# WHAT
展开解释 2 种观点的次级概念和实例
- **视觉识别**
- 积木世界 Blocks World
- **积木是我们与现实世界交互的简化版本**
- 20 世纪 60 年代,马文·明斯基在 MIT AI Lab中的一个项目,用编写程序的方式让计算机理解命令,例如“找到黄色积木,放到红色积木上面”,但极其复杂,难以实现。以至于编写程序的学生[[Terry Winograd]]在离开后,程序错误百出。
- 这种人为编写程序的方法叫做: **hand design rule**,它的局限有三个方面:
- scalability:可扩展性差,不可能把所有的规则都包含在内。(在语言学习中就是不可能把所有语法都教给计算机了,计算机就会说话了,还是要靠大量的语料积累,语法是从语料中识别出的模式);
- adaptability:适应性差,不能套用,例如英文语法不能套在中文中,否则翻译全错;
- closed-world: 假设性世界,不适用于真实的世界。
- 2016 年才通过[[Deep Learning 深度学习]]解决。谁也没想到需要50年,计算机运算能力提升 100 万倍,计算机视觉才能达到人类水平。
- 图像识别
- 最早的想法是将物体的模板与图像中的**像素匹配**,但收效甚微,因为同一物体的不同角度就会导致像素不匹配
- **关注特征**:例如同一角度的不同鸟类,关注不同鸟类之间的细微差别
- 但是关注特征也面临挑战,为世界上数万种不同物体开发特征检测器是非常耗费人力的,并且即便有了精确的特征检测器,一旦物体有遮挡也会产生歧义。
- **越是对于人类来说原始、简单的行为越是难以实现,例如看、听、四处走动,反而通过编写程序让计算机证明数学定理要容易得多。**
- **早期人工智能为什么发展缓慢?**(展开讲述了第一章提出的人工智能构建的 2 种观点)
- 20 世纪 70-80 年,基于逻辑和程序:专家系统
- MYCIN:用于识别导致感染性疾病的细菌
- 由专家提供的事实和规则、病人的症状和病史,将信息输入计算机,通过编写程序让计算机进行推理。
- 但最好的诊断不依赖规则,而是靠基于经验的图像识别,并且更新很快,医生提供信息、录入的时间非常长。
- 1984 年 Cyc
- 将常识代码化(**如何解释Wolfram《一种新科学》万物皆可用编程语言计算?**)
- 数字计算机非常原始,存储器成本高昂,但在处理逻辑运算方面确非常高效,所以被误认为是人工智能的未来
- 基于人类神经网络
- 大脑功能的基本原理在 20 世纪 50 年代被慢慢揭开
- 艾伦·霍奇金和安德鲁 ·赫胥黎解释了大脑信号是如何通过神经中的电脉冲来实现远距离传送的
- 伯纳德·卡茨发现了大脑电子信号如何经过突触转化为化学信号来实现神经元间的通信的
- 20 世纪 80 年代,认为人工智能靠编写程序的主流科学家们认为:可以编写一个程序,使其拥有和大脑一样的功能。并不需要对大脑进行了解。非主流科学家认为,受到生物学启发,认为被称为 **“神经网络”,“联结主义”,“并行分布处理”** 的 AI 实现方法最终能够实现AI。
- **从神经网络到人工智能**
- 苍蝇和计算机的区别:专用计算机 vs 通用计算机
- 苍蝇严重的视觉网络进化了数亿年,视觉算法嵌入了它本身的网络
- 1989 年,MIT计算机科学实验室主任迈克尔·德图佐斯邀请本书作者-谢诺夫斯基到MIT做一个有关他在基于神经网络的人工智能领域采用的开拓性研究方法的“杰出学者讲座”。在当时看来,根据摩尔定律,计算机的运算能力每 18 个月翻一番,让机器达到人类大脑的运算能力需要 25 年,2015 年(大数据元年)。
- 深度网络学习架构类似于视觉皮质的层次结构。
- 在视觉皮层内部,神经元呈多层次排列结构
- 感官信息在皮层间层层传递,对世界的呈现也越来越抽象
- 深度学习网络模拟人类的大脑,可以自动找出区分图像中不同物体的优质特征
- 1989 年,《纽约时报》报道,政府将大幅削减人工智能资金投入
# HOW
# HOW GOOD
# archive
---