- [[端到端]]的学习
- 人类学习的二分法
- 园丁?木匠?
- 智慧星球的比喻
- 智慧星球与[[端到端]]的学习
- [[生成式 AI]]
- [[生成式 AI]] 的 big [[阅读 思想|idea]]
- 预测下一个词
- 世界模型
- [[月亮错觉]]
- 人脑也是生成式大语言模型
- 智慧星球离不开生成过程
# why
# what
## 从端到端模式启发,讨论输出对于学习的意义
- 端到端的学习:
- 使用人工神经网络直接完成输入到输出结果的过程,不需要在中间进行人工的[[特征工程 Feature Engineering]],或者添加各种判断条件。
- 实例:[[FSD]]自动驾驶
- 人类的学习也是端到端的:
- **传统规则-白纸比喻**:教育者是“人类灵魂的工程师”,在这种模式下,教育者就像是[[机器学习]]中的干预者,不断添加if ... then语句
- **园丁与木匠**[^1]比喻:
- 木匠:教育者不应该像木匠那样有计划、有目的地精心设计孩子,目的是创造一个复合特定规格和期望的孩子;
- 园丁:
- 孩子是花朵,教育者要提供所需的环境和条件,让孩子自然发展;
- 但是花朵的比喻也有不足。首先,这里假设了“花朵”的天赋和潜力不同,更多是由先天因素决定的,**后天家长并不能干预多少**。
- **智慧星球比喻**:
- [[MzSavage]]受到阿西莫夫作品的启发,提出了“智慧星球”理论:孩子的大脑是一个智慧星球,千亿神经元就是星球上的草木生灵,大脑皮层分区的发展就是地球上的海洋大陆深沟高山等原始地貌。大脑的先天结构就像高山大陆一样是先天决定的,但是,星球整体的生命力和智慧涌现是草木生灵的发展和相互作用来决定的,这是**后天养育的结果**。
- 养育者不是园丁,而是智慧星球的守护者,是维护和促进孩子的大脑和心智。
- **守护智慧星球与端到端的学习**是完美契合的:
- 输入端是大量的阅读基础;
- 智慧星球相当于神经网络,**不要强加太多干预,而是要多观察输入和输出,给于有效反馈;**
- **输出不是选项之一,而是最好的选项**。通过提炼知识砖块、构建知识体系然后在现实世界中解释世界、解决问题。
## GPT阅读与人类阅读的过程,本质上都在做一件事:预测下一个词
- **输出是靠什么实现的?生成**:
- 使用生成模型(如[[Transformer]])来生成文本、代码、图片或其他数据的 AI;
- 学习了海量的输入数据,识别了==数据中的模式、结构和关系(构建知识体系的过程)==,然后生成新的、从未见过的输出。(对比与搜索引擎结果)
- 更具体一点说:**生成下一个 token**
- [[Pre-training 预训练]]阶段,通过数据自主训练,训练完成后会得到一份固定的参数表,不再更新,然后部署到服务器中供人使用,进入到推理阶段。GPT 与用户交互的过程,GPT 通过推理来生成结果。
- 预训练阶段,**通过预测下一个token的方式进行学习**,GPT 通过生成预测的下一个 token,然后与实际的 token 进行对比,通过差异来自动调整参数。(最小化[[Loss function 损失函数]])
- **人类在阅读和听力时,也是在不断预测下一个词**:
- 阅读和听力的过程,其实是不断的调用[[认知心理学 长时记忆|长时记忆]]中的已知,然后与阅读材料上的新知建立关联,形成理解的过程。
- 我们会基于已知来预测和自动补全接下来要读到的内容,**预测值和实际值的差异会构成阅读反馈**:
- if 预测比较准确,阅读顺畅,说明理解了
- 例子:读英文文章,不是每个单词都认识,但是通过上下文能够猜测到某个单词的意思,?% 单词认识的情况下就能理解内容。
- 理解的情况下,大脑对概念进行进一步加工,修剪知识框架,建立新的知识关联,调整心理模型,最终提现的结果就是通过阅读丰富了知识。
- if 经常卡壳,说明新的输入无法与长时记忆形成关联,预测不到下面会读到什么,也就提现为[[为什么学渣读书犯困,学霸读书生龙活虎?知识体系的科学原理|读书犯困]]。
- **总结**:
- GPT 的生成,输入(预训练)的过程靠生成,输出(推理阶段)也是靠生成;
- 类比人类,人类的阅读相当于 GPT 的预训练,靠生成预测的词与读到的词的差异形成阅读反馈;人类的输出(费曼笔记、口头表达、行动输出、解决问题),本质上也是生成。
## 世界模型[^2]
- [[预测即压缩压缩即智能,智能即具备理解力]]
- 通过预训练所获得的参数,本质上是对世界知识(来自于输入的数据)进行的高度压缩,参数决定了模型的行为和模式,体现为预测下一个词的准确度;
- 反过来说,如果模型能够准确地预测下一个词,说明模型已经将输入的数据转化为了“自己的[[孩子天生爱学习 心理表征|心理表征]]”,建立了自己的[[Transformer#^3e83c5|理解]];
- 因此,提高预测下一个词的准确度,就需要迫使模型学习更多的真实世界的知识,建立世界模型。
## 与深度学习有关的关键词
这篇文章中提到的与深度学习相关的关键词包括:
1. **生成式学习理论** - 1974年提出的学习理论。
2. **生成式AI** - 通过生成模型生成文本、代码、图片等的人工智能。
3. **Transformer架构** - 一种深度学习模型架构,广泛应用于自然语言处理和计算机视觉。
4. **端到端学习(End-to-End Learning)** - 使用单一的神经网络直接完成从输入到输出的过程。
5. **深度神经网络** - 一种多层的神经网络结构,用于处理复杂的数据。
6. **特征工程** - 在传统机器学习中,人工提取数据特征的过程。
7. **自动驾驶** - 作为端到端学习的一个应用实例。
8. **语音识别** - 通过模型直接从音频波形到文本转录的过程。
9. **GPT模型** - 一种生成式预训练变换器模型,用于自然语言处理。
10. **预训练(Pre-training)** - 在生成式AI中,模型通过大量数据进行自主学习的过程。
11. **Token预测** - 在生成式AI中,模型通过预测下一个词来生成文本。
12. **世界模型** - AI或人类对外部世界的理解和表征。
13. **Embedding模型** - 将语言转化为高维向量的模型,用于理解语义和语法。
14. **反馈机制** - 在学习过程中,通过输出与期望结果的差异进行调整。
# how
# how good
## 总结
- **端到端**:人类的大脑和人工神经网络一样,是端到端的,不用人为强加太多干预,而是要多观察输入和输出,给于有效反馈;
- **生成**:输入输出的本质都是生成,就像 GPT 的本质是生成一样,在训练(阅读)的过程中通过已知与新知进行交互,预测值和实际值的差异构成阅读反馈;在推理(输出)的过程中,通过语言输出、行为输出,本质上都是在生成。
# Ref.
- [4.2 生成式AI对人类学习的启示](https://readwise.io/reader/shared/01jew2fq0hyg572cnk85wsypx8)
[^1]: 心理学家阿莉森·高普尼克(Alison Gopnik)写了一本叫《园丁与木匠》(The Gardener and the Carpenter)的书,探讨了两种不同的养育模式。
[^2]: 参考:[[Transformer]]