# videos checklist - [x] seen? - [x] note-taking? thinking about it? - [ ] share? # what - [[prompt engineering]] - 我们在和 LLM 对话时,所有的输入都可以统称为 prompt。但是 prompt 分为两种:内容 prompt 和 meta prompt。 o1 狂暴模式属于 meta prompt,基于模型的工作原理提升模型的输出能力。 - [[meta prompt:狂暴模式]] - o1 pro mode prompt ,基于原理的 meta prompt,能够提升 o1 的输出效果。 # why - **prompt 之所以这样写的原因**: 1. 基于 openai 官网对于 Pro 模式的描述 2. 基于 [[test-time compute]]: o1 模型的更多计算资源会用在“推理阶段”,即我们的使用阶段。 - **prompt engineering 有效的原因**: - 这里的主要原因是由于 [[Instruction Following]]指令跟随。**这一概念指的是让模型能够更好地理解用户提供的自然语言指令(即 prompt)**。在预训练结束后,模型的生成内容是一种补齐,只想完成下一个词的生成,并不是在真正的回答问题。强化微调的训练就是通过提供“人类与助理对话的文档”让模型模拟这种对话。所以后训练虽然在整个训练中占比不高,但是决定了模型的输出质量。 - OpenAI 是最早的研究者之一,并在 GPT-3 之后加入了 [[RLHF 基于人类反馈的强化学习]]来提升回复质量,有了介于 GPT3 和 ChatGPT 之间的[[InstructGPT]] # how - **what** - [00:05:29](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=329s) 狂暴模式 prompt 解读 - [00:11:31](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=691s) 我的迭代,最终版本 prompt - [00:13:17](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=797s) prompt 作用机制:[[test-time compute]] vs [[train-time compute]] - [00:17:02](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1022s) 视频太长?但是……(一分钟学习法 vs 一劳永逸学习法 😂) - **how** - [00:21:53](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1313s) 案例分析:玄学 or 科学?如何严格证明这个 prompt 是真有效? - [00:23:30](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1410s) 用数据说话:玄学几率小于4‰ - [00:24:21](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1461s) 严谨的判断标准:思考时间,思考过程,内容结果(结构,长度,质量) - [00:25:58](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1558s) 详细审视案例1:基于大环境,受过教育的人,是不是更容易成为精致的利己主义者? - [00:30:48](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1848s) 其他案例:信息熵是专注力的敌人;算法信息流;批判性思维与形式逻辑教育;假如沉入贝加尔湖;知识管理简史;王朝周期律的根本原因; - [00:31:16](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1876s) **科学原理** | [[prompt engineering]] 对 llm 有效的本质原因:[[instruction following]] - [00:31:46](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=1906s) **最有名的 prompt**:[[meta prompt:let's think step by step|let's think step by step]] - [00:35:25](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=2125s) [[instructGPT]]:LLM 发展史([[ChatGPT 简史:从研究的角度|ChatGPT发展史]])上不为人知的关键突破 - [00:39:47](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=2387s) **prompt本质:LLM在模拟数据分布中包含的人类思维的特征** - [00:41:53](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=2513s) 颠覆认知但合情合理: - **合成数据不是垃圾,反而是比人类数据更好的学习材料**; - 当你在prompt 一个优秀的 llm时,你召唤出的是一个 idea 在超级[[语义空间]](人类知识和思想)中的数据分布。 - 这在原理上,优于大部分人类在超小数据集(个体经历和知识)上学习到的数据分布。 - **how good** - [00:46:19](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=2779s) 狂暴模式非常有用……狂暴模式完全没用:idea是关键。idea 哪里来? - [00:50:29](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=3029s) 我的两个笔记本:logseq和Twitter; - logseq 中,是个人的思想运动和联结;twitter 上,是群体的思想碰撞和联结。 - [00:52:03](https://www.youtube.com/watch?v=aaw-nWVlho0&list=PLZlSADAMEfUB1b4o_LR9661bgsm1hk0i3&index=14&t=3123s) llm intuition:**llm 直觉 = 每天使用 ChatGPT + 个人知识体系** # how good - **合成数据不是垃圾,反而是比人类数据更好的学习材料**: - AI 生成会成为更值得读 5678 遍的高质量素材,因为 gpt 生成的内容是在一个超级[[语义空间]]中的数据分布。人类生成的内容是在一个极小数据集上训练的数据分布。 - [[prompt engineering]] 不是灵丹妙药 - 任何 prompt 都不能把[[GPT-3]]变成[[GPT-4]],让 GPT-4 变成[[o1]]。 - **不是鼓吹 prompt engineering,重要的是理解[[meta prompt]]的原理,清晰的表达[[内容 prompt]]**,好好说话。 - 用好内容 prompt 的前提是**自我阅读** - llm intuition:**llm 直觉 = 每天使用 ChatGPT + 个人知识体系** # inbox # todo - [ ] instruct gpt 整理到 ChatGPT 简史中 # ref. - [YouTube 视频 - 如何使用“狂暴模式 prompt” 让 o1 变身 o1 pro,思考时间延长 511%,回答质量大幅提升,约等于立省 180,美金,每月?😂](https://readwise.io/reader/shared/01jjjetb21jpcdmvdjzy8zgrtp) - [o1 狂暴模式prompt 全部案例的原始 ChatGPT 对话,含对照组 - Google 表格](https://docs.google.com/spreadsheets/d/1eMeMhpUMPXRs4jmq-IuUj9Lg2nF0InpwXo-KFidQKQY/edit?gid=1894387887#gid=1894387887) - [如何用meta prompt 把20 美金的o1 变成200 美金的 “o1 pro”,开启 o1 “狂暴模式”,延长...by howie](https://readwise.io/reader/shared/01jh4e19tt3ka6pgfxdfd8apyh) #s5-★★★★★ - [深度思考-在中国受过高等教育的人容易成为精致的利己主义者吗?](https://btcml.xetslk.com/s/3aPsWb) # related. # archive.