- Objective: - Breadcrumb: # 概念阐释 - 使用生成模型来生成文本、代码、图片或其他数据的AI。生成式 AI 使用的是[[端到端]]的深度学习范式,基于[[Transformer]]架构的[[Deep Learning 深度学习|深度神经网络DNN]],开启了深度学习的 AI 盛夏。 - 本质:通过从输入数据中学习,识别数据中的模式、结构、关系从而达到理解,然后用自己的理解生成新的、没见过的输出。 - 生成的结果靠的是算法、数据和算力综合作用结果: - 算法: - [[LLM Visualization nano-gpt]]:比如[[tokenization]]、[[Embedding]]向量、[[文本序列处理]]、[[transformer]]架构、[[注意力机制]] - 数据: - 基于互联网上的人类语言原生文本数据进行学习 - 算力: - 大量的计算资源,比如 100 块 GPU,在海量数据上进行训练,加工处理,不断优化参数,不断预测下一个词,生成符合上下文的新内容 - 实例:[[GPT的训练过程(archive)]] ![](https://image.harryrou.wiki/2024-12-25-CleanShot%202024-12-05%20at%2007.33.50%402x.png) # 实例 ## 生成式AI产品(基于 transformer 架构) - 文本生成 AI - ChatGPT - Google Gemini - LLaMA - 图片生成 AI - [[stable diffusion]] - [[DALL·E]] - [[Midjourney]] - 视频生成 AI - [[Sora]] - 生物生成 AI - [[AlphaFold2]]:生成蛋白质结构 ## 自回归生成与生成式AI的关系: - [[自回归生成模型]]生成式AI的一个典型应用模式,尤其是在文本生成任务中。生成式AI不仅限于自回归模型,其他类型的生成模型(例如生成[[GAN 生成对抗网络]]变分自编码器VAEs等)也存在,但自回归模型(如GPT系列)是生成式AI中最常见的一种。 - **联系**:自回归模型本质上是生成式AI的一种实现,专注于逐步生成新数据(如文本)。 - **区别**:生成式AI是一个更广泛的类别,涵盖了所有能够生成数据的模型,而自回归特指那种基于已有数据逐步生成下一个数据点的方式。 # 相关内容 ## 生成式AI的 big idea - 生成的内容与输入数据具有相似性,但又不完一样; - 生成的结果是线性连贯的,就像人类的生成(文字、口语)一样,往往无法区分; - 通过不同于人类的理解方式,似乎 AI 更能够捕捉到输入信息中的复杂性和细微差别(nuance),从而达到人类无法学习到的程度; - 因此可以替代我们的很多工作。 - 无论是 AI 的训练阶段([[GPT 训练过程(archive)]])还是推理阶段,本质生都在做一件事:生成下一个 token - 训练过程是人类阅读的翻版:阅读时大脑中在做**预测下一个词**与实际词之间对比差异,进行知识体系的调整(调参) - 推理过程:**生成预测的下一个词**,连接成线性的自然语言来回答人类提出的问题 # 参考资料 - [4.2 生成式AI对人类学习的启示](https://readwise.io/reader/shared/01jew2fq0hyg572cnk85wsypx8) - [4.3 什么是生成输出](https://readwise.io/reader/shared/01jfe4ymgkj16ry5s0b3xgk2gq) - [x] [生成式 AI-Wikipedia](https://readwise.io/reader/shared/01j50042jrjsxmzqx0nh53kb0s)