# why # what - **基础研究**:AI、机器学习、[[NLP 自然语言处理]] - 人工智能、机器学习、自然语言处理等领域的基础理论研究 - 研究如何让计算机更好地理解和生成自然语言,或是如何构建和训练大型神经网络模型 - 1956 年 AI 学科诞生, AI 研究者用几十年的努力,建立了AI 学科,提出了一系列 AI 理论,从[[感知机]]到神经网络,还发展出CNN、RNN 等一系列神经网络算法 - [[Transformer]] - **应用研究**:技术研究,GPT大模型 - why - 在这个阶段,研究者将基础研究的理论应用于解决特定问题。OpenAI在成立时的定位,是一个立志于进行 **AGI** 基础研究的小小实验室。[[LLM 大语言模型]]是 OpenAI 选择的实现 AGI 的技术路线。应用研究是在力求“有用”的基础上解决问题,打造更高的技术方案。 - how - 如何利用自然语言处理技术来提高聊天机器人的回答质量。这包括选择合适的模型架构、数据处理和训练技术等,旨在实现特定的功能或改善性能。 - what - 2018 年 6 月,OpenAI 发布了 GPT-1 模型,这是第一个大语言模型,参数“高达”1.1 亿。 - 2019 年 2 月,GPT-2 模型发布,提升了语言生成能力,支持了特定条件下的语言生成,模型参数也扩大了 10 倍,来到 15 亿级别。 - 2020 年 6 月,GPT-3 模型发布,继续提升语言生成能力,参数模型扩大 了 100 倍,高达 1750 亿,相应的,GPT在语言理解、翻译、总结等任务上迎来突破。 - 2023 年3 月,GPT-4 模型发布,这时OpenAI 已经不公布具体技术细节了,但估计参数量在 1.7 万亿左右。模型能力也真正达到了AGI级别,在文本生成、编程、知识等一系列任务上取得让人震惊的表现。 - 2024 年,OpenAI 会发布GPT-5 模型,根据Sam Altman 等人透露的零星消息,GPT 模型的能力又将继续迎来巨大突破。 - ![](https://image.harryrou.wiki/2024-11-15-041955.png) - **开发研究**:App,chatGPT - 这一阶段专注于将应用研究的成果转化为实际的产品或服务。对于 ChatGPT 来说,这包括集成和优化模型以适应商业应用的需求,如提高响应速度、用户界面设计、确保安全性和隐私保护等,最终使产品能够满足市场和用户的需求。 - 对比 - 北京智源人工智能研究院:用GPT模型x10倍 - 一年时间几百个模型,都是基于开源模型,做点微调,做个app,宣传营销收钱 # how # how good - OpenAI在创立之初,所有人都不知道要做什么,初创的 10 个人一起聚在 Greg 的公寓中,在白板上写下要解决的问题: - “训练一个大型的无监督模型,然后解决强化学习问题”,非常具体 - **connecting the dots** - 2018 年的 GPT-1 和 2019 年的 GPT-2,确立了语言模型的范式; - 2020 年的 GPT-3,确认了规模法则(scaling law)是有效的; - 2023 年的 GPT-4,收获了复杂系统的智能涌现。 - **对人类学习的启发** - 路线方针:训练自己的大模型?vs 教培路线 - [[规模法则 scaling laws]]: - 规模法则就是“大力出奇迹”,10 年的刻意练习,20 万知识砖块,一定可以成为专家。 - GPT 时刻:高光时刻需要脚踏实地地持续积累 # Ref. - [1.7 个人知识树的关键,在“研究”二字](https://readwise.io/reader/shared/01jcps6sf4q1wb9q99qhsq3yzx) - https://zh.wikipedia.org/wiki/ChatGPT - [890 samaltman访谈:how to build the future](https://readwise.io/reader/shared/01jchcrsjk241nfpvdmyj408bk) - [3.7 TIL 笔记:日拱一卒的终身学习笔记](https://readwise.io/reader/shared/01jem79rqmfvzb0rjdpxwf7ka2) # todo - [ ] [[GPT的发展过程]]