# what - 每个对话窗口以主题的最小单位为创建依据。 - 一个[[概念 concept]] - 一个[[阅读 思想|idea]] - 一个问题 - 一个事实 # how - 查找过往对话,进行继续对话:⌘+K - if plus用户可以创建 project,把同主题的对话分类 # why ## 原理 - 上下文长度 - [[LLM 大语言模型]]有[[context length 上下文长度]]的限制,超过这个长度的内容会被“忘记”,举例子: - GPT-3:2048个 token =1024 个汉字 - GPT-4o 为 128k token = 64000 个汉字 - 上下文理解 - 模型在生成对话内容时,不仅会使用训练完成后已部署的大语言模型(其中的万亿参数),还会参考对话框中的上下文。如果主题庞杂,生成的内容可能会不够聚焦。举例子: - 一个对话框里既提到一个工作问题,又提到猫如何喂养,对话内容就比较杂,可以将两个问题拆分成两个对话。 - [[知识砖块]] - 🧱 我们的大脑在存储知识的时候,都是以一个个知识的最小单位(概念、事实、思想、思维模型)进行存储的; - 🕸️ 这些知识点之间建立丰富而意义的关系,从而形成知识网络; - 🤖 所以我们和 AI 的每一次对话,其实都可以看成是一个不可分割的知识砖块。 # how good # Ref.