>[!费曼]
>Q 作为GPT模型的power user,陶哲轩的使用案例,给你什么启发?
>1. chatGPT使用得当的话将成为非常强大的合作者,你不能指望它替你思考,直接给出正确答案,但GPT是非常专业的合作者,可以充当老师、编辑,提出专业问题,提供策略与建议。
>2. 角色扮演:告诉GPT将扮演怎样的角色,可以让对话是基于某一领域下的,以此来提升对话的专业性或者难易程度。
>3. 提出问题:将数据输入给GPT,让它生成一些基于数据的问题,来扩展我们的思考范围。
>4. 回答问题:比起在我们所知的经验范围中尽可能提供精确的prompt,不如给GPT提供大量的原始文本所获得的结果要好。比如我最近在阅读一本书,我用尽可能准确的prompt向GPT提问,不如先把书的原始信息输入给它,或者先做出提问“你知道xxx这本书吗?”
>5. 辅助写作:提供初稿建议、大纲,模仿写作风格,改写原文,以某种规范格式进行写作。
**2026年的AI,如果使用得当,将成为数学研究中值得信赖的共同作者,而且在许多其他领域也是如此**。
在使用过程中,他总结出了一些经验:**不要试图让 AI 直接回答数学问题(这样得到的答案八成是废话),而是让它扮演合作者的角色,要求它提供策略建议。**
陶哲轩为了解决上述证明题提供给 GPT-4 的 Prompt:“你好,我是一名数学教授,我希望你能扮演一位善于提出解题技巧的数学专家合作者。我正试图回答 MathOverflow 中的以下问题……”
- 现在假设你是一位编程老师
- 扮演电影学院导演系的教授
- **提出问题**:他将最近一些数学预印本论文的前几页输入给 GPT-4,并**让其生成一些与该论文相关的问题**,就像同行提出的问题一样。这可以帮助他更好地进行演讲准备。
- **回答问题:**他现在经常使用 GPT-4 来回答随意和模糊的问题,以前他可能会通过精心准备的搜索引擎查询来尝试回答这些问题;
> 最初,我努力使提示尽可能精确,这是基于我与编程或脚本语言的经验。最终在我放弃这种谨慎,并简单地向AI提供大量原始文本时,取得了最好的结果。
现实生活例子或类比:想象一位程序员试图编写一个程序,他最初试图通过自己的知识和经验来提供准确的指导,但最终发现只有通过提供大量的原始数据,让AI自己学习和推理,才能得到最好的结果。
总结:在提供指导或训练AI时,有时候提供大量的原始数据比依靠个人经验和知识更有效。
- **辅助写作**:他曾经让 GPT-4 给复杂文档提供初稿建议,以辅助写作。
- 他自己和GPT-4先分别写了一份。
又让GPT-4看了自己写的之后,要求GPT-4把它的文章**改成自己的风格**。
最后又让GPT-4直接改写了自己的初稿,并贴在一起方便大家比较。
> 我过去依赖的用于“嗅出”错误数学论证的文体信号在LLM生成的数学中几乎无用。只有逐行阅读才能分辨出是否有实质内容。 奇怪的是,即使是无意义的LLM生成的数学,往往也引用了正确的相关概念。通过努力,人类专家可以将这些不起作用的观点改进为正确且独创的论据。
解释:现实生活中的例子或类比:想象一位专家在阅读一篇由人工智能生成的文章时,以往他可以通过**观察文体信号(如语气、用词等)来判断**其中是否存在错误的数学论证。然而,当他面对由LLM生成的数学文章时,这些信号几乎没有用处,**只能逐行阅读并仔细分析内容才能确定是否有实质性的数学内容**。并且即便生成的内容无意义,也引用了正确的相关概念。
**解题**
- 先写出解题思路,对比