>[!费曼] >Q 作为GPT模型的power user,陶哲轩的使用案例,给你什么启发? >1. chatGPT使用得当的话将成为非常强大的合作者,你不能指望它替你思考,直接给出正确答案,但GPT是非常专业的合作者,可以充当老师、编辑,提出专业问题,提供策略与建议。 >2. 角色扮演:告诉GPT将扮演怎样的角色,可以让对话是基于某一领域下的,以此来提升对话的专业性或者难易程度。 >3. 提出问题:将数据输入给GPT,让它生成一些基于数据的问题,来扩展我们的思考范围。 >4. 回答问题:比起在我们所知的经验范围中尽可能提供精确的prompt,不如给GPT提供大量的原始文本所获得的结果要好。比如我最近在阅读一本书,我用尽可能准确的prompt向GPT提问,不如先把书的原始信息输入给它,或者先做出提问“你知道xxx这本书吗?” >5. 辅助写作:提供初稿建议、大纲,模仿写作风格,改写原文,以某种规范格式进行写作。 **2026年的AI,如果使用得当,将成为数学研究中值得信赖的共同作者,而且在许多其他领域也是如此**。 在使用过程中,他总结出了一些经验:**不要试图让 AI 直接回答数学问题(这样得到的答案八成是废话),而是让它扮演合作者的角色,要求它提供策略建议。** 陶哲轩为了解决上述证明题提供给 GPT-4 的 Prompt:“你好,我是一名数学教授,我希望你能扮演一位善于提出解题技巧的数学专家合作者。我正试图回答 MathOverflow 中的以下问题……” - 现在假设你是一位编程老师 - 扮演电影学院导演系的教授 - **提出问题**:他将最近一些数学预印本论文的前几页输入给 GPT-4,并**让其生成一些与该论文相关的问题**,就像同行提出的问题一样。这可以帮助他更好地进行演讲准备。 - **回答问题:**他现在经常使用 GPT-4 来回答随意和模糊的问题,以前他可能会通过精心准备的搜索引擎查询来尝试回答这些问题; > 最初,我努力使提示尽可能精确,这是基于我与编程或脚本语言的经验。最终在我放弃这种谨慎,并简单地向AI提供大量原始文本时,取得了最好的结果。 现实生活例子或类比:想象一位程序员试图编写一个程序,他最初试图通过自己的知识和经验来提供准确的指导,但最终发现只有通过提供大量的原始数据,让AI自己学习和推理,才能得到最好的结果。 总结:在提供指导或训练AI时,有时候提供大量的原始数据比依靠个人经验和知识更有效。 - **辅助写作**:他曾经让 GPT-4 给复杂文档提供初稿建议,以辅助写作。 - 他自己和GPT-4先分别写了一份。 又让GPT-4看了自己写的之后,要求GPT-4把它的文章**改成自己的风格**。 最后又让GPT-4直接改写了自己的初稿,并贴在一起方便大家比较。 > 我过去依赖的用于“嗅出”错误数学论证的文体信号在LLM生成的数学中几乎无用。只有逐行阅读才能分辨出是否有实质内容。 奇怪的是,即使是无意义的LLM生成的数学,往往也引用了正确的相关概念。通过努力,人类专家可以将这些不起作用的观点改进为正确且独创的论据。 解释:现实生活中的例子或类比:想象一位专家在阅读一篇由人工智能生成的文章时,以往他可以通过**观察文体信号(如语气、用词等)来判断**其中是否存在错误的数学论证。然而,当他面对由LLM生成的数学文章时,这些信号几乎没有用处,**只能逐行阅读并仔细分析内容才能确定是否有实质性的数学内容**。并且即便生成的内容无意义,也引用了正确的相关概念。 **解题** - 先写出解题思路,对比