# 日报371期 《时代》专访ChatGPT
**文章**:**[《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI](https://readwise.io/reader/shared/01gr3ym7pkpxewfdztja5j6ny9)**
**关键词** :ChatGPT、时代杂志、AI、潜在威胁、AI伦理
**熊导读**:
> 这篇文章是《时代》杂志对ChatGPT的专访。ChatGPT就自身的工作原理、新技术传播可能带来的风险以及人类应该如何应对潜在问题给出了自己的回答。
ChatGPT很强大,但它也有很多局限和缺陷,比如无法区分真实和虚假的信息,无法理解人类的情感和价值观,无法保证其生成的内容不会造成伤害或误导。人类应该准备好应对AI的发展,既要利用其优势,也要防范其危害,同时要保持对AI的批判性思维和道德责任。
>
**延展阅读**:
### **今日份的费曼**
请费曼你对此问题的思考:
> Q1 你对ChatGPT的能力和局限有什么看法?你认为它是一种有益的创新还是一种潜在的威胁?
>
>
> Q2 你认为人类应该如何使用ChatGPT生成的文本?你会相信它的内容吗?你会用它来做什么?
>
> Q3 你认为人类应该如何监督和规范ChatGPT的开发和使用?你认为有哪些法律、伦理或社会方面的问题需要解决?
>
> 请费曼你对此问题的思考:
>
> > Q1 你对ChatGPT的能力和局限有什么看法?你认为它是一种有益的创新还是一种潜在的威胁?
> >
>
> chatGPT是通过大量文本数据训练然后用算法生成的近似人类聊天的方式的回答,所以它并没有自己的经验、观点、思想,也没有情感,它甚至不能理解自己输出的上下文。
>
> 所以我们不能指望chatGPT替我们做出判断和具备明辨式思维,但它可以提供事实类的数据,因为从文本数据的体量上来看,它和我不是一个级别的。更重要的是chatGPT可以不断地学习,不断通过新的数据得到训练,给出更准确、更相关的回答。
>
> > Q2 你认为人类应该如何使用ChatGPT生成的文本?你会相信它的内容吗?你会用它来做什么?
> >
>
> 把chatGPT生成的文本当成客观的事实来看待,但是判断内容的真假需要通过我们的学习和理解再做出判断。目前能够想到的使用场景是做主题研究。
>
> > Q3 你认为人类应该如何监督和规范ChatGPT的开发和使用?你认为有哪些法律、伦理或社会方面的问题需要解决?
> >
>
> 这个问题让我想到了《她》(Her)那部电影,里面的女主角就是一个很会聊天的人工智能,想这篇文章中说的“激发了虚假的爱的感觉”。我认为要在使用大型语言模型上做到公开透明,否则就是欺骗。
>
> 这篇文章的最后一段对我来说很重要。在人工智能不断进步的当下,我们人类不仅需要保持对它发展的关注,更要具备学习新技能的能力,和明辨式思维。 所以怎么能让chatGPT帮我们写作文呢???
>
> 
>