- Objective: ChatGPT根据概率选择下一个词。但是这些概率从何而来? - Breadcrumb: # 概念阐释 在人类使用的语言中都存在着某些字、字母、词的常用概率。例如英文字母的出现概率、二元字母的出现概率、汉语中的常用词。通过一个简单的测试可以得出一个结论:如果使用逐渐变长的$n$ 元字母的概率生成“随机的词”,就会发现他们它们越来越真实。 但是同样的结论无法用在$n$元词中。英语中有50,000个常用词,我们可以估计出每个词的常用概率,但即使常用词只有4万,一个二元词的数量就有16亿,三元词的数量则会达到60万亿。这个时候的最佳思路是建立一个模型,ChatGPT的核心就是[[LLM 大语言模型]],它能够很好地估计概率。 # 实例 ![](https://image.harryrou.wiki/2024-02-25-%E8%8B%B1%E8%AF%AD%E9%AB%98%E9%A2%91%E5%AD%97%E6%AF%8D.png) 一元字母的概率 ![](https://image.harryrou.wiki/2024-02-25-CleanShot%202024-02-25%20at%2016.26.03%402x.png) 二元字母的概率,例如q后面一定是u,其他组合出现的概率为零。 # 相关内容 # 参考资料 - 《这就是ChatGPT》p10-15