# 日报387期PaLM-E模型于具身智能
今日份的日报
本周主题:w2311 推倒雷峰塔,重建巴别塔
文章:
[Google发布史上最大“通才”模型PaLM-E 看图说话还能操控机器人](https://readwise.io/reader/shared/01gv0v45ejmd6g8ktycd4n7esj/)
关键词 :Google, PaLM,PaLM-E,具身智能,AI的身体
熊导读:Google从2016就坚持 【AI First】的战略,每年的Google I/O开发者大会上都可以看到持续稳定的令人震惊的新技术。今年的I/O大会在5月份召开,到时候费曼日报也会有专题哦。
延展阅读:
[AI大战进入实体化阶段 谷歌刚发布的PaLM-E模型有哪些亮点?](https://readwise.io/reader/shared/01gv1xxz7eg08g4e64f4wvt4s9/)
今日份的费曼
请费曼你对此问题的思考:
Q1 解释以下概念:PaLM模型,PaLM-E模型
- PaLM是可以理解图像,理解和生成语言的学习模型。
- PaLM-E是一种「**多模态具身视觉语言模型**」,除了可以理解**图像**,**理解和生成语言之外**,还将两者结合起来。其中E代表************************************************Embodiment-具身智能************************************************,意思是说智能系统与周围环境进行交互的概念,通过与真实的环境交互来获取知识和经验。************************************************多模态(Multimodal)************************************************是指将多种类型的数据同时处理,例如图像、文本和声音等。这几个概念结合起来可以理解为,在复杂的真实环境中,PaLM-E可以处理复杂的**机器人**指令
- PaLM-E的特性:
- 具有前所未有的灵活性和适应性
- 拥有强大的正迁移能力
- 多模态思维链推理和多图像推理任务中表现突出
- 还能讲笑话
除了不能自己给自己生成任务之外,其他的都能做了😂
Q2 你觉得语言模型和实体机器人结合起来,再发展出具身智能,可能会出现怎样的场景?(随意开脑洞)
之前看过一个Netflix的电影叫”I AM Mother”,讲述的是一个机器人作为人类的母亲照顾刚刚出生的人类婴儿。我觉得语言模型和实体机器人结合起来会出现这样的场景。(这部片名我不记得了,问了GPT居然能查到。