AI 模型如何学会理解世界?新研究揭示其核心机制
人工智能如何理解世界?新研究揭示关键机制
- 斯坦福大学与谷歌的研究团队发现,大型语言模型在训练过程中,会自发形成对物理世界的内部表征。
- 研究分析了包括GPT-4在内的多个模型,通过观察模型处理物理场景文本时的内部激活模式得出结论。
- 模型内部出现了类似“世界模型”的结构。例如,当读到“球从桌上滚落”时,特定神经元的激活模式与人类理解此类场景时有相似之处。
从文本中“模拟”世界
- 研究表明,大语言模型回答物理世界推理问题的能力,并非来自明确编程,而是从海量文本训练中涌现出来的。
- 论文主要作者解释:“模型似乎在用文本‘模拟’世界。它把读到的句子当作事件描述,从中学习事件如何随时间演变。”
研究意义与未来方向
- 这项发现有助于理解当前人工智能的局限性,并为构建更可靠、可解释的AI系统提供了新思路。
- 未来,研究人员计划探索如何让模型的内部世界模型变得更精确和健壮。