记忆
可以把人类记忆分成四层:
- 短期记忆,对应前额叶
- 中期记忆,对应海马体
- 长期记忆,分布在大脑皮层
- 人类历史记忆,对应维基百科和史书
AI 也要模仿这个机制,大模型对应的可能是:
- Context 窗口 → 短期记忆
- RAG 检索 → 中期记忆
- 模型参数 → 长期记忆
把重要信息精简后存在 context 里是实现记忆的一个方式。目前的“超长上下文”只是解决了短期记忆,相当于把它能用的“便签纸”变长了。如果未来 context 窗口足够长,短中长期记忆都有可能实现。
自主进化
但有个更难的问题:怎么更新模型自身的知识?怎么改参数?这还是个未解难题。
现在的模型是“离线”的,训练好就不变了。这有几个问题:模型不能真正自我迭代,重新训练浪费资源,还会丢掉很多交互数据。 理想情况是什么?模型能在线学习,边用边学,越用越聪明。
但要实现这一点,有个前置条件:模型要知道自己对不对。构建模型的自我评价机制是个难题。
【2026年2月12日】
通过上下文学习似乎是当前架构下的自主进化解法之一。