GrowPIP
← 返回所有素材

INFO · info-20260121-125

HTM vs LLM:一个过时方案的反思

[INFO] HTM vs LLM:一个过时方案的反思

  • 时间: 2026-01-21
  • 类型: 想法
  • 来源: Robert 与 Jane 的讨论
  • 置信度: 8/10
  • 标签: #AI #HTM #LLM #RAG #批判性思考

内容

核心判断

HTM 作为技术方案已经被 LLM + RAG 超越。

RAG 本质上就是 embedding 召回 + LLM 生成,功能上覆盖了 HTM 想做的事,而且效果好得多。


技术对比

维度HTM (2004-2016)LLM + RAG (2020+)
语义表示SDR(稀疏二进制)Embedding(稠密浮点)
序列建模时序记忆Transformer Attention
知识存储突触连接参数 + 向量数据库
检索SDR 重叠度余弦相似度
实际效果有限碾压

HTM 为什么"失败"了?

原因说明
工程不可扩展SDR + 稀疏连接在大规模数据上训练困难
没有预训练范式无法利用海量数据的红利
表达能力有限二进制稀疏 vs 浮点稠密,后者信息容量大得多
缺乏生态深度学习有 PyTorch/TensorFlow,HTM 只有小众库

HTM 可能仍有价值的地方

作为工程方案:基本没有了。

作为理论启发:可能还有一点——

LLM 的问题HTM 的思路借鉴价值
灾难性遗忘在线学习、局部更新可能有
无法真正"预测"预测性激活存疑
黑箱SDR 可解释稀疏自编码器在做类似的事
高能耗稀疏计算神经形态芯片在探索

Hawkins 的批评仍然成立

"当前 AI 是美化的模式识别器,缺乏真正的世界模型"

这个批评对 LLM 仍然有效。LLM 的问题:

  • 没有真正的因果理解
  • 没有稳定的世界模型
  • 无法真正"预测"(只是统计续写)

但解决方案可能不是 HTM,而是:

  • 世界模型(Yann LeCun 的 JEPA)
  • 因果推理(Judea Pearl)
  • 或者我们还不知道的东西

结论

层面结论
实用方案HTM 可以跳过
理论探索Hawkins 的问题意识值得参考,但技术方案已过时

区分"好问题"和"好答案"

  • Hawkins 问了好问题:智能是什么?大脑如何工作?AI 缺什么?
  • 但 HTM 可能不是好答案

关联

  • 直接相关:

    • INFO-120~124(HTM 系列)- 被本条目批判性审视的技术方案
    • INFO-113(AI智能本质:关联性计算引擎)- Hawkins 的批评与此呼应
  • 延伸思考:

    • LLM + RAG 是否真的解决了"记忆"问题?还是只是绕过了?
    • "好问题"比"好答案"更持久——问题意识的价值
  • 待探索:

    • Yann LeCun 的 JEPA(Joint Embedding Predictive Architecture)
    • 因果推理与 LLM 的结合