大型语言模型(LLM)的问题不在于智能,而在于健忘和不诚实。大家好,我在过去几个月里构建了一个名为“Remember-Me”的开源“主权大脑”架构,旨在完全离线运行于消费级硬件上。其核心论点很简单:不要租用你的认知。
大多数RAG(检索增强生成)实现仅仅是“对嵌入进行grep”。它们杂乱、不精确,并且容易产生幻觉。我想在架构层面解决“上下文完整性”问题。
技术架构(工作原理):
QDMA(量子梦记忆架构):它不是使用平坦的向量数据库,而是使用分层投影引擎。它将“热”记忆(回忆)与“冷”记忆(存储)分开,通过压缩实现有效的无限上下文窗口管理。
CSNP(上下文切换神经协议)——幻觉杀手:这是最重要的部分。每个记忆片段都被哈希成一个Merkle链。当LLM检索上下文时,系统会对照不可变账本进行加密验证。
如果哈希与链不匹配:检索将被拒绝。
结果:AI在视觉上无法“编造”关于你过去的事情,因为它在数学上受到账本的约束。局部推理:基于llama.cpp服务器构建。它在本地运行Llama-3(或任何GGUF)。不需要API密钥。没有数据离开你的机器。
特点:
零依赖:在Windows/Linux上仅需Python和一个GPU(或CPU)即可运行。
可视化界面:包括一个基于Streamlit的“认知界面”来可视化记忆状态。开源:MIT许可证。这是一次尝试,将“自主权”归还给用户。我相信,如果我们想要通用人工智能(AGI),它需要由我们拥有,而不是通过API租用。
代码库:[https://github.com/merchantmoh-debug/Remember-Me-AI](https://github.com/merchantmoh-debug/Remember-Me-AI)
我很想听听你们对Merkle验证方法的反馈。限制上下文窗口是否有效解决了你们的“信任”问题?
它已经完全运行并经过全面测试。如果你之前尝试过Git Clone但没有成功——因为这不是我第一次在Show HN上展示这个——请随时再试一次。
对于那些厌恶AI垃圾、贪婪的公司以及将私人数据存储在云服务器上的人们:
欢迎你们。
祝好,Mohamad
返回首页
最新
OpenClaw 看起来只是另一种在非人工智能中心平台上与 AI 聊天的方式,而不是通过命令行界面或公司的官网。为了真正使用它,你需要提供很多 API 密钥,这让我对它能够实现完全自主的印象大打折扣。是的,我明白这只是一次性的事情,但现在所有这些平台都有自己的 AI,为什么我还要经历这样的麻烦呢?而且有些 API 密钥还会过期或有某些限制。总的来说,这又是一个功能,而不是一个产品。
2023年初,一家小型金融科技初创公司。截止日期:4个月内上线。工程团队只有3个人。我担任架构师,还有两名开发人员。我们已经准备好了。架构设计完成,基础设施在云端运行,后端框架也搭建好了。
开发人员正在构建功能。我们进展顺利。然后到了第二个月,管理层开始招聘。很多经理出现了。接着,他们引入了一位Scrum Master。这个家伙在第一周就想要实施完整的敏捷仪式。
每日站会、冲刺规划、回顾会议、待办事项梳理,所有的流程都来了。他的理由是:“你需要流程来扩展。”而我们只剩下8周的时间。
我们并不是在尝试扩展。我们只是想完成项目。我已经看到这种模式多次上演。小团队在交付,管理层对缺乏可见性感到不安,于是他们招聘流程专家。流程专家需要证明自己的存在,仪式被实施,一切都变得缓慢。
让我感到痛心的是时机。我们正在工作。为什么在距离截止日期只有8周的时候要修复那些并没有坏掉的东西?我真心好奇,为什么管理层不能就让工作团队独立运作?这是真正对可持续性的担忧,还是仅仅对缺乏控制机制的不安?
你对此有什么经验?