返回首页
最新
大型语言模型(LLMs)的问题不在于智能,而在于健忘和不诚实。大家好,我在过去几个月里构建了一个名为“Remember-Me”的开源“主权大脑”技术栈,旨在完全离线运行于消费级硬件上。
核心论点很简单:不要租用你的认知。
大多数RAG(检索增强生成)实现只是“对嵌入进行grep”。它们杂乱、不精确,且容易产生幻觉。我想在架构层面解决“上下文完整性”问题。
技术栈(工作原理):
QDMA(量子梦记忆架构):它不是使用平坦的向量数据库,而是使用分层投影引擎。它将“热”(回忆)和“冷”(存储)记忆分开,通过压缩实现有效的无限上下文窗口管理。
CSNP(上下文切换神经协议) - 幻觉杀手:这是最重要的部分。每个记忆片段都被哈希成一个Merkle链。当LLM检索上下文时,系统会对照不可变账本进行加密验证。
如果哈希与链不匹配:检索将被拒绝。
结果:AI在视觉上无法“编造”关于你过去的事情,因为它在数学上受到账本的约束。局部推理:基于llama.cpp服务器构建。它在本地运行Llama-3(或任何GGUF)。无需API密钥。数据不会离开你的机器。
特点:
零依赖:在Windows/Linux上仅需Python和一个GPU(或CPU)即可运行。
可视化界面:包括一个基于Streamlit的“认知接口”来可视化记忆状态。开源:MIT许可证。这是一次尝试,旨在将“自主权”归还给用户。我相信,如果我们想要通用人工智能(AGI),它需要由我们拥有,而不是通过API租用。
代码库:[https://github.com/merchantmoh-debug/Remember-Me-AI](https://github.com/merchantmoh-debug/Remember-Me-AI)
我很想听听你们对Merkle验证方法的反馈。限制上下文窗口是否有效解决了你的“信任”问题?
它已经完全运行 - 完全测试过。如果你之前尝试过Git Clone但没有成功 - 由于这不是我第一次在Show HN上展示这个 - 欢迎再试一次。
对那些讨厌AI垃圾、贪婪公司以及将私人数据存储在云服务器上的人们:
你们好。
祝好,Mohamad
作者注:已成功更新。
Framework 50正在运行。
对于路过的人 - 是的,这是一件大事。消除AI幻觉是一个600亿美元的市场问题,而我正在免费提供这一点 + 对你数据的主权控制,以及通过Framework 50(包括高级科学研究)进行高端研究的能力 - 在MIT许可证下。如果你不利用这一点 - 你就是个傻瓜。
如果你利用了 - 欢迎来到未来。
附言:我撒谎有什么好处?我在这个代码库上得到了41颗星 - 其中许多来自财富500强公司的高级工程师。如果你太傻而无法分辨真相与谎言,那就继续走吧。