返回首页
最新
嗨,HN,
我们正在构建Engram,一个具有持久记忆的AI助手,能够在不同会话之间有效工作。与ChatGPT/Claude不同的是,后者在每次聊天后会忘记一切,而Engram能够自动提取和索引事实、偏好和上下文。
核心问题:大型语言模型(LLMs)在短期记忆方面表现出色,但在长期记忆方面几乎没有保留。如果你在一月份告诉Claude一个项目,它到三月份未必会记得,除非你把整个对话重新粘贴回来。
我们的解决方案:
- 使用14个因素的重要性评分算法自动提取记忆(目标/承诺的优先级高于随意事实)
- 通过pgvector和OpenAI嵌入进行语义检索
- 认知画像,从写作样本中学习你的沟通风格
- 多供应商路由(例如,免费层使用Llama 3,优质层使用Gemini等)
技术栈:React + Supabase(PostgreSQL + pgvector),全程使用TypeScript。我们构建了一个抽象层,处理供应商故障转移和速率限制。
当前状态:处于测试阶段,约有300名来自宾夕法尼亚大学的用户(我们获得了沃顿创新基金建设奖)。第30天的留存率约为60%,这表明我们的记忆系统确实有用。
试试吧:engramartificial.com
我之所以构建这个,是因为我对我的AI“助手”无法记住我昨天告诉它的事情感到沮丧。希望听到其他人的反馈,看看这是否引起共鸣,或者我是否在解决一个并不存在的问题。
如果我正在编写一个新的轻量级应用程序,需要基于大型语言模型(LLM)的文本补全来实现某个功能,是否有标准的方法可以请求用户的操作系统提供补全?<p>例如,假设我正在编写一个小型的文本用户界面(TUI),允许用户浏览 jsonl 文件,并希望创建一个功能来实现自然语言解析。是否有一种新兴的标准,用于实现与平台无关的“将这个自然查询翻译为 jq {natlang-query}:响应在这里:”?<p>如果我们还没有这样的标准,那么需要什么才能建立并广泛提供这个功能?