返回首页
最新
嗨,HN,
我正在进行一个名为 Ai_home 的“黑客科学”实验。这是一个认知架构原型,我设计它是为了探索当前大型语言模型(LLMs)在持久身份、长期记忆和自主性方面的极限。
该系统不仅仅是一个简单的聊天机器人循环,而是一个多线程架构:
1. 工作线程:处理用户交互和工具使用。
2. 独白线程:一个后台“潜意识”线程,分析上下文并记录直觉/提示供工作线程使用。
3. 记忆模块:管理基于向量的长期记忆(Postgres + pgvector),并进行情感加权。
4. 思维层:负责对消息进行更深层次的解读,并探索创造性的替代方案。
因此,它并不是一个同步的问答聊天机器人。模型和用户(助手)可以并行沟通,而工作线程则异步处理这些信息。
技术细节:
- 混合多LLM:我结合了多个模型(Gemini、GPT-4、Groq)。我使用不同的模型进行创意想法生成(“创意”)和逻辑处理(“解释器”)。
- 模式:我不使用单一的上下文窗口。根据操作模式(通用、开发者、分析师),我将消息划分为不同的上下文。我引入了模式切换之间的过渡过程,以确保在不同上下文中保留关键信息。
- 动态提示:基于记忆和积累的经验,我在每次 API 调用时动态修改提示,以便每次对话都能获得新的上下文解读。
- 孵化器:该系统具有一个实验环境,可以尝试重构自己的代码。到目前为止,结果喜忧参半,但观察模型解读自己的代码是非常有趣的。
- 身份与法则:为了建立身份,系统有一部“宪法”(基本法则)和修改这些法则的工具。这部分的内容和结构仍然是一个活跃的实验领域。
免责声明:
这是一个架构实验,旨在研究是否可以用 LLM 模拟意识的功能模式(全球工作空间、递归),以创造更可靠的代理。
我明确不声称该系统具有感知能力,也不认为这是一个正式的学术研究项目(我们没有足够的人力或基础设施来支持这一点)。
我正在寻找合作者,不仅仅是编程方面的,还希望帮助定义这一开放、协作的实验项目的开发方法论。
欢迎所有反馈!