返回首页
最新
<a href="https://archive.md/x0Sxc" rel="nofollow">https://archive.md/x0Sxc</a>
我正在开发一个名为 QonQrete 的开源项目,希望能得到 HN 的反馈。
**项目简介**
QonQrete 是一个以本地为先、基于代理的代码生成编排系统。它协调多个 LLM(大语言模型)“代理”来规划、编写和审查代码,同时将执行过程限制在您自己的基础设施中的沙箱内。可以将其视为一个您自己运行的 AI 辅助开发的施工场地。
**我为什么要构建它**
我看到的大多数多代理演示存在两个问题:
- **安全性**:生成的代码通常在与其编排相同的环境中运行。
- **可观察性/控制**:长链代理变得不透明,难以干净地插入人工检查点。
我希望有一个这样的设置:
- 代理生成的代码在隔离的容器中运行。
- 编排层从不直接在主机上执行这些代码。
- 您可以选择完全自动的循环或人工审批的模式。
**架构**
当前的管道:
- **InstruQtor**:接受高层任务并将其分解为执行计划。
- **ConstruQtor**:按照计划生成代码/工件。
- **InspeQtor**:审查输出,标记问题,并可以请求另一次迭代。
在底层,每个代理只是一个具有不同角色的 LLM API 调用。执行发生在容器化的“微沙箱”中(目前使用 Docker)。主机只看到通过审查步骤的工件。
**安全模型(当前状态)**
原型:
- 在一次性容器中运行生成的代码,并具有特定的卷挂载。
- 将编排与执行沙箱分开。
- 将所有代理生成的代码视为不可信。
这不是一个正式的沙箱或安全产品;这是一个务实的尝试,旨在避免“让 LLM 直接编辑您的代码库并在您的笔记本电脑上运行脚本”。我非常希望能得到具有更强威胁模型或相关经验的人的反馈。
**执行模式**
有两种模式:
- **自主模式**:代理可以在没有输入的情况下运行多个循环,直到满足停止条件。
- **用户控制模式**:系统在检查点(计划后、第一次实现后等)暂停,等待您批准、调整指令或停止。
**LLM 提供者**
编排层是与提供者无关的。您可以为每个代理配置不同的提供者(例如,使用较小的模型进行规划,使用更强的模型进行实现,使用以推理为重点的模型进行审查)。目前支持通过 API 密钥使用 OpenAI、Gemini、Claude 和 DeepSeek。
**本地优先**
QonQrete 不托管任何内容。您可以在自己的计算机或服务器上运行它:
- 没有外部服务或托管后端。
- 您的 API 密钥保持本地。
- 工件存储在您的文件系统/Git 中。
代码库包括基本的 CLI 和示例流程。
**状态**
早期阶段:
- 核心的三代理管道工作正常。
- 微沙箱执行功能正常,但仍在演进中。
- 正在开发用于检查循环的 TUI。
我并不声称这是实现多代理系统的正确方式;这是一个使其更可观察和更少风险的实验。
**我希望得到的反馈**
- 编排与执行的分离是否合理?
- 代理角色(规划 → 构建 → 审查)的结构是否合理?
- 对沙箱方法和可能的失败模式有什么看法?
- 这是否比更简单的“单代理与工具”设置增加了足够的价值?
**代码库**
代码、设置说明和示例:
[https://github.com/illdynamics/qonqrete](https://github.com/illdynamics/qonqrete)
NekoDJ 让您可以根据心情、体验或任何您脑海中浮现的想法生成 Spotify 和 YouTube 播放列表。
试用是免费的,生成的播放列表是公开的(无需登录)。
您可以浏览现有的播放列表,试试看,如果您有任何反馈,请随时联系!