1作者: agairola6 天前原帖
嗨,HN, 自从2023年AutoGPT推出以来,我对完全无监督的AI代理感到不安。我看到了生产力的提升,但“启动后就离开”让我觉得风险很大。 最近,“拉尔夫·维根循环”模式在网上走红。这个想法很简单:一个自主编码的代理会不断运行,直到所有的PRD项目完成,每次循环都有新的上下文,状态存储在模型外部,如git、JSON等。 让我感到困扰的是这一点:在我不在时,系统有什么保护措施? 目前传统的AI辅助开发流程是这样的: AI编写代码 → 人类审核 → CI扫描 → 人类修复 而我想要的是: AI编写代码 → 立即进行安全扫描 → AI修复问题 → 重复直到安全 → 如果卡住则升级给人类处理 因此,我构建了一个原型,将安全扫描直接嵌入代理循环中。代理在自己的会话中运行像Semgrep、Grype、Checkov等工具,查看发现的问题,并在任何内容提交之前进行迭代修复。 这个循环看起来是这样的: PRD → 代理 → 扫描 → 通过? → 提交 失败 → 修复 → 重试(3次) → 升级给人类 几个重要的设计原则: * 基线差异:预先存在的问题单独跟踪。只有新的发现会阻止提交。 * 沙箱约束:无网络访问,无sudo,无破坏性命令。 * 人类覆盖:没有任何东西是完全自主的。你可以在任何时候重新介入。 这是否万无一失?绝对不是。 它是否准备好投入生产?不。 但这是将DevSecOps思维应用于自主代理的起点,而不是单纯依赖“AI魔法”。 仓库链接: [https://github.com/agairola/securing-ralph-loop](https://github.com/agairola/securing-ralph-loop) 欢迎那些在代理循环、安全自动化或AI辅助开发中遇到问题的人提供反馈。 期待交流。
1作者: benjushi6 天前原帖
一个月前,OpenAI 在没有任何警告的情况下停用了我的 ChatGPT 账户。三年多的对话——全都消失了。 我尝试了各种方法,给我能找到的每个 OpenAI 邮箱发了邮件。他们的回复是:“使用我们的数据导出工具。”问题是?你需要一个有效的账户才能导出数据。 真是经典。 于是我开发了一个浏览器扩展,可以让我一键保存来自 ChatGPT、Claude 或 Gemini 的任何对话。以 Markdown 格式存储,集中在一个地方。 结果发现它还解决了我意想不到的另一个问题:我经常会向这三个人工智能提问,然后忘记哪个给了我最好的答案。现在它们都集中在一个地方了。 目前这只是我个人的工具,没什么花哨的——只是满足我自己的需求。如果有兴趣,我会考虑发布它。也可以很容易地扩展到其他人工智能助手。 现在还有其他人对自己的 AI 聊天记录感到 paranoid 吗?
1作者: spamfilter2476 天前原帖
需要有一种通用格式来共享与人工智能的对话,以便在一个对话流中捕捉来自多个来源的令牌。<p>回到2024年,当时大多数大型语言模型(LLM)API都是完成端点,唯一可见的实体是“系统”、“用户”和“助手”。<p>推理模型增加了思维令牌,这些令牌可能对用户是不可见的,但它们是LLM推理过程中的思维痕迹(推理时的计算)。<p>现在,随着代理调用工具,其他实体也参与并影响对话的流动。<p>我尝试为此编写了一个`SKILLS.md`,其双重目的在于促进跨代理协作和人类审计。 - 代理可以将其整个“意识流”交接给其他代理,以便接手并继续,这在多代理协作中效果极佳。 - 人类不仅可以审查代理系统的输入/输出,还可以深入了解影响输出的思维过程和其他工具依赖关系。