返回首页
一周热榜
嗨,HN,
我最近发布了一个Discord机器人,可以让你克隆自己的声音或朋友的声音(机器人会先征得他们的同意),并直接在Discord语音频道中生成语音。它使用Fish Audio的API进行声音克隆,我发现这是我测试过的众多模型中最自然的一种。欢迎告诉我你的想法!
- Nick (TheSaltySeaCow)
嗨,HN,
自从2023年AutoGPT推出以来,我对完全无监督的AI代理感到不安。我看到了生产力的提升,但“启动后就离开”让我觉得风险很大。
最近,“拉尔夫·维根循环”模式在网上走红。这个想法很简单:一个自主编码的代理会不断运行,直到所有的PRD项目完成,每次循环都有新的上下文,状态存储在模型外部,如git、JSON等。
让我感到困扰的是这一点:在我不在时,系统有什么保护措施?
目前传统的AI辅助开发流程是这样的:
AI编写代码 → 人类审核 → CI扫描 → 人类修复
而我想要的是:
AI编写代码 → 立即进行安全扫描 → AI修复问题 → 重复直到安全 → 如果卡住则升级给人类处理
因此,我构建了一个原型,将安全扫描直接嵌入代理循环中。代理在自己的会话中运行像Semgrep、Grype、Checkov等工具,查看发现的问题,并在任何内容提交之前进行迭代修复。
这个循环看起来是这样的:
PRD → 代理 → 扫描 → 通过? → 提交
失败 → 修复 → 重试(3次) → 升级给人类
几个重要的设计原则:
* 基线差异:预先存在的问题单独跟踪。只有新的发现会阻止提交。
* 沙箱约束:无网络访问,无sudo,无破坏性命令。
* 人类覆盖:没有任何东西是完全自主的。你可以在任何时候重新介入。
这是否万无一失?绝对不是。
它是否准备好投入生产?不。
但这是将DevSecOps思维应用于自主代理的起点,而不是单纯依赖“AI魔法”。
仓库链接: [https://github.com/agairola/securing-ralph-loop](https://github.com/agairola/securing-ralph-loop)
欢迎那些在代理循环、安全自动化或AI辅助开发中遇到问题的人提供反馈。
期待交流。
我创建了RepoExplainer,以便快速理解不熟悉的代码库,而无需在本地克隆它们。
<p>它的功能:粘贴任何公共GitHub仓库的URL,即可获得AI生成的解释,包括架构图、目录结构和技术栈分析。
<p>工作原理:FastAPI后端从GitHub的API并行获取仓库的目录树和关键文件(如README、package.json等),然后将这些信息发送给Claude进行结构化分析。
<p>试试吧:<a href="https://repex.thienbao.dev" rel="nofollow">https://repex.thienbao.dev</a>。
<p>技术亮点:
- 使用asyncio.gather进行并行文件获取(比顺序获取快70%)
- 智能内容过滤(限制100KB),以防止令牌溢出
- 自定义树解析器将GitHub的扁平文件列表转换为层次结构
<p>目前的限制:仅支持公共仓库,每个IP每天20次请求,大型单体仓库可能会达到令牌限制。
<p>我希望能收到关于解释质量、用户体验或其他方面的反馈。
<p>源代码:<a href="https://github.com/BaoNguyen09/repo-explainer" rel="nofollow">https://github.com/BaoNguyen09/repo-explainer</a>
这是一个简单的工具,可以帮助你在电脑上专注于一次一个的工作会话。它会显示一个覆盖层,提醒你当前会话的目的。
一个月前,OpenAI 在没有任何警告的情况下停用了我的 ChatGPT 账户。三年多的对话——全都消失了。
我尝试了各种方法,给我能找到的每个 OpenAI 邮箱发了邮件。他们的回复是:“使用我们的数据导出工具。”问题是?你需要一个有效的账户才能导出数据。
真是经典。
于是我开发了一个浏览器扩展,可以让我一键保存来自 ChatGPT、Claude 或 Gemini 的任何对话。以 Markdown 格式存储,集中在一个地方。
结果发现它还解决了我意想不到的另一个问题:我经常会向这三个人工智能提问,然后忘记哪个给了我最好的答案。现在它们都集中在一个地方了。
目前这只是我个人的工具,没什么花哨的——只是满足我自己的需求。如果有兴趣,我会考虑发布它。也可以很容易地扩展到其他人工智能助手。
现在还有其他人对自己的 AI 聊天记录感到 paranoid 吗?