返回首页
最新
我为Lambda云GPU实例构建了一个非官方的命令行接口(CLI)和管理控制平面(MCP)服务器。<p>主要思想是:您的AI代理现在可以为您启动和管理Lambda GPU。<p>MCP服务器提供了查找、启动和终止实例的工具。只需一条命令将其添加到Claude Code、Cursor或任何代理,您就可以说诸如“启动一个H100,SSH进入,并运行big_job.py”之类的话。<p><pre><code> 其他功能:
- 当实例准备好SSH连接时,通过Slack、Discord或Telegram发送通知
- 支持1Password用于API密钥
- 还包括一个具有相同功能的独立CLI
</code></pre>
使用Rust编写,采用MIT许可证。<p>注意:这是一个非官方的社区项目,与Lambda无关。
我一直在使用Claude Code来处理DevOps风格的任务,比如通过SSH连接到服务器、搜索日志、检查文件和查询数据库。总体来说,这个工具非常好。然而,我发现自己不得不逐一审核每个命令,其中很多都是重复的。虽然它仍然为我节省了大量时间,但这变得有些乏味。
我希望能给这个代理更多的自主权,比如提供一份预先批准的命令或操作列表,让它可以在SSH下执行。
例如:
```
允许的:ls, grep, cat, tail
不允许的:rm, mv, chmod等
允许的:SELECT查询
不允许的:INSERT, DELETE, DROP, TRUNCATE
```
有没有人成功或令人满意地解决了这个问题?你们实际使用的设置是什么?在自主权和风险之间,你们是如何划定界限的?
简而言之:为AI工作流审批提供移动通知。之所以开发这个,是因为同时运行5个以上的AI代理会导致混乱。
问题:
这是我几周来手写的最长段落。其他所有内容?都是通过5个浏览器标签(GPT、Gemini、Claude)和多个运行Claude Code的终端生成的AI内容。
它们速度快,质量好。但没人告诉你的是:你会成为瓶颈。
我会启动3个代理处理不同任务,在它们之间切换,结果搞不清哪些需要我的输入,哪些可以安全自动执行。关键决策被淹没在终端输出中。
我尝试过的:
- Telegram机器人(不可靠,效果差)
- Slack集成(信息过载)
- 每5分钟检查一次终端(违背了自动化的初衷)
这些都没有奏效。
我开发的:
viahuman——一个通知服务器,让AI代理在需要人类审批时可以提醒我。
它是如何工作的:
- 将本地MCP服务器与我的大型语言模型(LLMs)集成
- 告诉它们:“自主运行,但在重要决策时通知我”
- 当完成或遇到障碍时,它们会发送移动推送通知
- 我可以通过手机进行审批或提供上下文
- 它们会适应并继续执行
大家好,
Repomance 是一款用于发现精心策划和热门代码库的应用。您可以直接通过您的 GitHub 账户滑动来收藏它们。
目前该应用已在 iOS、iPadOS 和 macOS 上可用。我计划在应用用户达到 100 人后开发 Android 版本。
欢迎大家提供反馈,希望您喜欢使用这款应用。
嗨,HN,
我的团队和我正在构建 Tabstack,以处理 AI 代理的“网络层”。发布文章链接: [https://tabstack.ai/blog/intro-browsing-infrastructure-ai-agents](https://tabstack.ai/blog/intro-browsing-infrastructure-ai-agents)
维护一个复杂的网络浏览基础设施是构建可靠代理的最大瓶颈之一。你可能从一个简单的请求开始,但很快就会陷入管理复杂的代理堆栈、处理客户端的水合(hydration)以及调试脆弱的选择器,还要为每个网站编写自定义解析逻辑的麻烦中。
Tabstack 是一个抽象化该基础设施的 API。你只需发送一个 URL 和一个意图,我们负责渲染并返回干净、结构化的数据供大型语言模型(LLM)使用。
它的工作原理如下:
- 升级逻辑:我们不会为每个请求启动一个完整的浏览器实例(这既慢又昂贵)。我们首先尝试轻量级的请求,只有在网站需要执行 JavaScript 或水合时才升级到完整的浏览器自动化。
- 令牌优化:原始 HTML 内容杂乱无章,会消耗上下文窗口的令牌。我们处理 DOM,去除非内容元素,返回一种适合 LLM 消费的 Markdown 友好结构。
- 基础设施稳定性:扩展无头浏览器 notoriously 困难(僵尸进程、内存泄漏、崩溃实例)。我们管理整个集群的生命周期和编排,这样你就可以在不维护底层网格的情况下运行数千个并发请求。
关于伦理:由于我们得到了 Mozilla 的支持,我们对与开放网络的互动非常严格。
- 我们遵守 robots.txt 规则。
- 我们标识我们的用户代理。
- 我们不使用请求/内容来训练模型。
- 数据是短暂的,任务完成后会被丢弃。
链接的文章详细介绍了基础设施以及我们为何认为浏览需要在 AI 堆栈中成为一个独立层的原因。
这显然是一个非常新的领域,我们都在共同学习。在代理浏览方面有很多已知的未知(可能还有更多未知的未知),因此我们非常欢迎你的反馈、问题和建议。
欢迎提问关于我们的堆栈、架构或构建浏览器基础设施的挑战。