返回首页
最新
嗨,我们是谢尔盖和塞拉菲姆。我们在21st.dev开发开发工具,最近开源了1Code(<a href="https://1code.dev" rel="nofollow">https://1code.dev</a>),这是一个用于Claude Code的本地用户界面。
<p>这是产品的视频:<a href="https://www.youtube.com/watch?v=Sgk9Z-nAjC0" rel="nofollow">https://www.youtube.com/watch?v=Sgk9Z-nAjC0</a>
<p>Claude Code是我们过去四个月的首选工具。当Opus 4.5发布时,平行代理不再需要那么多的监控。我们开始更加信任它:从头到尾构建功能,添加测试和重构。那些通常会交给开发者的工作,我们开始同时运行3-4个代理。然后命令行界面变得烦人:终端太多,难以跟踪每个代理的状态,差异散落 everywhere。
<p>因此,我们构建了1Code.dev,这是一个可以在Mac和Web上并行运行Claude Code代理的应用。在Mac上:可以本地运行,带或不带工作树。在Web上:可以在远程沙箱中运行,实时预览您的应用,包括移动端,这样您可以随时随地查看代理的状态。
并行运行多个Claude Code显著加快了我们构建功能的速度。
<p>接下来:错误机器人,用于根据您的更改识别问题;QA代理,检查新功能是否破坏了现有功能;添加OpenCode、Codex和其他模型及编码代理。还将提供在远程沙箱中启动Claude Code的API。
<p>快来试试吧!我们是开源的,所以您可以直接构建它。如果您需要托管服务,Pro版($20/月)提供带有实时浏览器预览的Web服务,托管在远程沙箱中。我们还在开发API访问,以便程序化运行Claude Code会话。
<p>我们非常期待您的反馈!
大家好,
我创建了 Pageplane([https://pageplane.app](https://pageplane.app)),旨在解决我一直遇到的一个工作流程问题:使用大型语言模型(LLMs)生成单文件 HTML 应用(遵循 Simon Willison 的“HTML 工具”模式),但部署这些应用仍然需要创建仓库、配置构建步骤、等待 CI/CD 的繁琐过程。
因此,我做了 CI/PD(复制并粘贴部署,哈哈)。
Pageplane 简化了这一过程,只需复制 HTML → 粘贴 → 部署,整个过程大约只需 30 秒。
我故意保持其简单:
- 使用 Python/Flask 部署在 Fly.io 上
- SQLite(读取密集型工作负载,无需单独的数据库服务器)
- Cloudflare R2 作为存储(兼容 S3,零出口费用)
我还发布了一个简短的背景故事[1],作为一个具体示例,托管在 Pageplane 上,并使用了我构建的一个小工具 Flatcontent[2],它可以将 Markdown 转换为 JSON,以保持网站为单文件。
[1] [https://flatcontent-demo.pgpln.app/#/blog/copy-and-paste-deployments](https://flatcontent-demo.pgpln.app/#/blog/copy-and-paste-deployments)
[2] [https://github.com/bootstrapital/flatcontent](https://github.com/bootstrapital/flatcontent)
嗨,HN!在过去几个月里,我的团队和我一直在开发 Tusk Drift,一个记录您服务的真实 API 流量的系统,然后将这些请求重放为确定性的测试。通过记录的数据,出站 I/O(数据库、HTTP 调用等)会自动模拟。
我们试图解决的问题是:编写 API 测试是一项繁琐的工作,而手动编写的模拟往往与现实脱节。我们希望测试能够保持真实,因为它们来自真实的流量。
与模拟库相比:像 VCR/Nock 这样的工具在测试中拦截 HTTP 请求。Tusk Drift 外部记录完整的请求/响应跟踪(HTTP、数据库、Redis 等),并将其重放到您正在运行的服务上,无需编写或维护测试代码或固定数据。
它的工作原理:
1. 添加一个轻量级的 SDK(我们目前支持 Python 和 Node.js)。
2. 在任何环境中记录流量。
3. 运行 `tusk run`,CLI 会将您的服务沙盒化,并通过 Unix 套接字提供模拟。
我们在每个 PR 的 CI 中运行这个工具。同时也将其用作 AI 编码代理的测试工具,它们可以进行更改,运行 `tusk run`,并在不需要实时依赖的情况下获得即时反馈。
源代码: [https://github.com/Use-Tusk/tusk-drift-cli](https://github.com/Use-Tusk/tusk-drift-cli)
演示: [https://github.com/Use-Tusk/drift-node-demo](https://github.com/Use-Tusk/drift-node-demo)
欢迎提问!
由于需要跨多个系统进行协调以及链式调用大型语言模型(LLM),目前许多代理的响应速度可能会显得非常缓慢。我很想知道其他人是如何解决这个问题的:
- 你们是如何识别代理中的性能瓶颈的?
- 哪些类型的改动为你们带来了最大的速度提升?
对我们来说,我们开发了一个分析工具来识别缓慢的LLM调用——有时我们可以在这个步骤中更换为更快的模型,或者意识到可以通过消除不必要的上下文来减少输入的令牌数量。对于需要外部访问(如浏览器使用、API调用)的步骤,我们已经转向使用快速启动的外部容器和线程池来实现并行处理。我们还尝试了一些用户界面的改动,以掩盖部分延迟。
还有哪些其他提升性能的技术是大家在使用的?
在最近一次旧金山地铁停运期间,我决定开发一个网络应用,灵感来自于“我需要带伞吗?”这个问题,基本上是为了回答“我应该乘坐地铁还是公交车?”<p>为了学习新工具,我决定尽可能多地使用代码编写。<p>首先,我让Claude Code编写了一个后台脚本,用于下载地铁实时电路图的图像,这些图像在这里是公开可用的:<a href="http://sfmunicentral.com/" rel="nofollow">http://sfmunicentral.com/</a><p>接下来,我让它在tkinter中构建一个图像标记工具,结果发现这个工具在我能够开始标记之前需要很多手动调整。虽然看起来是合适的工具,但如果我自己从零开始构建,可能会节省时间。<p>最有趣的部分是将标记后的图像数据转化为预测,使用了pytorch。Claude很快写出了初始脚本,但像这种事情一样,它需要手动调整,并且我对标记为异常值的图像进行了反复推测。我承认,在意识到Claude没有启用pytorch的GPU支持之前,我已经走得相当远;这真是让我感到尴尬的时刻。<p>对于那些好奇、勇敢或疯狂到愿意深入了解的人,源代码在这里以MIT许可证的形式提供:<a href="https://github.com/MrEricSir/munimet.ro" rel="nofollow">https://github.com/MrEricSir/munimet.ro</a>
背景:我管理一个电子商务网站。最近,机器人的流量增加了。大部分流量可以追溯到一两个IP地址,每天有数百个请求。这些IP地址没有反向查找的DNS记录,当我在Cloudflare上映射请求时,一个地址显示来自美国各地不同的数据中心。这里发生了什么?源IP示例 173.245.58.0
- 芝加哥,美国(ORD) 340个请求
- 圣荷西,美国(SJC) 330个请求
- 洛杉矶,美国(LAX) 310个请求
- 亚特兰大,美国(ATL) 310个请求
- 达拉斯-沃斯堡,美国(DFW) 290个请求
- 纽瓦克,美国(EWR) 280个请求
- 华盛顿,美国(IAD) 230个请求
- 迈阿密,美国(MIA) 210个请求
- 波士顿,美国(BOS) 140个请求
- 新加坡,新加坡(SIN) 130个请求
感谢您的建议。