1作者: twistorino6 个月前原帖
我一直在开发 Cheatsheet++。这是一个免费的站点,包含超过 5 万个技术面试问答,涵盖多个主题。 新功能: 用户现在可以对答案进行点赞或点踩 可以添加评论以分享替代方法 我们的目标是将静态的问答库转变为一个活跃的、由社区驱动的备考工具。 我希望能得到 HN 的反馈: 你认为社区投票能改善面试准备,还是保持单一的精心策划答案更好? 你认为在答案中开放评论会有哪些潜在问题?
2作者: grouchy6 个月前原帖
嗨,HN—— Tambo 是一个 React SDK(600 星),可以让你的应用根据自然语言输入渲染和控制 UI 组件。 我们非常喜欢 Cursor,希望我们所有的应用(Stripe、Vercel、GitHub)都能拥有相同的体验。我应该能够输入 `update env key` 并获得一个添加它的 UI。 Tambo 允许 AI 助手渲染或更新注册的 React 组件的状态。 它可以通过 MCP(模型上下文协议)或客户端获取(类似于 OpenAI 的工具调用)来获取上下文。 该 SDK 处理流消息和属性更新,维护线程历史,并在对话中传递上下文。它是 BYOM(自带模型),可以与 Next.js、Remix、Vite 和 React Native 一起使用。 如果你正在构建一个“Cursor for X”(电子表格、视频、设计等),可以看看这个。 昨天,我们实现了 100% 开源。 文档: [https://docs.tambo.co](https://docs.tambo.co) GitHub: [https://tambo.co/gh](https://tambo.co/gh) —— Michael x2, Alec, Akhilesh
1作者: CER10TY6 个月前原帖
嘿,HN, 多年来,我创建了不少 OpenAPI 规范,但随着时间的推移,这些规范常常被忽视,最终接口与规范之间会出现偏差。 我想开发一个超级轻量级的工具,可以在开发过程中随时使用,以便检查我的接口是否仍然符合预期的规范。 SpecGate 是一个轻量级的代理,它会将 API 响应与给定的 OpenAPI 规范进行对比。它会告诉你是否存在未记录的接口,或者响应是否与规范不符。我在使用它时,及时发现了我最近一个规范中的大约 10 个问题。 当然,这个工具也可以在生产环境中运行,但目前它只会将日志输出到 stdout/stderr,所以如果你决定在生产环境中使用,请记住这一点。 我很想听听你们对这个工具的反馈。
14作者: ykurtov6 个月前原帖
想知道被使用的感觉是什么样的吗?一种体验方式是发现你的终端悄悄开始将命令输出发送给大型语言模型(LLMs)。 今天,在尝试运行一个测试后,我收到了一个关于如何修复语法错误的LLM建议。 于是,我去了Warp的Discord询问发生了什么,果然,他们的“友好支持机器人”也发现了这一点。 > Warp引入了像提示建议和下一个命令这样的功能,利用LLMs提供上下文建议。这些功能是Warp的主动AI系统的一部分,能够根据你的终端会话主动推荐修复方案和后续操作,包括错误、输入和输出。 这里的“主动”也意味着在没有明确用户同意的情况下。 我确实喜欢Warp,但这种信任的破裂实在太大了,我现在就决定卸载它。 这件事充分说明了伦理和重要性的问题。 参考链接:https://docs.warp.dev/agents/active-ai
3作者: pi_22by76 个月前原帖
厌倦了那些在会话之间忘记一切的AI编码工具吗?每次我打开与Claude的新聊天或启动Copilot时,我都得重新解释我的代码库结构。 所以我构建了一个解决方案,叫做In Memoria。它是一个MCP服务器,为AI工具提供持久的记忆。AI不再需要在每次对话中从头开始,而是能够记住你的编码模式、架构决策以及你所积累的所有上下文。 设置非常简单:只需运行 `npx in-memoria server`,然后连接你的AI工具。无需注册账户,数据不会离开你的机器。 在技术实现上,它是基于TypeScript和Rust,使用tree-sitter进行解析,并利用向量存储进行语义搜索。目前支持JavaScript/TypeScript、Python和Rust。 最初它是作为一个文档工具开始的,但我意识到——AI并不需要更好的文档,它需要记住信息。过去几个月我一直在从零开始重建这个记忆层。 对我来说,它的效果相当不错,但我很好奇其他人的看法,尤其是关于模式学习的部分。你希望下一个支持哪些语言? 代码链接: [https://github.com/pi22by7/In-Memoria](https://github.com/pi22by7/In-Memoria)