1作者: madchops1大约 1 个月前原帖
嘿,HN—— 我已经在过去的七年里构建实时音频反应图形软件。最初这是我在全职软件工程师工作期间的一个副项目,后来逐渐演变成了VISUALZ——一个专注于低延迟音频分析和反应视觉效果的GPU加速VJ引擎。 两年前,我决定进一步推进这个项目,并原型设计了专用硬件:CVJ-1。它本质上是一个紧凑型触摸屏VJ设备,主要用于现场表演。 我们希望能够获得一些预订,以推动下一阶段的制造进程。
1作者: kaantahti大约 1 个月前原帖
我构建了一个小型库,用于验证大型语言模型(LLM)的输出是否符合约束,并在失败时进行重试。 核心观点:LLM 并不总是可靠地遵循指令,但你可以低成本地捕捉失败并通过有针对性的反馈进行重试。这本质上是一个轻量级的“过程奖励模型”,不需要任何训练。 工作原理: 1. 你的 LLM 生成输出 2. ai-assert 将其与约束进行检查(长度、字数、句子数、正则表达式、自定义谓词) 3. 每个约束返回一个 [0,1] 之间的分数——综合得分是乘法的(任何一个为零则整体为零) 4. 如果分数低于阈值,则通过反馈进行重试(“约束 X 失败,因为 Y——重新生成”) 5. 返回得分最高的尝试 在 IFEval(25 种指令遵循约束类型)上:准确率从 69.3% 提升至 76.2%。 代码行数:278。零依赖。适用于任何接受字符串并返回字符串的可调用对象。 安装命令:pip install ai-assert [项目链接](https://github.com/kaantahti/ai-assert)
2作者: mikeday大约 1 个月前原帖
我们已经在Prince项目上工作了超过二十年,并认为这是将HTML + CSS(现在还包括Markdown!)转换为PDF的最佳方式。因此,我一直对AI代理在这方面的困难感到困扰,甚至需要编写Python程序来生成PDF,然后在请求编辑时又感到困惑。因此,我们创建了一个MCP服务器,以简化PDF的生成过程! 它提供了三个工具:markdown_to_pdf、html_to_pdf和url_to_pdf,这样像“创建一个格式美观的发票”这样的请求就可以得到妥善处理。大型语言模型(LLMs)在生成Markdown和HTML方面表现出色,而Prince则擅长将其排版为高质量的PDF,因此这个工作流程应该能帮助处理需要精确格式、多个修订或PDF无障碍功能的文档。 我们仍在寻找最佳的打包方式,以便用户能够方便地使用。我们第一次尝试是直接将PDF文件返回给代理,但LLM通常难以解码,因此现在它会在服务器上缓存PDF,并返回一个下载链接,这样可以保持响应较小,让代理更高兴。(在ChatGPT中有一个下载按钮小部件,使其看起来更美观)。 我很好奇是否有人已经在使用AI代理生成PDF,并且他们对这种方法的看法是什么!当然,你也可以通过本地/标准输入MCP调用Prince,或者直接从命令行运行,或者使用DocRaptor在线服务,但有一个只需粘贴端点而无需安装任何东西或创建账户的示例来玩耍,还是很不错的。 网站: [https://prince.cloud](https://prince.cloud) Prince: [https://www.princexml.com](https://www.princexml.com) DocRaptor: [https://docraptor.com/](https://docraptor.com/)
1作者: thedaviddias大约 1 个月前原帖
我一直在想开源项目在GitHub上使用了多少人工智能(AI)。<p>因此,我创建了一个小项目,网址是<a href="https:&#x2F;&#x2F;aivshuman.thedaviddias.com&#x2F;" rel="nofollow">https:&#x2F;&#x2F;aivshuman.thedaviddias.com&#x2F;</a>,该项目解析提交记录并尝试寻找AI工具的痕迹。虽然不是100%准确,但这取决于人们在提交时是否使用了AI。<p>只有在这种情况下,我们才能潜在地判断是否使用了AI工具。这很有趣,并引发了一些关于我们是否应该有更好或更严格的方法来衡量AI与人类生成代码的问题。<p>欢迎分享任何想法或改进建议!该项目是开源的(<a href="https:&#x2F;&#x2F;github.com&#x2F;thedaviddias&#x2F;ai-vs-human" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;thedaviddias&#x2F;ai-vs-human</a>)。
21作者: nilsbunger大约 1 个月前原帖
另见 <a href="https:&#x2F;&#x2F;simonwillison.net&#x2F;2026&#x2F;Feb&#x2F;25&#x2F;closed-tests&#x2F;" rel="nofollow">https:&#x2F;&#x2F;simonwillison.net&#x2F;2026&#x2F;Feb&#x2F;25&#x2F;closed-tests&#x2F;</a>
1作者: bikidev大约 1 个月前原帖
大多数人工智能代理在会话之间会遗忘所有内容。我们开发了DeltaMemory来解决这个问题。<p>它是一个认知记忆层,能够通过一次SDK调用为代理提供持久的记忆、自动的事实提取和时间推理。<p>关键数据: - 在LoCoMo长期对话基准测试中准确率达到89% - 检索延迟为50毫秒(p50) - 与原始令牌再处理相比,成本降低了97%<p>开源SDK,兼容任何大型语言模型(LLM)架构。目前处于早期访问阶段。<p>欢迎就架构、基准测试方法或我们如何处理知识图谱等问题进行咨询。