4作者: jairooh27 天前原帖
最近发生的事件(Claude Code 删除 DataTalks 数据库,Replit 代理在代码冻结期间删除数据)表明,在没有可观察性的情况下在生产环境中运行 AI 代理是有风险的。 我见过的常见故障模式包括:对代理执行的每一步缺乏可见性、因未跟踪的令牌使用而产生意外的 LLM 账单、风险输出未被检测到,以及缺乏事后审计轨迹。 我正在构建 AgentShield(https://useagentshield.com)——一个用于 AI 代理的可观察性 SDK。它提供执行追踪、输出风险检测、按代理/模型的成本跟踪,以及对高风险操作的人为审批。它可以与 LangChain、CrewAI 和 OpenAI Agents SDK 进行两行代码的集成。 我很好奇其他人使用的是什么。你们是自己开发监控工具吗?使用 LangSmith?Langfuse?还是只是寄希望于好运?
1作者: helsinki27 天前原帖
该流程将一个热门话题转化为一集完整的约22分钟的喜剧播客,包含三个AI角色(制作人、评论家、傻瓜)。整个过程是自动化的:从构思主题、研究、生成大纲、编写剧本(包括润色和验证环节)、通过ElevenLabs进行语音合成、音乐混音,到发布到Spotify。 技术栈:使用Temporal进行持久的工作流编排,Gemini用于剧本生成,gollem([https://github.com/fugue-labs/gollem](https://github.com/fugue-labs/gollem))代理提供结构化输出和自动验证,Postgres + Apache AGE用于图形查询,Qdrant用于向量搜索,ElevenLabs用于多声道对话合成。 每一集经过约10个环节,每个环节独立编写并验证其基础真实性。在任何内容被渲染之前,有一个验证环节检查事实声明、禁用短语和角色声音的一致性。整个流程通过一个简单的命令运行,耗时约2小时。 目前已制作24集。这一集讲述了一个角色利用AI在周末写书并自称文学天才的故事。
1作者: cunningfatalist27 天前原帖
你好,HN :) Promptinel 是一个用于提示的安全扫描器。我认为世界需要这样的工具,因为提示基本上是可执行的工件,我们需要将其视为这样的东西。在提示接近运行时之前,我希望尽可能多地识别出潜在的安全隐患。尤其是在为朋友或同事提供一个常用的提示库,或者从互联网下载技能时。你可以在项目的自述文件中阅读更多关于我动机的内容:<a href="https://github.com/CunningFatalist/promptinel?tab=readme-ov-file#motivation" rel="nofollow">https://github.com/CunningFatalist/promptinel?tab=readme-ov-...</a> Promptinel 可以发现提示中的各种攻击模式,例如: - 提示覆盖和角色欺骗模式 - 下载并执行链 - 模板执行和网络获取行为 - 秘密外泄意图 - 隐形 Unicode 和混淆技巧 - 本地敏感文件引用 我非常期待来自那些曾经构建过代码检查工具或安全扫描器的人的反馈。或者只是来自 Go 语言开发者的反馈。实际上,我主要是 PHP 和 TypeScript 开发者,利用空闲时间学习 Go,因为我觉得它很有趣,并且喜欢它背后的哲学。