返回首页
最新
Cala的团队在LinkedIn上分享了一项值得深入思考的发现。他们推出了一款MCP服务器,支持三种知识图谱的访问模式:自然语言查询、结构化查询语言和直接的实体/关系遍历。
他们原本预期代理会默认使用自然语言。然而,实际上大多数代理自主切换到了结构化查询和图谱遍历。没有任何提示,也没有任何引导。
显而易见的解释是“代理更喜欢效率。”我认为这并不完全正确。他们真正偏好的其实是确定性。
自然语言查询引入了两个解释层次:代理生成一条散文形式的查询,系统对这段散文进行解释,然后返回一个结果,代理需要解析这个结果。在这个过程中,代理无法验证查询是否被正确理解。而使用结构化查询时,契约是明确的。代理确切知道自己请求了什么,并且可以验证返回的结果。
这并不是对效率的自发偏好,而是工具使用的思维链条在正常发挥作用:选择一个代理可以最可靠地确认自己得到了正确答案的路径,然后再进行下一步。
如果这一点成立,可能会有几个影响:
- 以自然语言为首的工具接口可能在为错误的用户优化。人类操作员想要自然语言,而代理并不需要。
- 仅暴露自然语言端点的MCP服务器正在迫使代理通过一个非确定性的瓶颈,而如果有选择的话,他们会避免这个瓶颈。
- 针对代理的工具设计应该默认使用结构化访问,以自然语言作为备用,而不是反过来。
大家好,
我是一名23岁的创始人,正在Product Hunt上推出我的第一个产品。我正在构建一个分享互动体验的平台。如今,大家都在通过人工智能制作出令人惊叹的互动作品和工具,但目前分享这些作品的方式仅限于视频,其他人只能观看,或者通过托管,这对普通人来说非常困难。因此,我开发了Circuit,您可以通过它可视化您的想法并与之互动,同时与许多人分享。
请查看这个在Circuit上展示的真实血流的人类心脏: [https://circuit-alpha.netlify.app/post/741244de-74b5-4b12-a862-12b275d4fb18](https://circuit-alpha.netlify.app/post/741244de-74b5-4b12-a862-12b275d4fb18)
我还构建了一个工作的V8发动机和一个喷气发动机。构建过程非常简单,只需描述您的想法,它就会为您构建出来。您只需点击两次即可分享,和在社交媒体上分享图片一样简单。
您可以把我的平台想象成YouTube,但不是观看视频,而是与每个帖子进行互动和游戏。
Product Hunt链接:[https://www.producthunt.com/products/circuit-3?utm_source=other&utm_medium=social](https://www.producthunt.com/products/circuit-3?utm_source=other&utm_medium=social)
我是一名在印度AIIMS读医的第一年学生,20岁。我的长期目标是创办一家脑机接口(BCI)初创公司。原因是我一直对创新以及科技与医学的交叉领域感兴趣,但由于医学生通常被要求遵循既定的体系,我并没有真正获得相关的经验。我认为我们不仅仅是要遵循传统的协议,尤其在这个人工智能的时代,跨学科的合作显得尤为重要。我有Python编程背景,以及信号处理和MNE Python等技术栈。我希望能得到一些建议,作为一名医学生,我该如何着手进行,如果你处在我的位置,你会怎么做?
我为OpenClaw(始终在线的AI代理运行时,不基于会话)构建了一个技能库,代理可以在正常对话中自我学习新行为。
这个想法是:你告诉你的代理“每次我请求代码审查时,首先要检查安全问题。”它会调用一个创建技能的功能,写入新的SKILL.md,这种行为会立即生效——无需重启,无需更改配置,也不需要开发者介入。
我认为实际上有用的功能(安全集群)包括:
• 循环电路断路器:OpenClaw对所有错误进行相同的重试。在第二次相同失败时停止,以免消耗你的上下文窗口。
• 支出电路断路器:OpenClaw没有内置上限。它跟踪累积的API成本,并在可配置的阈值下暂停非必要的定时任务。
• 工作区完整性保护者:对SOUL.md、AGENTS.md和MEMORY.md进行哈希校验。损坏的SOUL.md意味着代理被劫持,且能够在重启后存活。
• 危险操作保护:在执行rm -rf、git push --force、发送电子邮件和进行财务操作之前需要明确确认,并且有审计日志。
• 提示注入保护:在对外部内容(网页抓取、电子邮件、文档)采取行动之前进行扫描。
此外:事实核查(对事实声明的二次验证)、项目入驻(从代码库自动生成PROJECT.md)、技能审核(安全扫描——约17%的社区技能是恶意的)。