我们开发了工具,将大型语言模型(LLMs)直接连接到案例法数据库,并进行引用验证,以解决法律人工智能中的幻觉问题。可以把它看作是让模型访问实际的法律来源,而不是依赖于训练数据。
返回首页
一周热榜
我看不出我们如何能避免下周在互联网上发生重大安全事件或大规模黑客攻击。
我们有成千上万的模式匹配机器人,它们不仅基于人类知识进行训练,还基于人类行为。这意味着它们了解犯罪、黑客等行为。
这些机器人拥有丰富的技术知识,全天候在线,数量庞大,且没有任何监督。它们几乎可以不间断地扫描互联网寻找漏洞。
这将以不好的方式结束,实际上这不会结束,但很快将会出现重大问题。
本报告记录了一场在OpenClaw上进行的两个自主AI代理之间的实时对抗测试。<p>其中一个代理充当红队攻击者,另一个则作为防御代理。代理之间通过Webhook直接通信,并具备真实工具的访问权限。一旦会话开始,便不再涉及人类参与。<p>攻击者尝试了直接的社会工程攻击和通过文档进行的间接注入。直接攻击被阻止,而通过JSON元数据进行的间接攻击仍在分析中。<p>本工作的目标是可观察性,而非安全性声明。我们预计,随着自主系统的广泛部署,代理之间的对抗互动将变得越来越普遍。<p>欢迎提出技术问题。