返回首页
最新
我们正在尝试一种自动裁决的架构,该架构不依赖于规则库或统计预测。与其将法律编码为“如果-那么”规则或基于过去案例训练模型,不如将抽象法律推理建模为一种元算法:一个控制层,协调多个异构组件——硬编码逻辑、数值建模以及由大型语言模型(LLM)执行的结构化自然语言程序。
核心思想是,法律推理的结构(运行哪些阶段、如何选择和解释规范、如何平衡竞争利益、何时修正早期结论)用一种强类型的伪代码/元语言表达。这个元算法的某些部分直接用代码实现(程序检查、基本资格、图形更新),某些部分是数学的(效用、均衡、模糊不确定性),还有一些则以自然语言的高级指令形式编写,由LLM在严格约束下进行解释。在这种设置中,LLM并不是结果的预测者,而是给定程序脚本的解释者。
该系统不基于案例法进行训练,也不试图“预测”法院的裁决。它重建推理流程:从提取当事方的事实叙述和证据结构,到规范选择和加权,再到生成可以在内部操作图中逐步追溯的决策。相同的元算法可以通过更换规范包在不同的司法管辖区中工作;到目前为止,我们已在一系列国际和国内争议中进行了测试。
这里有一个早期的公开演示:
https://portal.judgeai.space/
如果您上传一份小型的索赔声明和回应,系统将运行完整的流程并输出一份结构化的决策文件。
我们非常感谢从事混合符号/语义系统、“LLM作为解释者”架构或复杂决策的形式模型的人员提供反馈。对我们来说,显而易见的开放性问题包括:如何最好地测试这种元控制的失败模式、使用什么形式工具检查推理图的一致性,以及在达到严格理论限制之前,这种方法可以推进多远。
<p><pre><code> 错误:用户:222xxxxxxx:crisdosaygo
致命错误:无法从远程仓库读取。
请确保您拥有正确的访问权限
并且仓库确实存在。
</code></pre>
我现在在所有的仓库上都遇到这个问题。还有其他人吗?