1作者: 7777777phil大约 1 个月前原帖
我目前正在构建GIA Tenica(“Agentic AI”的字母重组),这是一个实验性的自主管道,旨在处理学术研究中的“重负担”,同时保持严格的审计记录。 我试图解决的核心问题是大型语言模型(LLM)研究的“黑箱”特性。大多数代理只给出最终答案;而GIA的设计要求每一个主张都必须有可追溯的支持。 我为这个项目做出的一些技术选择: 文件系统优先架构:管道在每个阶段将持久化的文档(Markdown和JSON)写入项目文件夹,而不是将状态保留在内存中。这使得整个思考过程可供检查,并允许你以确定性方式重新运行“门”。 模式优先的合约:我使用JSON模式作为代理之间的严格合约。如果代理的输出不符合模式,“门”将阻止工作流程。 安全性与沙箱:由于管道可以生成和执行分析脚本,它在一个子进程中以隔离的Python模式(-I)和最小的允许列表运行这些脚本。这不是一个完整的监狱,但这是朝着更安全的自主代码执行迈出的一步。 “裁判”系统:我实现了一系列“裁判”(代理A12–A15),作为质量控制层,在生成最终草稿之前检查矛盾和风格执行。 当前状态:这仍然是一个进行中的工作。这是一个原型管道,而不是一个成品。我目前正在寻找贡献者来帮助完善“证据层”和LaTeX论文结构。 我很想听听你对架构的看法,特别是关于使用模式驱动的门来为LLM输出提供依据的想法。 代码库: [https://github.com/giatenica/gia-agentic-short](https://github.com/giatenica/gia-agentic-short)
2作者: pranshuparmar大约 1 个月前原帖
嗨,HN, 我开发了一个小型的 Linux 命令行工具,名为 witr(Why Is This Running?)。 这个想法源于我们大多数人都经历过的情况:你登录到一台机器,看到某个进程或端口正在运行,立刻想知道它的存在原因、是谁启动的,以及现在是什么在维持它的运行。 witr 可以追踪一个进程、服务或端口的来源及其责任链,并以快速易读的方式进行解释,特别是在你需要快速调试的情况下。 这是 v0.1.0 版本。它故意设计得小巧而专注。 欢迎任何反馈、批评和边缘案例。 仓库链接: [https://github.com/pranshuparmar/witr](https://github.com/pranshuparmar/witr)