返回首页
最新
嘿,HN!Web CLI,一个开源的基于网页的命令管理工具,刚刚升级了,新增了交互式终端支持。
我目前正在构建GIA Tenica(“Agentic AI”的字母重组),这是一个实验性的自主管道,旨在处理学术研究中的“重负担”,同时保持严格的审计记录。
我试图解决的核心问题是大型语言模型(LLM)研究的“黑箱”特性。大多数代理只给出最终答案;而GIA的设计要求每一个主张都必须有可追溯的支持。
我为这个项目做出的一些技术选择:
文件系统优先架构:管道在每个阶段将持久化的文档(Markdown和JSON)写入项目文件夹,而不是将状态保留在内存中。这使得整个思考过程可供检查,并允许你以确定性方式重新运行“门”。
模式优先的合约:我使用JSON模式作为代理之间的严格合约。如果代理的输出不符合模式,“门”将阻止工作流程。
安全性与沙箱:由于管道可以生成和执行分析脚本,它在一个子进程中以隔离的Python模式(-I)和最小的允许列表运行这些脚本。这不是一个完整的监狱,但这是朝着更安全的自主代码执行迈出的一步。
“裁判”系统:我实现了一系列“裁判”(代理A12–A15),作为质量控制层,在生成最终草稿之前检查矛盾和风格执行。
当前状态:这仍然是一个进行中的工作。这是一个原型管道,而不是一个成品。我目前正在寻找贡献者来帮助完善“证据层”和LaTeX论文结构。
我很想听听你对架构的看法,特别是关于使用模式驱动的门来为LLM输出提供依据的想法。
代码库: [https://github.com/giatenica/gia-agentic-short](https://github.com/giatenica/gia-agentic-short)
嗨,HN,
我开发了一个小型的 Linux 命令行工具,名为 witr(Why Is This Running?)。
这个想法源于我们大多数人都经历过的情况:你登录到一台机器,看到某个进程或端口正在运行,立刻想知道它的存在原因、是谁启动的,以及现在是什么在维持它的运行。
witr 可以追踪一个进程、服务或端口的来源及其责任链,并以快速易读的方式进行解释,特别是在你需要快速调试的情况下。
这是 v0.1.0 版本。它故意设计得小巧而专注。
欢迎任何反馈、批评和边缘案例。
仓库链接: [https://github.com/pranshuparmar/witr](https://github.com/pranshuparmar/witr)