返回首页
一周热榜
有人知道为什么 archive.is 中的 inject.js/heuristic.js 会寻找 bitwarden 和 datalane 的内容吗?如果在 Chrome 中启用缓存保留功能,你会发现这些文件随着时间的推移“消失”了,但它们仍在进行多个请求。有人知道这是为什么吗?
实际上,这个实现并没有什么特别之处。只是用Rust编写的另一个事件循环,旨在用于教育和乐趣。
在测试中,它显示出我的爬虫框架与uvloop的无缝迁移,相关链接为:<a href="https://github.com/BitingSnakes/silkworm" rel="nofollow">https://github.com/BitingSnakes/silkworm</a>。
在使用API(fastapi)时,它显示出唯一的优势:更好的p99性能,而uvloop在合成运行中速度快约10-20%。
目前,我正在win分支上进行分叉,以为uvloop缺乏的Windows支持提供支持。
我正在发布三款我私下开发的庞大软件系统,这些系统是我多年来独立努力的成果,没有任何机构支持、企业赞助或正式的工程团队。这些不是概念或模型,而是真正可部署的系统。它们可以通过 Docker、Helm 或 Kubernetes 安装,成功启动并产生可观察的结果。目前,它们正在云基础设施上运行。需要说明的是,它们应被视为未完成的基础,而非打磨精致的产品。
整个生态系统大约包含 150 万行代码。
**平台**
**ASE — 自主软件工程系统**
ASE 是一个闭环平台,用于代码创建、监控、评估和迭代自我改进。其目的是通过从高层任务生成工件、监控结果、将修正反馈到流程中并随着时间推移进行自我优化,来自动化软件生命周期的部分环节。它目前可以运行,但代理调优不均匀,某些功能尚未完成,输出质量因配置而异。
**VulcanAMI — 变换器/神经符号混合人工智能平台**
VulcanAMI 是一个围绕混合架构构建的人工智能系统,结合了基于变换器的语言建模与结构化推理、编排和治理。其目标是通过整合符号和系统级控制来解决纯统计模型的弱点。它可以部署和运行,但可靠的变换器集成仍然是一个主要挑战。
**FEMS — 有限庞大引擎**
FEMS 是一个实用的多元宇宙模拟平台,用于大规模场景探索、反事实分析和因果建模。它旨在应用通常局限于研究环境的技术。它可以运行并产生结果,但其模型需要专家级的数学调优,不应被视为科学验证的结果。
**当前状态**
这三个系统都是:
- 可部署的
- 可操作的
- 复杂的
- 不完整的
已知的局限性包括用户体验粗糙、部分文档不完整、与生产软件相比正式测试有限、以可行性为驱动的架构、安全性加固不完整以及存在缺陷。
**为什么现在发布**
进一步的进展将受益于外部的专业知识和视角。作为一个独立开发者,我缺乏完全成熟这种规模项目的资源。这次发布与资金、产品发布或机构项目无关。它只是对现有、可运行且仍未完成的工作的开放。
**关于我**
我叫布赖恩·D·安德森。我的主要职业是奇幻小说作家,而不是传统的软件工程师。我是自学成才,较晚才开始学习软件系统,并在消费级硬件上独立构建这些平台。
这样的背景可能会引发怀疑。但这也解释了工作的特性:在范围上雄心勃勃,打磨程度不均,更多是由坚持驱动而非正式流程。这些系统的构建是因为我希望它们能够存在。
**这是什么 — 以及不是**
这是一套可部署的基础,是正在进行的独立工作的快照,是对探索、批评和改进的邀请,是迄今为止所构建内容的记录。
这不是:
- 完成的产品套件
- 一体化解决方案
- 突破性性能的声明
- 支持或路线图的承诺
如果你探索代码,请假设某些部分过度设计,其他部分开发不足,命名可能不一致,许多内部知识尚未外部化。如果任何部分对你有用或有趣,你可以根据许可条款自由构建。
这些系统存在。它们可以运行。它们尚未完成。如果它们对其他人有用,那就足够了。
—— 布赖恩·D·安德森
**代码库:**
代码工厂:[https://github.com/musicmonk42/The_Code_Factory_Working_V2.git](https://github.com/musicmonk42/The_Code_Factory_Working_V2.git)
VulcanAMI:[https://github.com/musicmonk42/VulcanAMI_LLM.git](https://github.com/musicmonk42/VulcanAMI_LLM.git)
FEMS:[https://github.com/musicmonk42/FEMS.git](https://github.com/musicmonk42/FEMS.git)
简短回答:是的。<p>Emotion Engine 总共有 32 MB 的 RAM,因此关键在于在前向传播过程中一次从 CD-ROM 流式传输一个矩阵的权重——只有激活值、KV 缓存和嵌入存储在 RAM 中。这意味着比 RAM 大的模型仍然可以运行,只是需要从磁盘读取更多数据。<p>我不得不构建一个自定义的量化格式(PSNT),修改字节序,编写一个分词器管道,以及从头开始编写大部分 PS2 SDK(将单独发布)。模型本身也是自定义的——我专门为此训练了一个 1000 万参数的 Llama 风格架构。<p>而且它在真实硬件上运行良好。
我构建了一个大小为6832字节的AI代理。整个运行时(包括二进制文件、桥接、工具和配置)大约为23KB。
PlanckClaw是用x86-64汇编语言编写的(显然是通过AI辅助代码生成的),仅使用了7个Linux系统调用。没有libc,没有分配器,没有运行时。这个二进制文件是一个纯路由器:它从命名管道读取消息,询问另一个管道有哪些工具,构建一个JSON提示,将其写入第三个管道,解析响应,调度工具调用,并转发答案。它从不接触网络或直接执行工具。
其他所有部分都通过shell脚本组合在一起(总共约460行):
- bridge_brain.sh:调用Anthropic API(约90行)
- bridge_discord.sh:通过WebSocket连接Discord网关(约180行)
- bridge_cli.sh:终端接口(约40行)
- bridge_claw.sh:工具发现和调度(约50行)
四个进程,六个命名FIFO,零共享状态。添加一个工具意味着只需将一个shell脚本放入claws/目录中。无需重启、重新编译或更改配置。
它可以执行真实的操作:使用工具(通过Claude的tool_use协议)、以追加模式存储的持久对话历史(JSONL格式)、当历史记录过长时自动进行内存压缩,以及可更换的个性文件(soul.md)。
这一切始于一个思想实验:现代代理框架拉取超过400个传递依赖,并在生成一个令牌之前就需要发送超过100MB的运行时。我发现了多个极简主义的项目,如picoclaw、nanoclaw或zeroclaw。我想找到最小可行的代理(AI代理的普朗克长度),看看仅用管道和系统调用能构建出什么。
这不是生产软件。缓冲区是固定大小的(大于4KB的消息会被截断),它仅在Linux x86-64上运行,错误处理也很基础。但它运行得非常完美,整个代码库(包括汇编语言约2800行)也很容易审核。
如果你想编写自己的桥接,所有三个扩展点(交互、脑、爪)的线级协议规范都记录在PROTOCOL.md中。
作为一个实验,我开始让Claude用虚构故事来向我解释事物,结果效果非常好。因此,我开始探索这个方法的极限,以及需要什么才能将其打磨到足以公开分享的程度。<p>在过去的几个月里,我为这个项目构建了世界观手册、撰写了视觉风格指南以及其他相关文档……可以把它们想象成我们现在用于代理开发的所有Markdown文件的虚构等价物。在此之后,我又花了大约两周的时间进行额外的打磨工作,以去除许多冗余内容和LLM特有的表达方式。如果有人对此过程感兴趣,我也很乐意回答任何问题。
我对在大型语言模型(LLM)时代,科技行业的人们是如何避免技能退化的很感兴趣。
我们都看到了这个争论的两种观点,一方面是“让他们退化,LLM是未来,看看算盘就知道了!”另一方面是“我不使用LLM,它们会出错并且妨碍工作”。但对许多人来说,现实是LLM确实提供了真正的性能提升,并承担了许多任务,即使它们会出错并需要人们的监督。
我倾向于谨慎对待技能的退化,因为在中长期内,LLM将如何影响工作场所以及哪些技能会被使用仍有太多未知。因此,我想知道你们是如何在面对“让它实现”的诱惑时,保持现有技能不退化的?