1作者: guld大约 1 个月前原帖
嗨,HN的朋友们, 我是guld,我创建了ROE.md([https://github.com/guld/ROE.md](https://github.com/guld/ROE.md)),这是一个概念验证的单一Markdown文件,可以让你从零开始构建自己的自定义个人OpenClaw风格的AI助手。 当然,它的功能集非常简化。(目前仍处于alpha阶段) 你只需要从你最喜欢的AI编码工具中获取一些代码魔法。选择你喜欢的编程语言(真的),并希望它已经被最新的模型理解。(我在看你们,Ruby程序员们)。 我是在上周第一次听说OpenClaw热潮时想出的这个主意。听着steipete的疯狂故事,我在想……如果这个代理可以自己创建所有这些技能……那如果我们进一步发展,让代理从一个单一的Markdown文件中自我创建呢?这应该可行! 怎么使用它? 你选择的编码代理应该加载ROE.md Markdown文件,你回答几个问题,它就会为你构建一个最小化的OpenClaw风格的个人助手。它内置了一个工具(execute_bash)。 我知道这很危险,但它确实有效。 无论如何……我用OpenCode和Kimi-2.5模型进行了测试,并选择了Python。(OpenCode很棒!)在回答几个问题并修复一些错误后,自定义代理在CLI模式下与本地运行的gpt-oss-20b通过LM Studio配合得很好。 我怎么创建ROE.md文件的? 主要是手动完成的,架构的概述非常高层,几乎没有架构。我更专注于添加大量的示例调用-响应,并使用第一人称单数来改善提示(感谢这里的一个评论线程,postalcoder验证了第一人称在Gemini中的重要性)。 接下来的几天,我想扩展ROE.md文件,包含更简洁的API示例,以确保它能与更多语言兼容。 - TODOs很多……修复、测试、重复 挑战: - 让更多编程语言在尽可能少的提示下与大型本地模型(如Kimi-2.5)兼容。我测试了Bash、Python、Go、Ruby和其他一些语言,但Python效果最好。 - 不要在伪代码中过于具体。 - 保持其结构足够通用,以适用于大多数编程语言。 - 使其能够与较弱的本地模型兼容。 有关更多详细信息,请查看README中的迷你教程([https://github.com/guld/ROE.md](https://github.com/guld/ROE.md))。 这个项目和vibe编码的力量让我重新找回了二十多年前在“空白的Windows编辑器纸上”写下第一行代码时的乐趣。 你觉得怎么样?vibe编码是疯狂酷炫,还是只有我这么觉得?
2作者: alonsovm大约 1 个月前原帖
嗨,HN, 我已经做了很长时间的开发者,和你们中的许多人一样,我对AI编码工具的“全有或全无”问题感到沮丧。 你请求AI修复一个bug或实现一个功能,它却重写了整个文件。它会更改你的导入,重命名你的变量,或者删除它认为不必要的注释。这就像把生产服务器的根权限交给一个初级开发者(像我一样),仅仅是为了更改一个配置文件。 因此,29天前,我开始构建Yori来解决信任问题。 **概念:语义容器** Yori引入了一种语法,充当AI的防火墙。你可以在文本文件中定义一个`$${ ... }$$`块。 块外(宿主):你的手动代码、架构和结构。AI无法触碰这些内容。 块内(容器):你用自然语言表达意图。AI只能在这里生成代码。 **示例:myutils.md** ```cpp EXPORT: "myfile.cpp" // 我的手动架构 - AI无法更改此部分 #include "utils.h" void process_data() { // 容器:AI在这里受到沙箱限制,但可以继承文件的其余部分作为上下文 $${ 使用快速排序对输入数据向量进行排序。 过滤掉负数。 打印结果。 }$$ } EXPORT: END ``` **工作原理:** Yori是一个C++包装器,用于解析这些文件。EXPORT块内和容器外的内容将按原样复制。当你运行`yori myutils.md -make -series`时,它会将提示发送到本地(Ollama)或云端的LLM,生成语法,填充块,并使用你的本地工具链(GCC/Clang/Python)编译结果。 如果编译失败,它会将错误反馈给LLM进行重试(自我修复)。 **我认为这很重要的原因:** 1. 安全性:你不再给AI“根权限”来访问你的文件。 2. 意图作为源:提示保留在文件中。如果你想将逻辑从C++迁移到Rust,你可以保留提示,只需更改编译目标。 3. 增量构建(即将添加):命名容器允许缓存。如果提示没有更改,你就不需要支付API调用的费用。 这是一个开源项目(MIT),使用C++17,并且可以在本地运行。 我很想听听你们对“语义容器”概念的反馈。这是我们一直缺失的AI编码抽象层吗?请告诉我你的想法。此外,如果你无法运行yori.exe,请告诉我出了什么问题,我们会看看如何解决。我在GitHub上开了一个问题。我也在为这个项目制作文档(GitHub wiki),请期待很快发布。 GitHub: [https://github.com/alonsovm44/yori](https://github.com/alonsovm44/yori) 谢谢!
2作者: kart23大约 1 个月前原帖
我不太明白的是,当硬件不断升级,人们能够在本地运行大型语言模型(LLMs)时,这些人工智能即服务(AI-as-a-service)公司将如何在未来生存。当然,目前租用与购买的选择明显倾向于租用,但我可以想象未来人们会购买一台放在家里的台式电脑,并在那台机器上进行所有个人推理。甚至可能会有推理池来分担多个用户的负载。你认为这种情况可能发生吗?这些公司的应对计划是什么?