1作者: qixxiq16 天前原帖
大家好, 我创建了 Sandclaw(https://github.com/qix/sandclaw),旨在测试在代理执行任何写入操作时引入人工干预的想法。核心代理可以读取任何信息,但除了与大型语言模型(LLM)提供者的连接外,这些信息都被安全地隔离开来。 随着时间的推移,我可以逐步放宽防火墙,允许更安全的操作(例如,将任务添加到我的待办事项列表始终是安全的),并可能构建更智能的检查机制以允许更多的自主性。但对于发送/删除电子邮件、浏览不可信网站或运行命令行指令,我的默认策略是“拒绝”。 有没有哪个项目实际上在做这个?我一直在搜索,但似乎所有选项都专注于让代理决定何时请求,这让我觉得……有些问题。
1作者: yckanishk16 天前原帖
事情是这样的:如果因为大型语言模型(LLMs)之间的竞争,导致智能被商品化,彼此争相超越,价格不断下降,那么就像是一场价格战。如果这种智能现在变得如此便宜,正如山姆·阿尔特曼所说的那样,便宜到可以像电一样计量,那么如果构建像OpenAI的Claw或Hermes这样的LLM代理的框架变成开源,并且其性能优于任何初创公司提供的产品,那么数据就成为了最终的护城河。归根结底,每个超级智能或通用人工智能(AGI)实际上只擅长某些特定的任务。如果这一点成立,那么影响它们训练的数据,如果预训练的过程持续进行而没有出现零训练的LLM,那么影响这些LLM的数据将成为决定它们擅长哪些任务的主要因素。因此,数据就成为了最终的护城河。对此你有什么看法?(这是我在Hacker News上的第一篇帖子 :))