严肃的问题。
我们正在构建能够规划、推理并通过MCP调用工具的自主大型语言模型(LLM)系统。目前,这些工具是API。但许多现实世界的任务仍然需要人类参与。
那么……为什么不把人类作为工具来使用呢?
想象一下,TaskRabbit或Fiverr运行MCP服务器,在那里,一个LLM代理可以:
- 调用人类进行判断、创造力或实际行动
- 传递结构化输入
- 将结构化输出返回到其循环中
在那时,人类就成了代理工具链中的另一个依赖项。虽然速度较慢、成本较高,但偶尔是必要的。
是的,这听起来有些反乌托邦。是的,这将人类视为“人工智能的仆人”。这正是重点。这种情况已经在手动进行……这只是将接口形式化。
我真正好奇的问题是:
- 一旦代理成为默认的软件参与者,这种情况是否不可避免?(基本上就是现在?)
- 首先会破裂的是什么:经济、安全、人类尊严还是监管?
- 市场会否接受成为人工智能的“人类执行层”?
不确定这是否是未来,或者是我们应该积极防止的诅咒想法……但这感觉让人不安地合理。
返回首页
最新
我一直跟不上人工智能领域的动态。相关信息散布在Reddit、Discord、Twitter、arXiv、GitHub和Hugging Face等平台上,很多内容总是会被遗漏。因此,我创建了Latent Signal来为自己整合这些信息。
这是一个针对人工智能新闻的精选信息流。目前只有我一个人,但目标是让社区帮助挖掘重要内容。涵盖了大型语言模型(LLMs)、图像生成、视频、音频、3D、世界模型、工具等多个方面。设计灵感完全来源于Hacker News。
目前的信息来源包括:
- Reddit
- arXiv
- Hugging Face
- GitHub
- Hacker News
- Lobste.rs
您可以立即浏览,无需注册。只有在您想投票或提交内容时才需要账户。
这是我第一次公开分享这个项目。希望能收到关于缺失内容、存在问题的反馈,或者如果类似的项目已经存在而我却错过了,请告诉我。
<a href="https://latentsignal.fyi/" rel="nofollow">https://latentsignal.fyi/</a>
这只是一个有趣的免费消遣,你可以在一个无限的随机字母网格中寻找单词。我觉得在睡前玩这个很放松!希望你也喜欢——我今天清空了棋盘,所以有很多空间可以发展。
我在一个半月前发布了这个内容:
<a href="https://news.ycombinator.com/item?id=45876742">https://news.ycombinator.com/item?id=45876742</a>
我对其进行了重写,使其更加简洁,从951行代码减少到仅364行,且核心功能和生成质量没有损失。
我还添加了一个小型的GPT实现作为对比(灵感来自Andrej Karpathy的代码)。这两个模型的实现大约有80%是相同的,主要的区别在于生成和获取批次的函数。模型架构、训练循环等仅在19行代码上有所不同。
训练好的权重已包含在内,因此你可以直接克隆并在本地运行。GPT模型的连贯性稍强,但扩散模型在其规模下的质量也相当不错。