返回首页
最新
我正在构建和维护一款名为 LLM-God 的桌面 LLM 提示应用程序,该应用程序是基于 Electron 开发的,适用于 Windows。它允许您同时向多个 LLM 网络接口提问,并在一个地方查看所有返回的答案。作为日常生活中 AI 工具的重度用户,我厌倦了在浏览器中点击多个标签页,并慢慢将单个查询复制粘贴到多个 LLM 网络接口中。这激励我寻找更好的解决方案,最终开发了这款应用。我尽量使其简约而功能齐全。
<p>主要功能:</p>
• 默认支持 Perplexity、ChatGPT 和 Gemini,并可选择添加更多 LLM,如 Grok、Claude 和 DeepSeek。<p>
• 响应式、键盘友好的界面。<p>
视频演示链接在这里:<a href="https://drive.google.com/file/d/10ECa__WWmJEAWAfwrCGPYDnEzvMFgtph/view?usp=drive_link" rel="nofollow">https://drive.google.com/file/d/10ECa__WWmJEAWAfwrCGPYDnEzvM...</a><p>
欢迎在这里或 GitHub 上提供反馈:<a href="https://github.com/czhou578/llm-god/tree/1.0.3">https://github.com/czhou578/llm-god/tree/1.0.3</a>
本文正式定义了当前人工通用智能(AGI)所面临的结构性壁垒——而非技术性壁垒。
它表明,无论是扩展规模、强化学习,还是递归优化,都无法突破三个深层的认识论和形式约束:
1. 语义闭合——一个人工智能系统无法生成超出其内部框架所需意义的输出。
2. 框架创新的不可计算性——新的认知结构无法从现有结构内部计算得出。
3. 开放世界中的统计崩溃——在具有重尾不确定性的环境中,概率推理会崩溃。
这些并不是当今模型的局限性,而是算法认知本身固有的结构性边界——数学的、逻辑的、认识论的。
但这并不是对人工智能的否定。这是对必须面对的边界条件的清晰定义——并且,可能需要围绕其进行设计。
如果AGI在这道壁垒前失败,机会并不会结束——而是刚刚开始。
对于任何认真对待认知的人来说,这才是真正的前沿。
完整论文:
[https://philpapers.org/rec/SCHTAB-13](https://philpapers.org/rec/SCHTAB-13)
欢迎批评、挑战或反驳。
嗨,HN,
我一直相信,优秀的产品是通过持续的用户反馈构建而成的。但当我尝试使用像 Canny 这样的工具时,遇到了两个主要问题:
* 它们功能过于繁杂,我并不需要所有这些功能
* 每月 99 美元的费用对于小团队或独立开发者来说实在太贵了
因此,我决定构建一个更简单的工具。
这是一个一体化的反馈平台,帮助您收集、整理和处理用户反馈——没有复杂性和高成本。
它包括:
* 反馈板(公开或私密)
* 标签、类别和状态
* 路线图和变更日志
* 状态更新,以便与用户保持沟通
我为那些希望保持足够结构以专注于工作的团队而构建了这个工具,而不想被繁琐的流程所拖累。
期待您的反馈,也很乐意回答任何问题。