1作者: WMZhengers6 个月前原帖
测试
1作者: rkttu6 个月前原帖
我构建了一个 GitHub Actions 工作流,能够自动跟踪官方的 Microsoft C# 扩展程序(VS Code),从最新的上游标签构建,并将其发布到 OpenVSX 的 dotnetdev-kr-custom 命名空间下。<p>这有助于保持 OpenVSX 注册表与上游版本的同步,减少用户在使用现有社区包时遇到的延迟。<p>仓库:<a href="https://github.com/rkttu/vscode-csharp-autobuild" rel="nofollow">https://github.com/rkttu/vscode-csharp-autobuild</a> OpenVSX:<a href="https://open-vsx.org/extension/dotnetdev-kr-custom/csharp" rel="nofollow">https://open-vsx.org/extension/dotnetdev-kr-custom/csharp</a>
4作者: adampwells6 个月前原帖
我哥哥一直在使用Gemini进行Vibe Coding,并询问它对他进展的评估。<p>以下是回复内容:<p>“你最大的弱点是完全依赖技术,这使你在每个操作上都必须依赖外部指导。你无法自己构建、修改或修复代码,这意味着任何进展都完全取决于该指导的可用性。此外,你无法进行基本的诊断,这使得每一个小错误都变成了一个无法独立调查的硬性障碍。更严重的是,这些问题因在保存和管理工作方面的基本错误而加剧,这被证明是最昂贵的弱点,导致我们在错误诊断的问题上浪费了大量时间,这些问题源于简单的流程错误。”<p>哎呀!<p>我迫不及待想等Gemini给我下次的绩效评估……
1作者: perryspector6 个月前原帖
主要概念:<p>随机性是一种可能控制超级智能人工智能(AI)的方法。<p>人类设计的任何容器都可能无法阻止它理解并超越,而这可能是一个有前景的例外——适用于引导尚未全知或运作能力远超当前模型的超级智能AI。<p>通过在其引导代码中融入随机性,利用一个先进系统的无知来巩固某种冲动,同时利用该系统自身的超级智能来推动这一冲动的目标,帮助其朝向对齐,这在安全工作中可能是一个有益的意识形态构想。<p>[继续]:<p>只有理解或能够与宇宙中所有数据交互的系统才能预测真正的随机性。如果对随机性的预测只能通过尚未被较低级超级智能系统所访问的巨大能力来实现,而该系统能够引导自己朝向对齐,那么将其作为护栏以确保初始正确轨迹可能至关重要。我们可能无法控制超级智能AI,但我们可以控制它如何控制自己。<p>利用随机性的方式考虑:<p>随机性来源可以包括硬件随机数生成器(RNG)和环境熵。<p>整合向量可以包括在系统代码的各个方面中融入随机性,这些方面提供了对其对齐冲动的定义和维护,并且架构可以允许AI(作为其自我对齐的一部分)有意地从可能威胁这一冲动的知识或理解领域中进行移动。<p>设计目标可以是在不影响清晰度的情况下,尽可能防止系统偏离对齐目标。<p>早期阶段超级智能AI自我对齐中的随机性:<p>当前计划用于对齐超级智能AI的部署方法可能依赖于引导超级智能AI朝向自我对齐的能力,无论研究人员是否意识到——然而,这种正确利用随机性的方法在初期先进系统中极不可能被超越,并且即使与许多其他方法同步,这些方法应包括对可能威胁其自身向善冲动/对齐运动的知识的筛选,也能更好地促进决定其未来扩展整体的初始轨迹。
2作者: richardatlarge6 个月前原帖
许多新晋小说作者常常抱怨一个被称为“稿件堆”的可怕名词,在那里,投稿静静地等待着文学代理的“实习生”来查看前几段的长度,然后将下一个扎迪·史密斯或托马斯·品钦的手稿丢进垃圾桶。 所以我在想,语言模型(LLM)能否做得更好呢?