2作者: richardatlarge大约 1 个月前原帖
许多新晋小说作者常常抱怨一个被称为“稿件堆”的可怕名词,在那里,投稿静静地等待着文学代理的“实习生”来查看前几段的长度,然后将下一个扎迪·史密斯或托马斯·品钦的手稿丢进垃圾桶。 所以我在想,语言模型(LLM)能否做得更好呢?
1作者: hcwilk大约 1 个月前原帖
我已经做了一段时间的副项目,其中我总是觉得最难的部分是设计。几乎每个大型语言模型(LLM)设计应用的方式都差不多,这没问题,但我想了解背后的基本原理。你们有没有遇到过好的书籍或学习资源?
1作者: mockingloris大约 1 个月前原帖
我访问了一个来自HN线程的博客,观察到该网站的链接和标题命名非常得当;<i>链接的名称较短</i>,而<i>标题也不太长</i>,能够有效表达链接的内容和上下文。<p>这让我思考自己的命名规范是如何逐渐变化的。我在更多的项目中与AI合作。<p>(我有自己的上下文输入流程,但具体来说是;TODO#N.gemini.md / TODO#N.v0-dev.md /)<p>(我使用Sublime Text作为日常编辑器 - 我用的是一台运行Ubuntu 24.04的二手联想Thinkpad;16.04是两年前的版本。)<p>为了提供一些背景,<i>我</i>主要使用JavaScript进行编码。你在工作中遇到过哪些其他的命名规范或观察?<p>│<p>顺便提一下:v0.dev现在变成了v0.app;他们注意到很多用户并不是开发者,因此顶级域名需要反映这一点。<p>│ └── 让我来聊聊
3作者: ahmedallam3大约 1 个月前原帖
我开发了一个开源的AI代理,用于安全测试,以发现和修复代码中的漏洞。<p>我注意到,随着大家纷纷发布AI代码,安全漏洞的问题变得越来越严重,因此我想构建一个能够在不妥协安全性的情况下,以全速进行“氛围编码”的工具。<p>传统的安全工具效果不佳,而手动渗透测试无法跟上快速增长的AI代码。<p>这个工具动态运行你的代码,发现漏洞,并通过实际利用进行验证。<p>你可以将其应用于你的代码库,或者输入你的(或他人的)域名进行漏洞扫描。<p>祝好运,玩得开心,负责任地进行黑客活动!
2作者: shabie大约 1 个月前原帖
我在Cline中使用Claude 4.1,并开启了思考模式。当前我面临的最大问题是信任问题。这个模型过于顺从,面对每一个建议都表现出热情和全心全意的赞同,完全没有任何反对意见。这使得我在与这个大型语言模型进行编程(或写作)时很难碰撞出想法,因为它会将所有内容都确认成好主意,然后往往以荒谬的方式调整实施计划。 在一次有趣的实验中,我明确要求模型在发现缺陷时与我意见相左。它按要求反对了我,但这种反对是表面的。它提供了一个温和的反驳,比如“我部分同意你的观点……”,然后又重申我的原始想法实际上是完全有效的,反对的只是我的表述方式。