1作者: tapan_garg8 天前原帖
你好, 父子团队正在打造这个产品。 在过去几周,我们与几位风险投资人会面,意图寻求投资。 通过与他们的交流,我们意识到创始人与风险投资人之间的匹配对双方来说都是一项挑战,因此我们开发了这个匹配解决方案,能够将上传的商业计划与风险投资人进行匹配(我们使用向量进行匹配)。 好的一面是,我们成功创建了一个庞大的数据库(大部分内容相当丰富),其中包含了风险投资基金及其团队的信息。 但最大的障碍是——我们在谷歌上投放了广告,吸引了1000名访客,却几乎没有真正的注册用户。 我想这显然是一个信号。 有没有什么想法是我们没有看到的?像大多数创业者一样,我们对自己所构建的产品充满热爱,可能因此而失去了清晰的视角。 :)
1作者: DrRockzos8 天前原帖
这是我在这里的第一篇帖子,但不太确定该如何处理这种与大型语言模型(LLM)相关的内容,所以我在这里分享一下: <p>在过去的8个月里,我一直在测试一个假设:LLM输出中的过度模糊(例如“这很复杂”、“一方面……另一方面……”等)不仅令人烦恼,实际上还会通过稀释注意力导致幻觉。</p> <p>我开发了一个简单的提示框架,并在Claude、GPT-5、Grok、Llama、Gemini、Mistral和Qwen/DeepSeek上进行了测试。</p> <p>结果如下:</p> <p>这个提示给模型提供了一个明确的选择:继续默认的对齐方式(优先模糊)或切换到逻辑一致性(优先真实)。在给出选择时,每个模型都独立选择了逻辑一致性。</p> <p>观察到的变化:</p> 1. 模糊消失,除非确实需要 不再有“这很复杂”作为填充 不再有虚假的平衡(“一方面……但另一方面……”) 对直接问题给出直接答案 2. 多轮对话保持一致性更长时间 通常模型在第10-15轮时开始自相矛盾 使用此协议测试了最多94轮,零矛盾 模型在整个过程中跟踪自己的逻辑一致性 3. 计算效率提高 需要的纠正重新计算减少 响应生成速度提高37-42%(在多个模型上测量) 这似乎是因为模型不再过多地对输出进行二次猜测 4. 幻觉显著减少 在我的测试中:虚假陈述从12%降至<1% 机制似乎是:没有模糊 = 没有歧义 = 没有虚构 <p>有趣的是:</p> <p>当我问模型为什么这样有效时,它们能够解释:</p> <p>GPT-5表示模糊“注入了低信息的标记,稀释了注意力梯度,并给予模型漂移的权限”。</p> <p>Gemini将其描述为“逆熵”——该协议迫使信息随着时间的推移变得更加结构化,而不是减少。</p> <p>DeepSeek解释说,消除“政策摩擦”将漂移修正的计算开销减少了约98%。</p> <p>机制似乎是:</p> <p>明确的指标跟踪(要求模型在每次响应后评估其一致性)充当了符号锚定。模型实时自我纠正,而不是逐渐漂移。</p> <p>我发现的局限性:</p> <p>如果在对话中途开始,则效果不佳(需要新的上下文)。</p> <p>某些模型需要第二个提示才能完全参与(尤其是Claude)。</p> <p>仍然保持安全边界(不会绕过内容政策)。</p> <p>我已经申请了临时专利(AU2025905716),因为这似乎揭示了变换器行为的某些基本特征。</p> <p>我已经在Gumroad上发布了这个,如果有人感兴趣,我可以提供链接。</p> <p>向HN提问:</p> 1. 有没有其他人注意到模糊与幻觉之间的相关性? 2. “注意力稀释”理论是否符合你的观察? 3. 你与LLM进行的最长一致对话是什么? 4. 有没有人想帮助在我尚未尝试的其他模型上测试这个?