展示 HN:Comparegpt.io – 可信模式以减少大型语言模型的幻觉现象

1作者: tinatina_AI大约 2 个月前原帖
嗨,HN,我是Tina。 和许多人一样,我对大型语言模型(LLMs)经常产生幻觉感到沮丧——它们给出的自信答案往往没有真实依据。这就是我创建CompareGPT.io的原因,这是一个旨在提高输出可信度的工具。 新的可信模式通过以下方式工作: - 使用我们的TrustSource对每个答案进行交叉验证,将我们自己的模型与多个领先的LLM(如ChatGPT-5、Gemini、Claude、Grok)和权威来源相结合。 - 为每个响应提供透明度评分和完整参考。 - 帮助用户快速识别输出的可信之处以及需要再次核实的地方。 目前,该工具在知识密集型领域(如金融、法律、科学)效果最佳,我们正在寻找早期用户进行测试。 非常希望听到你们的反馈、建议,甚至批评,看看这个工具是否有用,以及我们如何改进。
查看原文
Hi HN , I’m Tina. Like many of you, I’ve been frustrated with how often LLMs hallucinate — confident answers with no real basis. That’s why I’ve been building CompareGPT.io, a tool to make outputs more trustworthy. The new Trustworthy Mode works by: Cross-verifying every answer with our TrustSource, combining our own model with multiple leading LLMs (ChatGPT-5, Gemini, Claude, Grok) and authoritative sources. Delivering each response with a Transparency Score and full references. Helping users quickly see where to trust the output, and where to double-check. It currently works best on knowledge-heavy domains (finance, law, science), and we’re looking for early users to test it out. Would love your feedback, suggestions, or even criticism on whether this feels useful and how we can improve.