2作者: tinatina_AI4 个月前原帖
嗨,HN,我是蒂娜。 我一直在探索如何提高大型语言模型的可靠性。其中一个持续存在的问题是“幻觉”——模型可能会给出自信的答案,但这些答案在事实层面上是错误的,或者基于不存在的来源。这在金融、法律或研究等对准确性要求较高的领域尤其危险。 为了解决这个问题,我正在构建CompareGPT,旨在使人工智能的输出更加可信。 我们正在进行的一些关键更新包括: - 置信评分:每个答案都会显示其可靠性。 - 来源验证:突出显示数据是否可以通过参考文献支持。 - 多模型比较:提出一个问题,查看不同模型的并排响应。 在这里试试:<a href="https:&#x2F;&#x2F;comparegpt.io&#x2F;home" rel="nofollow">https:&#x2F;&#x2F;comparegpt.io&#x2F;home</a> 目前,它在基于知识的查询(如金融、法律、科学)中效果最佳。我们仍在解决一些局限性——例如,目前不支持图像输入。 我很想听听你的想法,特别是它在哪些方面表现不佳或在哪些方面最有用。欢迎给出尖锐的反馈。 谢谢!
1作者: romeumaleiane4 个月前原帖
我在过去几周里一直在开发Invocly——一个将整个文档转换为自然听感音频的工具。您可以直接上传或分享文档,而无需复制粘贴文本,随时随地收听。<p>功能<p>直接上传文档并转换为音频<p>通过短样本克隆您的声音,提供个性化体验<p>界面简洁明了——所需设置极少<p>快速迭代——我们根据用户反馈迅速推出改进<p>我很想听听HN社区的反馈,特别是关于哪些格式或集成最有用。<p>在这里试用:<a href="https:&#x2F;&#x2F;invocly.com" rel="nofollow">https:&#x2F;&#x2F;invocly.com</a>