1作者: technocratius5 个月前原帖
背景:自从一个多月前发布以来,我一直在使用GPT-5,属于我的Plus订阅。在这次发布之前,我在大多数复杂任务中主要依赖于GPT-3,对于简单问题则使用GPT-4。我使用它进行科学文献的网络搜索,例如理解与健康相关的话题,偶尔进行编码辅助,以及帮助我处理与*unix系统管理员相关的任务。请注意,我没有使用它的API或与IDE的集成。 基于一个月的GPT-5使用体验,我觉得这个模型主要是一次倒退: 1. 速度慢:思考模式可能需要很长时间,有时甚至会完全卡住。它对是否需要思考的自动评估似乎与大多数任务不太匹配,过于容易默认进入深度推理模式。 2. 幻觉现象严重:我评估在10个任务中有7个任务的回答中持续出现幻觉,导致需要进行纠正和仔细监控以重新引导。它会幻觉出你提示中并不存在的列表项、软件包功能/能力和CLI参数等。即使是通过明确链接到来源的详细提示,例如在深入研究中,常常也会偏离轨道。 3. 缺乏自我批判:即使在思考模式下,它也经常输出不正确的信息,明显的“这不正确,请检查你的答案”可以直接纠正。 注意:我并不是一个超级高级的提示工程师,上述评估主要是针对前一代模型。我希望随着模型能力的进步,用户在应用精确提示工程方面的需求会减少,而不是增加。 我非常好奇听听你们的体验。
2作者: Padierfind5 个月前原帖
嗨,Hacker News,我是 Kodosumi 团队的一员。我们创建这个项目是因为在生产环境中部署智能服务比构建概念验证要困难得多。许多框架允许你构建代理,但当你希望它们执行长时间任务、在多台机器上扩展或进行可靠的观察/监控时,问题就来了。 Kodosumi 是我们对此的解决方案。它是一个开源运行时,使用 Ray + FastAPI + Litestar,让你可以: - 轻松部署“代理”和“流程”,并以最小的配置(仅需一个 YAML 文件)暴露 API - 在不失去稳定性的情况下,针对突发工作负载和长时间运行的任务进行横向扩展 - 监控实时状态、日志、仪表板等,以便你可以了解系统内部的运行情况 - 避免供应商锁定(你可以插入自己的 LLM、向量存储、框架),并在云端、本地、Docker、Kubernetes 等环境中部署 我们仍处于早期阶段,因此某些部分正在积极开发中。但如果你正在使用 AI 代理,尤其是那些需要在长时间内可靠运行或在负载下扩展的代理,我们认为 Kodosumi 可以为你节省很多基础设施的麻烦。 欢迎提出问题,比较例如 LangChain、Ray Serve、自定义设置等,或提出批评意见。
1作者: DearestZ5 个月前原帖
嗨,HN,我刚刚推出了一个简单的网站,可以快速获取最新的《无主之地4》SHiFT 代码:<a href="https://borderlandsshiftcodes.org" rel="nofollow">https://borderlandsshiftcodes.org</a>。 <p>这是一个小工具,旨在帮助玩家轻松找到活跃的SHiFT代码,并定期更新。可以节省你在Twitter或Reddit上寻找的时间。</p> <p>欢迎反馈,希望对一些同伴猎人有所帮助!</p>
1作者: rallies5 个月前原帖
大家好, 我是一名从软件工程师转行的交易员。在进行投资研究时,我非常喜欢使用ChatGPT和Perplexity Finance,并在过去一年中频繁使用这两个工具。不过,它们也存在一些明显的不足,比如数据过时、缺乏图表等。由于这两个工具主要依赖网络搜索,因此在数据延迟方面存在固有的局限性。 在过去几个月里,我利用一些闲暇时间来探索是否可以构建一个解决这两个问题的工具,同时保持ChatGPT和Perplexity的核心特性,即聊天机器人界面,但深度整合实时数据,并且具有很强的可视化效果。 我们在两个月前推出了<a href="https://rallies.ai" rel="nofollow">https://rallies.ai</a>,并从那时起不断进行迭代。这个平台使用了一种代理框架来检索查询的实时数据,并提供相关图表的回答。 尽管这是一个小改动,但结果看起来显著改善。 非常希望能听到大家的反馈,还有很多工作要做。 也很乐意回答任何问题。