2作者: mbbah9 个月前原帖
我正在为需要进行推理和长期操作的LLM代理和助手构建基础设施,而不仅仅是处理单一的提示。 我遇到的一个核心挑战是:管理不断演变的记忆和上下文。检索增强生成(RAG)适用于检索,而临时记事本适合短期推理——但一旦代理需要维护结构化知识、跟踪状态或协调多步骤任务,情况就会迅速变得复杂;上下文变得越来越难以理解。 我正在尝试基于知识图谱构建一个共享记忆层: - 代理可以将结构化/非结构化数据导入其中 - 随着代理的行动,记忆会动态更新 - 开发者可以观察、查询并优化图谱 - 它支持高层次的任务建模和依赖关系跟踪(前置/后置条件) 我的问题是: - 你们是否在构建需要持久记忆或任务上下文的代理? - 你们是否尝试过结构化记忆(图谱、JSON存储等),还是一直使用嵌入/临时记事本? - 像基于图的记忆这样的东西真的会有帮助吗,还是对于大多数实际应用来说过于复杂? 我正在全力验证这个想法,想听听其他正在使用LLM构建的人的成功经验(或失败教训)。 提前感谢HN的朋友们!
2作者: 0xgautam9 个月前原帖
嘿,HN, 我来自QR Code Developer,这是一个简单的SaaS工具,旨在帮助营销人员和创作者生成和管理动态二维码。 我们之所以开发这个工具,是因为看到小团队为那些缺乏联盟功能或分析透明度的臃肿二维码工具支付过高的费用而感到沮丧。 我们保持简洁:以隐私为先,定价透明,没有多余的内容,同时提供分析功能。 我目前正在招募一小部分联盟合作伙伴(提供30%的终身重复佣金),希望能听到HN社区的反馈或想法。 这是我们的网站: [https://qrcodeveloper.com/affiliate](https://qrcodeveloper.com/affiliate) 欢迎提问或私信——很乐意分享更多幕后故事。
2作者: teach9 个月前原帖
我开始注意到一些出于善意的人们对大型语言模型的环境成本表示担忧。就在昨天,我在社交媒体上看到一个表情包,声称“ChatGPT在处理每个查询时需要1到3瓶水进行冷却。” 这让我觉得不太可信,但真相是什么呢? 我明白,训练一个大型语言模型的成本是非常高昂的。(虽然建立一个新的CPU制造厂的成本同样高。)但我认为,查询一个模型的增量成本应该相对较低。 我很想看到你们对“回答一个查询”所需的水和电量的粗略计算,比如ChatGPT、Claude-3.7-Sonnet或Gemini Flash。如果你能把这些数据与观看五分钟YouTube视频或进行一次Google搜索的成本进行比较,那就更好了。 如果能提供相关来源的链接,我将不胜感激。
2作者: DimitrisChatz9 个月前原帖
我们的目标是打造一款最佳工具,将原始数据转化为清晰且富有洞察力的报告。<p>我们认为目前的数据接口已经过时,而聊天用户界面在可用性方面存在不足。<p>Kivo是一款由人工智能驱动的文本编辑器,可以帮助您快速将Excel、PDF和CSV文件转化为富有洞察力的报告。<p>- 清理和格式化您的数据 - 生成完整的初稿,配备图表和洞察 - 结合来自多个文件的洞察,包括PDF和网络内容<p>欢迎免费试用,任何反馈都非常欢迎!