3作者: geminimir5 个月前原帖
我们构建了StripeMeter,这是一个开源的使用计量平台,可以直接与Stripe对接。它解决了经典的SaaS痛点:“为什么我的账单比预期的要高?”通过为开发者和客户提供实时的使用情况跟踪和实时成本预测。其重要性在于: - 透明性:客户可以准确看到Stripe将向他们收费的金额(误差在0.5%以内)。 - 精确一次保证:绝不会出现重复收费的情况。 - 快速且可扩展:使用Redis和Postgres计数器实现亚分钟级的实时更新。 我们非常希望听到SaaS开发者的反馈,特别是如果您在使用Stripe的计量计费时遇到过困难。这是否解决了您的实际问题?在您信任它用于生产环境之前,您还需要什么?
1作者: kathir055 个月前原帖
今天,日历调度市场上充斥着许多工具,如Calendly、Cal.com等,这些工具功能丰富、选项众多,但价格较高。对于简单的一对一调度,独立创始人、独立开发者、项目经理、学生和研究人员在与潜在客户进行简单网络交流时需要哪些功能呢?有没有提供基本功能的工具呢?
2作者: machinemusic5 个月前原帖
目前大多数编排框架仍然像脆弱的链条一样运作——在面对矛盾、长期记忆或动态路由时会崩溃。 Neuron 是一种认知多智能体架构,它以电路而非链条的方式进行思考。多个智能体并行协作,实时调整其路径,并在长时间的交互中保持持久的上下文。 关键组件: - 智能体:输入、推理、响应、记忆 - 电路:动态路由而非线性链条 - 记忆:情节性 + 上下文持久性 - 监控:完整的推理追踪以便观察 为什么这很重要: - 处理矛盾输入而不崩溃 - 在长时间会话中保持状态 - 为复杂推理任务提供并行协调 - 透明的日志以便调试和建立信任 GitHub 仓库: [https://github.com/ShaliniAnandaPhD/Neuron](https://github.com/ShaliniAnandaPhD/Neuron) 评估笔记本: [https://www.notion.so/shalini-ananda-phd/Neuron-Evaluation-Notebook-1cec18ea2aa18002b7acf9c1791ca8ea](https://www.notion.so/shalini-ananda-phd/Neuron-Evaluation-Notebook-1cec18ea2aa18002b7acf9c1791ca8ea) 教程系列: [https://www.notion.so/shalini-ananda-phd/Neuron-Framework-Tutorial-Series-Cognitive-Architecture-for-Modular-AI-1fec18ea2aa180b5b1dff554f651bb01](https://www.notion.so/shalini-ananda-phd/Neuron-Framework-Tutorial-Series-Cognitive-Architecture-for-Modular-AI-1fec18ea2aa180b5b1dff554f651bb01) 关于我/背景: [https://www.notion.so/shalini-ananda-phd/Shalini-Ananda-PhD-ad2d228146624c9ea6f5db919bfe5433](https://www.notion.so/shalini-ananda-phd/Shalini-Ananda-PhD-ad2d228146624c9ea6f5db919bfe5433) 希望能收到 HN 社区的反馈——特别是如果您在使用传统工具时遇到过相同的崩溃点。
3作者: phantompeace5 个月前原帖
我编写了一个小型本地工具,用于转录音频笔记(Whisper/Parakeet)。代码链接:<a href="https://github.com/bilawalriaz/lazy-notes" rel="nofollow">https://github.com/bilawalriaz/lazy-notes</a> 我希望在本地处理原始转录,而不使用OpenRouter。Llama 3.2 3B在给定提示的情况下表现尚可,但不够完整,因此我尝试了SFT(自监督微调)。我对Llama 3.2 3B进行了微调,以清理/分析听写内容,并输出结构化的JSON(标题、标签、实体、日期、动作)。 数据:13个真实备忘录 → Kimi K2金标准JSON → 约40,000个合成+金标准;键已标准化。Chutes.ai(每天5,000个请求)。 训练:使用RTX 4090 24GB,约4小时,LoRA(r=128,α=128,dropout=0.05),最大序列长度2048,批量大小16,学习率5e-5,余弦调度,Unsloth。在2070 Super 8GB上大约需要8小时。 推理:合并为GGUF格式,使用Q4_K_M(llama.cpp),在LM Studio中运行。 评估(100个样本,使用GLM 4.5 FP8评分):总体得分5.35(基础3B)→ 8.55(微调后);完整性4.12 → 7.62;事实性5.24 → 8.57。 对比测试(10个样本):约8.40对比Hermes-70B的8.18、Mistral-Small-24B的7.90、Gemma-3-12B的7.76、Qwen3-14B的7.62。教师Kimi K2约为8.82。 原因:任务专门化 + JSON标准化减少了方差;模型学习了确切的结构/字段。 经验教训:仅在完成任务上进行训练;合成数据适合狭窄任务;Llama的训练过程相对简单。 数据集管道 + 训练脚本 + 评估:<a href="https://github.com/bilawalriaz/local-notes-transcribe-llm" rel="nofollow">https://github.com/bilawalriaz/local-notes-transcribe-llm</a>
1作者: bnkamalesh5 个月前原帖
Phispr 是一款短暂聊天应用,旨在进行匿名、临时的对话,这些对话会在结束后消失得无影无踪。它使用 Go 语言开发,提供了网页和终端用户界面。 一个周末的项目意外地发展成了一个为期两周的项目,背后还有一个<i>有趣</i>的起源。<a href="https:&#x2F;&#x2F;github.com&#x2F;bnkamalesh&#x2F;phispr&#x2F;blob&#x2F;main&#x2F;docs&#x2F;genesis.md" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;bnkamalesh&#x2F;phispr&#x2F;blob&#x2F;main&#x2F;docs&#x2F;genesis....</a>