4作者: picolas7 个月前原帖
嗨,HN, 我最近在做一个小的副项目,已经有几个星期了。这个项目解决了我个人的一个痛点,我非常享受这个构建过程。现在我想把它分享给大家——并不一定是为了把它变成一个创业公司,而是希望能获得反馈或用户。 问题是,我对这一切都很陌生。我之前从未真正推出过任何东西。我不知道如何“将其发布出去”,而又不显得过于自我宣传或像垃圾信息。我真的希望人们能告诉我它的问题所在。 请问这样做的最佳方式是什么? 我很想听听你们的经验,或者你们过去成功的做法。 非常感谢! (附言:如果可以的话,我很乐意在准备好时分享一个链接,但现在我只是想寻求一些建议。)
13作者: adilhafeez7 个月前原帖
嗨,HN——我们是Arch团队(<a href="https://github.com/katanemo/archgw">https://github.com/katanemo/archgw</a>),一个用Rust编写的开源LLM代理。今天,我们发布了Arch-Router(<a href="https://huggingface.co/katanemo/Arch-Router-1.5B" rel="nofollow">https://huggingface.co/katanemo/Arch-Router-1.5B</a>),这是一个用于基于偏好的路由的1.5B路由模型,现已集成到代理中。随着团队整合多个LLM——每个模型具有不同的优势、风格或成本/延迟特征——将正确的提示路由到合适的模型成为应用设计中的关键部分。但这仍然是一个未解决的问题。大多数路由系统可分为两类: - 基于嵌入的路由器使用意图分类器——将提示标记为“支持”、“SQL”或“数学”,然后路由到匹配的模型。这在简单任务中有效,但在真实对话中会失效。用户在对话中会改变话题,任务边界模糊,产品变更需要重新训练分类器。 - 基于性能的路由器根据基准测试(如MMLU或MT-Bench)或延迟/成本曲线选择模型。但基准测试往往忽视了生产中重要的因素:特定领域的质量或主观偏好,比如“法律会接受这个条款吗?” Arch-Router采取了不同的方法:通过用自然语言书写的偏好进行路由。您可以编写规则,例如“合同条款 → GPT-4o”或“快速旅行提示 → Gemini Flash”。路由器使用一个轻量级的1.5B自回归模型将提示(和对话上下文)映射到这些规则上。无需重新训练,也没有脆弱的if/else链。我们在Twilio和Atlassian团队的输入下构建了这个系统。它能够处理意图漂移,支持多轮对话,并允许您通过一行更改路由策略来更换模型。完整细节请参见我们的论文(<a href="https://arxiv.org/abs/2506.16655" rel="nofollow">https://arxiv.org/abs/2506.16655</a>),以下是一些快照: 规格: - 1.5B参数——可在单个GPU(或CPU测试)上运行 - 无需重新训练——可以指向任何组合的LLM - 考虑成本和延迟——将重任务路由到昂贵模型,将轻任务路由到更快/更便宜的模型 - 在我们的对话路由基准测试中表现优于更大的封闭模型(详细信息见论文) 链接: - Arch Proxy(开源):<a href="https://github.com/katanemo/archgw">https://github.com/katanemo/archgw</a> - 模型 + 代码:<a href="https://huggingface.co/katanemo/Arch-Router-1.5B" rel="nofollow">https://huggingface.co/katanemo/Arch-Router-1.5B</a> - 论文:<a href="https://arxiv.org/abs/2506.16655" rel="nofollow">https://arxiv.org/abs/2506.16655</a>
5作者: AllanSavageDev7 个月前原帖
我刚刚被锁定了我的LinkedIn账户,惊讶地发现唯一的恢复方法是通过一个名为Persona的第三方服务提交政府身份证和自拍视频。他们没有提供任何替代方法——没有电子邮件验证,没有人工审核,什么都没有。只能选择: 提交生物识别面部识别,或者 失去对账户的访问权限(在许多情况下,也失去你的职业网络)。 我住在美国(印第安纳州/德克萨斯州),查了一下法律影响。关于生物识别数据有一些法律,但没有实际的方法可以选择退出或要求替代方案。 这似乎是对一个职业社交平台的巨大越权。并不是每个人都愿意为了继续使用他们的个人资料而将面部扫描和身份证交给第三方供应商。尤其是当标记原因不明确,并且没有上诉途径时。 有没有其他人遇到过这种情况?其他平台现在也在这样做吗?我很想知道是否有任何解决办法,或者有没有人成功对抗过这种情况。
1作者: samuelgursky7 个月前原帖
在过去的15年里,我担任过AE/编辑、数字影像技术员、调色师、在线编辑和后期监督。基于我的经验,我开发了一款希望能对你们有所帮助的工具!<p>这是一款名为CineMath的电影计算器(包括画幅比例、目标速度、目标码率等),可以在苹果应用商店免费下载。<p>我非常感激任何反馈,并希望它能帮助到某人在工作流程中!
3作者: julkali7 个月前原帖
我为我妈妈创建了一个小扩展,用于提取她在工作中使用的第三方在线应用程序的数据。虽然除了她以外没有人会使用这个扩展,但它确实在她的工作流程中帮助很大。这个扩展非常小,只有大约50行代码。 正如标题所说,我发现要在发布版本中安装扩展,必须对扩展进行签名,也就是说,必须经过Mozilla的审核(在我的情况下,由于第三方集成,这是不可能的)。在我看来,居然没有办法让她在自己的电脑上安装这个扩展(而且不需要切换到Nightly或Developer版本,这本不该是她的选择),这实在是太疯狂了。坦白说,Mozilla以这种方式限制他们的软件,实在有些像谷歌。 我完全理解如果这是为了通过Mozilla商店分发扩展所需的要求,但这实在是过于侵犯用户的自由。 关于此事的两年前的帖子被忽视了。 你对此有什么看法?
10作者: Manik_agg7 个月前原帖
我一直在遇到同样的问题,每个AI应用程序都在自己的孤岛中“记住”我。ChatGPT知道我的项目细节,Cursor却忘记了这些,Claude从零开始……所以我每天在这些应用之间不得不重复解释自己几十次。 <p>更深层次的问题</p> 1. 不可移植——上下文被供应商锁定;信息无法在工具之间传递。 <p>2. 不具关联性——大多数记忆系统只存储最新的信息(“便签”),没有历史或来源。 <p>3. 不属于你——你的AI记忆是敏感的第一方数据,但你无法控制它存储的位置或查询方式。 <p>演示视频:<a href="https://youtu.be/iANZ32dnK60" rel="nofollow">https://youtu.be/iANZ32dnK60</a> <p>代码库:<a href="https://github.com/RedPlanetHQ/core">https://github.com/RedPlanetHQ/core</a> <p>我们构建的内容</p> - CORE(上下文导向关系引擎):一个开源、可共享的知识图谱(你的记忆库),允许任何大型语言模型(ChatGPT、Cursor、Claude、SOL等)共享和查询相同的持久上下文。 <p>- 时间性 + 关系性:每个事实都有完整的版本历史(谁、何时、为何),当你更改它时不会被删除——只是被时间戳标记并归档。 <p>- 本地优先或托管:可以在Docker中离线运行,或使用我们的托管实例。你可以选择哪些记忆同步,哪些保持私密。 <p>尝试一下</p> - 免费托管层(HN发布):<a href="https://core.heysol.ai">https://core.heysol.ai</a> <p>- 文档:<a href="https://docs.heysol.ai/core/overview">https://docs.heysol.ai/core/overview</a>