6作者: SerafimKorablev15 天前原帖
为了更好地说明背景,这个项目最初并不是作为一个大型独立发布来规划的。1月16日,Ollama 增加了对与 Anthropic 兼容的 API 的支持,我很好奇在实际操作中能推向多远。因此,我决定尝试将本地的 Ollama 模型直接接入 Claude Code 风格的工作流程,看看是否能真正实现端到端的功能。 以下是使这一切成为可能的 Ollama 发布说明:<a href="https://ollama.com/blog/claude">https://ollama.com/blog/claude</a> 从技术上讲,我所做的事情相对简单: - 检测 Ollama 中可用的本地模型。 - 当无法访问互联网时,客户端会自动切换到基于 Ollama 的本地模型,而不是远程模型。 - 从用户的角度来看,这与 Claude Code 的工作流程是一样的,只是由本地推理支持。 实际上,到目前为止,表现最佳的模型是 qwen3-coder:30b。我还测试了最近发布的 glm-4.7-flash,但它在可靠地遵循工具调用指令方面存在困难,因此尚不适用于这个工作流程。
4作者: sendes15 天前原帖
基本上就是这个标题。背景是:我需要更换手机,同时也想借此机会思考一下我在手机操作系统中重视的方面(隐私和控制)与我在便利性方面的需求(应用程序可用性、无缝连接等)。<p>我正在收集意见,除了在这里问还有哪里合适呢?<p>你对移动操作系统的选择有什么经验或看法?你会推荐使用非主流操作系统版本的品牌吗(例如Fairphone)?
2作者: bhushanwtf15 天前原帖
Three.js 最近推出了 TSL(Three.js 着色语言),这是一种用纯 JavaScript/TypeScript 编写着色器的方法,可以编译为 GLSL 和 WGSL。我构建了这个编辑器,以提供一个可视化界面,供 TSL 生态系统使用。它允许开发者为 WebGPU/WebGL 原型设计着色器,并实时查看结果。这是一个测试版发布,我希望能收到反馈。
7作者: kmajid15 天前原帖
嗨,HN!我们是来自星座空间的Kamran、Raaid、Laith和Omeed。我们构建了一个人工智能系统,可以在卫星链路故障发生之前预测其故障(<a href="https://youtu.be/069V9fADAtM" rel="nofollow">https://youtu.be/069V9fADAtM</a>)。 我们四人都在SpaceX、蓝色起源和NASA从事卫星操作工作多年。在SpaceX,我们负责Starlink的星座健康管理;在蓝色起源,我们参与了New Glenn的下一代测试基础设施的开发;在NASA,我们处理深空通信。我们发现同一个问题不断出现:当你注意到链路正在恶化时,往往已经丢失了数据。 核心问题在于卫星射频链路受到数十个相互作用变量的影响。一颗卫星从上方经过时,你需要预测链路在接下来的几分钟内是否会保持稳定。这取决于:轨道几何(仰角不断变化)、对流层衰减(湿度通过ITU-R P.676影响信号损失)、雨衰(通过ITU-R P.618计算,毫米/小时的降雨率直接转化为Ka波段及以上的分贝损失)、电离层闪烁(我们跟踪来自磁力仪网络的KP指数),以及网络拥堵等因素。 传统的方法是反应式的。操作员监控仪表板,当信噪比(SNR)降到阈值以下时,他们会手动重新路由流量或切换到备用链路。如今,轨道上有10,000颗卫星,预计到2030年将超过70,000颗,这种方法无法扩展。 我们的系统每秒接收大约100,000条来自卫星、地面站、气象雷达、物联网湿度传感器和空间天气监测器的遥测数据。我们实时运行基于物理的模型——完整的链路预算方程、ITU大气标准、轨道传播——来计算应该发生的情况。然后,我们在其上叠加机器学习模型,这些模型基于来自实际多轨道操作的数十亿数据点进行训练。 机器学习部分是最有趣的。我们使用联邦学习,因为星座运营商(可以理解)不想共享原始遥测数据。每个星座在自己的数据上训练本地模型,我们只聚合高层次的模式。这使我们能够在不同轨道类型和频段之间进行迁移学习——低轨道Ka波段链路的学习经验有助于优化中轨道或地球静止轨道的操作。 我们可以在3到5分钟内以超过90%的准确率预测大多数链路故障,这为在数据丢失之前重新路由流量提供了足够的时间。该系统完全容器化(Docker/Kubernetes),可以在隔离环境中本地部署,也可以在GovCloud(AWS GovCloud,Azure政府云)或标准商业云上运行。 目前,我们正在与国防和商业合作伙伴进行测试。仪表板显示实时链路健康状况,60/180/300秒的预测,以及根本原因分析(这是雨衰吗?卫星是否在地平线以下?拥堵吗?)。我们通过API公开所有功能——遥测接收、预测、拓扑快照,甚至提供一个大型语言模型聊天接口用于自然语言故障排除。 我们仍在努力解决的难点包括:预测准确性在较长时间范围内(超过5分钟)会下降,我们需要更多稀有边缘案例的标记故障数据,而联邦学习的设置需要在不同运营商的安全边界之间进行仔细协调。 我们非常希望听到任何在卫星操作、射频链路建模或大规模时间序列预测方面有经验的人的反馈。我们还缺少什么?在生产网络运营中心环境中,什么能让这个系统真正有用? 欢迎提出任何技术问题!
1作者: andrewstetsenko16 天前原帖
昨天,我和一位朋友进行了长时间的电话交流,她是一位在科技招聘领域工作了十多年的招聘专员。<p>她并不是因为简历或面试而感到疲惫,而是因为工程师们仍然在像2021年那样进行谈判。<p>这就是所谓的“黄金泡沫”。<p>在这个泡沫中,每个前端工程师都是独角兽,每个职位的股权都高达四位数,这种泡沫依然影响着人们的期望。但如今的市场更像是……现实。<p>并不是说人才不被重视,而是价值的形态发生了变化。<p>那些对较低的股票授予或额外的办公室工作日感到不满的工程师们,想要公平并没有错……他们只是在依附于一个已经不存在或可能很快消失的世界。<p>我不相信投降,我相信重新校准。<p>当我们停止假装市场没有变化,开始问自己:我如何创造一个不依赖泡沫的职业?我该建立什么,不与单一的职位或公司的股价挂钩?<p>我今天交谈中最有趣的人,已经在平行思考:指导、写作、咨询、顾问、构建副项目、多元化,这不是出于恐惧,而是因为“一个工作=稳定身份”的旧叙事已经不再成立。<p>我很好奇:作为一名软件工程师,你是否有副收入?如果有,什么对你有效(或无效)?
1作者: nonethewiser16 天前原帖
有没有其他人遇到这个问题?<p>显然,“文件更改”标签现在的工作方式有所不同。我导航到这个标签,现在它不是指向 `/files`,而是指向 `/changes`。看起来非常相似,但有几点不同:<p>它一次只显示一个文件。我无法滚动查看所有内容,甚至无法搜索差异。这真让人抓狂。在较小的PR中,我仍然可以看到所有文件。<p>似乎这可能是由一个 viewcontent.github.com 的 cookie 设置的,但每次我在登录状态下删除它后,它都会重新出现。如果我尝试导航到 `/files`,它会重定向到 `/changes`。这显然与用户账户有关。当我未登录时,我仍然可以看到旧的 `/files` 页面。其他地方找不到关于这个问题的任何信息。
1作者: wrogistefan16 天前原帖
我正在为桌面平台(Windows/macOS/Linux)构建一个完全离线、本地优先的 TOTP 认证器。没有云服务,没有同步,没有遥测,没有外部依赖。所有数据都保留在本地机器上。 我为什么要构建它: 大多数双重身份验证(2FA)应用程序仅限于移动设备、闭源,或依赖于云同步。我希望有一个透明、可审计且原生于桌面的解决方案,特别是对于在多台机器或隔离环境中工作的用户。 主要功能: - 仅本地存储(AES-GCM + Argon2) - 加密保险库,无需外部服务 - 跨平台桌面应用 - 支持加密备份的导入/导出 - 开源,MIT 许可证 - 设计简单、可预测且可审计 最新动态: 该项目最近被纳入 Kilo OSS 赞助计划,这使我能够获得更好的工具用于代码审查和安全分析。这将有助于加速开发并提高代码质量。 链接: GitHub: [https://github.com/wrogistefan/desktop-2fa](https://github.com/wrogistefan/desktop-2fa) 网站: [https://desktop-2fa.org](https://desktop-2fa.org) 我希望获得以下方面的反馈: - 安全模型 - 威胁假设 - 用户体验(UX)在入门阶段 - 代码结构和可维护性 - 可能缺失的功能,以提高实用性 欢迎随时提问。
2作者: BobbyLLM16 天前原帖
作为一个英俊的本地AI爱好者™,你可能注意到了大型语言模型(LLMs)的一个重大缺陷:<p>它们会撒谎。自信地撒谎。<i>一直都是。</i><p>我有自闭症,对基于氛围的工具极其过敏,所以……我做了一个东西。也许对你也有用。<p>这个东西:llama-conductor<p>llama-conductor是一个路由器,位于你的<i>前端</i>(例如:OWUI)和<i>后端</i>(llama.cpp + llama-swap)之间。它是本地优先的,但如果你指向OpenAI兼容的任何东西,它也可以进行通信(注意:实验性,所以结果可能会有所不同)。<p>LC是一个透明的盒子,使得整个堆栈表现得像一个<i>确定性系统</i>,而不是一个醉汉在讲述关于逃脱的鱼的故事。<p>简而言之:“我们信仰上帝,其他人必须提供数据。”<p>三个例子:<p>1. 知识库机制(markdown, JSON, 校验和)<p>你将“知识”保存在磁盘上的简单文件夹中。将文档(`.txt`, `.md`, `.pdf`)放入其中。然后:<p>* `>>attach <kb>` — 附加一个知识库文件夹 * `>>summ new` — 生成带有<i>SHA-256来源</i>的`SUMM_<i>.md`文件,并将原始文件移动到子文件夹中<p>现在,当你问类似的问题时:<p>&gt; “嘿,1982年Commodore C64的零售价格是多少?”<p>……它只会从附加的知识库中回答。<p>如果事实不在其中,它会明确告诉你,而不是随便编造。例如:<p>&gt; 提供的事实表明Commodore 64的推出价格为595美元,并降至250美元,但未具体说明1982年的零售价格。Amiga的定价和时间线在提供的事实中也没有详细说明。 &gt; &gt; 缺失的信息包括Commodore产品线在1982年的确切零售价格,以及当时销售的具体型号。 &gt; &gt; 信心:中等 | 来源:混合<p>没有氛围。只有:这里是你文档中的内容,这里是缺失的,不要让自己陷入愚蠢的境地。<p>然后,如果你对摘要满意,你可以:<p>* `>>move to vault`<p>2. Mentats:证明或拒绝模式(仅限Vault)<p>Mentats是针对你的<i>策划</i>来源的“深度思考”管道。<p>* 没有聊天历史 * 没有文件系统知识库 * 没有Vodka * <i>仅限Vault的基础</i>(Qdrant)<p>它运行三次传递(思考者 → 批评者 → 思考者)。故意设计得很慢。你可以审计它。如果Vault中没有相关内容?它会拒绝并告诉你去找别的事做:<p>最终答案: 提供的事实不包含关于Acorn计算机或其1995年售价的信息。<p>来源:Vault 使用的事实:无 [扎尔多兹已发言]<p>此外,是的,它会写一个mentats_debug.log。你可以随时查看。<p>流程基本上是:<p>附加知识库 → 总结 → 移动到Vault → Mentats。<p>没有神秘成分。没有“相信我,兄弟,嵌入。”<p>3. Vodka:在有限预算下的确定性记忆<p>低配电脑有两个经典问题:金鱼记忆 + 上下文膨胀,导致你的显存崩溃。<p>Vodka在不增加额外模型计算的情况下解决了这两个问题。<p>* `!!` 逐字存储事实(磁盘上的JSON) * `??` 逐字回忆它们(TTL + 触碰限制,以免记忆变成垃圾场) * <i>CTC(Cut The Crap)</i> 硬性限制上下文(最后N条消息 + 字符限制),以避免在400条消息后显存激增<p>所以,而不是:<p>&gt; “记住我的服务器是203.0.113.42” → “明白了!” → [100条消息后] → “127.0.0.1 ”<p>你得到的是:<p>&gt; `!! 我的服务器是203.0.113.42` &gt; &gt; `?? 服务器IP` → <i>203.0.113.42</i>(带有TTL/触碰元数据)<p>而且由于上下文保持在边界内:稳定的键值缓存,稳定的速度,你的低配电脑不再哭泣。<p>---<p>在自述文件中还有更多(很多更多),但我已经在这篇帖子中过度自闭了。<p>简而言之:<p>如果你想让你的本地LLM在<i>不知道的时候闭嘴</i>,并在<i>知道的时候出示凭证</i>,来试试它:<p>* <i>主要(Codeberg):</i> [<a href="https://codeberg.org/BobbyLLM/llama-conductor" rel="nofollow">https://codeberg.org/BobbyLLM/llama-conductor</a>](<a href="https://codeberg.org/BobbyLLM/llama-conductor" rel="nofollow">https://codeberg.org/BobbyLLM/llama-conductor</a>) * <i>镜像(GitHub):</i> [<a href="https://github.com/BobbyLLM/llama-conductor" rel="nofollow">https://github.com/BobbyLLM/llama-conductor</a>](<a href="https://github.com/BobbyLLM/llama-conductor" rel="nofollow">https://github.com/BobbyLLM/llama-conductor</a>)<p>PS:抱歉关于AI的糟糕图片。我画得很糟糕。<p>PPS:一位有自闭症谱系障碍的人用Notepad++写了这篇文章。如果格式或语言有些奇怪,你现在知道原因了。*