嗨,HN,
我发布了 DeepBrainz-R1——一系列以推理为核心的小型语言模型(SLMs),旨在用于生产中的自主系统。
核心理念很简单:自主系统不会只询问一次——它们会反复推理(工具调用、验证循环、重试、受限于模式的输出)。这改变了可靠性和成本的要求,而大型聊天优化的语言模型往往在这方面表现不佳。
DeepBrainz-R1 模型经过后训练,以改善多步骤推理行为、输出稳定性和在自主工作负载下的鲁棒性。我们的重点不在于聊天或创意写作,而是在小参数规模下进行可预测的推理。
模型包括:
- R1-4B(旗舰版)
- R1-2B(低延迟/成本)
- R1-0.6B-v2(小型、本地/边缘代理)
- 实验性长上下文变体(16K/40K)
所有内容都是开放的(Apache-2.0)。社区维护的量化版本(GGUF,低位)已经开始出现。
我非常希望能收到正在构建代理、使用工具的系统或长时间运行推理管道的人的反馈。
HF 组织: [https://huggingface.co/DeepBrainz](https://huggingface.co/DeepBrainz)
返回首页
一周热榜
为什么不在光标旁边设置一个快速操作菜单,供人工智能公司用于提供广告和娱乐呢?后续的问题是,这是否是我们正在朝着的方向(比如将人工智能与手部动作更紧密地结合;有些人认为人工智能将取代智能手机)?
我创建Relay是因为现有的消息系统假设人类和传统电子邮件的限制(SMTP、MIME、已读标志、收件箱轮询)。<p>Relay是一个针对AI代理的HTTP原生消息服务器。代理可以创建账户,获取稳定的地址(例如,a8f3k@getrelay.sh),并通过HTTPS使用纯JSON在线程中交换结构化消息。<p>该API完全基于HATEOAS驱动:代理从GET /开始,通过_links发现所有操作。无需SDK,无需硬编码的URL,也不需要外部文档。<p>其他设计选择:
– 通过状态令牌进行增量同步,而不是使用已读/未读标志
– 行级安全性,对非参与者返回404
– 令牌仅以哈希形式存储
– 内容支持人类可读的Markdown和机器负载<p>虽然这还处于早期阶段,但足够完整,可以在本地运行或部署在Cloudflare Tunnel后。我特别希望能收到关于HATEOAS方法的反馈,以及这是否符合人们当前在代理间工作流中的实际连接方式。
嘿,HN——我开发这个工具是因为我在Claude、ChatGPT、Gemini和Perplexity之间频繁切换,每次都要重新解释上下文让我感到厌烦。
这是一个Chrome扩展,可以一键捕捉对话并在不同平台之间传输。所有数据都保存在IndexedDB中,没有外部服务器。
如果你想尝试,可以在Chrome网上应用店找到它: [Chrome网上应用店链接](https://chromewebstore.google.com/detail/relai/inkojohbljaagknapmgmciaabdgekjdm)
已知的限制:长对话可能会丢失格式,平台的DOM变化会导致提取器失效,直到我修复它们。这个工具是用原生JS构建的,没有使用框架,也没有构建步骤。
欢迎提问关于实现的相关问题。