返回首页
最新
Mind2Post,一款将您的想法转化为高价值帖子的工具。
你好,我在使用 Ruby 4 的 unicorn 时遇到了段错误(segmentation fault)。这似乎与 kgio 有关。
在 unicorn 的主分支(git)中,kgio 似乎被移除了(或者说 unicorn 不再依赖于它),所以在那里的 Ruby 4 可能可以正常工作。但目前没有包含此更改的 RubyGems 发布版本。
我可以从 git 运行 unicorn,但需要额外的“发布时”构建步骤(生成 lib/unicorn/version.rb,使用 ragel 构建/安装 ext/unicorn_http,并复制 unicorn_http.so)。
临时解决方案的 PR(具体步骤):https://github.com/catatsuy/private-isu/pull/853
我发给 unicorn-public 的邮件(可能不再活跃):https://yhbt.net/unicorn-public/20251227071714.D9328160070@mail.catatsuy.org/T/#u
问题:联系 unicorn 维护者的最佳方式是什么,或者如何请求发布 RubyGems 版本?
一个语言模型可以小到什么程度仍然能够发挥作用?我想知道这个问题,并在假期中有一些闲暇时间来探索。<p>Z80-μLM 是一个字符级语言模型,具有 2 位量化权重({-2,-1,0,+1}),可以在配备 64KB RAM 的 Z80 上运行。整个模型:推理、权重、聊天用户界面,所有内容都可以装入一个 40KB 的 .COM 文件中,你可以在 CP/M 模拟器中运行,甚至希望在真实硬件上也能运行!<p>它不能为你撰写电子邮件,但可以训练成一个简化版的“20个问题”游戏,有时能够保持与用户进行简单而简洁的对话,并展现出独特的个性。<p>--<p>极端的限制让我陷入了思考,并迫使我做出有趣的权衡:三元组哈希(容错拼写错误,但失去词序)、16 位整数运算,以及对训练数据的精心处理,使我能够保持示例的“趣味性”。<p>关键在于量化感知训练,它准确地模拟了推理代码的限制。训练循环同时运行浮点和整数量化的前向传递,并根据模型在量化后知识的保留程度进行评分。权重逐步向 2 位网格推进,使用直通估计器,溢出惩罚与 Z80 的 16 位累加器限制相匹配。在训练结束时,模型已经适应了其限制,因此没有后期量化崩溃的问题。<p>最终,我花了几美元在 Claude API 上生成“20个问题”的数据(见 examples/guess/GUESS.COM),我希望 Anthropic 不会因为我违反服务条款而给我发律师函 ;P<p>不过,祝大家代码高尔夫季节愉快 :)