返回首页
最新
嗨,HN,
我们开发了OrvexPay,一个加密货币支付网关,允许企业接受50多种加密货币。
功能:
• 托管结账
• 支付链接
• Webhook API
• 简单集成
希望能得到开发者们的反馈。
<a href="https://orvexpay.com" rel="nofollow">https://orvexpay.com</a>
我创建Collider是因为我需要一种在Meson项目中使用和推送我自己工件的方法。WrapDB对于上游依赖项来说很好,但我希望能够发布我的包,并以适当的版本控制和锁定文件依赖于它们,而不需要手动编辑wrap文件。
Collider基于Meson的wrap系统:你在collider.json中声明依赖项,运行collider lock以实现可重复安装,并将你的项目作为wrap推送到本地或HTTP仓库。它与WrapDB兼容,因此现有的工作流程仍然有效:你只需获得一种清晰的方式来使用和推送你自己的内容。许可证为Apache-2.0。
迁移到 Bun 的 Express 开发者需要进行全面重写——每个 Bun 框架(如 Hono、Elysia)都有完全不同的 API。bunway 保持了相同的 app.get()、app.post()、req、res、next 模式,但运行在 Bun 的原生 HTTP 服务器上。内置功能包括:路由、CORS、会话、认证、WebSockets 等,所有功能只需一次导入。欢迎任何尝试将 Express 项目迁移到 Bun 的人提供反馈。
嗨,HN,
我开发了OpenGraviton,这是一个开源的AI推理引擎,旨在推动在消费级硬件上运行极大型语言模型(LLM)的极限。通过结合1.58位三元量化、动态稀疏性与Top-K剪枝、MoE路由以及基于内存映射的层流式处理,OpenGraviton能够运行远超系统RAM的模型——即使是在Mac Mini上也能实现。
早期基准测试结果:
TinyLlama-1.1B的内存需求从约2GB(FP16)降至约0.24GB,采用了三元量化。
在140B规模下,通常需要约280GB的模型可以压缩到约35GB以内。
针对Apple Silicon进行了优化,使用Metal和C++张量解包,并采用推测解码以加快生成速度。
查看基准测试、架构和详细信息请访问:<a href="https://opengraviton.github.io" rel="nofollow">https://opengraviton.github.io</a>
GitHub链接:<a href="https://github.com/opengraviton" rel="nofollow">https://github.com/opengraviton</a>
这个项目不仅仅是将庞大的模型压缩到小型硬件上,更是为了让更多人能够无云成本地访问巨型LLM。欢迎反馈、分支和创意!