1作者: lilprince12182 个月前原帖
嘿,HN(来自我11月21日帖子的更新), 我是来自尼日利亚的Matthew,13岁。在对自动炮进行修正后(感谢@saltyaom!),这是PrinceJS的v1.7.7版本。 自发布以来的新变化: • 包大小:约2.2 kB(经过gzip压缩,经过树摇优化,减少了600字节) • 速度:在oha上达到21,748请求/秒(-c 100 -z 30s,Bun 1.2.x)——确认的前三名 • 与其他框架对比:Hono 22,124 | Elysia 25,312 | Express 9,325 完整的服务器代码(8行): ```javascript import { prince } from "princejs"; const app = prince(); app.get("/", () => "Hello world "); app.get("/users/:id", (req) => ({ id: req.params.id })); app.listen(3000); ``` 接下来是云虚拟机的基准测试。对包的大小和速度有什么反馈吗? 仓库链接: [https://github.com/MatthewTheCoder1218/princejs](https://github.com/MatthewTheCoder1218/princejs) 安装命令:npm i princejs Matthew (@Lil_Prince_1218)
1作者: liquid992 个月前原帖
关于这些字体的可访问性,我使用NVDA屏幕阅读器进行了测试,它能够像正常文本一样正确读取大约13种字体。更多详细信息请见这里:<a href="https:&#x2F;&#x2F;fontgen.cool&#x2F;disclaimer" rel="nofollow">https:&#x2F;&#x2F;fontgen.cool&#x2F;disclaimer</a>
1作者: kevin-20252 个月前原帖
我构建这个工具是为了回答关于大型语言模型(LLM)部署的“假设”问题,而无需启动昂贵的基础设施。 该工具模拟了推理物理学——延迟、带宽饱和和PCIe瓶颈,适用于像DeepSeek-V3(671B)、Mixtral 8x7B、Qwen2.5-MoE和Grok-1这样的超大规模混合专家(MoE)模型。 主要功能: - 独立的预填充与解码并行配置(TP/PP/SP/DP) - 硬件建模:H100、B200、A100、NVLink拓扑,IB与RoCE - 优化:分页KV缓存、双管道、FP8/INT4量化 - 实验性:内存池(TPP,分层存储)和近内存计算——将冷专家和冷/温KV缓存卸载到系统RAM,节点共享或全局共享内存池 实时演示: [https://llm-inference-performance-calculator-1066033662468.us-west1.run.app/](https://llm-inference-performance-calculator-1066033662468.us-west1.run.app/) 该工具使用React、TypeScript、Tailwind和Vite构建。 免责声明:我已经校准了数学模型,但它们并不完美。欢迎反馈和拉取请求(PR)。
1作者: rezliant2 个月前原帖
你的高管团队明白这一点。他们已经批准了预算,在董事会会议上提到了安全问题,也理解其中的风险。你不再需要在高层争取认可了。 但当你看看实际发生的情况时,情况却不容乐观。市场营销团队正在共享社交媒体账户的凭证。销售团队对多因素认证(MFA)表示反对,因为这会增加他们登录过程的时间。开发人员因为觉得这样更快捷而将API密钥存储在公共代码库中。远程员工在不安全的网络上工作,丝毫不在意。 高管们的承诺是存在的,但公司整体的行为却并非如此。而正是这种差距导致了安全漏洞的发生。 这就是让安全领导者夜不能寐的挑战。你得到了来自上层的授权,但将其转化为成千上万的日常决策,这些决策是由优先事项截然不同的人做出的,这完全是另一种游戏。