1作者: telui11 天前原帖
# TelUI TelUI 是一个基于 Electron 的用户界面框架,打包了一些可重用的前端基本组件——颜色工具、排版助手和基本结构样式——使您能够以最小的设置原型化简单的桌面用户界面想法。 ## 特性 - 捆绑的 Electron 运行器 (`npm start`),可即时提供 `index.html` 的桌面预览。 - 令牌化的样式层:`color.css`、`font.css` 和 `header.css` 将展示规则隔离,易于重混。 - 在 `animation.css` 中提供微交互助手(例如,`.hover-fade`、`light`),用于细微的悬停状态或强调效果。 - 集成 Google Fonts(Funnel Display),以及可选的实用类,如 `.arial`。 - 提供 `icons/` 下的图标资源,帮助说明加载和状态。 ## 快速开始 ```bash npm install npm start ``` 该应用程序会启动一个 800×600 的 Electron 窗口,加载 `index.html`。修改任何 CSS 或 HTML 文件并重启(或重新加载)以查看更改。 ## 项目结构 ```text index.js # Electron 启动文件 index.html # 使用 TelUI 样式的演示画布 font.css # 排版工具和 Google Fonts 导入 color.css # 颜色令牌(例如,gentleblue、brightblue、gray/grey、green) animation.css # 悬停淡出助手和光效过滤效果 header.css # 头部容器的结构调整 icons/ # 共享的位图/gif 资源(例如,loading.gif) package.json # 依赖和 npm 脚本 ``` ## 使用工具 1. 在您的 HTML 入口文件中引用所需的样式: ```html <link rel="stylesheet" href="font.css"> <link rel="stylesheet" href="color.css"> <link rel="stylesheet" href="header.css"> <link rel="stylesheet" href="animation.css"> ``` 2. 应用提供的类或自定义元素标签: ```html <gentleblue> <header> <h1>TelUI</h1> </header> <p class="arial">原型文本在这里。</p> </gentleblue> ``` `font.css` 提供了 `.funneldisplay` 和 `.arial`。颜色令牌(`gentleblue`、`brightblue`、`gray`、`grey`、`green`)可以用作元素选择器,或者如果您更喜欢 `.gentleblue` 语法,可以转换为类。 3. 在需要的地方添加动画助手: ```html <button class="hover-fade funneldisplay">悬停我</button> <light>强调块</light> ``` `.hover-fade` 应用共享的不透明度/缩放过渡;`light` 标签为您提供了一个过滤高亮的包装,而无需触及内联样式。 4. 通过指向资源目录重用图标: ```html <img src="icons/loading.gif" alt="加载指示器"> ``` ## 扩展 TelUI - 通过更新相应的 CSS 文件添加新的颜色令牌或排版助手;保持选择器声明性,并按类别组织。 - 对于额外的 Electron 行为(菜单、预加载脚本、IPC),扩展 `index.js`,同时保持以 UI 为中心的文件与框架无关。 - 当作为可分发应用程序发布时,配置 `electron-builder` 或您喜欢的打包工具;当前设置故意保持最小。 ## 许可证 除非在单个文件中另有说明,TelUI 根据 MIT 许可证分发。请在重新分发 TelUI 或衍生作品时包含许可证文本。 网址: https://github.com/eotter-beep/telui
2作者: leonheuler11 天前原帖
我想为专有的人工智能模型构建一个推理提供者,但我没有一个庞大的GPU集群。我开始尝试无服务器的AI推理,但发现冷启动的延迟非常大。我深入研究,开发出一个引擎,可以将大型模型从SSD加载到显存中,速度比其他方案快十倍。它与vLLM、变换器等兼容,更多功能即将推出。 通过这个项目,您可以按需热交换整个大型模型(32B)。 它非常适合于: - 无服务器AI推理 - 机器人技术 - 本地部署 - 本地代理 而且它是开源的。 如果有人想要贡献,请告诉我 :)
2作者: otterlang11 天前原帖
大家好!我正在开发 OtterLang,这是一种小型实验性脚本语言,旨在让人感觉像 Python,但通过 LLVM 编译为本地二进制文件。 <p>我们的目标不是要重新发明 Python 或 Rust,而是找到它们之间的平衡点: <p>具备 Python 风格的可读性和语法 Rust 水平的性能和类型安全 快速构建和透明的 Rust FFI(您可以直接导入 Rust crate,而无需编写绑定) <p>OtterLang 仍处于早期阶段,非常实验性。编译器、运行时和 FFI 桥接正在频繁重写。 <p>请给这个项目加星,并贡献您的力量来帮助它发展。