返回首页
最新
一年多前,我曾威胁过如果没有其他人先动手,我就会为egui构建一个RAD工具。<p>现在它来了,刚刚发布一天,虽然还有很多不足之处。用它设计的GUI应该可以构建和运行,但仍然有许多地方需要改进。我们还有很多工作要做,以充分展现egui的所有功能。<p>请随意试用,并留下bug报告或提交PR!感谢你们成为如此出色的社区!
我在研究 Flipper Zero 时,不断手动调整像素,重新编译和重新刷写,只为将一个标签移动 2 像素。某个周末,我编写了一个简单的网页画布,能够在我放置基本形状和文本时输出绘图代码。
这促使我将这个黑客项目转变为 Lopaka:一个帮助 HMI 设计师专注于像素、开发者专注于代码的浏览器工具。从那时起,社区主导了大部分的开发路线图,而我则追求一个更大的目标:打造一个“嵌入式的 Figma”,以简化低端屏幕的 GUI 工作。
Lopaka 是一个浏览器编辑器,可以镜像小型 OLED/TFT 显示屏,并在您设计时生成绘图代码。
- 实时导出支持:U8g2、Adafruit GFX、TFT_eSPI、Arduino_GFX、MicroPython、ESPHome、GxEPD2
- 兼容 SSD1306/1309、ST77xx、电子纸、Flipper Zero 等。
- 支持导入图像并自动转换为数组/XBM。
- 支持 GFX 和 BDF 字体,内置 TFT 转换器。
来源: [https://github.com/sbrin/lopaka](https://github.com/sbrin/lopaka)(编辑器核心不包含云功能)
这不是一个运行时/UI 框架;它为流行的库生成绘图代码。LVGL 的支持正在进行中。
如果您正在构建带屏幕的设备,我很想听听 Lopaka 如何能让您的下一个固件周期更加顺利。
当你查看用于图像生成模型的LoRA(比如在Civitai上),你会发现各种强大的视觉风格,这使得基础模型能够不断调整,以适应当下的流行趋势。
那么,文本大型语言模型(LLM)有什么不同呢?例如,为什么没有针对Python编程、科幻写作等特定领域的LoRA呢?
我看到过关于文本LoRA与其基础模型密切相关的讨论——这在图像生成领域也是很常见的。
丰富的LoRA文化将使更多模型变得多功能,并减少不断下载新检查点的需求。
我们相信,未来5到10年将彻底改变产品的发现方式。与其依赖搜索引擎,主动智能工具将直接向合适的客户探索、评估和推荐产品,这将从根本上改变营销、搜索引擎优化(SEO)和用户获取的方式。
我们正在这个领域进行开发,专注于地理上下文发现(即位置、意图和人工智能推理的结合)。我们希望与5家具有前瞻性思维的机构或B2C初创企业合作,进行早期试点。
您将获得早期访问权限,能够影响产品路线图,并帮助您的营销团队在即将到来的浪潮中抢占先机,同时我们也将从您的使用案例中学习,以塑造产品。
如果您有兴趣在人工智能驱动的营销前沿进行实验,请与我们联系,我们很乐意与您交流。
真正理解某个事物如何运作的最佳方式就是亲自去构建它。因此,我想知道是否有好的教程可以教你从零开始构建自己的大型语言模型(LLM)。也就是说,实施分词、嵌入、注意力机制等。我并不是说可以复制chatGPT,而是更倾向于基于一个小得多的语料库和训练数据构建一个玩具模型。