返回首页
最新
在设备上部署机器学习模型仍然是一个巨大的挑战。大多数团队默认使用云推理,因为:
- 在不同设备上测试模型是手动的,容易出错
- 从模型导出中无法明显看出设备的限制
- 为多个平台重写部署代码会浪费数天或数周的时间
我开发了 Refactor AI,这是一款基础设施工具,能够:
- 分析训练好的机器学习模型,并标记出在目标设备上无法运行的操作
- 在可能的情况下重构模型
- 生成适用于 CoreML、ONNX Runtime、ONNX.js 和 TFLite 的部署准备代码
这将部署时间从几天缩短到几分钟,并让团队能够在设备上原生运行推理,从而节省云 GPU 的成本。
欢迎反馈、在真实模型上进行测试或提出改进建议。
时间 claude /退出 - 1.47秒<p>时间 copilot /退出 - 1.04秒<p>时间 gemini -i /退出 - 7.36秒<p>为什么 gemini 命令行启动这么慢,谷歌为什么不在意?
我创建这个工具是为了自己解决一个问题——制作酸面包从开始到完成大约需要20小时,我厌倦了设置十几个闹钟并不断检查“接下来该做什么?”
Flour Hour 让你选择一个食谱,设置开始时间(或者从你想吃的时间倒推),它会计算每一步的确切时间戳。
包括22个食谱:经典酸面包、同日酸面包、佛卡夏、贝果、可颂、布里欧修、废弃面团煎饼等,每个食谱都有所需的材料。
技术:React + Vite,部署在GitHub Pages上。
有趣的是——我完全是通过与Claude Code对话来构建这个工具的。我像客户一样描述我想要的功能,它就写出了所有代码。整个对话大约花了3个小时(不包括速率限制)。
GitHub: [https://github.com/YaninaTrekhleb/flour-hour](https://github.com/YaninaTrekhleb/flour-hour)
很高兴回答关于构建过程或应用本身的问题。