2作者: hyperfield30 天前原帖
大家好, 我想分享一个本地大型语言模型(LLM)在日常工作流程中真正有用的应用场景:文件整理。 我正在开发一款名为《AI文件分类器》的C++桌面应用程序——它通过`llama.cpp`使用本地LLM,帮助整理像“下载”或“桌面”这样的杂乱文件夹。它不仅仅是根据文件扩展名或文件名模式将文件分类,而是根据每个文件实际的功能或用途进行整理。基本上,以前需要我花费大量时间拖动和分类的工作,现在可以在几分钟内完成。 该应用程序是跨平台的(支持Windows/macOS/Linux),并且完全开源。 [GitHub 仓库](https://github.com/hyperfield/ai-file-sorter) [截图 1](https://i.imgur.com/HlEer13.png) - LLM选择和下载 [截图 2](https://i.imgur.com/KCxk6Io.png) - 选择要扫描的文件夹 [截图 3](https://i.imgur.com/QTUG5KB.png) - 审核、编辑并确认或稍后继续 您可以在[发布页面](https://github.com/hyperfield/ai-file-sorter/releases)下载Windows安装程序,或者从[应用程序网站](https://filesorter.app/download/)下载独立ZIP文件。 Linux和macOS的安装程序正在开发中。不过,您可以轻松地[从源代码构建应用程序](https://github.com/hyperfield/ai-file-sorter/blob/main/README.md)以在Linux或macOS上使用。 --- ### 工作原理 1. 您选择希望应用程序与之交互的模型。应用程序会为您下载该模型。您可以稍后切换模型。 2. 您将应用程序指向一个文件夹,它会向模型提供提示。 3. 然后,它会建议文件夹类别,例如“操作系统/ Linux发行版”、“编程/ 脚本”、“图片/ 标志”等。 在任何文件被移动之前,您可以进行审核和批准,并且可以稍后从上次中断的地方继续同一分类会话。 测试过的模型: - LLaMa 3 (3B) - Mistral (7B) - 支持CUDA / OpenCL / OpenBLAS - 其他GPU后端也可以在`llama.cpp`编译时启用 --- ### 尝试一下 * Windows: [SourceForge](https://sourceforge.net/projects/ai-file-sorter/) 或 [GitHub Releases](https://github.com/hyperfield/ai-file-sorter/releases) * Linux/macOS: 从源代码构建(说明见[README](https://github.com/hyperfield/ai-file-sorter/blob/main/README.md)) --- 我希望能收到使用本地模型的其他人的反馈,特别是在以下方面: - 分类文件的速度和准确性 - 可能比Mistral/LLaMa更高效的模型建议 - 是否有完全不同的方式来解决这个问题? - 这个本地LLM的应用场景对您或像您一样的人是否真的有用,或者应用程序是否应该调整其重点? 感谢您的阅读!
1作者: pinter6930 天前原帖
有很多关于无代码自动化、轻编码以及与非真正编程工作相关的内容。<p>还有一些关于人工智能研究和学术界的优秀通讯。<p>我在想是否有针对编码人员的通讯,专注于自动化、人工智能等新事物。<p>目前我只找到Hacker News每日通讯作为最佳来源,尽管它并不专注于这个特定主题。