返回首页
最新
嗨,HN,
我很高兴向大家介绍 OllaMan,这是一款旨在简化您与 Ollama 本地 AI 模型工作流程的桌面应用程序。
如果您已经在使用 Ollama,您可能已经体验到它在本地运行大型语言模型(LLMs)方面的强大功能。然而,管理模型、在模型之间切换以及进行对话通常需要频繁的命令行操作,这对于许多用户来说可能效率低下且不够直观。
OllaMan 旨在解决这些痛点,提供一个直观优雅的图形用户界面(GUI),特别为 macOS 用户量身定制,遵循 macOS 设计原则,以实现无缝体验。
OllaMan 的主要亮点包括:
• 本地模型管理:轻松查看和管理您安装的所有 Ollama 模型,包括它们的详细信息、大小和版本,无需复杂的命令。
• 一键模型发现与安装:浏览庞大的 Ollama 模型库,并通过简单的点击安装新模型,告别繁琐的 ollama pull 操作。
• 直观的聊天界面:与您的本地模型进行流畅的对话,支持实时流式响应,并轻松保存和管理聊天记录。
• 多服务器管理:配置和监控多个 Ollama 服务器,非常适合需要测试不同环境或在服务器之间切换的用户。
• 优雅的 macOS 设计:现代化的界面无缝融入 macOS 生态系统,提供优质的用户体验。
• 生产力功能:支持批量操作、模型过滤、会话导出等多种功能,进一步优化您的工作流程。
我们开发 OllaMan 是因为我们相信,在本地运行强大的 AI 模型应该像使用其他桌面应用程序一样简单和愉快。它非常适合 AI 研究人员、开发者、内容创作者以及任何希望利用 Ollama 而不受命令行限制的人。
OllaMan 提供免费版本,包含核心模型管理和聊天功能。对于一键模型安装、多服务器管理和多设备激活等更高级的功能,我们提供一次性购买选项。
我们鼓励您下载并试用 OllaMan,并请分享您的想法、反馈和对未来功能的建议。您在使用本地 LLM 时遇到的最大痛点是什么?
下载 OllaMan: [https://ollaman.com](https://ollaman.com)
我每年看到很多解决方案,其中大多数是付费的。JavaScript 生态系统的灵活性有时让人感到痛苦,因为我需要依赖上千个依赖项来构建一个简单的 CRUD 网页应用。而像 Ruby on Rails、Phoenix(Elixir)、Laravel 和 Django 这样的“开箱即用”框架做得非常出色。
醒来时看到有付费用户让我感到相当惊讶,因为我花时间制作了一个工具,旨在帮助开发者提升AI编码体验,尽管在构建过程中并没有“推广”或投放广告,只是发布了一些自然的内容。<p>目前,这款应用的用户数量仅有两位数,但其中50%是付费用户。<p>这款应用名为doqment.dev(按需生成的MCP)。它起初是一个内部工具,后来在朋友的反馈下转变为产品,类似于Claude Code。<p>提供一些统计数据:<p>Product Hunt的推荐量遥遥领先(doQment当天排名第11,获得101个赞)。其次是X(在社区中发布了2-3条帖子),奇怪的是,谷歌也有推荐,最后是Hacker News(仅有一条发布帖子)。
我制作了一个轻量级网站,收集了100多款可以即时玩的浏览器游戏,无需登录或下载。<p>简单的界面<p>复古 + 独立游戏<p>免费且广告较少<p><a href="https://fun-game-chi.vercel.app" rel="nofollow">https://fun-game-chi.vercel.app</a><p>希望能听到大家对性能的反馈,以及哪些游戏应该更突出地展示。