返回首页
最新
嗨,HN,我是Ted。在经历了2022-2024年的一次重大手术恢复期间,我决定不再只是消费,而是尝试自己动手构建一些东西。我对人工智能助手产生了浓厚的兴趣,但同时也对它们依赖云基础设施及其带来的成本感到沮丧。
我开始思考:我能否构建一个完全在我自己的机器上运行的东西?
我并不是专业程序员——这是我的第一个真正项目——但经过五个月的学习和不断迭代,我搭建了一个粗略的原型,名为Evelyn。
目前,Evelyn可以:
- 完全在macOS上运行(我在Mac Mini M4 Pro/Macbook Pro M1上进行测试)。
- 使用Whisper进行转录。
- 通过LM Studio连接开源大型语言模型(LLM)。
- 生成实时语音,并具有备用层(XTTS → ElevenLabs → macOS TTS)。
- 在会话之间保持简单的记忆(基于JSON,具有去重和回忆功能)。
- 使用基本的协调器在本地和外部模型之间路由查询。
演示视频:[https://www.youtube.com/watch?v=OtJpAgLSmfI&t=10s](https://www.youtube.com/watch?v=OtJpAgLSmfI&t=10s)
这*不是一个产品*——只是一次早期尝试,旨在探索在一个快速扩展的世界中以本地优先的方式使用人工智能。我每天都在使用它,以学习和观察哪些有效,哪些失效。
我非常希望能得到以下方面的反馈:
- 技术方案(你会改变或简化什么?)
- 像这样的本地优先助手与仅依赖云的助手相比是否有潜力。
- 关于如何让其他人更容易尝试这样的项目的建议。
我还没有准备好源代码,但可以在评论中分享更多关于架构和权衡的信息。