1作者: Plasticity_AI4 个月前原帖
嗨,HN,我是Ted。在经历了2022-2024年的一次重大手术恢复期间,我决定不再只是消费,而是尝试自己动手构建一些东西。我对人工智能助手产生了浓厚的兴趣,但同时也对它们依赖云基础设施及其带来的成本感到沮丧。 我开始思考:我能否构建一个完全在我自己的机器上运行的东西? 我并不是专业程序员——这是我的第一个真正项目——但经过五个月的学习和不断迭代,我搭建了一个粗略的原型,名为Evelyn。 目前,Evelyn可以: - 完全在macOS上运行(我在Mac Mini M4 Pro/Macbook Pro M1上进行测试)。 - 使用Whisper进行转录。 - 通过LM Studio连接开源大型语言模型(LLM)。 - 生成实时语音,并具有备用层(XTTS → ElevenLabs → macOS TTS)。 - 在会话之间保持简单的记忆(基于JSON,具有去重和回忆功能)。 - 使用基本的协调器在本地和外部模型之间路由查询。 演示视频:[https://www.youtube.com/watch?v=OtJpAgLSmfI&t=10s](https://www.youtube.com/watch?v=OtJpAgLSmfI&t=10s) 这*不是一个产品*——只是一次早期尝试,旨在探索在一个快速扩展的世界中以本地优先的方式使用人工智能。我每天都在使用它,以学习和观察哪些有效,哪些失效。 我非常希望能得到以下方面的反馈: - 技术方案(你会改变或简化什么?) - 像这样的本地优先助手与仅依赖云的助手相比是否有潜力。 - 关于如何让其他人更容易尝试这样的项目的建议。 我还没有准备好源代码,但可以在评论中分享更多关于架构和权衡的信息。