返回首页
最新
我已经在让WebRTC与嵌入式设备的结合变得更简单方面工作了几年。这是一个将这些想法汇集在一起的黑客马拉松项目。我希望其他人能在此基础上进行开发,或者受到启发去玩弄硬件。我和另外两个人一起参与了这个项目,过程中有很多有趣的想法产生。
* 可扩展/可修改 - 我尽量保持代码的简单性,以便其他人可以轻松地分叉或修改。
* 用光进行沟通。通过函数调用来改变灯泡的状态,使其能够匹配你的情绪或感受。
* 从你控制的客户端获取信息。我想尝试让它引导你回顾昨天或今天的情况。
* 手机作为控制中心。设置新设备可能会令人沮丧。我喜欢这个项目不需要任何WiFi设置,它只是通过你的手机进行路由。而且很酷的是,这个设备上实际上没有任何敏感数据。
柠檬水(Lemonade)是一个开源的SDK和本地大语言模型(LLM)服务器,旨在让用户能够轻松地在自己的PC上运行和实验大型语言模型,特别针对NPU(Ryzen™ AI)和GPU(Strix Halo和Radeon™)提供了加速路径。
<p>为什么要选择柠檬水?</p>
本地LLM服务堆栈需要具备三种特性,而市场上的领导者(如Ollama、LM Studio或单独使用llama.cpp)都无法提供这三种特性:
1. 为用户的硬件使用最佳后端,即使这意味着需要集成多个推理引擎(如llama.cpp、ONNXRuntime等)或自定义构建(例如,使用ROC的llama.cpp beta版本)。
2. 从用户和开发者的入门到应用集成再到高性能,整个过程都要零摩擦。
3. 坚持开源原则并与社区合作。
<p>柠檬水概述:</p>
简单的LLM服务:柠檬水是一个即插即用的本地服务器,提供与OpenAI兼容的API,因此任何与OpenAI端点通信的应用或工具都可以“直接使用”柠檬水的本地模型。
性能聚焦:由llama.cpp(支持Vulkan和ROCm的GPU)和ONNXRuntime(支持Ryzen AI的NPU和iGPU)驱动,柠檬水能够充分发挥您PC的性能,无需额外的代码或黑客手段。
跨平台:Windows一键安装程序(带GUI),Linux可通过pip或源代码安装。
自带模型:支持GGUF和ONNX。开箱即用Gemma、Llama、Qwen、Phi等模型。轻松管理、拉取和切换模型。
完整SDK:提供用于LLM生成的Python API和用于基准测试/测试的CLI。
开源:采用Apache 2.0许可证(核心服务器和SDK),无功能限制,无企业“陷阱”。所有服务器/API逻辑和性能代码完全开放;某些NPU依赖的软件是专有的,但我们努力实现尽可能多的开放性(详情请见我们的GitHub)。与GGML、Hugging Face和ROCm/TheRock积极合作。
<p>开始使用:</p>
Windows?从<a href="https://lemonade-server.ai/" rel="nofollow">https://lemonade-server.ai/</a>下载最新的GUI安装程序。
Linux?通过pip或源代码安装(<a href="https://lemonade-server.ai/" rel="nofollow">https://lemonade-server.ai/</a>)。
文档:<a href="https://lemonade-server.ai/docs/" rel="nofollow">https://lemonade-server.ai/docs/</a>。
Discord交流/支持/反馈:<a href="https://discord.gg/5xXzkMu8Zk" rel="nofollow">https://discord.gg/5xXzkMu8Zk</a>。
<p>如何使用?</p>
从开始菜单点击柠檬水服务器。
在浏览器中打开http://localhost:8000,访问带有聊天、设置和模型管理的网页界面。
将任何与OpenAI兼容的应用(如聊天机器人、编码助手、GUI等)指向http://localhost:8000/api/v1。
使用CLI运行/加载/管理模型,监控使用情况,并调整温度、top-p和top-k等设置。
通过Python API集成,直接在自己的应用或研究中访问。
<p>适合谁?</p>
开发者:使用标准化API和零设备特定代码将LLM集成到您的应用中,使用流行的工具和框架。
LLM爱好者,随插即用:
Morphik AI(上下文RAG/PDF问答)
Open WebUI(现代本地聊天界面)
Continue.dev(VS Code AI编码助手)
……还有许多其他集成正在进行中!
注重隐私的用户:无需云调用,所有内容均在本地运行,包括如果您的硬件支持的高级多模态模型。
<p>为什么这很重要?</p>
每个月,新的本地模型(如Qwen3 MOEs和Gemma 3)正逐渐接近云LLM的能力。我们预测,出于成本原因,很多LLM的使用将转向本地。
将您的数据和AI工作流程保留在自己的硬件上,终于变得实用、快速且私密,无供应商锁定,无持续的API费用,也无需将敏感信息发送到远程服务器。
柠檬水降低了运行这些下一代模型的摩擦,无论您是想实验、构建还是在边缘部署。
我们期待您的反馈!
您在AMD硬件上运行LLM吗?缺少什么?有什么问题?您希望看到什么?是否有来自Ollama、LM Studio或其他工具的痛点希望我们解决?
分享您的故事、问题或意见。
<p>链接:</p>
下载与文档:<a href="https://lemonade-server.ai/" rel="nofollow">https://lemonade-server.ai/</a>。
GitHub:<a href="https://github.com/lemonade-sdk/lemonade" rel="nofollow">https://github.com/lemonade-sdk/lemonade</a>。
Discord:<a href="https://discord.gg/5xXzkMu8Zk" rel="nofollow">https://discord.gg/5xXzkMu8Zk</a>。
感谢HN!
我的侄女们现在6岁,马上就要开始上小学了。她们很聪明,我想知道有没有什么好的教育电脑,可以让她们按照自己的节奏学习,比如数学、地理、编程等。她们将接受巴斯克语、西班牙语和英语的教育,但她们的英语水平还不太好,所以至少应该提供巴斯克语或西班牙语的版本。谢谢!
嗨,HN,
在2023年剑桥联合会的霍金奖学金活动中,一位学生问山姆·阿尔特曼:
“为了实现通用人工智能(AGI),我们是否可以继续优化语言模型,还是说我们还没有找到其他突破?”
阿尔特曼的回答很有启发性:
“我们需要另一个突破……我认为仅仅这样做无法让我们达到AGI。如果,例如,超智能无法发现新的物理规律,我认为它就不算是超智能。教它模仿人类和人类文本的行为——我认为这不会让我们达到目标。”
如果阿尔特曼是对的,单靠扩展是死胡同,那么这可能是一次真正竞赛的开始——不仅仅是构建更大的语言模型,而是发明能够发现未知的架构。
这呼应了人工智能研究中的一个长期问题:在追求真正的通用智能的过程中,超越语言模型扩展的是什么?
我们是否终于找到了阿尔特曼所暗示的下一个突破?
我们认为是的。
集体AGI:通往AGI的文明之路
根植于历史:
人类智能并不是孤立产生的。单一的大脑是有限的。使人类智能变得通用和改变世界的是文明进程——网络、合作、文化、制度、治理、商业、法律、伦理——在几代人之间不断积累。
一种模式,一种分形:
生态系统通过相互依存的物种进化;人类智能通过相互依存的思想进化。文明是人类集体智能的第一次伟大成果,递归地放大了个体认知的范围。
应用于AGI:
同样,AGI不会从单一的人工制品或单一的世界观中产生。它必须通过多样的人工智能形式、多代理网络、不断发展的制度和共享参与而产生——这些机制与人类智能的扩展相同,现在应用于人工智能。
如果这是真的,下一个突破不是更大的语言模型,而是为人工智能社会规模构建文明生态系统——不仅仅是预测文本,而是发展新的知识、新的制度和新的思维方式。
我是卡尼什卡·尼廷,我在人工智能领域工作了十多年,今天我很高兴(也有点紧张)分享一个深具个人意义且经过长时间酝酿的项目:AGI Grid——我们共同构建的集体AGI的开放努力——通往人工通用智能的开放、最快、最安全和最高效的路径。
AGI Grid:这是一个开放的文明基础设施生态系统,用于集体AGI。
网站: [https://www.agigr.id](https://www.agigr.id)
愿景文件: [https://resources.agigr.id](https://resources.agigr.id)
集体AGI生态系统由12个开源项目组成,详见
文档: [https://docs.agigr.id](https://docs.agigr.id)
我们希望从HN获得的反馈:
反馈:这种集体AGI的框架是否引起共鸣?
批评:你认为有哪些不足之处?
合作:如果你正在研究智能体、集体智能或多样化的认知架构,欢迎交流。
这个项目源于危机和信念,我们相信人工智能的下一个飞跃不会来自单一的巨大模型,而是来自多样化的智能形式的网络,它们相互对齐并合作。
- AGI Grid团队:集体AGI