2作者: ekipan4 天前原帖
(文章已永久链接至标签,最新动态:)<p>深入探讨:<a href="https://github.com/ekipan/sss/blob/main/Design.md" rel="nofollow">https://github.com/ekipan/sss/blob/main/Design.md</a><p>仓库主页:<a href="https://github.com/ekipan/sss" rel="nofollow">https://github.com/ekipan/sss</a><p><i>沉默的苏联堆叠器</i>的内容依次为:<p><pre><code> 1. 我写的一个玩具箱,用来放松。 2. 一篇技术深入分析的文章,通过示例展示Forth语言。 3. 一个可以玩的游戏。 </code></pre> <i>试试吧</i>(<5分钟):<p><pre><code> 1. C64模拟器 [1] 2. 加载durexforth卡 [2] 3. 将[3]内容复制到剪贴板 4. 编辑 > 在VICE中粘贴。 5. 输入`help`然后`new`。 </code></pre> [1]: <a href="https://vice-emu.sourceforge.io/" rel="nofollow">https://vice-emu.sourceforge.io/</a><p>[2]: <a href="https://github.com/jkotlinski/durexforth/releases" rel="nofollow">https://github.com/jkotlinski/durexforth/releases</a><p>[3]: <a href="https://github.com/ekipan/sss/blob/share-hn/sss.fs" rel="nofollow">https://github.com/ekipan/sss/blob/share-hn/sss.fs</a><p><pre><code> $ wc README.md Design.md Tinkering.md 90 445 2928 README.md 823 4863 27985 Design.md 182 1029 6512 Tinkering.md 1095 6337 37425 总计 $ wc sss.fs # 文档与代码比例 >4:1! 284 1997 8680 sss.fs</code></pre>
3作者: Manik_agg4 天前原帖
嗨,HN,我们是Manik、Manoj和Harshith,我们正在构建CORE([https://github.com/RedPlanetHQ/core](https://github.com/RedPlanetHQ/core)),一个开源的AI管家,能够自动处理并清理你的待办事项。 在一个便签上写下`[ ] 修复搜索认证错误`。三分钟后,CORE会接手这项任务,从你的代码库中提取相关上下文,草拟任务描述中的计划,并在后台启动Claude Code会话来完成工作。你可以在任务聊天中查看输出,并在遇到阻碍时解除阻塞。 如今的每个AI工具都是反应式的。你打开一个聊天,简要说明情况,代理就会响应。在任何事情开始之前,你已经完成了真正的工作:打开Sentry错误,找到提交,阅读Slack线程,获取Linear票据,并将所有信息整合成一个提示。模型并不是瓶颈,而是你自己。 演示视频:[https://www.youtube.com/watch?v=PFk4RJvQg1Y](https://www.youtube.com/watch?v=PFk4RJvQg1Y) CORE将你从这个循环中解放出来。界面是一个共享的便签,想象一下你和同事都打开的一页。你写下脑海中的想法。当你写下像`[ ] 修复搜索错误`这样的复选框行时,CORE会将其转换为任务,并在短暂延迟后开始处理(足够长的时间让你添加上下文,如果你愿意的话)。没有提示模板,也不需要配置工作流程。 它之所以能够在你不重新解释一切的情况下做到这一点,是因为CORE保持着一个持久的记忆,记录了你的任务、对话和连接的应用(Linear、Gmail、GitHub、Slack等)。当它启动Claude Code会话时,已经加载了你的代码库和项目上下文。 一个真实的例子:我们写下了`[ ] 在Linear集成中创建一个小部件`,大约14分钟后,CORE就打开了一个PR。 CORE不是:它不是Devin(没有你看不到的自主网页浏览或Shell循环),也不是“带有内存的Claude Code”。它是一个更高层次的系统,决定应该运行什么,收集上下文,将其交给合适的代理,并将所有记录保存在一个地方。今天,它最常启动的代理后端是Claude Code;而编排、便签、记忆和集成则是CORE的功能。 开源,自托管,使用`docker compose up`即可启动,并支持多种模型。 GitHub:[https://github.com/RedPlanetHQ/core](https://github.com/RedPlanetHQ/core) 网站:[https://getcore.me](https://getcore.me)(你可以在这里与Harshith的管家聊天) 演示:[https://www.youtube.com/watch?v=PFk4RJvQg1Y](https://www.youtube.com/watch?v=PFk4RJvQg1Y)
4作者: Igor_Wiwi4 天前原帖
我创建了localLLLM:一个用于运行本地模型的小型社区项目。<p>在线地址:<a href="https:&#x2F;&#x2F;locallllm.fly.dev" rel="nofollow">https:&#x2F;&#x2F;locallllm.fly.dev</a><p>目标很简单:如果有人拥有模型 + 操作系统 + GPU + 内存,他们应该能获得实际可行的步骤(理想情况下是一行代码)。<p>我需要帮助来填充和验证指南。<p>如果你运行本地模型,请提交一个有效的操作步骤(或报告失败的情况)。<p>也非常欢迎提供一般反馈!