13作者: techteach00大约 1 个月前原帖
你好,我是一名在纽约市的K-8科技教师。我的学生迫切需要新的硬件。他们现在使用的Chromebook速度太慢,导致孩子们在使用时感到烦躁。 我知道有不同的资助机会,但我觉得在这里询问一下,看看是否有更快的解决方案来为他们获取新硬件,是值得的。 谢谢你的倾听。
3作者: daringrain32781大约 1 个月前原帖
我向同事询问有关某个系统的问题,或者他们为什么这样做,或者他们的看法。其中一些人的回答听起来非常像是人工智能生成的,有时甚至完全偏离了主题。这有什么意义呢?如果我想要一个人工智能的回答,我自己就可以去问。 这让我有些困扰,因为如果我能预期到这种回答,那这说明他们在工作中投入了多少思考呢?即使他们在所有与编码相关的工作中都使用人工智能,这也让人感到疑惑。
2作者: ismailperim大约 1 个月前原帖
嗨,HN!我开发了Upti,这是一款小型应用程序,用于监控主要云服务提供商的状态页面,并在发生故障或事件时通知您。 <p><pre><code> 我为什么要制作它: - 我希望能在一个地方简单地跟踪各个服务提供商的服务中断 - 官方状态页面虽然有用,但信息分散 - 我需要快速、可操作的通知 Upti的功能: - 抓取服务提供商的状态/事件页面 - 发送故障/事件警报 - 保持体验轻量且快速 我希望获得反馈: - 我应该优先考虑哪些服务提供商/服务 - 警报质量(过于嘈杂 vs 过于迟缓) - 什么能让这个工具对SRE/DevOps工作流程真正有用 如果有需要,我很乐意分享实施细节。</code></pre>
1作者: mohamedelsaed大约 1 个月前原帖
嗨,HN,我开发了一个Laravel包,它将Claude Code CLI封装为PHP应用程序的库。 问题是:Claude Code功能强大(文件操作、bash、代码编辑、子代理、MCP),但它是一个命令行工具。如果你想从网页应用程序中使用这些功能,之前没有一个干净的PHP接口。 这个SDK通过子进程与Claude Code进行通信,解析流式JSON输出,并提供一个流畅的PHP API,具备完整的类型安全。 技术亮点: - 基于生成器的流式处理(内存高效) - 完整的消息/内容块解析,使用类型化类 - 子代理编排(将任务委派给专业代理) - MCP服务器集成(标准输入输出 + SSE) - JSON模式结构化输出 - 会话恢复和多轮对话的分叉 - 支持PHP 8.1+,具备只读属性、枚举、命名参数 该项目采用MIT许可证。欢迎对架构和API设计提出反馈。
1作者: svenmalvik大约 1 个月前原帖
Manifold。可以在同一个项目上并行运行Claude Code、Codex和Gemini CLI。<p>我希望能够同时在同一个项目上运行多个AI编码代理,以便能够同时实现多个规格。每个代理都有自己的git工作树、自己的分支和一个真实的终端。没有任何封装。您可以看到与在CLI中看到的完全相同的内容,但可以同时查看三个代理的输出。<p>为每个任务选择合适的CLI。在执行过程中调整代理。当它们完成时创建PR。<p>Manifold的50%是用Manifold构建的。适用于macOS,开源,版本0.1。欢迎反馈。
1作者: mr_octopus大约 1 个月前原帖
三天前,我在这里发布了 OctoFlow 0.83(GPU 原生编程语言,2.2 MB 二进制文件)。反馈非常好。从那时起,我推出了 v1.0.0,这是我一直在努力构建的内容:一个 GPU 虚拟机。 这个想法是:GPU 是计算机,CPU 是 BIOS。 你启动一个虚拟机,编程一个内核实例的调度链,使用 vkQueueSubmit 提交一次,然后所有的操作——层执行、层间通信、自我调节、压缩、数据库查询——都在 GPU 上完成,而无需 CPU 的往返。CPU 仅提供输入/输出。 ```rust let vm = vm_boot() let prog = vm_program(vm, kernels, 4) vm_write_register(vm, 0, 0, input) vm_execute(prog) let result = vm_read_register(vm, 3, 30) ``` 4 个虚拟机实例,一次提交,阶段之间没有 CPU 参与。 内存模型包含 5 个 SSBOs:寄存器(每个虚拟机的工作内存)、指标(调节信号)、全局(共享可变——KV 缓存、数据库表)、控制(间接调度参数)、堆(不可变的批量数据——量化权重)。 使其有趣的地方: - 自我稳态调节器:每个虚拟机实例都有一个内核,监控激活规范、内存压力和吞吐量。GPU 自我调节,无需 CPU 的干预。 - GPU 自我编程:一个内核将工作组计数写入控制缓冲区,下一次 vkCmdDispatchIndirect 会读取这些计数。GPU 自行决定工作负载。 - 压缩作为计算:Q4_K 反量化、增量编码、字典查找——这些只是调度链中的内核,而不是一个特殊的子系统。添加一个新的编解码器 = 编写一个发射器。无需更改 Rust。 - CPU 轮询:指标和控制是 HOST_VISIBLE 的。CPU 可以轮询 GPU 状态,并在不重建命令缓冲区的情况下激活休眠的虚拟机。GPU 广播需求,CPU 满足这些需求。 虚拟机是与工作负载无关的。同样的架构可以处理 LLM 推理、数据库查询、物理仿真、图神经网络、数字信号处理管道和游戏 AI。我们已经验证了这六种情况。调度链是通用原语。 v1.0.0 中的新内容超越了 GPU 虚拟机: - 247 个标准库模块(从 51 个增加) - 原生媒体编解码器(PNG、JPEG、GIF、MP4/H.264——无需 ffmpeg) - 带有 15 个以上小部件的 GUI 工具包 - 终端图形(Kitty/Sixel) - 1,169 个测试通过 - 仍然是 2.3 MB,仍然没有外部依赖 零依赖的情况是真实的——没有 Rust crate。该二进制文件链接到 vulkan-1 和系统库,别无其他。cargo audit 没有任何需要审计的内容。 登陆页面:[https://octoflow-lang.github.io/octoflow/](https://octoflow-lang.github.io/octoflow/) GPU 虚拟机详情:[https://octoflow-lang.github.io/octoflow/gpu-vm.html](https://octoflow-lang.github.io/octoflow/gpu-vm.html) GitHub:[https://github.com/octoflow-lang/octoflow](https://github.com/octoflow-lang/octoflow) 下载:[https://github.com/octoflow-lang/octoflow/releases/latest](https://github.com/octoflow-lang/octoflow/releases/latest) 我是一名开发者。这是早期版本。GPU 虚拟机可以正常工作,测试通过且位精确,但前方还有很多路要走——真正的大规模 LLM 推理、多智能体编排、完整的数据库引擎。我希望能收到任何与 GPU 计算、Vulkan 或语言设计相关的反馈。