返回首页
最新
你好,我是一名在纽约市的K-8科技教师。我的学生迫切需要新的硬件。他们现在使用的Chromebook速度太慢,导致孩子们在使用时感到烦躁。
我知道有不同的资助机会,但我觉得在这里询问一下,看看是否有更快的解决方案来为他们获取新硬件,是值得的。
谢谢你的倾听。
我向同事询问有关某个系统的问题,或者他们为什么这样做,或者他们的看法。其中一些人的回答听起来非常像是人工智能生成的,有时甚至完全偏离了主题。这有什么意义呢?如果我想要一个人工智能的回答,我自己就可以去问。
这让我有些困扰,因为如果我能预期到这种回答,那这说明他们在工作中投入了多少思考呢?即使他们在所有与编码相关的工作中都使用人工智能,这也让人感到疑惑。
嗨,HN!我开发了Upti,这是一款小型应用程序,用于监控主要云服务提供商的状态页面,并在发生故障或事件时通知您。
<p><pre><code> 我为什么要制作它:
- 我希望能在一个地方简单地跟踪各个服务提供商的服务中断
- 官方状态页面虽然有用,但信息分散
- 我需要快速、可操作的通知
Upti的功能:
- 抓取服务提供商的状态/事件页面
- 发送故障/事件警报
- 保持体验轻量且快速
我希望获得反馈:
- 我应该优先考虑哪些服务提供商/服务
- 警报质量(过于嘈杂 vs 过于迟缓)
- 什么能让这个工具对SRE/DevOps工作流程真正有用
如果有需要,我很乐意分享实施细节。</code></pre>
嗨,HN,我开发了一个Laravel包,它将Claude Code CLI封装为PHP应用程序的库。
问题是:Claude Code功能强大(文件操作、bash、代码编辑、子代理、MCP),但它是一个命令行工具。如果你想从网页应用程序中使用这些功能,之前没有一个干净的PHP接口。
这个SDK通过子进程与Claude Code进行通信,解析流式JSON输出,并提供一个流畅的PHP API,具备完整的类型安全。
技术亮点:
- 基于生成器的流式处理(内存高效)
- 完整的消息/内容块解析,使用类型化类
- 子代理编排(将任务委派给专业代理)
- MCP服务器集成(标准输入输出 + SSE)
- JSON模式结构化输出
- 会话恢复和多轮对话的分叉
- 支持PHP 8.1+,具备只读属性、枚举、命名参数
该项目采用MIT许可证。欢迎对架构和API设计提出反馈。
Manifold。可以在同一个项目上并行运行Claude Code、Codex和Gemini CLI。<p>我希望能够同时在同一个项目上运行多个AI编码代理,以便能够同时实现多个规格。每个代理都有自己的git工作树、自己的分支和一个真实的终端。没有任何封装。您可以看到与在CLI中看到的完全相同的内容,但可以同时查看三个代理的输出。<p>为每个任务选择合适的CLI。在执行过程中调整代理。当它们完成时创建PR。<p>Manifold的50%是用Manifold构建的。适用于macOS,开源,版本0.1。欢迎反馈。
三天前,我在这里发布了 OctoFlow 0.83(GPU 原生编程语言,2.2 MB 二进制文件)。反馈非常好。从那时起,我推出了 v1.0.0,这是我一直在努力构建的内容:一个 GPU 虚拟机。
这个想法是:GPU 是计算机,CPU 是 BIOS。
你启动一个虚拟机,编程一个内核实例的调度链,使用 vkQueueSubmit 提交一次,然后所有的操作——层执行、层间通信、自我调节、压缩、数据库查询——都在 GPU 上完成,而无需 CPU 的往返。CPU 仅提供输入/输出。
```rust
let vm = vm_boot()
let prog = vm_program(vm, kernels, 4)
vm_write_register(vm, 0, 0, input)
vm_execute(prog)
let result = vm_read_register(vm, 3, 30)
```
4 个虚拟机实例,一次提交,阶段之间没有 CPU 参与。
内存模型包含 5 个 SSBOs:寄存器(每个虚拟机的工作内存)、指标(调节信号)、全局(共享可变——KV 缓存、数据库表)、控制(间接调度参数)、堆(不可变的批量数据——量化权重)。
使其有趣的地方:
- 自我稳态调节器:每个虚拟机实例都有一个内核,监控激活规范、内存压力和吞吐量。GPU 自我调节,无需 CPU 的干预。
- GPU 自我编程:一个内核将工作组计数写入控制缓冲区,下一次 vkCmdDispatchIndirect 会读取这些计数。GPU 自行决定工作负载。
- 压缩作为计算:Q4_K 反量化、增量编码、字典查找——这些只是调度链中的内核,而不是一个特殊的子系统。添加一个新的编解码器 = 编写一个发射器。无需更改 Rust。
- CPU 轮询:指标和控制是 HOST_VISIBLE 的。CPU 可以轮询 GPU 状态,并在不重建命令缓冲区的情况下激活休眠的虚拟机。GPU 广播需求,CPU 满足这些需求。
虚拟机是与工作负载无关的。同样的架构可以处理 LLM 推理、数据库查询、物理仿真、图神经网络、数字信号处理管道和游戏 AI。我们已经验证了这六种情况。调度链是通用原语。
v1.0.0 中的新内容超越了 GPU 虚拟机:
- 247 个标准库模块(从 51 个增加)
- 原生媒体编解码器(PNG、JPEG、GIF、MP4/H.264——无需 ffmpeg)
- 带有 15 个以上小部件的 GUI 工具包
- 终端图形(Kitty/Sixel)
- 1,169 个测试通过
- 仍然是 2.3 MB,仍然没有外部依赖
零依赖的情况是真实的——没有 Rust crate。该二进制文件链接到 vulkan-1 和系统库,别无其他。cargo audit 没有任何需要审计的内容。
登陆页面:[https://octoflow-lang.github.io/octoflow/](https://octoflow-lang.github.io/octoflow/)
GPU 虚拟机详情:[https://octoflow-lang.github.io/octoflow/gpu-vm.html](https://octoflow-lang.github.io/octoflow/gpu-vm.html)
GitHub:[https://github.com/octoflow-lang/octoflow](https://github.com/octoflow-lang/octoflow)
下载:[https://github.com/octoflow-lang/octoflow/releases/latest](https://github.com/octoflow-lang/octoflow/releases/latest)
我是一名开发者。这是早期版本。GPU 虚拟机可以正常工作,测试通过且位精确,但前方还有很多路要走——真正的大规模 LLM 推理、多智能体编排、完整的数据库引擎。我希望能收到任何与 GPU 计算、Vulkan 或语言设计相关的反馈。