返回首页
最新
我曾与一位中级 TypeScript 开发者合作,他“拒绝”在 VSCode 终端中进行任何操作(更喜欢使用外部终端,最好是 Warp)。
连我通常会用 `node fibo.js` 运行的临时 JS 脚本都不愿意使用。
他也不使用我在编辑 API 代码时喜欢在终端中运行的 `npm run build-watch`,这样可以帮助我及时发现类型问题。
甚至连 `npm run start` 也不使用。
这让我觉得有些极端,因为大多数开发者的习惯和偏好通常都是为了优化工作流程,而他的做法却不是。
人们喜欢 Vim 是因为它让代码导航变得非常快速。
很多开发者非常喜欢使用键盘快捷键,因为这样更快。
但他的这种偏好让我不禁思考——我们的开发习惯或怪癖在多大程度上是“失序”的呢?
你有什么怪癖呢?
想象一下一个“Commodore 64 Ultimate+”,它基于FPGA或高精度仿真构建,但在其上增加了一层人工智能和数字信号处理的增强功能。
图形:每帧320×200像素的艺术图像可以通过现代AI模型自动放大,这些模型经过复古视觉的训练。你将看到平滑、细致的艺术作品,而不是块状的精灵,同时仍然保留经典C64的风格。(可以想象为ESRGAN、Real-ESRGAN,甚至是基于扩散的风格迁移。)
声音:SID芯片的输出可以通过实时音频增强器处理——立体声扩展、混响,甚至是神经重合成,将波形重新解释为逼真的乐器,同时保持标志性的旋律不变。
架构:C64核心将正常运行(FPGA或仿真器),增强的音频/视频由单独的处理器或GPU处理,并通过HDMI输出。延迟可以保持在足够低的水平,以支持真实的游戏体验。
它仍然可以运行所有原版游戏和演示——只是默认情况下表现更好,就像一款经过现代打磨的复古游戏机,但没有失去其灵魂。
你甚至可以随时在“真实”和“增强”模式之间切换。
所以基本上:这是一个重新构想这些游戏想要的外观和声音的C64,利用今天的技术。
你会想要这样的产品吗?
我创建了UHOP(通用硬件优化平台),因为我厌倦了GPU开发者所处的无形牢笼——我们所编写的所有代码似乎都围绕着NVIDIA旋转。CUDA非常出色,但它也是一道护城河。将相同的代码移植到ROCm或OpenCL通常意味着需要重新开始。
UHOP是一个开源项目,旨在通过引入跨供应商的优化层来打破这种锁定。它可以检测你的硬件(CUDA、ROCm、OpenCL等),生成或基准测试内核,并缓存最佳性能的内核。你可以用装饰器包装你的操作,让UHOP选择或生成内核,然后它就可以在任何地方运行。
目前的功能包括:
- 硬件检测 + 后端选择
- AI辅助的内核生成(CUDA / OpenCL / Triton)
- 融合操作演示(conv2d+ReLU、矩阵乘法等)
- 内核基准测试和缓存
- 命令行界面 + 早期浏览器仪表板
还有很长的路要走——分布式调优、编译器中间表示(IR)处理、更好的PyTorch/JAX钩子——但它是开放的、可修改的,并且由社区驱动。
代码库:github.com/sevenloops/uhop
演示网站:uhop.dev
希望能收到编译器工程师、GPU开发者或任何曾经感到被供应商API束缚的人的反馈。
我一直在开发 UHOP(通用硬件优化平台)——一个开源框架,帮助开发者在不同架构(如 CUDA、ROCm、OpenCL 等)之间优化 GPU 和加速器的工作负载,而不受供应商锁定的限制。
这个项目起初源于我个人的挫折:我编写的代码在 CUDA 上运行得很好,但随后不得不为 ROCm 或 OpenCL 重新编写或调整。UHOP 旨在使这一过程变得可移植——它能够检测你的硬件,生成或基准测试候选内核,并缓存表现最佳的内核。它还支持使用 OpenAI API 的 AI 辅助内核生成,并配备了一个简单的命令行界面,方便演示和基准测试。
目前,UHOP 可以:
- 自动检测硬件后端并选择最佳内核
- 运行并基准测试融合操作,如 conv+ReLU
- 缓存并重用调优后的内核
- 通过代码生成动态生成内核(CUDA/OpenCL/Python/Triton)
目前还有很多工作在进行中——更好的后端集成、分布式优化,以及用于可视化结果的网页仪表板。我提前分享这个项目,希望能从曾在编译器、GPU 运行时和机器学习基础设施方面工作过的人那里获得反馈。
代码库:github.com/sevenloops/uhop
演示:uhop.dev
非常希望能听到关于架构、测试方法或前 NVIDIA/ROCm 工程师可能贡献的想法。
这是Vexlio的一个新功能,我认为HN社区可能会觉得有趣或实用。
简而言之:可以轻松创建互动图表,即具有鼠标点击/悬停功能的图表,您可以利用这些功能展示弹出内容。最终结果可以通过无需登录的网页链接进行分享。
我认为这对于系统文档、入职培训或用户指南、演示等非常有用。适用于需要保持高层次视图整洁,同时又需要在某处提供重要元数据或细节的任何场合。
您可以无需注册直接试用,只需在这里启动应用程序([https://app.vexlio.com](https://app.vexlio.com)),创建一个形状,使用主指针工具选择它,然后在上下文工具栏中点击“添加弹出窗口”。
我非常感谢任何反馈!
在开源Proton两年后,我们发布了v3.0版本,带来了企业级流媒体功能的开源版本:在一个单一的二进制文件中实现全连接、处理和路由,且无任何依赖。
主要特点:
- 现代C++中首个向量化流SQL引擎,支持即时编译(JIT)
- 高吞吐量、低延迟、高基数处理
- 端到端流处理:ETL、连接、聚合、警报和任务
- 原生连接器:Kafka、Redpanda、Pulsar、ClickHouse、Splunk、Elastic、MongoDB、S3、Iceberg
- 原生Python用户定义函数(UDF)/用户定义聚合函数(UDAF)支持,以满足您的AI/ML工作负载
我们在大型企业部署中证明的同样性能,现在也可以在社区版中使用。
欢迎任何从事流数据工作或寻找Flink/ksqlDB替代方案的人提供反馈。
我开发了一款AI工具,可以将播客转换为文本,具备自动章节检测、多层次摘要和高亮提取功能。与基本的转录服务不同,它只需一键即可生成适合发布的节目说明。
技术亮点:
• 使用优化的分块技术,Whisper的准确率超过99%
• 无需训练数据即可实现说话人分离
• 基于主题边界分析的AI章节检测
• 支持导出为Markdown/TXT/JSON格式,并附带结构化元数据
免费版:5分钟预览
技术栈:Next.js、Whisper、R2存储
试用链接:<a href="https://harku.io/tools/podcast-transcription" rel="nofollow">https://harku.io/tools/podcast-transcription</a>
我是在为每集手动创建节目说明花费30-60分钟后开发了这个工具。希望能收到其他播客制作人和开发者的反馈。