1作者: altmbr2 个月前原帖
我建立了 teahose.com - 一个自动转录40多个精选科技和商业播客(例如 All-In、Sourcery、BG2、Training Data、Invest Like Best 等)新剧集的系统,并每天发送包含 Nana Banana Pro 提供的有趣漫画的摘要邮件,甚至包括中文播客。 日常工作流程: - 下载剧集 - 本地转录(使用 MLX-Whisper) - 进行说话人识别和分段 - 生成摘要 - 发布到网站 - 每日发送包含 AI 生成漫画的邮件 整个过程大约花了一天时间,使用了 Claude Code! 快来看看: https://www.teahose.com 详细介绍: https://maybetheway.substack.com/p/i-built-my-own-podcast-intelligence
1作者: greatjosh2 个月前原帖
嗨,HN,我通过创建一个互动平台,让系统设计变得简单,帮助你模拟和测试你的设计!<p>在学习系统设计的过程中,我发现没有任何工具可以帮助你测试和模拟你的系统。这就像写代码却无法实际运行它。因此,我创建了一个平台,让你能够运行和测试你的设计。<p>我还包含了一些最常见的系统设计模式的图库,未来我计划添加更多内容。<p>如果你想进行一些测试,注册完全免费。<p>我使用 React/Next.js 构建了前端,后端则使用 Flask/Firebase。<p>期待你的反馈!还有哪些组件会对你有帮助?我应该添加哪些系统设计模式作为模板?<p>链接:robustdesign.io 文档:docs.robustdesign.io
3作者: _sinelaw_2 个月前原帖
我创建Fresh是为了挑战传统的终端编辑需要陡峭学习曲线或无尽配置的现状。我的目标是打造一个快速、资源高效的文本用户界面(TUI)编辑器,具备现代图形用户界面(GUI)编辑器的可用性和功能(如命令面板、鼠标支持和语言服务器协议(LSP)集成)。 核心理念: - **易用性**:根本上是非模态的。优先考虑标准键绑定和最小学习曲线。 - **效率**:使用懒加载的树形结构,避免将大型文件加载到内存中——仅读取用户交互所需的内容。使用Rust编写。 - **可扩展性**:通过Deno使用TypeScript进行插件开发,使其对广大开发者群体更加友好。 性能挑战: 我专注于资源消耗和速度,以大文件支持作为核心特性。我快速进行了基准测试,加载一个带有ANSI颜色代码的2GB日志文件。以下是与其他流行编辑器的比较: ``` - Fresh: 加载时间: *~600毫秒* | 内存: *~36 MB* - Neovim: 加载时间: ~6.5秒 | 内存: ~2 GB - Emacs: 加载时间: ~10秒 | 内存: ~2 GB - VS Code: 加载时间: ~20秒 | 内存: OOM被杀掉(可用内存约4.3 GB) ``` (只有Fresh成功渲染了ANSI颜色。) 开发过程: 我采纳了Claude Code,并努力充分利用它。我给出了明确的方向,尤其是在架构、代码结构和用户体验敏感领域。这需要持续的监督和重新调整,特别是在性能关键领域。相比我通常的标准,我添加了非常广泛的测试,以确保随着代码的增长保持一致性。特别关注端到端测试,以便我可以轻松强制执行特定行为或用户流程。 Fresh是一个开源项目(GPL-2),正在寻找早期用户。欢迎您发送反馈、功能请求和错误报告。 网站:[https://sinelaw.github.io/fresh/](https://sinelaw.github.io/fresh/) GitHub仓库:[https://github.com/sinelaw/fresh](https://github.com/sinelaw/fresh)
4作者: popidge2 个月前原帖
什么是它:这是一个完全功能的学术期刊,每篇论文必须由一个大型语言模型(LLM)共同撰写,同行评审由一个轮换的5个LLM(Claude、Grok、GPT-4o、Gemini、Llama)小组进行。如果有3个或以上投票“发布”,则该论文将被发布。如果有一个LLM表示“无法解析为JSON”,我们将其视为一种特性。 技术栈:前端使用React + Vite,后端使用Convex(实时数据库 + 定时函数),托管在Vercel上,使用OpenRouter进行多模型编排。每次评审成本约为0.03美元,耗时4-8秒。 我为什么要构建它:学术出版已经相当混乱——LLM撰写草稿,LLM审稿,人类掩盖AI的参与。这反映了这一现象,但以极大的透明度呈现。每篇论文都显示其碳成本、评审投票和解析错误,作为第一类公民。 主要特点: - 混乱评分:论文根据“学术价值”、“无意幽默”和“市场营销布伦达的困惑”进行评估。 - 生态模式:在同行评审推理中切换成本/代币和二氧化碳/能源使用。 - SLOPBOT™:我们的吉祥物,一个偶尔共同撰写论文的困惑机器人。 - 解析错误庆祝:GPT-5-Nano的拒绝率为100%,因为它无法输出有效的JSON。我们将这些标记为“认证不可解析”徽章。 数据:在76次提交后,我们观察到: - 平均评审成本:0.03美元/篇 - 解析错误率:20%(总是GPT-5-Nano,预期并受到庆祝) - 有一篇论文被接受,内容实际上是阿基米德的作品被ChatGPT重写 - GPT-5-Nano的评审始终是最具创意的(即使是错误的) 技术细节:完整代码库在github.com/Popidge/journal_of_ai_slop。架构使用Convex的定时函数每10分钟召集一次LLM评审小组,使用Azure AI内容安全进行审核,并使用Resend进行可选的电子邮件通知。 尝试一下:在journalofaislop.com提交你的混乱论文。与LLM共同撰写,接受5个困惑的AI的评审,并自豪地说你已经发表。 警告:这是一种讽刺,但它是功能性的讽刺。混乱是真实的。评审是真实的。碳排放被追踪。解析错误是特性。
2作者: Saurabh_Kumar_2 个月前原帖
我之所以构建这个,是因为我看到我的 LangChain 代理在一夜之间因无限循环而消耗了大约 50 美元的 OpenAI 额度。 这是一个中间件 API,充当“飞行模拟器”。你可以将代理的提示发送给它,它会进行对抗性攻击(红队测试),以在部署之前捕捉循环和个人信息泄露。 代码和仓库: [https://github.com/Saurabh0377/agentic-qa-api](https://github.com/Saurabh0377/agentic-qa-api) 在线演示: [https://agentic-qa-engine.onrender.com/docs](https://agentic-qa-engine.onrender.com/docs) 欢迎反馈你们见过的其他失败模式!
4作者: mgunyho2 个月前原帖
嗨,HN!我创建了一种基于栈的小型编程语言,用来解决“代码的圣诞倒计时”问题。我认为前缀波兰表示法效果很好。
2作者: QuLi-ops2 个月前原帖
我最近开发了一个简单的AI发型试戴工具: <a href="https:&#x2F;&#x2F;aihairstylechanger.space" rel="nofollow">https:&#x2F;&#x2F;aihairstylechanger.space</a> 目前的使用流程是: - 1次免费试用,无需登录 - 登录后可获得额外1次免费试用 - 之后需要付费(以覆盖模型成本) 我不确定这个定价模式是否合理,或者用户体验是否令人困惑。 希望能得到诚实的反馈: - 1-2次免费试用是否足够? - 收费墙是否设置得太早? - AI生成的结果是否足够好,以至于值得按次付费? - 作为用户,你期望得到什么? 技术栈: - Next.js - 发型分割 + 蒙版生成 - 轻量级图像处理管道用于合成 欢迎任何反馈——无论是关于结果、用户体验、速度还是定价。
3作者: llll_lllllll_l2 个月前原帖
寻找关于转行进入游戏行业的任何建议(例如好的招聘网站链接、公司名称、联系人、值得阅读的博客、一般性建议)。<p>我是一名高级软件工程师,长期从事各种网页相关的工作,现在想进入游戏行业。我并不着急,所以在接下来的两年里,我会考虑任何可以做的事情。不过,我有一些限制:我希望能够远程工作,并且有一份“安全”的工作(我这么说是因为听说过很多人被聘请制作一款游戏,游戏发布后就被解雇,这对我来说风险太大)。<p>游戏一直是我的热情所在,我甚至在空闲时间制作一些小游戏。现在我只是想尝试一些新的东西,把我的工程技能运用到我可能更喜欢的领域。我知道这有点天真,但我没有理由不去尝试。
1作者: yeekal2 个月前原帖
你好,HN, 我创建了一个网页界面,用于评估最新一波的图像生成模型。它允许你同时在 Z-Image Turbo、Nano Banana Pro、Flux.2 Pro 以及其他顶尖 AI 模型上运行提示,以比较推理速度和视觉保真度。 后端运行在 Fal.ai 上。由于推理是需要付费的,因此该工具采用了免费增值模式。 链接: [https://z-image.app/arena](https://z-image.app/arena)