2作者: kodomonocch1大约 1 个月前原帖
你好!我开发了SEE(语义熵编码),因为“数据税”(存储/出口)和“CPU税”(解压/解析)不断上升。 权衡:它的压缩率不一定总是比Zstd小,但在压缩时仍然可以搜索,并且最小化了I/O。 关键数据(演示):综合压缩率约为原始数据的19.5%,跳过率约为99%,查找p50约为0.18毫秒(布隆过滤器约为0.30毫秒)。 10分钟重现步骤(无营销): 1) 下载演示ZIP(发布版)。 2) 按照README_FIRST.md中的说明操作。 3) 运行`python samples/quick_demo.py` → 输出比率/跳过/布隆 + p50/p95/p99。 投资回报率快速计算:节省/TB ≈ (1 − 0.195) × 每GB价格 × 1000(例如,$0.05/GB → 约$40/TB)。 NDA/VDR(私密,公共信息中无机密内容):[<a href="https://docs.google.com/forms/d/e/1FAIpQLScV2Ti592K3Za2r_WLUd0E6xSvCEVnlEOxYd6OGgbpJm0ADlg/viewform?usp=header" rel="nofollow">https://docs.google.com/forms/d/e/1FAIpQLScV2Ti592K3Za2r_WLU...</a>] 很高兴回答技术问题(架构感知布局、增量策略、布隆密度、跳过启发式、故障模式)。
3作者: elfenleid大约 1 个月前原帖
嘿,HN!我是José,我创建了Recall来解决一个让我感到烦恼的问题。 **问题:** 我每天都在使用Claude进行编码,但每次对话都是从头开始。我需要解释我的架构、编码标准、过去的决策……然后遇到上下文限制,所有内容都消失。下一次会话?重新开始。 **解决方案:** Recall是一个MCP(模型上下文协议)服务器,它通过Redis和语义搜索为Claude提供持久内存。可以把它看作是超越上下文限制和会话重启的长期记忆。 **工作原理:** - Claude在对话中将重要的上下文存储为“记忆” - 记忆被嵌入(OpenAI)并与元数据一起存储在Redis中 - 语义搜索自动检索相关的记忆 - 跨会话、项目甚至机器工作(如果使用云Redis) **主要功能:** - 全球记忆:在所有项目中共享上下文 - 关系:将相关记忆链接成知识图谱 - 版本控制:跟踪记忆随时间的演变 - 模板:可重用的常见工作流程模式 - 工作区隔离:项目A的记忆不会污染项目B **技术栈:** - TypeScript + MCP SDK - Redis用于存储 - OpenAI嵌入(text-embedding-3-small) - ~189KB的包,支持本地运行 **当前统计数据:** - 27个工具可供Claude使用 - 10种上下文类型(指令、决策、模式等) - 在10,000多个记忆上实现亚秒级的语义搜索 - 兼容Claude Desktop、Claude Code及任何MCP客户端 **示例用例:** 我正在构建一个电子商务平台。我曾告诉Claude:“我们使用Tailwind,偏好组合API,API速率限制为1000次/分钟。”现在每次对话中,Claude都会自动记住并应用这些偏好。 **接下来(v1.6.0正在进行中):** - 使用GitHub Actions的CI/CD管道 - 支持Docker以便于部署 - 使用Vitest的完整测试套件 - 更好的错误信息和日志记录 **试试吧:** ```bash npm install -g @joseairosa/recall # 添加到 claude_desktop_config.json # 开始使用持久内存 ```
2作者: srid68大约 1 个月前原帖
这是我在过去三周进行的一个实验,我使用了人工智能(GPT 4.1 和 Claude 4)来重建我的声明式框架,该框架使用 HTML + JSON,并支持六种语言。 我惊讶于人工智能不仅能够在多种语言中实现逻辑,还能从静态类型语言(如 C#、Rust 和 Go)转换到动态语言(如 PHP 和 Node.js 中的 JavaScript),再到客户端的 JavaScript。 另一个让我感到惊讶的是,人工智能甚至能够根据我提供的四条声明式规则,自动创建索引页面,并实现了相应的逻辑。 尽管这不是完美的代码,因为我控制了实现的结构,并要求人工智能实现诸如测试、结构转储等广泛功能来验证实现,但我并没有全面审查实现,只在我熟悉的 C# 代码中进行了简要审查。我发现它在实现未来的声明式抽象方面并不理想,但它确实能够正常工作。 该实现已经完成,可以使用任何客户端框架构建静态 Web 应用程序。 我使用人工智能的一个收获是实现交互循环,即你提出问题,同时展示人工智能如何验证是否满足你的要求,这一技巧帮助它在 C# 中完成了实现,并且使用 C# 作为提示帮助人工智能逐步完成其他语言的实现。 输出已在最小的机器上发布,涵盖六个不同的应用,分别是:<a href="https://csharpassembler.fly.dev/" rel="nofollow">https://csharpassembler.fly.dev/</a>、<a href="https://rustassembler.fly.dev/" rel="nofollow">https://rustassembler.fly.dev/</a>、<a href="https://goassembler.fly.dev/" rel="nofollow">https://goassembler.fly.dev/</a>、<a href="https://nodeassembler.fly.dev/" rel="nofollow">https://nodeassembler.fly.dev/</a>、<a href="https://jsassembler.fly.dev/" rel="nofollow">https://jsassembler.fly.dev/</a>。
3作者: AshBuk大约 1 个月前原帖
我找不到一个既注重隐私又可靠的语音输入应用程序来满足我日常在Linux上的使用需求,因此我自己开发了一个。<p>这个项目使用Whisper.cpp进行离线语音识别,采用Go语言编写。它可以在X11和Wayland上运行,旨在成为Linux桌面上语音输入和语音命令的即插即用解决方案。<p>我们的目标是提供一个快速、本地且尊重隐私的替代方案,替代Dragon或基于云的语音转文本工具。<p>代码库: <a href="https://github.com/AshBuk/speak-to-ai" rel="nofollow">https://github.com/AshBuk/speak-to-ai</a> 问题反馈: <a href="https://github.com/AshBuk/speak-to-ai/issues" rel="nofollow">https://github.com/AshBuk/speak-to-ai/issues</a><p>我非常欢迎反馈、在不同发行版/桌面环境上的测试,以及任何贡献或改进建议。
1作者: echamussy大约 1 个月前原帖
嗨,HN!我很高兴与大家分享我一直在努力开发的项目:MovePlay,这是一款将屏幕时间转化为运动时间的应用程序。 使用MovePlay,孩子们不仅仅是坐着滑动屏幕——他们可以跳跃、奔跑并通过运动来玩游戏。该应用利用设备的摄像头识别并响应他们的动作,将被动的屏幕时间转变为积极的游戏体验。 我最初是为我的女儿们开发这个应用的。她们非常喜欢玩游戏,但我不希望她们花太多时间坐在沙发上。我想看看能否制作出一些有趣的东西,让她们能够动起来。 MovePlay是基于iOS和Mac平台开发的,使用了苹果的Vision框架。所有的视频处理都在设备上完成(不会传输任何图像或视频)。它使用实时的身体姿势检测,并结合我为手势训练的小型自定义机器学习模型(用于开始和停止游戏)。 我非常希望听到大家的反馈——特别是来自家长或对积极游戏感兴趣的朋友们。