1作者: skwee35726 天前原帖
嘿,HN!<p>我已经使用 mjml 和 handlebars 很长时间了,但我非常怀念与 Typescript 结合的 JSX 语法所带来的类型安全和组件组合。因此,我想将 mjml 与 jsx 结合起来。虽然有像 mjml-react 或 react.email 这样的库,但出于某种原因,它们似乎都依赖于 react。<p>所以我决定创建 mjmx[0] - 一个独立的、零依赖(除了 mjml 之外)的自定义 jsx 运行时,用于渲染 mjml。如果你能试用一下并提供反馈,我将非常感激。<p>[0] <a href="https:&#x2F;&#x2F;mjmx.dev&#x2F;" rel="nofollow">https:&#x2F;&#x2F;mjmx.dev&#x2F;</a>
2作者: 01-_-26 天前原帖
在2026年5月,Instagram内部的一项技术变更开始引发关于隐私、监控以及互联网私人对话未来的更大辩论。该平台确认将停止对直接消息的端到端加密,这一决定逆转了几年前被视为数字隐私重大进步的功能。对大多数用户而言,这似乎只是一次技术调整,但实际上却触及了一个涉及政府、科技公司和公民自由的全球性冲突的核心。 要理解这一问题的重要性,首先需要了解基本概念。端到端加密是一种确保只有发送者和接收者能够阅读消息内容的系统。即使是运营该服务的公司也无法访问这些内容。从实际角度来看,它使得消息应用程序变得类似于低声私语的对话。消息通过服务器传输,但对任何中介而言仍然是不可读的。 多年来,Meta、苹果和谷歌等公司一直捍卫这一技术,认为它对保护用户免受监视、数据泄露和未经授权的监控至关重要。Meta自己也多次辩称,在加密系统中“没有人,甚至公司,都无法看到发送的内容。” 然而,Instagram似乎正朝着相反的方向发展。 根据最近的报道,该平台计划从2026年5月8日起停止在直接消息中使用加密聊天。这意味着在应用内发送的对话将不再具备相同级别的加密保护。 从技术上讲,这一转变改变了一些基本的东西。没有端到端加密,消息内容在某些情况下可能会被公司访问,从而使自动分析、内容审核系统或内部调查成为可能。 官方的理由集中在当今科技公司面临的最敏感问题之一:在线安全和儿童保护。 美国、英国及整个欧盟的政府越来越多地向主要平台施压,要求其在私人消息系统中检测和屏蔽非法内容,特别是与儿童剥削相关的材料。诸如欧盟有争议的“聊天控制”倡议和英国的在线安全法等立法提案,赋予当局更强的权力,要求平台识别有害内容,即使这些内容出现在私人通信中。 问题在于,加密技术造成了一种几乎不可能解决的技术困境。 真正的端到端加密正是防止这种类型扫描的手段。如果一个平台能够读取消息以检测非法材料,那么这些消息就不是完全加密的。如果它们是完全加密的,平台就无法检查这些内容。
31作者: avionics-guy26 天前原帖
我发现这个项目是因为突然间,Logi Options Plus 软件更新器开始占用我 Intel Macbook Pro 的 40-60% 的资源,直到我结束了这个进程(当然,它会重新启动)。在我的搜索过程中,我发现了一个 Reddit 讨论,里面有其他人也遇到了同样的问题。 我在这个项目中是一个小贡献者,但它的目标是减少或消除使用 Logitech 专有软件和遥测的需求。如果其他人对此感兴趣,我们非常欢迎帮助。 请查看 GitHub 链接,以获取更详细的动机(消除遥测),作为这个项目的一部分。链接如下: [https://github.com/TomBadash/MouseControl](https://github.com/TomBadash/MouseControl)
2作者: paperplaneflyr26 天前原帖
我一直在研究多智能体系统的基础设施。<p>我构建了一个名为 AgentLog 的小项目。<p>核心理念非常简单,主题只是追加式的 JSONL 文件。<p>智能体通过 HTTP 发布事件,并使用 SSE 订阅流。<p>该系统目前故意设计为单节点和简约。<p>我正在探索的未来想法包括: - 可重放的智能体工作流 - 跨智能体的推理追踪 - 事件时间线的可视化 - 分布式/联合智能体日志<p>我很好奇其他构建智能体系统的人是否遇到过类似的需求。
2作者: chrisecker26 天前原帖
我为一个桌面文字处理器构建了一个丰富文本数据模型,使用Python实现,基于持久的平衡n叉树,并缓存权重以实现O(log n)的索引转换。该文档模型仅使用四种元素类型:文本、容器、单一元素和组——其中组纯粹是结构性的(用于平衡),在文档中没有语义意义。 单个元素是不可变的;插入和取出操作返回新的树,而不是修改旧的树。这确保了只要旧树存在,旧索引就保持有效。 我了解Ropes、Finger Trees和ProseMirror的扁平索引模型。是否有我应该了解的相关先前研究,特别是针对具有这些特性的丰富文本文档模型?
2作者: smudgy374626 天前原帖
嗨,HN, 这是我在过去几个月里开发的一个工具。 与其给大型语言模型(LLM)工具提供SSH访问权限或将其安装在服务器上,不如使用以下命令: ``` $ promptctl ssh user@server ``` 这会使一组本地定义的提示“神奇地”出现在远程shell中,作为可执行的命令行程序。 例如,我在本地定义了`llm-analyze-config`和`askai`的提示。那么在(任何)远程主机上,我可以: ``` $ promptctl ssh user@host # 现在在远程主机上 $ llm-analyze-config /etc/nginx.conf $ cat docker-compose.yml | askai "添加负载均衡器" ``` `llm-analyze-config`和`askai`背后的提示在我的本地计算机上执行(尽管它们是远程调用的),通过我选择的LLM。 通过这种方式,LLM工具从未被授予对服务器的SSH访问权限,也不需要在服务器上安装任何东西。实际上,服务器甚至不需要启用出站互联网连接。 期待您的反馈! GitHub: [https://github.com/tgalal/promptcmd/](https://github.com/tgalal/promptcmd/)
16作者: ivzak26 天前原帖
我们构建了一个开源代理,位于编码代理(如 Claude Code、OpenClaw 等)与大语言模型(LLM)之间,在工具输出进入上下文窗口之前进行压缩。 演示链接:<a href="https://www.youtube.com/watch?v=-vFZ6MPrwjw#t=9s" rel="nofollow">https://www.youtube.com/watch?v=-vFZ6MPrwjw#t=9s</a>。 动机:代理在管理上下文方面表现不佳。单个文件读取或 grep 操作可能会将成千上万的标记输入窗口,其中大部分是噪声。这不仅成本高昂,还会主动降低质量。长期上下文基准测试一致显示,随着上下文的增加,准确率急剧下降(OpenAI 的 GPT-5.4 评估在 32k 时为 97.2%,而在 1M 时降至 36.6% <a href="https://openai.com/index/introducing-gpt-5-4/" rel="nofollow">https://openai.com/index/introducing-gpt-5-4/</a>)。 我们的解决方案使用小型语言模型(SLMs):我们查看模型内部,并训练分类器以检测上下文中哪些部分携带最多信号。当工具返回输出时,我们根据工具调用的意图进行压缩——例如,如果代理调用 grep 寻找错误处理模式,SLM 会保留相关匹配项并去除其余部分。 如果模型后来需要我们移除的内容,它会调用 expand() 来获取原始输出。我们还在窗口容量达到 85% 时进行后台压缩,并懒加载工具描述,以便模型仅看到与当前步骤相关的工具。 该代理还提供支出上限、用于跟踪当前和过去会话的仪表板,以及当代理在等待您时的 Slack 提醒。 代码库在这里:<a href="https://github.com/Compresr-ai/Context-Gateway" rel="nofollow">https://github.com/Compresr-ai/Context-Gateway</a>。您可以尝试以下命令: <pre><code> curl -fsSL https://compresr.ai/api/install | sh </code></pre> 如果您对压缩模型、懒加载工具的工作原理或关于网关的其他任何内容有兴趣,欢迎深入交流。试试看,并告诉我们您的使用体验!