你好,<p>大约两个月前,我在这里展示了我的“巨型 JSON 查看器”的第一个版本:<a href="https://news.ycombinator.com/item?id=46609592">https://news.ycombinator.com/item?id=46609592</a><p>现在,经过许多波折,修复了大约一百个漏洞,并进行了更深入的测试,我自豪地推出了经过全面重构的 Rust 核心的新版本,并添加了一些相关的隐私优先工具。<p>首先,我添加了一些更常见的格式:
- JSON,NDJSON/JSONL
- CBOR(首次转换为 JSON)
- MsgPack(首次转换为 JSON)
- HAR(专门为此提供的功能)
- Markdown(直接打开,仅供查看)<p>接着,我进行了更深入的压力测试……成功在 S23 Ultra 上打开了一个约 100GB 的 JSON 文件。
之前的版本崩溃了。经过重构的索引器、后端和辅助文件,这次成功了!索引花了 40 分钟,但成功了。<p>在意识到我的编译器优化错误后,SIMD 最终发挥了真正的本地性能,第一次索引的时间缩短到了 100GB 只需 4-5 分钟。在手机上!文件的处理、滚动、查看和跳转到元素在第一次索引后都是瞬时的。<p>搜索和过滤仍然(相对)非常快速,使用了 memchr::memmem。<p>为了使应用程序作为日常工具更有用,我开始构建一些额外的功能:<p>- 一个丰富的 REST API 客户端(尚未完全实现,但支持 GraphQL、OAuth2 和 AWS SigV4)。<p>- HAR 分析器。由于 HAR 只是 JSON,为什么不利用我现有的后端来发挥它的优势呢?(第一次打开会稍微慢一些,因为除了初始的 JSON 索引外,还需要处理请求元数据以支持过滤/搜索和统计功能)。<p>- 简单的 MOCK API:没有花哨的功能,只是在本地网络(Wifi、USB 共享、USB 以太网)上静态托管任何文件。<p>- 隐私优先的便捷功能:如果可以在本地完成,为什么还要使用在线工具而冒着敏感数据泄露的风险呢?你可能已经有自己的工具(js、python 等),但如果没有,我可以从应用程序在本地网络上为你托管一个 Web UI,提供所有这些功能。JWT、小型 JSON 工具如格式化、压缩、字符串化、反转义、Unix 时间戳、哈希生成器……都在你自己的私有 Web UI 中,由应用程序托管。(应用程序中也有相同的功能)。<p>是的,这是我发布的第一款应用程序,目前仅在 Android 上可用,抱歉。仍然有一些小错误和一个主要(边缘案例)问题,但这些也会得到解决。<p>如果你能看一下并告诉我你的第一印象,我非常希望听到诚实的反馈! (我最近意识到,从用户那里获取有用信息甚至是错误报告是多么困难)。<p>这是一个免费增值应用:JSON 查看器部分完全免费,没有大小限制,导出/转换功能、API 客户端和工具是收费的。
返回首页
24小时热榜
构建了一个通过SSH连接的社交网络。<p>无需注册,无需浏览器,只需打开终端即可进入。<p>频道、个人资料、留言簿、共享黑板、前8名。<p>你的身份是你的SSH密钥指纹,因此无需密码。<p>连接方式:
ssh-keygen -t ed25519(在所有提示中直接按回车)
ssh jellyshell.dev<p>使用Go、Bubble Tea和Wish构建。<p>我想创建一个能够保护隐私、远离脑力枯竭和算法推送愤怒诱饵的东西。<p>告诉我你的想法。
我们对工资、价格和住房的看法往往来自于直觉、头条新闻和轶事,而实际数字通常出乎意料。
“Off By”是一个每日游戏:提供五个真实的经济统计数据,你通过滑块猜测每一个,然后看看你猜得有多远。每个人在同一天玩相同的问题。
平均玩家的误差为25%。我通常也在这个范围内。
免费,无需注册账户。
我很好奇HN用户的准确性是否高于平均水平,并且总是在寻找那些令人惊讶但又无懈可击的统计数据。如果你知道一个好的,欢迎在评论中分享。
我对在 GitHub 上使用 Claude Code 生成的代码量感到好奇,因此我尝试寻找这个答案。
剧透警告:数量非常庞大——根据我的统计,大约有 1900 万次提交。
简而言之,这是一个仪表板,展示了一些关于在 GitHub 公共仓库中由 Claude Code 签名的提交的基本统计数据,希望这些数据能引起您的兴趣。
并不是所有的提交都有签名(通过作者字段或提交“尾部”),而且许多仓库是私有的,这意味着 Claude 的影响范围可能比您在这里看到的要广泛得多。但我认为这些数据足以展示其分布情况,并让我们了解它的使用情况。
在技术上,这只是一个相对基础的 Next.js 应用,使用 Recharts 进行图形展示,数据库则是 PostgreSQL。我最初使用 BigQuery,因为我估计需要分析规模,但最终转向了 Postgres,因为小规模写入和频繁读取去重的成本变得过高。
数据摄取/回填作业是更有趣的部分,因为我从严重低估其复杂性(从小规模开始)转变为最终建立了一个简单但功能齐全的 ETL 管道。
主要的挑战在于读取数据时要克服 GitHub 的速率限制——无论是在搜索 API 还是 GraphQL API 上。搜索的限制是每分钟 30 次请求,而 GraphQL 的限制是每小时 5000 次请求(每个访问令牌)。由于这些差异以及响应时间的不同,我将工作分为两部分:
1. 有一批搜索工作者将基本的提交信息写入一个表中——分页和拆分以尽可能多地找到提交。
2. 丰富工作者从该表中读取数据,并填充我们在搜索中无法看到的一些信息。通过这种方式添加了新增/删除的行和仓库信息。
目前读取这些提交时有些延迟,并且仍在拉取历史提交,这就是为什么最近的提交日期数量较少,以及某些仓库尚未设置语言的原因。
我不会说这个项目已经 100% 完成——我希望继续改进数据摄取,并且我认为我可以从数据中提取更多信息——但我确实很享受目前所看到的内容。
如果您有任何建议可以添加到仪表板上,或者想到其他我应该读取的内容,请告诉我。
有关我的方法论和回填作业演变的更多信息,请访问关于页面。:-)
你好,HN,
我创建了Danube,这是一个市场平台,AI代理可以在这里发现并执行工具,开发者也可以在此发布和盈利。
我对两件事情感到厌倦:第一是直接将我的API密钥提供给像OpenClaw这样的代理(这让我觉得不安全);第二是每次在Cursor、Claude Code和其他工具之间切换时,都需要重新设置所有的MCP服务器。
Danube安全地存储你的凭据。你的代理调用工具时不会看到密钥。而且,由于只有一个MCP连接,你只需设置一次,就可以在所有客户端中使用。
对于想要发布的开发者:你只需上传一个OpenAPI规范或MCP服务器,选择性地设置定价,然后就可以上线了。代理可以搜索并找到你的工具,而用户无需手动配置任何内容。
目前已有100多个服务可用,浏览无需注册。
我很想听听你们与AI代理最常使用的工具。如果有人有兴趣发布工具,我很乐意帮助你们进行设置。
过夜,我收到了来自 Google Payments(noreply@google.com)的数十封邮件,通知我某个支付账户的联系邮箱正在被更改,而这个账户要么是我从未创建的,要么是非常旧的。这些都是实际的 Google 通知,而不是网络钓鱼尝试。
一开始,我的旧邮箱地址(一个我使用了超过 20 年的 Yahoo 邮箱)被替换为一个 gtempaccount.com 的地址,这似乎是攻击者将账户转移到 Google Workspace 中。
他们是如何在没有我批准的情况下,对一个 yahoo.com 的邮箱地址进行更改的并不清楚,但我 99% 确定我的 Yahoo 邮箱是安全的。无论如何,我已经采取了标准的预防措施(更改密码,确认已启用的双重身份验证)。
从那时起,我收到了大量类似的通知,不同的邮箱地址在同一个账户中循环出现。
我仍然可以登录我的原始账户,但它显示为“@gtempaccount.com”的后缀,而且在账户内似乎没有什么有用的操作可以进行。
尽管进行了广泛的搜索并与 Google 的支持机器人进行了聊天,但没有明确的地方可以报告这个问题。
如果有任何建议可以报告此问题或采取其他行动,我将非常感激。