返回首页
最新
嗨,HN,
我尝试过几乎所有的 macOS 剪贴板管理器,但总是遇到两个问题:要么它们是笨重的 Electron 应用,使用起来感觉迟缓,要么需要我离开键盘去寻找所需内容。我大多数时候使用 Raycast,但它在加载截图时速度较慢,并且是以搜索为主,这意味着我需要离开我喜欢的主行去滚动查看项目。
我创建了 Paster,因为我想要一个感觉像是我终端扩展的工具,并且能够即时加载复制的内容。它是用 Rust 编写的,以保持尽可能低的延迟,并使用本地 SQLite 数据库来存储历史记录。它完全私密,不收集任何遥测数据,您的数据完全属于您。它会访问其域名以验证许可证。
我做出的一些具体选择:
- 导航:我将其映射到 j/k 和 / 进行搜索。如果您使用 Vim 或终端,这应该会感觉像是第二天性。
- 隐私:我不喜欢将剪贴板同步到云端。一切都保留在您的机器上。
- 快速查看:我添加了一个不错的小功能,可以在更大的快速查看窗口中查看每个剪贴板项目。对于截图非常方便,并为文本提供语法高亮。
目前这是一个付费应用,提供 7 天试用。我非常好奇社区对这种“万用 Vim”方法的看法。为了透明起见,它主要是借助 AI(Gemini)来构建的,主要用于需要大量样板代码的 UI 部分。
目前仅支持 macOS,我确实打算开发 Linux 版本,但不敢保证。
我觉得我对Claude Code上瘾了。整天我只想用数据探索各种想法。我担心十年后回首时会质疑自己对时间的使用。我最终……做了很多不错的图表?就这些?如果你也有类似的感受,你是如何设定界限的?
OpenLoom 是一个 Chrome 扩展,它利用浏览器的原生屏幕捕获和媒体录制 API 录制你的屏幕,并在画布上合成一个摄像头画中画(PIP)叠加,直接上传到你自己的 Supabase 项目中。没有中间服务器,没有订阅费用,也没有厂商锁定。位于 openloom.live 的网页播放器是一个托管在 GitHub Pages 上的静态网站,直接从你的后端获取视频,不存储或记录任何内容。整个项目是开源的(包括扩展、网页查看器和配置流程),你可以审计每一个网络请求。你的录制、你的存储桶、你的规则。请务必查看并分享你的反馈!
我从事开发工作已经超过20年,也曾创办过一些初创公司,但这是我第一次开发移动应用 :) 我从一个简单的项目开始。我觉得随着大语言模型(LLM)API的普及,可能会有许多类似的应用可以吸引“外部世界”(非技术受众)的兴趣,因此我决定从这个项目开始进行实验。
大家好,
我创建了Whisker,因为搭建一个简单的在线商店不应该需要WordPress、Composer或每月39美元的SaaS费用。它是一个自托管的电子商务购物车,完全基于PHP和MySQL,没有外部依赖。
只需上传到任何共享主机,运行6步网页安装程序,就可以开始销售。这就是全部。
它的功能包括:带有变体的产品目录(按尺寸×颜色组合,提供单独的SKU/价格/库存),4个支付网关(Razorpay、Stripe、CCAvenue、加密货币),多货币支持,管理员仪表盘,订单管理,发票,客户账户,带有JSON-LD产品架构的SEO引擎,CSV批量导入,支持票务系统,优惠券系统。
安全性方面:PDO预处理语句、bcrypt、CSRF、防止会话指纹攻击、Webhook签名验证、登录速率限制、上传MIME类型和扩展名验证。
大约130个文件,25个表,运行在PHP 8.0+和MySQL 5.7+上。
演示链接:https://whisker.lohit.me
GitHub链接:https://github.com/WhiskerEnt/Whisker-Cart
我非常欢迎对架构或安全性的任何反馈。乐意讨论技术决策。
在决定针对哪些国际市场开展我的SaaS业务时,我经历了一番挣扎,因此构建了这个工具。<p>这是一个MCP服务器,可以连接到Claude、Cursor、ChatGPT Desktop、Windsurf以及任何兼容MCP的客户端。其背后使用了DataForSEO,提供来自172个国家的真实关键词数据,以及Claude进行市场分析。通过与您的AI工具的对话,您可以获得关键词机会、竞争数据和内容。<p>欢迎就MCP架构或DataForSEO集成方面的问题进行咨询。
我们将斯坦福大学的ACE(通过执行反馈学习的智能体)与反思语言模型模式相结合。不同于单次读取轨迹,LLM在沙箱中编写并运行Python代码,以程序化的方式探索这些轨迹,从而发现单次分析所遗漏的跨轨迹模式。该框架在τ2-bench上实现了2倍的一致性提升。
很多人都听说了谷歌计划阻止用户安装未由谷歌签名的APK文件的消息。但谷歌尚未改变主意。我在想这里是否有比我们更了解情况的人。如果这不是威胁,而是谷歌的真实计划,你们打算如何应对这种情况?
嗨,HN,
我开发了OpenGraviton,这是一个开源的AI推理引擎,旨在突破在消费级硬件上运行极大模型的限制。
该系统结合了多种技术,显著降低了内存和计算需求:
• 1.58位三元量化({-1, 0, +1}),实现约10倍的压缩
• 动态稀疏性,结合Top-K剪枝和MoE路由
• 基于mmap的层流式加载,直接从NVMe SSD加载权重
• 预测解码以提高生成吞吐量
这些技术使得远超系统RAM的模型能够在本地运行。
在早期基准测试中,OpenGraviton将TinyLlama-1.1B的内存需求从约2.05GB(FP16)降低到约0.24GB,使用了三元量化。在140B规模的合成压力测试中,通常需要约280GB FP16的模型,在使用三元格式打包后,可以适应约35GB的内存。
该项目针对Apple Silicon进行了优化,目前使用自定义的Metal + C++张量解包。
基准测试、架构和详细信息:
[https://opengraviton.github.io](https://opengraviton.github.io)
GitHub:
[https://github.com/opengraviton](https://github.com/opengraviton)