返回首页

24小时热榜

1作者: antoferra大约 19 小时前原帖
多年来,我对社交媒体和互联网有些上瘾。不过,我从未想过删除这些应用,因为我用它们来与朋友保持联系。 因此,我创建了TimeCap。这是一款可以去除任何社交媒体上令人上瘾部分的应用(支持Instagram、Twitter、YouTube、LinkedIn、TikTok和Reddit),同时保留非算法推荐的内容。它是完全可定制的,确实让我每天的屏幕使用时间减少到不到1小时。 对于一个社交媒体平台,使用是免费的,而同时支持无限平台的费用为每年29.99美元。如果你需要高级版本但负担不起,请给我发消息,我会帮你解决。 期待你的反馈 :)
1作者: dimitsapis大约 19 小时前原帖
你好, 我是一支小团队的一员,我们正在开发TalkBI,这是一款基于人工智能的商业智能工具,目前处于公开测试阶段。 TalkBI可以连接到PostgreSQL,用户可以通过自然语言查询数据,而无需编写SQL。同时,它还可以对数据进行可视化,以便更容易理解结果(用于报告)。 我们主要为小型团队和初创企业(如市场营销人员、产品经理、销售或运营人员)构建这个工具,他们需要访问数据但不懂SQL。 我们计划在三月份正式上线,非常希望能得到社区的诚实反馈——特别是关于实用性、局限性,以及它是否真的解决了现有商业智能工具所面临的实际问题。 如果你想尝试,可以在这里找到测试用的演示数据集:https://talk.bi/ 欢迎提问,也期待批评意见。
1作者: shubhwicked大约 19 小时前原帖
核心功能 智能行程规划 - 创建和管理旅行,自动生成行程 人工智能增强 - 通过多个大型语言模型提供者的建议来提升您的旅行体验 预算跟踪 - 通过可视化预算概览跟踪旅行支出 基于位置的建议 - 根据您的位置和预算获取目的地推荐 多币种支持 - 支持20多种货币并自动识别 行李清单生成器 - 根据旅行细节自动提供打包建议 年度规划器 - 以可视化日历的形式查看您所有的旅行安排
1作者: frmalmaty大约 19 小时前原帖
大家好——我正在进行一项简短的匿名研究调查,旨在了解导致意外基础设施支出的因素,以及团队真正重视哪些能力(例如,成本归属、每条路线的费用、前后影响、保护措施、标准修复)。<p>如果您在企业架构、平台或财务运营相关的角色中工作,我非常希望能听到您的意见。<p>调查(5-7分钟):https://tally.so/r/zx77eR<p>调查结束后,我很乐意将汇总结果分享给大家。联系信息在最后是可选的。<p>谢谢!
1作者: seanlf大约 19 小时前原帖
我分析了在一天内进行的8个Claude Code会话的JSONL日志。我原本预期计划好的会话会更高效,但没想到效率竟然提高了3倍。<p><a href="https:&#x2F;&#x2F;seanfloyd.dev&#x2F;blog&#x2F;claude-code-post-mortem" rel="nofollow">https:&#x2F;&#x2F;seanfloyd.dev&#x2F;blog&#x2F;claude-code-post-mortem</a>
1作者: noahkay13大约 20 小时前原帖
我一直在碰壁:在 NumPy 或 PyTorch 中原型设计一些东西,然后为了边缘部署将其重写为 C++。重写的过程总是比最初的工作耗时更长。Eigen 的固定大小矩阵 API 无法映射到张量工作负载,xtensor 仅支持 CPU,且使用编译时模板类型,导致错误信息难以阅读,并且它们在 Mac 上都不支持 GPU。更糟糕的是,Eigen 的性能通常比 Python 版本还要慢,因为 PyTorch 打包了优化过的 BLAS,而 Eigen 则使用其自身有限的实现。 因此,我构建了 Axiom,使得重写过程变得机械化。该 API 尽可能接近 NumPy/PyTorch——相同的方法名称、广播规则、运算符重载、动态形状、运行时数据类型。在 PyTorch 中看起来是这样的代码: ```python scores = Q.matmul(K.transpose(-2, -1)) / math.sqrt(64) output = scores.softmax(-1).matmul(V) ``` 在 Axiom 中看起来是这样的: ```cpp auto scores = Q.matmul(K.transpose(-2, -1)) / std::sqrt(64.0f); auto output = scores.softmax(-1).matmul(V); ``` 没有心理翻译,也没有调试微妙的 API 差异。 箱子里的内容(28,000 行代码): - 100 多个操作:算术运算、归约、激活函数(relu、gelu、silu、softmax)、池化、FFT、完整的 LAPACK 线性代数(SVD、QR、Cholesky、特征分解、求解器) - 通过 MPSGraph 的 Metal GPU——所有操作都在 GPU 上运行,而不仅仅是矩阵乘法。编译的图形通过(形状,数据类型)进行缓存,以避免重新编译 - 无缝的 CPU ↔ GPU:`auto g = tensor.gpu();`——Apple Silicon 上的统一内存完全避免了复制 - 内置 einops:`tensor.rearrange("b h w c -> b c h w")` - 跨架构的高速 SIMD(NEON、AVX2、AVX-512、SSE、WASM、RISC-V) - 通过变体支持运行时数据类型(可读的错误,而不是模板爆炸) - 默认行优先,支持通过 as_f_contiguous() 进行列优先 - 在 macOS、Linux、Windows 和 WebAssembly 上运行 在 M4 Pro 上的性能(与使用 OpenBLAS 的 Eigen、PyTorch、NumPy 比较): - 矩阵乘法 2048×2048:3,196 GFLOPS(Eigen 2,911 / PyTorch 2,433) - ReLU 4096×4096:123 GB/s(Eigen 117 / PyTorch 70) - FFT2 2048×2048:14.9ms(PyTorch 27.6ms / NumPy 63.5ms) 尝试方法: ```bash git clone https://github.com/frikallo/axiom.git cd axiom && make release ``` 或者通过 FetchContent 将其添加到您的 CMake 项目中。示例文件位于 examples/ 目录中。 欢迎提问有关内部实现的问题或对 API 的反馈。
1作者: DenisDolya大约 22 小时前原帖
嗨,HN, 我开始这个项目是因为厌倦了那些隐藏内存分配、引入大量 libc 或只解决问题一小部分的 BMP 库。虽然有很多类似 libbmp 的库,但功能分散:一个负责解码,另一个负责编码,还有一个专注于嵌入式,另一个则是单头文件。在实际项目中,这通常意味着需要依赖 5 到 10 个小库才能加载和显示图像。 我希望有一个可预测的库:没有内存分配、只有一个头文件、对缓冲区的完全控制,并且可以在桌面和微控制器上使用。这样你总是知道内存来自哪里以及去向何处。 随着时间的推移,我越来越深入这个项目,并开始围绕我称之为 ESS 的理念进行优化:能效、速度、小二进制。我为常见的 24/32bpp BMP 添加了快速路径,消除了热循环中的不必要分支,并专注于可预测的性能。对于嵌入式系统,我添加了一个流式解码器,可以通过回调直接写入 LCD/DMA,甚至可以只解码一个裁剪的矩形,以节省 CPU 时间和功耗。 最终的结果是 TurboLibBMP:一个单头文件、类似 stb 风格的 BMP 解码器和编码器,使用 C 编写,没有内存分配、没有标准输入输出、没有隐藏缓冲区,并且用户可以完全控制内存和行为。它遵循 GPL-3.0 许可,并且可以在 C 和 C++ 中使用。 我主要是为我自己的低级和嵌入式项目构建这个库,但我分享出来是希望其他人也能找到它的用处。我非常希望能收到关于 API 设计、边缘情况以及这种方法在实际项目中是否合理的反馈。 仓库链接:<a href="https://github.com/Ferki-git-creator/turbo-lib-bmp" rel="nofollow">https://github.com/Ferki-git-creator/turbo-lib-bmp</a>