多年来,我对社交媒体和互联网有些上瘾。不过,我从未想过删除这些应用,因为我用它们来与朋友保持联系。
因此,我创建了TimeCap。这是一款可以去除任何社交媒体上令人上瘾部分的应用(支持Instagram、Twitter、YouTube、LinkedIn、TikTok和Reddit),同时保留非算法推荐的内容。它是完全可定制的,确实让我每天的屏幕使用时间减少到不到1小时。
对于一个社交媒体平台,使用是免费的,而同时支持无限平台的费用为每年29.99美元。如果你需要高级版本但负担不起,请给我发消息,我会帮你解决。
期待你的反馈 :)
返回首页
24小时热榜
你好,
我是一支小团队的一员,我们正在开发TalkBI,这是一款基于人工智能的商业智能工具,目前处于公开测试阶段。
TalkBI可以连接到PostgreSQL,用户可以通过自然语言查询数据,而无需编写SQL。同时,它还可以对数据进行可视化,以便更容易理解结果(用于报告)。
我们主要为小型团队和初创企业(如市场营销人员、产品经理、销售或运营人员)构建这个工具,他们需要访问数据但不懂SQL。
我们计划在三月份正式上线,非常希望能得到社区的诚实反馈——特别是关于实用性、局限性,以及它是否真的解决了现有商业智能工具所面临的实际问题。
如果你想尝试,可以在这里找到测试用的演示数据集:https://talk.bi/
欢迎提问,也期待批评意见。
核心功能
智能行程规划 - 创建和管理旅行,自动生成行程
人工智能增强 - 通过多个大型语言模型提供者的建议来提升您的旅行体验
预算跟踪 - 通过可视化预算概览跟踪旅行支出
基于位置的建议 - 根据您的位置和预算获取目的地推荐
多币种支持 - 支持20多种货币并自动识别
行李清单生成器 - 根据旅行细节自动提供打包建议
年度规划器 - 以可视化日历的形式查看您所有的旅行安排
大家好——我正在进行一项简短的匿名研究调查,旨在了解导致意外基础设施支出的因素,以及团队真正重视哪些能力(例如,成本归属、每条路线的费用、前后影响、保护措施、标准修复)。<p>如果您在企业架构、平台或财务运营相关的角色中工作,我非常希望能听到您的意见。<p>调查(5-7分钟):https://tally.so/r/zx77eR<p>调查结束后,我很乐意将汇总结果分享给大家。联系信息在最后是可选的。<p>谢谢!
纳米香蕉演示编辑器
我分析了在一天内进行的8个Claude Code会话的JSONL日志。我原本预期计划好的会话会更高效,但没想到效率竟然提高了3倍。<p><a href="https://seanfloyd.dev/blog/claude-code-post-mortem" rel="nofollow">https://seanfloyd.dev/blog/claude-code-post-mortem</a>
我一直在碰壁:在 NumPy 或 PyTorch 中原型设计一些东西,然后为了边缘部署将其重写为 C++。重写的过程总是比最初的工作耗时更长。Eigen 的固定大小矩阵 API 无法映射到张量工作负载,xtensor 仅支持 CPU,且使用编译时模板类型,导致错误信息难以阅读,并且它们在 Mac 上都不支持 GPU。更糟糕的是,Eigen 的性能通常比 Python 版本还要慢,因为 PyTorch 打包了优化过的 BLAS,而 Eigen 则使用其自身有限的实现。
因此,我构建了 Axiom,使得重写过程变得机械化。该 API 尽可能接近 NumPy/PyTorch——相同的方法名称、广播规则、运算符重载、动态形状、运行时数据类型。在 PyTorch 中看起来是这样的代码:
```python
scores = Q.matmul(K.transpose(-2, -1)) / math.sqrt(64)
output = scores.softmax(-1).matmul(V)
```
在 Axiom 中看起来是这样的:
```cpp
auto scores = Q.matmul(K.transpose(-2, -1)) / std::sqrt(64.0f);
auto output = scores.softmax(-1).matmul(V);
```
没有心理翻译,也没有调试微妙的 API 差异。
箱子里的内容(28,000 行代码):
- 100 多个操作:算术运算、归约、激活函数(relu、gelu、silu、softmax)、池化、FFT、完整的 LAPACK 线性代数(SVD、QR、Cholesky、特征分解、求解器)
- 通过 MPSGraph 的 Metal GPU——所有操作都在 GPU 上运行,而不仅仅是矩阵乘法。编译的图形通过(形状,数据类型)进行缓存,以避免重新编译
- 无缝的 CPU ↔ GPU:`auto g = tensor.gpu();`——Apple Silicon 上的统一内存完全避免了复制
- 内置 einops:`tensor.rearrange("b h w c -> b c h w")`
- 跨架构的高速 SIMD(NEON、AVX2、AVX-512、SSE、WASM、RISC-V)
- 通过变体支持运行时数据类型(可读的错误,而不是模板爆炸)
- 默认行优先,支持通过 as_f_contiguous() 进行列优先
- 在 macOS、Linux、Windows 和 WebAssembly 上运行
在 M4 Pro 上的性能(与使用 OpenBLAS 的 Eigen、PyTorch、NumPy 比较):
- 矩阵乘法 2048×2048:3,196 GFLOPS(Eigen 2,911 / PyTorch 2,433)
- ReLU 4096×4096:123 GB/s(Eigen 117 / PyTorch 70)
- FFT2 2048×2048:14.9ms(PyTorch 27.6ms / NumPy 63.5ms)
尝试方法:
```bash
git clone https://github.com/frikallo/axiom.git
cd axiom && make release
```
或者通过 FetchContent 将其添加到您的 CMake 项目中。示例文件位于 examples/ 目录中。
欢迎提问有关内部实现的问题或对 API 的反馈。
嗨,HN,
我开始这个项目是因为厌倦了那些隐藏内存分配、引入大量 libc 或只解决问题一小部分的 BMP 库。虽然有很多类似 libbmp 的库,但功能分散:一个负责解码,另一个负责编码,还有一个专注于嵌入式,另一个则是单头文件。在实际项目中,这通常意味着需要依赖 5 到 10 个小库才能加载和显示图像。
我希望有一个可预测的库:没有内存分配、只有一个头文件、对缓冲区的完全控制,并且可以在桌面和微控制器上使用。这样你总是知道内存来自哪里以及去向何处。
随着时间的推移,我越来越深入这个项目,并开始围绕我称之为 ESS 的理念进行优化:能效、速度、小二进制。我为常见的 24/32bpp BMP 添加了快速路径,消除了热循环中的不必要分支,并专注于可预测的性能。对于嵌入式系统,我添加了一个流式解码器,可以通过回调直接写入 LCD/DMA,甚至可以只解码一个裁剪的矩形,以节省 CPU 时间和功耗。
最终的结果是 TurboLibBMP:一个单头文件、类似 stb 风格的 BMP 解码器和编码器,使用 C 编写,没有内存分配、没有标准输入输出、没有隐藏缓冲区,并且用户可以完全控制内存和行为。它遵循 GPL-3.0 许可,并且可以在 C 和 C++ 中使用。
我主要是为我自己的低级和嵌入式项目构建这个库,但我分享出来是希望其他人也能找到它的用处。我非常希望能收到关于 API 设计、边缘情况以及这种方法在实际项目中是否合理的反馈。
仓库链接:<a href="https://github.com/Ferki-git-creator/turbo-lib-bmp" rel="nofollow">https://github.com/Ferki-git-creator/turbo-lib-bmp</a>