返回首页
最新
我注意到我电脑上有很多随机的应用程序出现超时情况。<p>例如,我的浏览器在处理一个 aws_sessions.json 文件时超时,确实,查询这个地址的 'whois' 信息显示它是一个亚马逊服务器。<p>今天还有其他人注意到这个问题吗?
我们比较了2025年挑战InVideo的最新AI视频工具。本文分析了创作者如何转向更快速、更具创意的平台,以及为什么这四款工具在实际工作流程中脱颖而出。
我们之前使用 django-easy-audit 来跟踪 Django 中的 CRUD 和 API 事件。
问题是:每个操作都会导致额外的数据库写入,这减慢了事务速度,增加了基础设施成本,并且让我们的审计表不适合进行分析。<p>为了解决这个问题,我构建了 django-activity-audit(PyPI):
- 扩展了 Django 的日志系统,增加了自定义的 AUDIT 和 API 级别。
- 将 CRUD 和 API 请求/响应事件捕获为结构化的 JSON 日志。
- 将日志进行向量化处理,并发送到 ClickHouse。
- Grafana 使这些数据可查询和可视化。<p>这样就消除了额外的数据库写入,提供了可供分析的结构化数据,并降低了成本。<p>我很好奇,其他人是如何在 Django(或其他框架)中处理审计日志的?你们是记录它,写入数据库,还是采取其他完全不同的方法?
嗨,HN,我是Ignacio,Basekick Labs的创始人。
在过去几个月里,我一直在构建Arc,这是一个时间序列数据平台,旨在将快速数据摄取与强大的分析查询相结合。
Arc的功能是什么?通过二进制MessagePack API进行数据摄取(快速路径),与现有工具(如InfluxDB,作为前Influxer)兼容的行协议,数据以Parquet格式存储,并按小时分区,通过DuckDB引擎使用SQL进行查询。
我为什么要构建它:
许多系统迫使你在数据保留、吞吐量或复杂性之间做出权衡。我想要一个在数据摄取性能上不会影响分析的解决方案。
我目前的性能和基准测试结果:
写入吞吐量:在我的M3 Pro Max(14核,16GB RAM)上约为1.88M条记录/秒(MessagePack,未调优)
在AWS c6a.4xlarge上的ClickBench:冷启动35.18秒,热启动约0.81秒(43/43个查询成功)
在这些测试中,为了符合基准测试规则,禁用了缓存;在生产环境中启用缓存可以使重复查询速度提高约20%。
我已经开源了Arc的代码库,欢迎大家深入了解实现、基准测试和代码。期待你们的想法、批评和使用案例建议。
谢谢!
嗨,HN,
我在这里潜水很久,也偶尔贡献一些内容。最近我在一家“快速增长”的初创公司工作,之前在企业/公司待了很长时间。结果发现这是一个相互的“文化不匹配”问题。我在那里的前两周就感到精疲力竭,因此我请求他们立即终止我的雇佣关系,以便我可以向加利福尼亚州(我的家乡)申请失业救济。目前我在一个非软件/硬件的技术角色中工作,自从研究生毕业以来已经有20年了。我尝试过多次转向“下一个闪亮的目标”(增强现实/虚拟现实/数据科学/机器学习/人工智能),但都没有成功。我甚至试图进入“Leetcode” FAANG的竞争,但最终放弃了。我在思考我的下一个职业选择可能是什么。说实话,我在财务上是安全的,既有储蓄、401K,也有一位在大型科技公司(在每个“办公室”都有产品)工作的配偶。因此,我现在可以选择“退休”,去追求其他事情。但我希望过上有意义的生活,利用我在职时间做一些有价值的事情(我47岁,2月份将满48岁)。我的儿子明年就要上大学了,不会有时间上的压力。他的大学基金也已经准备好了。之前有人提到过80,000小时的建议,还有提到过techjobsforgood(https://news.ycombinator.com/item?id=40325501)。我的一些核心优势是:我通常是一个很不错的合作伙伴,和同事及外部供应商建立了良好的关系。虽然我不是一个管理人员,但我喜欢和人一起工作。抱歉有些唠叨,但我内心非常挣扎,任何来自HN的集体智慧都能帮助我,不仅是我的职业生涯,还有我的“中年危机”。我发现发帖到HN比“与GPT聊天”更具疗愈效果。感谢你的阅读。