返回首页
一周热榜
你在2025年阅读的最推荐的书籍(第一名或前1-3名)是什么?注意:这本书不一定需要在2025年出版。
在过去几天里,我基于一个Rust代码库构建了这个项目,该代码库解析来自OpenStreetMaps的最新自动车牌识别(ALPR)报告,计算每个标记的住宅建筑到附近设施的导航统计数据,并测试每条路线是否与这些ALPR摄像头(Flock是最普遍的)相交。
近年来,这些摄像头因其无差别的大规模数据收集而变得更加有争议,404 Media发布了许多关于它们在全国范围内的采用和(滥)用的原创文章(<a href="https://www.404media.co/tag/flock/" rel="nofollow">https://www.404media.co/tag/flock/</a>)。我希望利用开源数据集来追踪这种快速扩张,特别是按县划分,因为这些数据对于“去除Flock”运动来说至关重要,以向县和市政府请愿禁止和拆除这些摄像头。
在一些县,监控变得如此普遍,以至于大多数人无法在不被拍摄的情况下出行。这包括可能的敏感区域,如宗教场所和医疗设施。
关于这些摄像头合法性的论点基于它们等同于“单纯观察”的概念,但其庞大的范围和数据共享协议使得在没有搜查令的情况下共享和访问数以百万计的记录模糊了第四修正案的界限。
我对现有的“魔法蘑菇剂量计算器”感到很沮丧:大多数要么界面粗糙,要么只处理立方菌,要么硬编码一个效力值而忽略了物种、耐受性和降解因素。
因此,我创建了 Mycodosing.wtf——一个基于研究的计算器,试图在以下三个方面做得更好:
1. 使用每克的裸盖菇素/裸盖菇碱/巴埃菇碱的效力模型,针对松露(以及合成品)提供独立的效力档案。
2. 输出剂量范围(最小值/中位数/最大值),而不是单一的魔法数字,使用每种物种的不确定性因素来反映现实世界的变异性。
3. 包含一个基于5-HT2A受体下调的耐受性模型(剂量依赖的指数衰减,约14天),并提供可选的体重调整和MAOI标志。
物种效力数据来自LC-MS/MS和经典化学论文(例如,Garcia-Romeu 2021,Gotvaldová 2021,Gartz/Stríbrný),然后用Vite + React构建了一个新极简主义的用户界面,100%客户端。
我希望能收到以下方面的反馈:
- 剂量模型本身(数学或假设上是否存在缺陷?)
- 您希望调整或补充的物种数据
- 您希望在版本2中看到的内容
网站: [https://mycodosing.wtf/](https://mycodosing.wtf/)
代码: [https://github.com/ing-norante/mycodosing.wtf/](https://github.com/ing-norante/mycodosing.wtf/)
我的日常使用设备是运行Linux的Macbook Air M2,具体来说是Fedora Asahi Remix。在使用它时,我最想念的一点是偶尔能够通过Wine运行Windows软件。显然,你可以在上面运行Steam,并且Steam允许安装和运行任意Windows软件,但当我尝试时,我无法创建账户,总的来说,我更不想使用Steam。我成功在muvm(一个在16K内核上运行4K页面内核的虚拟机)下运行了一个旧版本的Heroic Games Launcher [1]。不过这并不是特别简单,我希望能有更好的体验。我在Heroic和其他专注于游戏的启动器上遇到的另一个问题是缺乏灵活性——它们要么适用于特定的软件,要么不适用,你对此无能为力。例如,一个安装程序可能需要通过Winetricks [2]安装某个特定的软件包才能运行。Heroic在安装程序运行之前并没有给你机会去运行任何东西。长话短说,我决定构建一个自己的Wine前缀管理器,它将更加灵活,不仅仅专注于游戏,并且能够在Asahi Linux上运行。此外,我决定用一种对我来说是新语言(Dart / Flutter)来编写它,并作为副产品学习这门语言。五个月后,它终于准备好了,我希望能得到一些反馈。顺便提一下,它也支持常规的x86_64 Linux发行版,尽管在这些发行版上的测试不如在Asahi上那么多。
[1]: <a href="https://heroicgameslauncher.com/" rel="nofollow">https://heroicgameslauncher.com/</a>
[2]: <a href="https://github.com/Winetricks/winetricks" rel="nofollow">https://github.com/Winetricks/winetricks</a>
每周有8亿人使用ChatGPT和Claude。目前,他们获得的是文本回复。很快,他们将获得真实的界面:产品卡片、博客文章、预订流程、支付界面,直接在对话中呈现。<p>我们为此构建了一个开源组件库。只需一条命令即可安装任何模块,并根据您的品牌进行定制。<p>如果您正在构建MCP服务器或尝试开发AI原生应用,这可能会为您节省时间。<p>您是否在为AI助手开发应用?我们很想听听您在工作流程中觉得缺少什么。
你在生产环境中运行RAG(检索增强生成)。然后,AWS账单来了。每月$2,400,50个查询/天。每个查询$48。
我们为企业客户构建了一个RAG系统,并意识到大多数生产环境中的RAG都是优化灾难。文献过于关注准确性,而完全忽视了单位经济学。
### 三个成本类别
**向量数据库(账单的40-50%)**
标准的RAG流程每个问题会进行3-5次不必要的数据库查询。我们原本应该只进行1.5次,却进行了5次往返。
**大型语言模型API(30-40%)**
标准的RAG向大型语言模型输入8,000到15,000个标记。这是必要数量的5-10倍。我们发现:超过3,000个标记的上下文,准确性就会达到饱和。超出部分只是噪音和成本。
**基础设施(15-25%)**
向量数据库闲置,监控开销,不必要的负载均衡。
### 实际推动变化的因素
**基于标记的上下文(节省35%)**
基于预算的组装,当使用的标记足够时停止。之前:每个查询12,000个标记。之后:3,200个标记。准确性保持不变。
```python
def _build_context(self, results, settings):
max_tokens = settings.get("max_context_tokens", 2000)
current_tokens = 0
for result in results:
tokens = self.llm.count_tokens(result)
if current_tokens + tokens <= max_tokens:
current_tokens += tokens
else:
break
```
**混合重排序(节省25%)**
70%的语义评分 + 30%的关键词评分。更好的排名意味着需要的块更少。从前20个检索到前8个,同时保持质量。
**嵌入缓存(节省20%)**
工作区隔离的缓存,TTL为7天。我们看到日内命中率为45-60%。
```python
async def set_embedding(self, text, embedding, workspace_id=None):
key = f"embedding:ws_{workspace_id}:{hash(text)}"
await redis.setex(key, 604800, json.dumps(embedding))
```
**批量嵌入(节省15%)**
批量API定价每个标记便宜30-40%。同时处理50个文本,而不是逐个处理。