返回首页
最新
主要特点:
- 即时读取超过10GB的文件(内存使用量约为20MB)。
- 100% 本地执行(沙箱环境):数据从未上传到任何服务器。支持离线工作。
- JSON 格式化工具:检测 JSON 行并在点击时进行格式化。
- “跳跃书签”:保存字节偏移位置,以便在相隔数GB的行之间快速跳转。
嗨,HN - 我创建了ReadyLive,一个针对直播模特的实时监控和通知系统。
基本想法是:人们常常在房间里等待特定的时刻(私人模式、票务表演、特定目标、特定短语)。ReadyLive监控这些房间,并在触发条件发生时提醒你,这样你就不必一直等待。
我目前最关注的不是增长或功能,而是隐私和安全。
隐私优先的设计
我有意设计这个系统,使其在不放弃个人数据的情况下可用:
- 无广告,无追踪,无与用户相关的分析
- 不需要真实邮箱(虚假邮箱也可以正常使用)
- 没有浏览历史,没有行为档案
- 尽量少存储数据(目标是:即使有人获取了数据库,也没有太多可以学习的内容)
我并不寻求全面审计或免费的工作,而是想知道:我遗漏了哪些明显的安全问题?
如果你在进行类似的威胁建模:
- 在这样的系统中,隐私泄露通常发生在哪里,即使你试图避免存储数据?
- 让用户定义触发条件时,有哪些常见的陷阱(即使有严格的限制)?
- 使用Telegram进行通知是否以人们常常低估的方式改变了威胁模型?
- 你会首先尝试破坏什么?
我希望在复杂性出现之前,尽早检查边界。
链接: [https://readylive.io](https://readylive.io)
如果有任何问题或需要分享更多细节,我很乐意回答。
大家好——我一直在开发IntentusNet,这是一个专注于确定性、可重放执行语义的小型执行运行时,旨在与AI工具配合使用。
我在生产系统中遇到的问题是:
AI管道是可观察的,但不可重现。在发生事件后,模型、路由逻辑、重试或回退可能已经发生了变化——仅凭日志无法重放实际发生的事情。
v1.3.0引入了一个运行时确定性核心:
- 写前日志(仅追加的JSONL),在副作用之前记录
- 崩溃安全恢复和确定性重放(在分歧时会大声失败)
- 运行时执行契约(超时、重试、成本上限)
- 副作用分类,以防止不安全的重试或回退
- 以CLI为主的检查(列出 / 显示 / 跟踪 / 重放 / 差异)
这不是一个规划器或代理框架,也不是MCP的替代品——它纯粹专注于工具周围的执行语义(包括MCP风格的工具)。
快速尝试(从仓库根目录运行):
```bash
git clone https://github.com/Balchandar/intentusnet
cd intentusnet
pip install -e .
python -m examples.deterministic_routing_demo.demo --mode with
python -m examples.deterministic_routing_demo.demo --mode mcp
```
文档(架构、保证、演示):
[https://intentusnet.com](https://intentusnet.com)
MIT许可证,开源:
[https://github.com/Balchandar/intentusnet](https://github.com/Balchandar/intentusnet)
我非常希望听到构建真实系统的人的反馈:
- 在实践中,您期望从确定性重放中获得什么保证?
- 您如何在AI管道中安全地处理重试和副作用?
我们创建Verdic是因为在将大型语言模型(LLMs)投入生产时,反复遇到同样的问题:大多数人工智能失败并不是关于内容安全,而是关于意图漂移。
随着模型变得更加自主,输出往往会悄然从描述性行为转变为规定性行为——而没有任何明确的信号表明系统现在实际上正在采取行动。在这种情况下,关键词过滤器和基于规则的保护措施很快就会失效。
Verdic是一个意图治理层,位于模型与应用程序之间。它不是检查主题或关键词,而是评估:
- 输出是否将未来的选择压缩为特定的行动方案
- 响应是否施加了规范性压力(引导行为与解释之间的区别)
我们的目标不是进行内容审核,而是实现行为控制:检测人工智能系统是否在超出其部署意图的情况下运行,特别是在受监管或决策关键的工作流程中。
Verdic目前作为API运行,具有可配置的允许/警告/阻止结果。我们正在对自主工作流程和长时间运行的链条进行测试,因为在这些情况下意图漂移最难以检测。
这是一个早期版本。我主要希望从在生产中部署LLMs的人那里获得反馈,特别是在以下方面:
- 自主系统
- 人工智能治理
- 风险与合规
- 我们可能遗漏的失败模式
很高兴回答问题或分享更多关于该方法的细节。
我创建了 <a href="https://lich-am.com" rel="nofollow">https://lich-am.com</a>,因为大多数本地的农历网站充斥着干扰性的广告和追踪。该网站采用了精确的天文农历计算算法,适用于GMT+7时区。它专注于核心网页性能指标,并且没有外部依赖,以确保隐私和速度。这是为寻找简洁工具的越南社区而设计的。
当前围绕代理的生态系统感觉像是一堆臃肿的SaaS,订阅费用昂贵且存在隐私问题。Orla将大型语言模型带到您的终端,提供一个极其简单、兼容Unix的界面。所有操作都在本地100%运行。您无需任何API密钥或订阅,您的数据也不会离开您的机器。
您可以像使用其他命令行工具一样使用它:
```
$ orla agent "总结这段代码" < main.go
$ git status | orla agent "为这些更改草拟提交信息。"
$ cat data.json | orla agent "提取所有电子邮件地址" | sort -u
```
它基于Unix哲学,支持管道操作且易于扩展。
仓库中的README包含一个快速演示。
安装只需一条命令。该脚本安装Orla,设置Ollama以进行本地推理,并拉取一个轻量级模型以帮助您入门。
您可以使用Homebrew(在Mac OS或Linux上):
```
$ brew install --cask dorcha-inc/orla/orla
```
或者使用Shell安装程序:
```
$ curl -fsSL https://raw.githubusercontent.com/dorcha-inc/orla/main/scripts/install.sh | sh
```
Orla是用Go语言编写的,完全是自由软件(MIT许可证),基于其他自由软件构建。我们非常欢迎您的反馈。
谢谢! :-)
附注:欢迎对Orla的贡献。请查看(https://github.com/dorcha-inc/orla/blob/main/CONTRIBUTING.md)以获取贡献指南。
作者在此。
这开始于一个探索,看看我能多快地推动M1 Pro上的单核性能。
我从零开始使用C++20构建了一个订单匹配引擎。
最初,它的性能约为每秒10万次操作。经过一个月的优化,现在的性能达到了每秒约1.56亿次操作。
主要优化措施:
- 移除了所有互斥锁(每个核心一个分片架构)。
- 为线程间通信定制了无锁的单生产者单消费者环形缓冲区。
- 用扁平向量和位集扫描(使用CTZ指令)替代了std::map。
- 在栈上使用std::pmr(多态内存资源)实现零分配的热路径。
为了证明它能够处理真实市场(不仅仅是随机数字),我通过重放捕获的Binance L3市场数据(每秒1.32亿次操作)进行了验证。
关于优化过程的详细写作在这里:
<a href="https://medium.com/@kpiyush8826/how-i-optimized-a-c-matching-engine-from-100k-to-150-million-orders-per-second-35b2065fa4c0" rel="nofollow">https://medium.com/@kpiyush8826/how-i-optimized-a-c-matching...</a>
欢迎提问!