1作者: balachandarmani大约 1 个月前原帖
大家好——我一直在开发IntentusNet,这是一个专注于确定性、可重放执行语义的小型执行运行时,旨在与AI工具配合使用。 我在生产系统中遇到的问题是: AI管道是可观察的,但不可重现。在发生事件后,模型、路由逻辑、重试或回退可能已经发生了变化——仅凭日志无法重放实际发生的事情。 v1.3.0引入了一个运行时确定性核心: - 写前日志(仅追加的JSONL),在副作用之前记录 - 崩溃安全恢复和确定性重放(在分歧时会大声失败) - 运行时执行契约(超时、重试、成本上限) - 副作用分类,以防止不安全的重试或回退 - 以CLI为主的检查(列出 / 显示 / 跟踪 / 重放 / 差异) 这不是一个规划器或代理框架,也不是MCP的替代品——它纯粹专注于工具周围的执行语义(包括MCP风格的工具)。 快速尝试(从仓库根目录运行): ```bash git clone https://github.com/Balchandar/intentusnet cd intentusnet pip install -e . python -m examples.deterministic_routing_demo.demo --mode with python -m examples.deterministic_routing_demo.demo --mode mcp ``` 文档(架构、保证、演示): [https://intentusnet.com](https://intentusnet.com) MIT许可证,开源: [https://github.com/Balchandar/intentusnet](https://github.com/Balchandar/intentusnet) 我非常希望听到构建真实系统的人的反馈: - 在实践中,您期望从确定性重放中获得什么保证? - 您如何在AI管道中安全地处理重试和副作用?
1作者: kundan_s__r大约 1 个月前原帖
我们创建Verdic是因为在将大型语言模型(LLMs)投入生产时,反复遇到同样的问题:大多数人工智能失败并不是关于内容安全,而是关于意图漂移。 随着模型变得更加自主,输出往往会悄然从描述性行为转变为规定性行为——而没有任何明确的信号表明系统现在实际上正在采取行动。在这种情况下,关键词过滤器和基于规则的保护措施很快就会失效。 Verdic是一个意图治理层,位于模型与应用程序之间。它不是检查主题或关键词,而是评估: - 输出是否将未来的选择压缩为特定的行动方案 - 响应是否施加了规范性压力(引导行为与解释之间的区别) 我们的目标不是进行内容审核,而是实现行为控制:检测人工智能系统是否在超出其部署意图的情况下运行,特别是在受监管或决策关键的工作流程中。 Verdic目前作为API运行,具有可配置的允许/警告/阻止结果。我们正在对自主工作流程和长时间运行的链条进行测试,因为在这些情况下意图漂移最难以检测。 这是一个早期版本。我主要希望从在生产中部署LLMs的人那里获得反馈,特别是在以下方面: - 自主系统 - 人工智能治理 - 风险与合规 - 我们可能遗漏的失败模式 很高兴回答问题或分享更多关于该方法的细节。
1作者: DerekDragon大约 1 个月前原帖
我创建了 <a href="https:&#x2F;&#x2F;lich-am.com" rel="nofollow">https:&#x2F;&#x2F;lich-am.com</a>,因为大多数本地的农历网站充斥着干扰性的广告和追踪。该网站采用了精确的天文农历计算算法,适用于GMT+7时区。它专注于核心网页性能指标,并且没有外部依赖,以确保隐私和速度。这是为寻找简洁工具的越南社区而设计的。
1作者: unclecolm大约 1 个月前原帖
当前围绕代理的生态系统感觉像是一堆臃肿的SaaS,订阅费用昂贵且存在隐私问题。Orla将大型语言模型带到您的终端,提供一个极其简单、兼容Unix的界面。所有操作都在本地100%运行。您无需任何API密钥或订阅,您的数据也不会离开您的机器。 您可以像使用其他命令行工具一样使用它: ``` $ orla agent "总结这段代码" < main.go $ git status | orla agent "为这些更改草拟提交信息。" $ cat data.json | orla agent "提取所有电子邮件地址" | sort -u ``` 它基于Unix哲学,支持管道操作且易于扩展。 仓库中的README包含一个快速演示。 安装只需一条命令。该脚本安装Orla,设置Ollama以进行本地推理,并拉取一个轻量级模型以帮助您入门。 您可以使用Homebrew(在Mac OS或Linux上): ``` $ brew install --cask dorcha-inc/orla/orla ``` 或者使用Shell安装程序: ``` $ curl -fsSL https://raw.githubusercontent.com/dorcha-inc/orla/main/scripts/install.sh | sh ``` Orla是用Go语言编写的,完全是自由软件(MIT许可证),基于其他自由软件构建。我们非常欢迎您的反馈。 谢谢! :-) 附注:欢迎对Orla的贡献。请查看(https://github.com/dorcha-inc/orla/blob/main/CONTRIBUTING.md)以获取贡献指南。
1作者: kpiyush8826大约 1 个月前原帖
作者在此。 这开始于一个探索,看看我能多快地推动M1 Pro上的单核性能。 我从零开始使用C++20构建了一个订单匹配引擎。 最初,它的性能约为每秒10万次操作。经过一个月的优化,现在的性能达到了每秒约1.56亿次操作。 主要优化措施: - 移除了所有互斥锁(每个核心一个分片架构)。 - 为线程间通信定制了无锁的单生产者单消费者环形缓冲区。 - 用扁平向量和位集扫描(使用CTZ指令)替代了std::map。 - 在栈上使用std::pmr(多态内存资源)实现零分配的热路径。 为了证明它能够处理真实市场(不仅仅是随机数字),我通过重放捕获的Binance L3市场数据(每秒1.32亿次操作)进行了验证。 关于优化过程的详细写作在这里: <a href="https:&#x2F;&#x2F;medium.com&#x2F;@kpiyush8826&#x2F;how-i-optimized-a-c-matching-engine-from-100k-to-150-million-orders-per-second-35b2065fa4c0" rel="nofollow">https:&#x2F;&#x2F;medium.com&#x2F;@kpiyush8826&#x2F;how-i-optimized-a-c-matching...</a> 欢迎提问!