当前围绕代理的生态系统感觉像是一堆臃肿的SaaS,订阅费用昂贵且存在隐私问题。Orla将大型语言模型带到您的终端,提供一个极其简单、兼容Unix的界面。所有操作都在本地100%运行。您无需任何API密钥或订阅,您的数据也不会离开您的机器。
您可以像使用其他命令行工具一样使用它:
```
$ orla agent "总结这段代码" < main.go
$ git status | orla agent "为这些更改草拟提交信息。"
$ cat data.json | orla agent "提取所有电子邮件地址" | sort -u
```
它基于Unix哲学,支持管道操作且易于扩展。
仓库中的README包含一个快速演示。
安装只需一条命令。该脚本安装Orla,设置Ollama以进行本地推理,并拉取一个轻量级模型以帮助您入门。
您可以使用Homebrew(在Mac OS或Linux上):
```
$ brew install --cask dorcha-inc/orla/orla
```
或者使用Shell安装程序:
```
$ curl -fsSL https://raw.githubusercontent.com/dorcha-inc/orla/main/scripts/install.sh | sh
```
Orla是用Go语言编写的,完全是自由软件(MIT许可证),基于其他自由软件构建。我们非常欢迎您的反馈。
谢谢! :-)
附注:欢迎对Orla的贡献。请查看(https://github.com/dorcha-inc/orla/blob/main/CONTRIBUTING.md)以获取贡献指南。
返回首页
最新
作者在此。
这开始于一个探索,看看我能多快地推动M1 Pro上的单核性能。
我从零开始使用C++20构建了一个订单匹配引擎。
最初,它的性能约为每秒10万次操作。经过一个月的优化,现在的性能达到了每秒约1.56亿次操作。
主要优化措施:
- 移除了所有互斥锁(每个核心一个分片架构)。
- 为线程间通信定制了无锁的单生产者单消费者环形缓冲区。
- 用扁平向量和位集扫描(使用CTZ指令)替代了std::map。
- 在栈上使用std::pmr(多态内存资源)实现零分配的热路径。
为了证明它能够处理真实市场(不仅仅是随机数字),我通过重放捕获的Binance L3市场数据(每秒1.32亿次操作)进行了验证。
关于优化过程的详细写作在这里:
<a href="https://medium.com/@kpiyush8826/how-i-optimized-a-c-matching-engine-from-100k-to-150-million-orders-per-second-35b2065fa4c0" rel="nofollow">https://medium.com/@kpiyush8826/how-i-optimized-a-c-matching...</a>
欢迎提问!
我创建了一个小型命令行工具,方便分享和重用Claude Code技能。<p>skill-add解决了这个问题:在GitHub上创建一个包含你技能的代理技能库,任何人都可以通过以下命令安装它们:<p>skill-add yourname/skill-name<p>它会从github.com/yourname/agent-skills下载技能,并将其复制到你当前项目中的.claude/skills/目录下。<p>就是这样。没有注册,没有认证,仅仅是GitHub仓库。<p>使用Python/Typer构建,代码大约100行。