返回首页
最新
嗨,HN,
我想从设备捕获的音频中提取结构化信息,设备不需要太贵(一个小型的语言模型是一个选项,我有一块旧的Nvidia 1660 Super显卡,6GB显存)。
可以使用OpenAI的Whisper将音频内容转化为文本,但我不太清楚如何可靠地以结构化的方式提取信息。总是会有一个“目的”,这个目的从大约10个可能的选项中选择,还有“所需数据”,这取决于目的,由键值对组成,并且这些键值对也有预定义的值。
一个例子(口语文本):
```
请申请从11月1日到11月8日的假期。
```
结果(结构化数据):
```
{
purpose: "申请假期",
data: {
start: "2025-11-01",
end: "2025-11-08"
}
}
```
我有哪些选项可以以可靠的方式做到这一点,以“最佳匹配”的方法将不同的目的与不同的数据相匹配?
我刚刚发布了 rust-loguru,这是一个用于 Rust 的日志库,旨在结合直观的 API 设计(灵感来自 Go/Python 的 Loguru)与 Rust 的性能特点。
一些亮点包括:
- 在基准测试中,性能 consistently 超过标准日志库 50-80%。
- 支持多种日志级别和可扩展的处理器系统。
- 文件轮换性能优于 log4rs 和其他替代方案。
- 提供错误处理工具和上下文辅助功能。
我之所以构建这个库,是因为我希望拥有一个既易于使用又高性能的日志记录器。与 slog、log 和 tracing 的基准比较结果可以在仓库中找到。
我非常欢迎任何反馈,特别是在 API 设计和性能特点方面。您希望在未来的开发计划中添加哪些功能?
[GitHub 链接: <a href="https://github.com/j-raghavan/rust-loguru">https://github.com/j-raghavan/rust-loguru</a>]
[Crates.io: <a href="https://crates.io/crates/rust-loguru" rel="nofollow">https://crates.io/crates/rust-loguru</a>]