返回首页
最新
它基于为集成开发环境(IDE)开发的 jediterm 库,但也可以作为一个独立的带标签的终端模拟器使用。这个库已经存在超过 10 年,但我认为还没有人基于它制作终端模拟器应用程序?
我目前正在研究一些开源概念——主要是围绕系统、人工智能和安全性的实验性想法。这些项目仍处于早期阶段,我希望通过公开分享来找到可能对探索或贡献感兴趣的人。
我在GitHub上的用户名是hejhdiss。
作为一个尚未加入任何主要开发社区的人,寻找志同道合、喜欢构建早期项目的开发者的最佳方法是什么?
任何建议或意见都将不胜感激。
我知道微软已经慢慢开始强迫大家使用人工智能。你们公司也有这种情况吗?
嗨,HN,
我很高兴分享 SpeechAnalyzerDylib,这是一个小型的 C 兼容动态库,封装了即将在 macOS 26.0(Tahoe)中推出的 SpeechAnalyzer API。如果您正在构建 Swift、Objective-C 或纯 C 项目,并希望在几乎没有样板代码的情况下添加设备上的转录功能,这可能会对您有所帮助。
## 主要特性
- *C-FFI 封装*
提供一个简单的 C 兼容 API,您可以从 Swift、Objective-C 或纯 C 中调用。
- *异步文件转录*
`sw_transcribeFile(const char *filePath, const char *locale, TranscriptionCallback callback, void *userData)`
在后台转录磁盘上的任何音频文件;通过回调返回完整的转录文本或错误字符串。
- *内存数据转录*
`sw_transcribeData(const uint8_t *bytes, size_t size, const char *locale, TranscriptionCallback callback, void *userData)`
通过内部写入临时文件并重用基于文件的转录路径来转录原始音频缓冲区。
- *实时麦克风流式传输*
`sw_startMicrophoneTranscription(const char *locale, TranscriptionCallback callback, void *userData)`
从默认麦克风实时流式传输语音,接收部分转录文本,并在引擎停止时自动停止。
- *区域设置感知*
所有 API 接受一个可选的区域设置标识符(默认为系统区域设置),以支持特定语言的模型。
- *自动模型管理*
在开始转录之前,验证或下载所需的离线语音模型,以匹配您选择的区域设置。
- *基于回调的错误处理*
在失败时,您的回调将收到一个 `"Error: …"` 字符串,以便您可以处理重试或回退。
- *零外部依赖*
完全基于 Apple 的 AVFoundation 和 Speech 框架构建,无需第三方库。
## 版本要求
macOS 26.0(Tahoe)beta
Xcode 26 beta
这两个版本目前都处于测试阶段,SpeechAnalyzer 仅在 beta 版本中可用,因此您需要运行开发者 beta 版本才能尝试。
## 仓库与许可证
[https://github.com/aethiopicuschan/speech-analyzer-dylib](https://github.com/aethiopicuschan/speech-analyzer-dylib)
许可证为 MIT。
## 欢迎反馈与贡献
- 开放问题以报告您遇到的错误或边缘情况
- 提交 PR 以添加测试、CI 或示例集成
- 在下方分享您的经验或集成问题
期待听到您用它构建的内容!