返回首页
最新
你好,
我创建TalkBits是因为大多数语言学习应用程序都专注于词汇或练习,而不是实际的对话。学习一门语言最困难的部分是能够在压力下自然地说话。
TalkBits让你能够与一个像母语者一样的人工智能进行实时口语对话。你可以选择不同的场景(旅行、日常生活、工作等),自然地说话,人工智能会用自然的语言回应你。
我们的目标是让对话的感觉更像是在与真实的人交流,而不是在上课。
在技术方面,它使用实时语音输入、转录、大型语言模型(LLM)响应和文本转语音(TTS)流媒体,以保持低延迟,使对话感觉流畅。
我特别希望得到以下方面的反馈:
– 这感觉自然吗?
– 在哪里打断了沉浸感?
– 什么会让你定期使用这个应用?
也很乐意回答技术问题。
谢谢!
在主页上看到HTTP Cats让我想起了几个月前我做的一个小项目。这个项目每天会显示一张来自Unsplash的不同猫咪照片,如果你选择接收通知,它还会发送提醒给你。
我遇到了一个令人沮丧的问题:我的定时任务返回的退出代码是0,但结果却是错误的。
<p>例子:
备份脚本成功完成,但创建了空的备份文件
数据处理任务完成,但只处理了10%的记录
报告生成器运行没有错误,但输出的数据不完整
数据库同步完成,但计数不匹配
日志显示“成功”——退出代码为0,没有异常——但实际结果是错误的。错误可能埋藏在日志中,但我并不是每天都主动检查日志。
<p>我尝试过:
在脚本中添加验证检查(例如,如果计数<100:退出1)——有效,但必须修改每个脚本,改变阈值需要更改代码
Webhook警报——需要为每个脚本编写连接器
错误监控工具(如Sentry等)——它们捕捉异常,而不是错误结果
手动抽查——不具备可扩展性
<p>脚本内验证的方法适用于简单情况,但不够灵活。如果需要更改阈值怎么办?如果文件存在但来自昨天怎么办?如果需要检查多个条件怎么办?最终你会把监控逻辑和业务逻辑混合在一起。
<p>我构建了一个简单的监控工具,它监视作业结果,而不仅仅是执行状态。你只需将实际结果(文件大小、记录数、状态等)发送给它,如果有异常,它会发出警报。无需翻阅日志,而且你可以在不部署代码的情况下调整阈值。
<p>你是如何处理这个问题的?是为每个脚本添加验证,主动检查日志,还是使用某种工具在结果与预期不符时发出警报?你是如何捕捉这些“静默失败”的?
我最近在学习维基百科,发现有一个全球性的公共页面,专门用于写一些随机内容,以便学习如何使用他们的编辑器,这让我觉得很有趣。我原以为会有类似的功能,但只是针对每个用户的、对公众不可见的,而不是像这个页面一样的全球性页面。