2作者: mrqjr7 个月前原帖
我最近构建了一个小型开源工具,用于基准测试不同的LLM API端点,包括OpenAI、Claude以及自托管模型(如llama.cpp)。<p>该工具可以运行可配置数量的测试请求,并报告两个关键指标: • 首个令牌延迟(毫秒):首个令牌出现所需的时间 • 输出速度(令牌/秒):整体输出流畅度<p>演示: <a href="https://llmapitest.com/" rel="nofollow">https://llmapitest.com/</a> 代码: <a href="https://github.com/qjr87/llm-api-test">https://github.com/qjr87/llm-api-test</a><p>该工具的目标是提供一种简单、直观且可重复的方法,以评估不同LLM提供商的性能,包括日益增长的第三方“代理”或“廉价LLM API”服务。<p>它支持: • 兼容OpenAI的API(官方+代理) • Claude(通过Anthropic) • 本地端点(自定义/自托管)<p>您还可以使用docker-compose进行自托管。 配置简洁,添加新提供商只需简单的插件式添加。<p>欢迎反馈、拉取请求或您正在使用的API的测试报告。尤其对一些不太知名的服务的比较感兴趣。
1作者: bicepjai7 个月前原帖
我刚刚参加了一个包含10个问题的测验,内容涉及真实视频和使用Google Veo生成的AI伪造视频。这次测验是《纽约时报》一篇名为“人工智能视频从未如此出色。你能分辨出什么是真实的吗?”的文章的一部分。 我一直对AI视频生成器感到着迷,并努力了解像Stable Diffusion这样的模型是如何工作的。但这次测验实话说让我感到不安。我只答对了60%,而且经常无法分辨出什么是真实的。 目前有哪些工具或技术可以帮助我们可靠地区分真实视频和AI生成的视频呢?