返回首页
最新
我厌倦了无休止地浏览各种类名和类型定义,于是我开发了一个 VS Code 扩展,可以用表情符号装饰你的代码。最棒的是?它不会在你的实际文本中注入任何内容,因此不会出现编译错误或语法高亮问题。
适合以下场景:
- 让代码审查变得更有趣
- 快速识别不同类型的类/组件
- 为你的代码库增添个性
我最近构建了一个小型开源工具,用于基准测试不同的LLM API端点,包括OpenAI、Claude以及自托管模型(如llama.cpp)。<p>该工具可以运行可配置数量的测试请求,并报告两个关键指标:
• 首个令牌延迟(毫秒):首个令牌出现所需的时间
• 输出速度(令牌/秒):整体输出流畅度<p>演示: <a href="https://llmapitest.com/" rel="nofollow">https://llmapitest.com/</a>
代码: <a href="https://github.com/qjr87/llm-api-test">https://github.com/qjr87/llm-api-test</a><p>该工具的目标是提供一种简单、直观且可重复的方法,以评估不同LLM提供商的性能,包括日益增长的第三方“代理”或“廉价LLM API”服务。<p>它支持:
• 兼容OpenAI的API(官方+代理)
• Claude(通过Anthropic)
• 本地端点(自定义/自托管)<p>您还可以使用docker-compose进行自托管。
配置简洁,添加新提供商只需简单的插件式添加。<p>欢迎反馈、拉取请求或您正在使用的API的测试报告。尤其对一些不太知名的服务的比较感兴趣。
通过使用 Go 协程递归地搜索文本。可以将该项目导入为一个包,并将搜索功能插件化,或作为命令行应用程序使用。具有在搜索过程中忽略文件类型和目录的选项。
我刚刚参加了一个包含10个问题的测验,内容涉及真实视频和使用Google Veo生成的AI伪造视频。这次测验是《纽约时报》一篇名为“人工智能视频从未如此出色。你能分辨出什么是真实的吗?”的文章的一部分。
我一直对AI视频生成器感到着迷,并努力了解像Stable Diffusion这样的模型是如何工作的。但这次测验实话说让我感到不安。我只答对了60%,而且经常无法分辨出什么是真实的。
目前有哪些工具或技术可以帮助我们可靠地区分真实视频和AI生成的视频呢?