两个模型:Flash(总计284B,活跃13B)和Pro(总计1.6T,活跃49B)。两者都支持1M的上下文。<p>V4-Pro是他们的旗舰产品。在代理编码任务中,超越了Claude Opus 4.6 Max(他们的说法)。特别指出在编码方面优于Sonnet 4.5,并且在一般基准测试中与Opus 4.6具有竞争力。在世界知识和STEM领域,他们表示它领先于Gemini-Pro-3.1。<p>V4-Flash是一个潜力股。比Pro更快且成本更低,但在长上下文效率上优于Pro。<p>原文:代理能力大幅提升:V4-Pro在开源模型的代理编码基准测试中达到了最先进水平。实际使用中,用户反馈其体验优于Sonnet 4.5,输出质量接近于Opus 4.6的非思考模式——尽管与启用思考的Opus 4.6仍存在差距。<p>世界知识:V4-Pro在知识基准测试中显著领先所有开源模型,在闭源前沿模型中仅次于Gemini-Pro-3.1。<p>顶级推理:在数学、STEM和竞争编码方面,V4-Pro超越了所有公开基准测试的开源模型,并与世界上最好的闭源模型相抗衡。1M的上下文才是真正的亮点。完全重新设计了注意力机制——结合了一种称为DSA(深度稀疏注意力)的技术,以处理规模而不增加计算负担。V4的推理成本在令牌数量增加时保持平稳,而V3.2则急剧上升。架构改进使得这一模型真正可用,而不仅仅是一个规格数字。<p>代理能力得到了专门升级。特别针对Claude Code、OpenClaw、OpenCode和CodeBuddy进行训练。V4-Pro现在是任何代理/编码工作流程的推荐模型。Flash明确不推荐用于最复杂的代理任务。<p>API已上线。定价:<p>DeepSeek-V4-Flash:每百万输入/输出令牌$0.14 / $0.28<p>DeepSeek-V4-Pro:每百万输入/输出令牌$1.74 / $3.48<p>Reasoning_effort参数允许您为每次调用设置思考强度(低/高/最大)。“最大”特别推荐用于代理任务。<p>该模型将在Atlas Cloud上发布。开发者可以获得API访问权限。
返回首页
最新
随着人工智能的强大,我们应该有一种更好的编程语言。这种语言被命名为cpluz/cz,意味着它在C和C++之间,但有一些不同之处。因为它的哲学与C++根本不同,我们的理念是“简单就是最好”。
我的初步计划如下:
A. 路线图:版本0.1是C++23的一个子集。其优点在于可以与现有的C++生态系统共存,所有程序和库都可以共享。
版本1.0beta是一个重大变革。在这个阶段,应该有工具或人工智能可以将版本0.1和C++23的代码完全转换为CZ1.0及独立编译工具。
B. 语言设计:目前考虑的内容包括:1. 不使用头文件;使用模块;2. C++20 + 多维下标运算符/如果是consteval;3. 使用C++23库。
总体目标是:
一页速查表(加上半页基本理念,如果你没有任何编程知识);10页的完整书籍。这意味着大约不超过20条基本语法规则。这将使得人工智能和人类都能轻松学习和使用,从而实现像Python一样的易用性,并将其他所有内容放入库中。
基于C++,它应该实现类似的速度,甚至更高效,因为它更简单。
除了Rust的安全性外,我们还需要增加信任,这意味着在共享之前必须进行严格的代码审查(包括测试代码,这些代码可能被XZ的黑客利用)。
考虑到人工智能发展的速度,完整的课程大约需要18个月,这并不是夸张吗?
多年前,我因为对订阅模式感到不满而离开了Adobe。我从1998年开始使用Adobe套件,离开那些我熟悉的工具让我感到痛苦。最终,我选择了Affinity套件,自2015年以来,它已经足够好用。
我对2.0版本的付费升级感到犹豫,并在他们被收购时叹了口气。但几天前,我发现Affinity现在是免费的,并且显然已经整合成一个工具。我刚刚试用了它,必须说它给我留下了深刻的印象(在我那台老旧的MacBook Air M1上)。
我足够老了,记得有句老话:“如果你不付费,你就是产品……”那么我在这里错过了什么呢?这是一个优秀的工具被免费提供……这背后的策略是什么?有什么隐患吗?
该项目旨在实现与 Nmap 100% 的功能一致,同时利用 Rust 的内存安全性和异步能力。
<a href="https://github.com/greatwallisme/rustnmap.git" rel="nofollow">https://github.com/greatwallisme/rustnmap.git</a>