Anthropic 家的模型训练与其他家差别大吗?
大家都知道 Anthropic 家的模型,尤其是 Opus 的实力,在编码的实际体验中是最强的,没有之一。即使拿 gemini3.1pro 和 gpt5.3codex 比,这俩也是比不上它一点。
除了编码,大家跑龙虾也能感觉出来差别很大,尤其是多步骤工具链的复杂任务只有 opus 能完美胜任,opus 画的 svg 动效流程图也是比新的 gemini 强很多。
我的问题是,公开互联网训练数据大家都是一样的,各家的 RL 也差不离(这点应该没什么技术壁垒),经济实力上 OpenAI/Google 应该更有优势,那为什么训练出来的大模型只有 opus 家最强?
是 Anthropic 家训练更强调代码能力,侧重点不同导致的吗?
@neteroster #1 但是看大部分反馈用 claude code 效果还是比 codex 好一些,可能各家 cli 工具,在工程上还有所不同
每个人的体感不太一样,综合看 Opus 4.6 和 GPT 5.4 high 交替被夸。某个模型解决不了,换另外一个就解决了,这个也不能直接说明哪个模型更强,很可能跟上下文有关。交叉使用多个模型解决问题,也算是一种最佳工程实践了。
真的差别那么大吗,没有特别大的感觉,我的感觉反而是 gpt5.3codex 比较稳定可靠。我是在 cursor 内测试的。
下面的乘法题,gpt5.3codex 能做到,但 opus4.6 做不到(推理卡死、直接放弃改用 python )。都是用的最高推理能力。
你能不借助工具,心算一道乘法题吗?为保证准确性,你必须要一步一步计算。这里的一步一步是指无论加法还是乘法,都只取 1 位数字计算。也就是 1 位数乘以 1 位数,1 位数加 1 位数,无论是中间过程还是结果。
8346783724985839204724623 * 7827329472626174
gpt 5.4 出来后感觉逻辑上没差别了,不过前端美观度还是 claude 略胜一筹,codex 有点直男。gemini 号称最强美工但 css 经常错乱,刚 3.1 刚发布的时候不是有个日见夜间切换按钮,尝试给他图片弄了一个,始终有样式问题,最后还是 claude 重来弄好的。 https://imgur.com/O1J5fpq https://i.imgur.com/O1J5fpq.mp4
@sillydaddy 我用 cursor 很容易卡死,但是 antigravity 就不会,opus4.6
我始终感觉 claude 更懂我,
每次其他模型火起来我都会试试,但就经常冒出来你连这都听不懂吗的疑问,
也不是说 claude 就什么都能懂,但就是感觉其他总比 claude 差一些,
有种没理解我的想法的感觉,尤其是我希望 AI 遵守什么约束参考什么 skill 调用什么工具,点名 GPT 家的总是不合我心意自己乱来,
编程能力我是不觉得谁差的,
https://cursor.com/blog/cursorbench
今天刚发的,内部包含 cursor 在真实用户的真实编码场景中遥测出的评测数据
Opus 不说落后,在编码上已经没有全面领先态势了。