GoForum🌐 V2EX

用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.

JoeJoeJoe · 2026-03-11 09:03 · 0 次点赞 · 3 条回复

顺便贴一下从网上随便找了一个测试 Token 生成速度的代码跑了下, 测试结果如下

3 条回复
zenfsharp · 2026-03-11 09:08
#1

我勒个槽 120B ,我只敢部署 20B 的。 大概半年前 OpenAI 丢出来的开源模型,我试了 20B 的大概才 GPT-4mini 的水平,远不如如今线上小模型。

niboy · 2026-03-11 09:23
#2

好羡慕,电脑都啥配置?

liu731 · 2026-03-11 09:23
#3

我 4090+96GB RAM 都跑不起来,可以想象 OP 的配置

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: JoeJoeJoe
发布: 2026-03-11
点赞: 0
回复: 0