GoForum🌐 V2EX

简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

cwcc · 2026-04-27 07:50 · 0 次点赞 · 1 条回复

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点:

  • 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。
  • 复杂分析以及深度的问题查找、大上下文还受限于我的 M3 Pro MacBook Pro 的内存。
  • 经过豆包和模型自身给出 llm 优化建议,使用 GGUF 模型能跑出 33 token/s 的速度,使用 MLX 能到 38 token/s 。
  • 36G 内存不够,开太大上下文会爆显存,只能重启。

第一次体会到 Mac 的性能居然这么不够用,搞得都想换 M5 Max 了,但感觉专门为 AI 也不是特别值得。

1 条回复
cat9life · 2026-04-27 08:35
#1

op 有对比过 gemma4 的近似尺寸模型吗

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: cwcc
发布: 2026-04-27
点赞: 0
回复: 0