GoForum🌐 V2EX

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

alangz · 2026-04-30 15:50 · 0 次点赞 · 5 条回复

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

5 条回复
zenfsharp · 2026-04-30 15:55
#1

Gemma4-31b-it-q8_0 ,记得开满 256Context 窗口,也用 Q8 质量压缩。

huaweii · 2026-04-30 15:55
#2

qwen3.6 系列,你 64gb 的选择挺多的。你去 hf 上把你的型号输入进去让他给你选个合适的压缩模型就行

xFrye · 2026-04-30 15:55
#3

https://ollama.com/blog/mlx 看看这个合适不

sentinelK · 2026-04-30 16:05
#4

mlx 的 qwen3.6-35B-A3B 试试看

alangz · 2026-04-30 16:05
#5

@zenfsharp 好的,我试试 @huaweii 多谢,我去研究。 @xFrye 我试试看,多谢 @sentinelK 我看下,多谢

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: alangz
发布: 2026-04-30
点赞: 0
回复: 0