GoForum › 🌐 V2EX
有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型
alangz ·
2026-04-30 15:50 ·
0 次点赞 · 5 条回复
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
5 条回复
https://ollama.com/blog/mlx 看看这个合适不
@zenfsharp 好的,我试试 @huaweii 多谢,我去研究。 @xFrye 我试试看,多谢 @sentinelK 我看下,多谢
添加回复
你还需要 登录
后发表回复
Gemma4-31b-it-q8_0 ,记得开满 256Context 窗口,也用 Q8 质量压缩。