GoForum🌐 V2EX

Gemini 3 Flash 用着挺香,但想找个更便宜的替代

wsbqdyhm · 2026-03-12 14:53 · 0 次点赞 · 5 条回复

最近在折腾 OpenClaw (小龙虾)+ n8n 工作流 做一些自动化任务,现在主要是薅 Google 的 $300 API credit 。

主力模型用的是 Gemini 3 Flash ,整体体验挺好,速度快、工具调用也稳,基本能顶住日常 workflow 。不过 Gemini 3.1 Pro 有调用限额,所以很多任务还是得靠 Flash 。

现在的问题是: 想找一个 性能大致对标 Gemini 3 Flash ,但更有性价比的模型 做备用 / 分流。

另外我本地也有一张 4090 ,所以也在考虑顺便搞个 本地模型做 fallback ,简单任务或者离线的时候用。

在各大主流 ai 问了一圈,投票如下:

云端模型(对标 Gemini 3 Flash )

Kimi K2.5-K2 ( 4 票)

DeepSeek R1 / V3.2 ( 1 票)

本地部署( 4090 )

DeepSeek-R1-Distill-Qwen-32B ( 4bit )( 3 票)

GLM-4.7-Flash ( 30B A3B MoE )( 2 票)

目前的思路大概是:

主力:Gemini 3 Flash

云端备用:Kimi / DeepSeek

本地:跑一个 30B 左右模型兜底

不过我自己还没实际长期跑过这些组合,所以想听听大家的真实使用经验:

Kimi K2.5 和 DeepSeek V3 / R1 实际体验怎么样?

有没有 性价比能接近 Gemini 3 Flash 的模型?

4090 本地模型现在比较稳的是不是还是 32B 这一档?

欢迎拍砖,主要想听听长期在用的经验。

5 条回复
superkkk · 2026-03-12 14:58
#1

千问 3.5 35B A3B 或者千问 coder next ,这俩还行,但是毕竟免费开源的,24g 显存可能不够

liu731 · 2026-03-12 15:03
#2

比它聪明的没它快,比它快的没它聪明 https://i.imgur.com/V7hUgBg.png

wsbqdyhm · 2026-03-12 15:08
#3

@liu731 2.5flash 体验怎么样? 之前用了一下 2.5 pro 弱智一样。

skyemin · 2026-03-12 15:13
#4

$300 API 现在还送吗

liu731 · 2026-03-12 15:13
#5

@wsbqdyhm 简单任务(<=5K Token )还不错。复杂任务不行

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: wsbqdyhm
发布: 2026-03-12
点赞: 0
回复: 0