GoForum🌐 V2EX

求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

LeeReamond · 2026-04-28 03:50 · 0 次点赞 · 4 条回复

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析,

目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。

粗略估算了一下大概是需要 3000M 的输入+2000M 的输出这样的数量级

因为是分析自然语言,希望模型的性能非常高,想用顶尖大模型( claude/gpt/gemini 等等),感觉 glm5.1 和 deepseekV4pro 似乎是这个基线的守门员?低于这个性能水平的不考虑

用 deepseekv4 的价格粗略算了一下,似乎如果按照目前价格调用的话(官网 2.5 折)要花个大两万块钱才能解决.

不知道 v 友们知不知道更便宜一点的调用方法?

因为模型本身用的比较少,不熟悉各家的 coding plan,这东西是给 agent 用的,我用来做通用任务会有提示词之类的限制吗?

4 条回复
sddyzm · 2026-04-28 04:00
#1

10 万+次调用是有相当巨量信息的一篇论文了

LeeReamond · 2026-04-28 04:00
#2

@sddyzm 其中主要是对描述性数据的结构化解析

Livid · 2026-04-28 04:50
#3

可以先用 Claude Code 的 CLI 的 claude -p 试试。看看多少次任务能够把 $20 一个月的基础档跑满。

night98 · 2026-04-28 07:05
#4

写好提示词,走批量处理,我记得 gemini 官方是有批量 api 的,而且好像指定时段还打折来着,并且提示词写好的话缓存命中率高的话更省钱;要么就是如果数据没隐私风险的话找中转站

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: LeeReamond
发布: 2026-04-28
点赞: 0
回复: 0