GoForum🌐 V2EX

大家用 DeepSeek 都调用的哪里?官方还是其他平台?为什么我调官方感觉很慢?

fkdtz · 2026-04-28 17:05 · 0 次点赞 · 2 条回复

直接调用 DeepSeek 官方明显比火山慢不少 大家一般都用哪里的服务?如果不是官方,主要是出于速度、稳定性还是价格考虑?

2 条回复
NewYear · 2026-04-28 17:15
#1

慢不是问题,别阉割就好

longxinglink · 2026-04-28 17:20
#2

讲讲家里云新人部署求职项目用的大模型 API 供应商:主力 NVIDIA NIM + 备用 Ollama + OpenAI Codex 调试,含 glm-5.1 、gemma4:31b 、minimax-m2.7 ,零成本不爆账单 https://www.v2ex.com/t/1205711?p=1 nvidia 和 ollama ,一般是几个模型别名成一个模型,毕竟我的使用场景对模型性能要求不高 大模型 API 供应商架构图

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: fkdtz
发布: 2026-04-28
点赞: 0
回复: 0