GoForum › 🌐 V2EX
GLM-Coding 调用持续报错: z.ai 的 Lite 套餐几乎无法使用,官方 Pro/Max 是否稳定?
zhoudaniu ·
2026-04-16 18:25 ·
0 次点赞 · 9 条回复
各位 V 友,TRAE 和 CODEX 的 gpt 量都块用完了,
最近在尝试使用 GLM-Coding 进行代码生成相关任务,遇到了比较头疼的问题,想咨询一下大家的实际使用情况。
当前遇到的问题
- 我目前购买了 z.ai 提供的 Lite 套餐
- 但几乎 每次调用都在报错(各种超时、内部错误、或直接无响应),基本无法正常完成一次代码生成。
- 已经尝试过切换网络、调整请求参数、降低并发,问题依旧。
想咨询大家的经验
- 官方 Pro 套餐 或 Max 套餐 是否可以稳定调用?有没有同样频繁报错的情况?
- 是否有人对比过 z.ai 的 Lite 与 官方 Pro/Max 在实际可用性上的差异?
- 如果官方 Pro/Max 也不稳定,有没有其他相对靠谱的渠道或替代方案(比如私有部署或其他 API 厂商)?
希望有实际使用经验的朋友分享一下现状,避免继续踩坑。非常感谢!
(如果有官方人员看到,也欢迎解释一下 Lite 套餐的可用性状态。)
9 条回复
cyrivlclth · 2026-04-16 18:50
我官方 max ,这两天不知道咋回事,一直 429 ,模型使用人多,一天都用不了,已经用备用的另一个云服务商的 glm5 了。。。
添加回复
你还需要 登录
后发表回复
我用 lite 的 glm5.1 + opencode , 限流了会自己重试,所以没怎么打扰到我,就是慢了点