GoForum🌐 V2EX

GLM-Coding 调用持续报错: z.ai 的 Lite 套餐几乎无法使用,官方 Pro/Max 是否稳定?

zhoudaniu · 2026-04-16 18:25 · 0 次点赞 · 9 条回复

各位 V 友,TRAE 和 CODEX 的 gpt 量都块用完了,

最近在尝试使用 GLM-Coding 进行代码生成相关任务,遇到了比较头疼的问题,想咨询一下大家的实际使用情况。

当前遇到的问题

  • 我目前购买了 z.ai 提供的 Lite 套餐
  • 但几乎 每次调用都在报错(各种超时、内部错误、或直接无响应),基本无法正常完成一次代码生成。
  • 已经尝试过切换网络、调整请求参数、降低并发,问题依旧。

想咨询大家的经验

  1. 官方 Pro 套餐Max 套餐 是否可以稳定调用?有没有同样频繁报错的情况?
  2. 是否有人对比过 z.ai 的 Lite官方 Pro/Max 在实际可用性上的差异?
  3. 如果官方 Pro/Max 也不稳定,有没有其他相对靠谱的渠道或替代方案(比如私有部署或其他 API 厂商)?

希望有实际使用经验的朋友分享一下现状,避免继续踩坑。非常感谢!

(如果有官方人员看到,也欢迎解释一下 Lite 套餐的可用性状态。)

9 条回复
Sezxy · 2026-04-16 18:30
#1

我用 lite 的 glm5.1 + opencode , 限流了会自己重试,所以没怎么打扰到我,就是慢了点

soouu · 2026-04-16 18:30
#2

一样的慢 MAX 可能稍微快一点 我的年 MAX 已经退款了

zhoudaniu · 2026-04-16 18:30
#3

@Sezxy 我的 opencode 用 z.ai 的 glm5.1 lite 套餐, 一个小时前分配的任务,到现在还在重试

MengLUO · 2026-04-16 18:45
#4

max 退款,转 codex pro 了~官方的 plan 一堆 429 ,到处找理由封人,客服都找不到,听说 zai 那边的计划不仅待遇和 bigmodel 的一样,而且退款的门都找不到

cyrivlclth · 2026-04-16 18:50
#5

我官方 max ,这两天不知道咋回事,一直 429 ,模型使用人多,一天都用不了,已经用备用的另一个云服务商的 glm5 了。。。

ClericPy · 2026-04-16 19:05
#6

下午 5.1 国内版的慢的要死,都以为没法用了,换回 turbo 勉强够使了。控制台里它怎么有脸说 pro 版 tps 在 80+ 的

jqknono · 2026-04-16 19:10
#7

早退了, 就是完全没法用

Shimily · 2026-04-16 19:55
#8

智谱的只有晚上凌晨到第二天早上用才有体验可言

tornote · 2026-04-16 20:00
#9

我用的中转 codex ,感觉很好用,国内直连。

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: zhoudaniu
发布: 2026-04-16
点赞: 0
回复: 0