GoForum › 🌐 V2EX
GLM Coding 用户体验
faoisdjioga ·
2026-04-13 16:40 ·
0 次点赞 · 3 条回复
一直是 GLM coding 套餐。
刚出来的时候是 ClaudeCode 平替。后来感觉越来越笨,在 GLM4.5 时代弃用。改用 codex
后来 4.6 时间又感觉还行。,重新使用。
到 4.7-GLM5 时代,又感觉差的不行。改用 CaludeCode
最近我在想,可能不是模型的问题,是我的问题。通过 chatgpt 进行治疗,得出如下结论。
这种现象在科学上可以归纳为:在感官适应( Sensory Adaptation )导致奖励阈值提高的基础上,大脑受制于确认偏差( Confirmation Bias )而完成的一次“记忆与感知的重构”。
简而言之,并不是产品在物理性能上必然发生了衰减,而是你大脑中的“预测编码”被外部负面信息污染,导致你的神经系统开始主动捕捉、甚至放大那些原本被忽略的微小瑕疵,最终达成了一种“证实了外界差评”的逻辑自洽,从而在主观现实中完成了一次并不一定存在的“产品降级”。
所以,GLM 升级其实是越来越好吧。
3 条回复
owt5008137 · 2026-04-13 16:55
GLM 据说是夜晚战神。白天老出现:Please try again later. rawError=429 该模型当前访问量过大,请您稍后再试。
添加回复
你还需要 登录
后发表回复
{‘code’: ‘1302’, ‘message’: ‘您的账户已达到速率限制,请您控制请求频率’} 经常出现这个,我一个人写前后端 + 一个公共的小龙虾