GoForum🌐 V2EX

gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章

andyskaura · 2026-04-07 09:29 · 0 次点赞 · 7 条回复

之前使用 deepseek qwen 在超迷你模型( 32b 以下)上写小说,基本驴唇不对马嘴。 这次的谷歌的模型确实牛逼了。 本地部署未审查版本,简直就是写文利器

1050ti: https://i.imgur.com/SUtDD2m.png

7 条回复
oreader996 · 2026-04-07 09:34
#1

体验了下 e4b 还行

andyskaura · 2026-04-07 09:34
#2

@oreader996 不能和全尺寸的比,横向对比真的厉害,感觉这算是大模型真正走进本地电脑了

Shaar · 2026-04-07 09:44
#3

这玩意驱动龙虾够不够用

andyskaura · 2026-04-07 09:49
#4

@Shaar 不够用。太慢 太笨

changnet · 2026-04-07 09:54
#5

放一段出来看看是啥样的?我以前试过 30B 左右的本地部署写文章基本没法看

不过就小说而言,我觉得线上的模型写出来的也没法看的,明显不是一个正常人的逻辑思维,用词修饰这些都不行。要是写个短篇再人工改改还行

andyskaura · 2026-04-07 10:04
#6

这个我有经验,做个生成器,https://i.imgur.com/0uQ9nsU.png

如果要写长篇小说,要和人写一样,先做好提纲,写好角色性格,矛盾。再一次性生成完章节标题和大纲,再根据大纲扩写单个章节。

andyskaura · 2026-04-07 10:04
#7

@changnet 忘了 @

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: andyskaura
发布: 2026-04-07
点赞: 0
回复: 0