GoForum🌐 V2EX

使用本地模型 Gemma4 来驱动 OpenClaw

Livid · 2026-04-04 09:09 · 0 次点赞 · 7 条回复

替换下面指令中的 model ID 为你本地 Ollama 里启动的版本。

openclaw onboard --non-interactive \
  --auth-choice custom-api-key \
  --custom-base-url "http://127.0.0.1:11434/v1" \
  --custom-model-id "gemma4:31b-it-q4_K_M" \
  --custom-api-key "ollama" \
  --secret-input-mode plaintext \
  --custom-compatibility openai \
  --accept-risk
7 条回复
0U0 · 2026-04-04 09:34
#1

需要什么配置才能跑得动

Livid · 2026-04-04 09:34
#2

@0U0 这里有不同版本,应该总有一个是本地能跑起来的:

https://ollama.com/library/gemma4/tags

Visoar · 2026-04-04 09:44
#3

Google 搞了个 Google Al Edge Gallery,在 iPhone 上直接跑起 e2b/e4b 版本 Gemma4 … 试了 e2b 速度很好很顺畅,能力也不错.

看起来今年端侧小模型要开始卷了

https://i.imgur.com/CDOPQqv.png

pkuphy · 2026-04-04 09:54
#4

这个模型真的好用

senooo · 2026-04-04 09:59
#5

手机上的 e2b 2G PC 端的 e2b 7G

CatCode · 2026-04-04 10:19
#6

@Visoar iPhone 13 提示内存不足。iPad 倒是跑起来了,就是 UI 比较蛋疼。

v2gba · 2026-04-04 10:19
#7

站长这个得 30+的内存才能跑了吧?

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: Livid
发布: 2026-04-04
点赞: 0
回复: 0