GoForum › 🌐 V2EX
[开源] 一个极致简单内置本地模型的类龙虾 AI 桌面助手,欢迎大家试用!
libii ·
2026-03-31 10:14 ·
0 次点赞 · 2 条回复
大家好,今天分享一个我最近的开源项目 —— Kocort,一个主打极致简单的类似龙虾的 AI 桌面助手。
核心亮点
1️⃣ 下载解压双击运行,就这么简单
没有命令行,没有环境配置,没有依赖安装。
1. 下载压缩包
2. 解压
3. 双击运行:扫码绑定微信机器人
4. 开始用
就这么简单。配置界面都是图形化的,改个配置不用修改 json 文件。
2️⃣ 内置本地模型,可以不接云端
这是 Kocort 最大的不同:
其他框架: 必须配置 OpenAI/Anthropic/国内大厂的 API Key Kocort: 内置本地模型支持,完全可以不接任何云端
内置了本地模型推理引擎,下载模型放进去就能用:
- 不需要自己部署 Ollama
- 不需要配置 LM Studio
- 不需要跑 Docker
模型文件放进去,自动识别,自动加载。
3️⃣ 双脑架构,安全且高效
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ 云端 LLM 输出 │ → │ 小脑语义审查 │ → │ 工具执行/拦截 │
│ tool_call │ │ approve/flag │ │ │
│ │ │ /reject │ │ │
└─────────────────┘ └─────────────────┘ └─────────────────┘
- Brain - 大模型,处理复杂任务(写代码、分析文档、逻辑推理)
- Cerebellum - 小模型,负责工具调用的安全审核
好处:
- 小脑安全审核,数据不出电脑.
- 大脑大模型处理复杂任务
- 支持完全本地运行,数据不出电脑
- 也可以接云端模型,看你需要
实际使用场景
场景 1:完全本地运行(隐私敏感)
"帮我整理这个文件夹里的文档,提取关键信息"
→ 全部本地处理,文件不上传,API 不调用
场景 2:浏览器自动化
"打开知乎,登录后查看我发布的文章"
→ 自动打开可见浏览器,完成操作
和同类产品的区别
| 特性 | Kocort | 其他框架 |
|---|---|---|
| 启动方式 | 下载解压双击 | 命令行 + 配置 |
| 本地模型 | 内置引擎,开箱即用 | 需自建 Ollama 等 |
| 云端依赖 | 可选,可完全不用 | 必须配置 API Key |
| 配置复杂度 | 图形界面 | YAML/JSON 手写 |
| 双脑架构 | 内置 | 无/需自配 |
适合谁用?
- 不想折腾配置的 - 下载双击就能用
- 对隐私有要求的 - 可以完全本地运行
- 想省 API 费用的 - 模型本地处理
- 断网环境使用的 - 本地模型不依赖网络
- 想试试 AI 代理的 - 门槛最低
项目状态
- ✅ 双脑架构实现
- ✅ 内置本地模型引擎(集成 llama.cpp GGUF 支持)
- ✅ 云端模型可选接入
- ✅ 图形化配置界面
- ✅ 工具系统(浏览器/文件/搜索/命令)
- ✅ 记忆系统
- ✅ 子代理系统
- ✅ 技能扩展
技术细节(给感兴趣的朋友)
- Go 语言开发,支持 Win/Mac/Linux 几乎所有主流平台
- 内置 llama.cpp 集成
- 支持 GGUF 格式模型
- 插件化工具架构
- 支持多渠道接入(微信等)
反馈与交流
项目地址: https://github.com/kocort/kocort
特别想请教大家:
- 本地模型大家常用哪些? 7B ? 13B ? 32B ?
- 双脑架构的设计是否符合大家的使用习惯?
- 还有什么功能是最需要的?
欢迎提 Issue 、PR ,也欢迎在评论区聊聊~
P.S. 项目还在早期阶段,核心功能已可用。有任何问题欢迎交流!
P.P.S. 完全本地运行时,记得准备个够大的模型(当然需要一个好显卡..),效果会更好~
添加回复
你还需要 登录
后发表回复
等我回家试试