用你自己挑的模型机队来构建。

一份 config 接通 Ollama、Kimi、MiniMax、OpenRouter 等本地与云端 backend。你的模型、你的工具、你的数据,全在你机器上。

$ owlcoda init && owlcoda
  • Ollama
  • LM Studio
  • vLLM
  • Kimi
  • MiniMax
  • OpenRouter
Apache-2.0本地优先42+ 工具无 telemetry

为什么用 OwlCoda

本地优先

所有会话只落到 ~/.owlcoda 下;没有 OwlCoda 服务器,没有 telemetry,没有上传。

~/.owlcoda/sessions/<id>.json

自带你的模型机队

日常用 Ollama,重活上 Kimi 或 MiniMax,--model 一键切换。

owlcoda --model heavy   →   Kimi K2

Native 终端 REPL

42+ 工具,69+ slash 命令,会话持久化、技能学习。鼠标拖选与复制和其他终端 app 完全一致。

/model · /cost · /budget · /skills

30 秒跑通

当前以源码形式分发;npm / Homebrew / 独立二进制将在 1.0 之后提供。前置:Node ≥ 18 + 任意 OpenAI 兼容本地后端。

  1. 01

    拉取并编译 OwlCoda

    git clone https://github.com/yeemio/owlcoda.git
    cd owlcoda && npm install && npm run build
  2. 02

    把 owlcoda 暴露为全局命令

    npm link  # 或:node /path/to/owlcoda/dist/cli.js
  3. 03

    指定后端(以 Ollama 为例)

    owlcoda init --router http://127.0.0.1:11434/v1
  4. 04

    启动 REPL

    owlcoda

支持的 backend

OwlCoda 不自带模型 —— 你把它指到一个上面去。开箱即支持以下后端:

本地 runtime(owlcoda init 自动探测)

Ollama OpenAI 兼容 http://127.0.0.1:11434/v1
LM Studio OpenAI 兼容 http://127.0.0.1:1234/v1
vLLM OpenAI 兼容 http://127.0.0.1:8000/v1
自建 OpenAI 兼容 用户自填

云端 provider(用户自配置,自带 API key)

Kimi (Moonshot) OpenAI 兼容 https://api.moonshot.ai/v1
Kimi Coding provider 原生 https://api.kimi.com/coding
MiniMax Messages 形态 https://api.minimax.io/anthropic
OpenRouter OpenAI 兼容 https://openrouter.ai/api/v1
阿里百炼 / DashScope OpenAI 兼容 https://dashscope.aliyuncs.com/compatible-mode/v1
OpenAI OpenAI 兼容 https://api.openai.com/v1

Native REPL 亮点

OwlCoda 是 native 终端 REPL —— 不是 web 套壳。

  • 42+ 工具 — Bash、Read、Write、Edit、Glob、Grep、MCP 工具、agent dispatch、scheduling、plugin。
  • 69+ slash 命令 — /model、/cost、/budget、/perf、/doctor、/config、/trace、/tokens、/sessions、/skills 等。
  • Selection-first transcript — 鼠标拖选与复制和其他终端 app 完全一致。
  • 会话持久化 — 每次对话都自动落到 ~/.owlcoda/sessions/,--resume <id> 可恢复任意一次。
  • 技能学习 (L2) — 重复任务被自动提取为可复用 skill,在后续匹配任务上自动注入。
  • 训练数据管线 (L3,opt-in) — 对高质量会话评分,导出 JSONL / ShareGPT,便于本地微调。

隐私态势

  • 所有会话只落到本机 ~/.owlcoda/。
  • 训练数据收集 opt-in,落盘前会经过 PII 脱敏。
  • 无 telemetry 端点。除你 config 里配置的 backend 外,不发起任何外部请求。
  • 没有 OwlCoda 服务器,没有 OwlCoda 账户。