本地优先
所有会话只落到 ~/.owlcoda 下;没有 OwlCoda 服务器,没有 telemetry,没有上传。
~/.owlcoda/sessions/<id>.json 一份 config 接通 Ollama、Kimi、MiniMax、OpenRouter 等本地与云端 backend。你的模型、你的工具、你的数据,全在你机器上。
$ owlcoda init && owlcoda 为什么用 OwlCoda
所有会话只落到 ~/.owlcoda 下;没有 OwlCoda 服务器,没有 telemetry,没有上传。
~/.owlcoda/sessions/<id>.json 日常用 Ollama,重活上 Kimi 或 MiniMax,--model 一键切换。
owlcoda --model heavy → Kimi K2 42+ 工具,69+ slash 命令,会话持久化、技能学习。鼠标拖选与复制和其他终端 app 完全一致。
/model · /cost · /budget · /skills 当前以源码形式分发;npm / Homebrew / 独立二进制将在 1.0 之后提供。前置:Node ≥ 18 + 任意 OpenAI 兼容本地后端。
拉取并编译 OwlCoda
git clone https://github.com/yeemio/owlcoda.git
cd owlcoda && npm install && npm run build 把 owlcoda 暴露为全局命令
npm link # 或:node /path/to/owlcoda/dist/cli.js 指定后端(以 Ollama 为例)
owlcoda init --router http://127.0.0.1:11434/v1 启动 REPL
owlcoda OwlCoda 不自带模型 —— 你把它指到一个上面去。开箱即支持以下后端:
http://127.0.0.1:11434/v1 http://127.0.0.1:1234/v1 http://127.0.0.1:8000/v1 用户自填 https://api.moonshot.ai/v1 https://api.kimi.com/coding https://api.minimax.io/anthropic https://openrouter.ai/api/v1 https://dashscope.aliyuncs.com/compatible-mode/v1 https://api.openai.com/v1 OwlCoda 是 native 终端 REPL —— 不是 web 套壳。