元悟空

与角色 AI 对话 · 灵山在前 大圣同行

择一人 · 共论西行

悬 而 浮 之 · 点 而 入 之

首次启动 · 检测本地环境

正在确认 Python / relay / 索引是否就绪。如果你刚装完仓库, 这里会引导你完成最后几步。

元悟空

和 8 位角色 AI (孙悟空 / 猪八戒 / 唐僧 / 如来 / 沙僧 / 观音 / 太上老君 / 牛魔王) 对话。 推理由你已登录的 LLM(CLI / 网页版 / 本地 Ollama)完成 —— 不消耗任何付费 API 额度。 本网页只在你浏览器内跑。

① 选择 LLM 接入方式

先选一种最方便的;之后随时可在右上角设置里切换。

② 上传你自己的语料 (可选)

支持 .txt / .md / .html / .htm / .pdf。上传后会按段切片、合入 RAG 检索池,问到相关内容时一并召回。处理只在浏览器内,不上传服务器。

📁 点击或拖拽文件到这里
.txt 直接读;.html 解析正文;.pdf 走 pdf.js(首次会拉一次 CDN)

把这段 prompt 喂给任一 LLM

点"复制 prompt",跳转你常用的 LLM 网页,粘贴 → 等回答 → 把回答整段粘回下面。

→ ChatGPT → Gemini → 豆包 → DeepSeek → Qwen

把 LLM 的回答粘到这里 ↓

📡 邀请朋友联机

朋友只要装 Tailscale 这一个 app, 然后浏览器开下面的链接, 就能用你 Mac 上的 LLM — 完全零安装, 也不消耗任何 API 费.

⚠ 还没填你 Mac 的 Tailnet IP
打开 chatbox-xiyou/host_config.js, 把 HOST_TAILNET_IP 改成你 Mac 的 Tailnet IPv4 (终端跑 tailscale ip -4 拿). 改完保存, 朋友刷新本页面即生效.

① 你这边一次性配置 (10 分钟)

1. 装 Tailscale: brew install --cask tailscale + 跑 tailscale up 用你的账号登录
2. Mac 一直开机 + 联网 (取消睡眠或定时唤醒)
3. 跑 ./serve.sh + python3 relay.py (跟现在一样)
4. 跑 tailscale ip -4 拿你的 Tailnet IP, 写到 host_config.js

② 把这两条信息发给朋友

朋友打开的网址 (复制发他)

      
朋友要装的 app (一次性)
下载 Tailscale → 用你的账号登录 (你需要从 Tailscale 后台邀请他到你的 tailnet, 或共用账号). 完成后他直接浏览器打开上面那个网址, chatbox 自己就连上你 Mac 的 relay 了.

③ 自检 (可选)

测试主机 relay 是否对 Tailnet 可达
(点上面的按钮测)

🩺 一键准备 LLM 接入

勾选你想用的 LLM,我会逐个:检查 → 缺啥补啥(CLI 自动开 VS Code + Terminal 登录;网页版自动开标签页)→ 跑一个 demo 问句确认能用。

运行日志

      

上传更多语料

支持 .txt / .md / .html / .htm / .pdf。处理只在浏览器内完成。

📁 点击或拖拽文件到这里

设置

推理预设

未检测
0 份
最多 轮工具
西 元悟空 · 和角色 AI 对话
模式:未选择
选个人
每个人独立对话历史,自动存到浏览器本地。
本网页不发数据到任何服务器。
先在左侧选个人物开始对话。