AI Reader V2 — 智能小说阅读理解系统
AI Reader V2 是一个基于大语言模型的中文小说深度分析平台。上传一部 TXT 格式的小说,系统会自动拆分章节、逐章提取结构化知识(人物、关系、地点、事件等),并将分析结果聚合为七个可视化维度,帮助读者全方位理解小说世界。
核心价值
上传小说 → LLM 逐章分析 → 七维可视化
- 阅读模式 — 实体高亮、剧本面板、书签、阅读进度
- 智能知识图谱 — 人物关系力导向图,支持六大关系分类
- 多层级世界地图 — 小说地理的手绘风格地图,含地形、河流、领地
- 多泳道时间线 — 六类事件源聚合,泳道分组,情感色彩标注
- 百科全书 — 人物 / 地点 / 物品 / 组织四类实体卡片与场景索引
- 势力分析 — 组织归属与派系力导向图
- 导出功能 — Markdown / DOCX / PDF / XLSX 四格式设定集导出
隐私优先
所有数据保存在本地机器上:
- 数据库:SQLite 单文件(
~/.ai-reader-v2/data.db)+ ChromaDB 向量库 - 无云端遥测:不收集任何用户数据。云端模式仅将 LLM 请求发送到你自己配置的 API 端点
- 完全离线可用:搭配本地 Ollama 模型,无需联网即可运行全部功能
技术栈
| 层级 | 技术 |
|---|---|
| 前端 | React 19 + TypeScript 5.9 + Vite 7 + Tailwind CSS 4 |
| UI 组件 | shadcn/ui + Radix UI + Lucide Icons |
| 状态管理 | Zustand 5(7 个 Store) |
| 可视化 | react-force-graph-2d(图谱)、react-leaflet + Leaflet(地理地图) |
| 后端 | Python 3.9+ + FastAPI(全异步) |
| 数据库 | SQLite(aiosqlite)+ ChromaDB + BAAI/bge-base-zh-v1.5 向量 |
| LLM | Ollama(本地)或 OpenAI 兼容 API(云端) |
| 中文 NLP | jieba 分词(实体预扫描) |
| 包管理 | npm(前端)、uv(后端) |
支持的 LLM 提供商
本地模式
- Ollama — 默认模型
qwen3:8b,支持 Apple Silicon MPS 加速
云端模式(10 家提供商)
通过设置 LLM_PROVIDER=openai 切换到云端模式,支持以下 OpenAI 兼容 API 提供商:
| 提供商 | 推荐模型 |
|---|---|
| DeepSeek | deepseek-chat |
| MiniMax | abab6.5s-chat |
| 通义千问 (Qwen) | qwen-plus |
| Moonshot (月之暗面) | moonshot-v1-8k |
| 智谱 (Zhipu) | glm-4-flash |
| SiliconFlow (硅基流动) | — |
| 零一万物 (Yi) | yi-large |
| OpenAI | gpt-4o |
| Gemini | gemini-pro |
| Anthropic | claude-sonnet-4-20250514 |
其中 Anthropic 使用独立的 AnthropicClient(x-api-key 认证 + /v1/messages 端点),其余均使用统一的 OpenAICompatibleClient。
开源协议
AI Reader V2 以 AGPL v3 协议开源。