快速开始
本指南将帮助你在本地启动 AI Reader V2,完成首次小说分析。
不想配置开发环境? 可以直接下载桌面应用,开箱即用。
前提条件
| 依赖 | 版本要求 | 说明 |
|---|---|---|
| Python | 3.9+ | 后端运行环境 |
| Node.js | 22+ | 前端构建与开发 |
| uv | 最新版 | Python 包管理器(替代 pip) |
| Ollama | 最新版 | 本地 LLM 推理引擎(云端模式可跳过) |
第一步:安装 Ollama 并拉取模型
安装 Ollama 后,拉取默认推荐模型:
ollama pull qwen3:8b
拉取完成后确保 Ollama 正在运行(默认监听 http://localhost:11434)。
提示:
qwen3:8b是推荐的平衡之选。显存充足时可尝试更大的模型以获得更好的提取质量;显存有限时可使用更小的模型。系统会根据模型的上下文窗口大小自动调整 Token 预算。
第二步:启动后端
cd backend
uv sync # 安装 Python 依赖
uv run uvicorn src.api.main:app --reload
后端将在 http://localhost:8000 启动。首次运行时会自动创建 SQLite 数据库(~/.ai-reader-v2/data.db)和 ChromaDB 向量库。
第三步:启动前端
在另一个终端窗口中:
cd frontend
npm install # 安装前端依赖
npm run dev
前端开发服务器将在 http://localhost:5173 启动,并自动将 /api 和 /ws 请求代理到后端。
第四步:开始使用
- 打开浏览器访问 http://localhost:5173
- 在书架页点击上传或拖拽一个
.txt格式的小说文件 - 上传完成后,系统会自动拆分章节
- 点击"开始分析",等待 LLM 逐章提取(进度通过 WebSocket 实时推送)
- 分析完成后,即可浏览七个可视化维度
提示:分析速度取决于模型大小和硬件性能。
qwen3:8b在 Apple M 系列芯片上通常每章耗时 30-60 秒。
可选:云端 LLM 模式
如果不想使用本地 Ollama,可以配置云端 LLM 提供商。设置以下环境变量后启动后端即可:
export LLM_PROVIDER=openai
export LLM_API_KEY=your-api-key-here
export LLM_BASE_URL=https://api.deepseek.com/v1 # 以 DeepSeek 为例
export LLM_MODEL=deepseek-chat
云端模式的优势:
- 无需本地 GPU,任何机器均可运行
- 大上下文窗口(128K+),分析质量更高
- 速度通常更快
支持的云端提供商包括 DeepSeek、MiniMax、通义千问、Moonshot、智谱、SiliconFlow、零一万物、OpenAI、Gemini 和 Anthropic。详见 产品介绍 中的提供商列表。
环境变量参考
| 变量 | 默认值 | 说明 |
|---|---|---|
AI_READER_DATA_DIR |
~/.ai-reader-v2/ |
数据存储目录 |
OLLAMA_BASE_URL |
http://localhost:11434 |
Ollama 服务地址 |
OLLAMA_MODEL |
qwen3:8b |
本地模型名称 |
EMBEDDING_MODEL |
BAAI/bge-base-zh-v1.5 |
向量嵌入模型 |
LLM_PROVIDER |
ollama |
LLM 模式:ollama 或 openai |
LLM_API_KEY |
— | 云端 API 密钥 |
LLM_BASE_URL |
— | 云端 API 基础 URL |
LLM_MODEL |
— | 云端模型名称 |
LLM_MAX_TOKENS |
8192 |
最大生成 Token 数 |