AI Reader V2

快速开始

本指南将帮助你在本地启动 AI Reader V2,完成首次小说分析。

不想配置开发环境? 可以直接下载桌面应用,开箱即用。

前提条件

依赖 版本要求 说明
Python 3.9+ 后端运行环境
Node.js 22+ 前端构建与开发
uv 最新版 Python 包管理器(替代 pip)
Ollama 最新版 本地 LLM 推理引擎(云端模式可跳过)

第一步:安装 Ollama 并拉取模型

安装 Ollama 后,拉取默认推荐模型:

ollama pull qwen3:8b

拉取完成后确保 Ollama 正在运行(默认监听 http://localhost:11434)。

提示qwen3:8b 是推荐的平衡之选。显存充足时可尝试更大的模型以获得更好的提取质量;显存有限时可使用更小的模型。系统会根据模型的上下文窗口大小自动调整 Token 预算。

第二步:启动后端

cd backend
uv sync          # 安装 Python 依赖
uv run uvicorn src.api.main:app --reload

后端将在 http://localhost:8000 启动。首次运行时会自动创建 SQLite 数据库(~/.ai-reader-v2/data.db)和 ChromaDB 向量库。

第三步:启动前端

在另一个终端窗口中:

cd frontend
npm install      # 安装前端依赖
npm run dev

前端开发服务器将在 http://localhost:5173 启动,并自动将 /api/ws 请求代理到后端。

第四步:开始使用

  1. 打开浏览器访问 http://localhost:5173
  2. 在书架页点击上传或拖拽一个 .txt 格式的小说文件
  3. 上传完成后,系统会自动拆分章节
  4. 点击"开始分析",等待 LLM 逐章提取(进度通过 WebSocket 实时推送)
  5. 分析完成后,即可浏览七个可视化维度

提示:分析速度取决于模型大小和硬件性能。qwen3:8b 在 Apple M 系列芯片上通常每章耗时 30-60 秒。

可选:云端 LLM 模式

如果不想使用本地 Ollama,可以配置云端 LLM 提供商。设置以下环境变量后启动后端即可:

export LLM_PROVIDER=openai
export LLM_API_KEY=your-api-key-here
export LLM_BASE_URL=https://api.deepseek.com/v1    # 以 DeepSeek 为例
export LLM_MODEL=deepseek-chat

云端模式的优势:

  • 无需本地 GPU,任何机器均可运行
  • 大上下文窗口(128K+),分析质量更高
  • 速度通常更快

支持的云端提供商包括 DeepSeek、MiniMax、通义千问、Moonshot、智谱、SiliconFlow、零一万物、OpenAI、Gemini 和 Anthropic。详见 产品介绍 中的提供商列表。

环境变量参考

变量 默认值 说明
AI_READER_DATA_DIR ~/.ai-reader-v2/ 数据存储目录
OLLAMA_BASE_URL http://localhost:11434 Ollama 服务地址
OLLAMA_MODEL qwen3:8b 本地模型名称
EMBEDDING_MODEL BAAI/bge-base-zh-v1.5 向量嵌入模型
LLM_PROVIDER ollama LLM 模式:ollamaopenai
LLM_API_KEY 云端 API 密钥
LLM_BASE_URL 云端 API 基础 URL
LLM_MODEL 云端模型名称
LLM_MAX_TOKENS 8192 最大生成 Token 数

下一步