AI Reader V2
本地部署的智能小说阅读理解系统
利用 LLM 将小说文本转化为结构化知识图谱,提供关系图、多层级世界地图、时间线等多维可视化,以及基于原文的智能问答。数据全部存储在本机。
核心功能 Features
上传一本小说,AI 自动分析全书,生成多维可视化
智能知识图谱 Knowledge Graph
力导向人物关系图,自动识别 70+ 种关系类型,六大分类着色(血亲/亲密/师承/社交/敌对/其他),实体别名自动合并。
多层级世界地图 World Map
从小说文本全自动生成交互式地图。宏观区域划分、多空间层、传送门连接、程序化地形生成、人物轨迹动画、手绘风格渲染。
多泳道时间线 Timeline
多泳道事件线,智能降噪,关系变化事件追踪,情绪基调标签,按章节浏览和按类型过滤。
百科全书 Encyclopedia
分类浏览人物/地点/物品/组织/概念,全文搜索,地点层级树,空间关系面板,场景索引回溯原文。
智能阅读
实体高亮(5 类着色)、剧本面板、书签系统、阅读进度追踪、快捷键导航
桌面应用
Tauri 2 原生客户端,下载即用,Python 后端自动启动,macOS + Windows 双平台
势力分析
组织归属与派系关系网络,自动归因角色阵营,力导向可视化
智能问答
RAG 检索增强问答,流式对话,答案来源溯源,基于原文生成可靠回答
隐私与技术透明 Privacy & Trust
完全本地运行
所有计算在你的电脑上完成,无需联网即可使用(搭配 Ollama 本地模型)
数据不离开本机
小说文本、分析结果、对话记录全部存储在本地 SQLite,不上传任何数据
开源 AGPL v3
完整源代码公开,自由审查、修改和分发。个人和学术使用完全免费
多 LLM 后端
支持 Ollama 本地模型和 10 大云端 API(DeepSeek、Claude、GPT、Gemini 等)
支持的 LLM 供应商
下载桌面版 Download
无需配置开发环境,下载即用。内置 Python 后端,只需安装 Ollama 或配置云端 API
macOS
Apple Silicon (M1/M2/M3/M4)
下载 DMGv0.51.0 · ~100MB
Windows
x86_64 (Intel / AMD)
下载 EXEv0.51.0 · ~130MB
xattr -cr "/Applications/AI Reader.app",然后重新打开。
更多版本请查看 GitHub Releases
开发者模式 Developer Setup
从源码运行,适合需要自定义或参与开发的用户
启动后端
cd backend && uv sync && uv run uvicorn src.api.main:app --reload
启动前端(新终端)
cd frontend && npm install && npm run dev
打开 http://localhost:5173 即可使用。