AnythingLLM 知识库搭建¶
一句话说明: AnythingLLM 是一个开源的本地知识库问答系统,你把文档丢进去,它就能基于你的资料回答问题——不联网、不花钱、数据不出你电脑。
目录¶
- 为什么要学
- 核心概念白话版
- 安装教程(Windows 桌面版)
- 配置教程
- 导入文档实操
- 使用教程
- AnythingLLM vs DeepTutor vs Quivr 对比
- 常见报错与解决方案
- 速查表
- 延伸学习资源
1. 为什么要学¶
你的痛点¶
你已经写了 22 篇知识库 md 文件,涵盖宏基因组全流程、微生物多样性、功能注释、Python、R、Linux、机器学习……内容很多,但有两个问题:
- 找不到 — 22 篇文档几万字,想找"kraken2 的数据库怎么下载",得一篇一篇翻,效率极低
- 串不起来 — 你的知识分散在不同文件里,比如"宏基因组流程里的质控步骤"和"Linux 命令"是分开写的,你脑子里很难把它们关联起来
AnythingLLM 怎么解决¶
AnythingLLM 做的事情很简单:把你的 22 篇文档全部"喂"给 AI,然后你用自然语言问问题,AI 就能从你的文档里找到答案回复你。
白话比方:你有一个非常勤快的助理,把你所有的笔记都读了一遍并且记住了,你随时问他任何问题,他都能帮你从笔记里翻出来回答。
学了有什么用¶
| 收益 | 说明 |
|---|---|
| 面试复习效率翻倍 | 直接问"宏基因组 binning 原理是什么",AI 秒回你自己写的笔记内容 |
| 面试加分 | "我搭建了一个本地 RAG 知识库系统"——这就是实打实的 AI 工程能力 |
| 后续可扩展 | 入职后可以把团队的 SOP 文档、项目 README 全部导入,变成团队内部问答机器人 |
| 数据隐私 | 全本地运行,生信数据(患者信息、未发表结果)绝对不出你的电脑 |
| 免费 | 开源免费,配合 Ollama 本地模型,零成本 |
2. 核心概念白话版¶
AnythingLLM 里有几个核心概念,面试可能会被问到。下面全部用白话解释:
2.1 Workspace(工作区)¶
白话: Workspace 就是一个"独立的聊天房间",每个房间有自己的文档和对话记录。
你可以建多个 Workspace: - "面试知识库" — 放你 22 篇笔记 - "论文资料" — 放你毕业论文相关的 PDF - "英语词汇" — 放你的 AI 生信英文词书
每个 Workspace 的文档互不干扰。就像你在微信里建了不同的群,每个群聊不同的话题。
2.2 Document(文档)¶
白话: 就是你丢进 AnythingLLM 的原始文件。
支持的格式:.md、.txt、.pdf、.docx、.csv、.json、网页链接等。你的 22 篇知识库 md 文件就是 Document。
文档导入后,AnythingLLM 会自动把它们切成小段(chunk),方便后面检索。
2.3 Embedding(向量嵌入)¶
白话: Embedding 就是"把文字变成一组数字",让电脑能理解文字的含义。
人类靠语感判断两句话意思是否接近,电脑不行——电脑需要把文字转成数字(向量),然后用数学方法计算"距离"来判断相似度。
举个例子:
- "宏基因组质控" → 变成 [0.23, -0.15, 0.87, ...](一组 768 个数字)
- "metagenomic QC" → 变成 [0.25, -0.13, 0.85, ...](一组很接近的数字)
- "今天天气好" → 变成 [0.91, 0.32, -0.44, ...](一组完全不同的数字)
电脑通过计算向量距离就知道:前两句话意思接近,第三句不相关。
这就是为什么 AI 能"理解"你的文档内容。
2.4 向量数据库(Vector Database)¶
白话: 向量数据库就是一个"专门存放向量的仓库",支持快速搜索"哪些向量跟我的问题最像"。
普通数据库(如 MySQL)擅长精确查找:SELECT * FROM users WHERE name = '彭文强'。
向量数据库擅长模糊语义查找:找出跟"宏基因组质控流程"意思最接近的前 5 段文档内容。
AnythingLLM 内置了 LanceDB 作为向量数据库,不需要你额外安装任何东西。
2.5 RAG(检索增强生成)¶
白话: RAG = 先搜后答。AI 不是凭记忆瞎编,而是先从你的文档里搜到相关段落,再基于这些段落回答。
完整流程(每次你提问时都会走一遍):
你的提问
↓
① 把你的问题变成向量(Embedding)
↓
② 去向量数据库里搜索最相关的文档段落(通常取 top 4-6 段)
↓
③ 把搜到的段落 + 你的问题一起发给 LLM
↓
④ LLM 基于这些段落生成回答
↓
你看到的回答(附带引用来源)
关键优势: 回答有据可查。AnythingLLM 会告诉你"这段回答参考了哪个文档的哪个部分",你可以验证。
2.6 Agent(智能代理)¶
白话: Agent 是一个"升级版 AI",不只会聊天,还会使用工具。
普通对话模式:AI 只能基于文档回答文字问题。
Agent 模式:AI 可以: - 上网搜索最新信息 - 生成图表 - 执行代码 - 读取网页内容 - 调用自定义工具
类比:普通模式是"只会看书回答的书呆子",Agent 模式是"会用电脑、会上网、会干活的助理"。
3. 安装教程(Windows 桌面版)¶
3.1 前置条件¶
| 条件 | 你的情况 | 说明 |
|---|---|---|
| Windows 10/11 | 已满足 | 桌面版只支持 Windows/Mac/Linux |
| Ollama 已安装 | 已满足 | 你已经装好了 Ollama 并拉取了模型 |
| 至少 8GB 内存 | 已满足 | AnythingLLM 本身很轻量,主要是 Ollama 吃资源 |
| 磁盘空间 500MB+ | 需确认 | AnythingLLM 安装包约 300MB |
3.2 下载与安装¶
第一步:下载安装包
去 AnythingLLM 官网下载 Windows 桌面版:
下载地址:https://anythingllm.com/desktop
点击 "Download for Windows",会下载一个 AnythingLLMDesktop.exe 安装文件(约 300MB)。
第二步:安装
1. 双击 AnythingLLMDesktop.exe
2. 如果弹出 Windows 安全警告"Windows 已保护你的电脑":
→ 点击"更多信息" → 点击"仍要运行"
3. 选择安装路径(建议改到 D 盘,比如 D:\AnythingLLM)
4. 等待安装完成(约 1-2 分钟)
5. 安装完成后,桌面会出现 AnythingLLM 图标
第三步:首次启动
双击桌面图标启动。首次启动会进入配置向导(Setup Wizard),下一节详细讲怎么配。
3.3 数据存储位置¶
AnythingLLM 的所有数据(向量数据库、文档、对话记录)默认存在:
Windows: C:\Users\<用户名>\AppData\Roaming\anythingllm-desktop\storage
如果 C 盘空间紧张,可以在安装时选择其他盘。
4. 配置教程¶
首次启动 AnythingLLM 后,会进入配置向导。需要配三样东西:LLM 提供商、Embedding 提供商、向量数据库。
4.1 LLM 选择(大语言模型)¶
这是最重要的选择——决定了 AI 用什么"大脑"来回答你的问题。
方案 A:Ollama 本地模型(推荐)¶
你已经有 Ollama,这是最简单的方案:
配置向导中:
1. LLM Provider 选择 → "Ollama"
2. Ollama Base URL → http://localhost:11434
(如果 Ollama 在 WSL 里运行,填 http://host.docker.internal:11434
或者 http://<WSL的IP>:11434)
3. 点击旁边的刷新按钮,会自动列出你已下载的模型
4. 选择一个模型,推荐:
- qwen2.5:7b — 中文能力强,7B 参数,8G 显存可跑
- llama3.1:8b — 英文能力强,综合性能好
- deepseek-r1:8b — 推理能力强,适合复杂问题
5. Token Context Window → 4096(默认即可,显存够可以调到 8192)
方案 B:API 模式(备选)¶
如果你的电脑显存不够跑本地模型,可以用云端 API:
| API 提供商 | 费用 | 配置方法 |
|---|---|---|
| DeepSeek API | 极便宜(百万 token 约 1 元) | 填入 API Key,选 deepseek-chat 模型 |
| OpenAI API | 较贵 | 填入 API Key,选 gpt-4o-mini |
| Anthropic API | 中等 | 填入 API Key,选 claude-3-haiku |
建议: 你有 8G 显存,Ollama 本地跑 7B 模型完全够用,优先选方案 A。
4.2 Embedding 选择(向量化模型)¶
Embedding 模型负责把文档和问题变成向量。选错了影响检索质量。
方案 A:Ollama 本地 Embedding(推荐)¶
配置向导中:
1. Embedding Provider 选择 → "Ollama"
2. Ollama Base URL → http://localhost:11434(和上面一样)
3. 选择 Embedding 模型,推荐:
- nomic-embed-text — 768维,效果好,速度快(首选)
- bge-m3 — 多语言支持好,适合中英混合文档
4. Max Embedding Chunk Length → 8192(默认即可)
先在 Ollama 里下载 Embedding 模型:
# 在终端执行(下载 Embedding 模型)
ollama pull nomic-embed-text
# 模型大小约 274MB,很小,几分钟就下好
方案 B:Jina Embedding(备选)¶
如果你不想在本地跑 Embedding 模型(节省显存),可以用 Jina 的免费 API:
1. Embedding Provider 选择 → "Jina AI"
2. 去 https://jina.ai/embeddings/ 注册,获取免费 API Key
3. 填入 API Key
4. 模型选 jina-embeddings-v3
Jina 免费额度:100 万 token/月,对你 22 篇文档绰绰有余。
建议: 优先选 Ollama 本地 Embedding,全离线、零依赖、速度快。
4.3 向量数据库选择¶
配置向导中:
Vector Database 选择 → "LanceDB"
就这一步。LanceDB 是 AnythingLLM 内置的向量数据库,不需要额外安装、不需要配置、不需要启动服务。数据直接存在本地文件里。
为什么选 LanceDB 而不是 Chroma/Pinecone/Weaviate?
| 向量数据库 | 是否需要额外安装 | 是否免费 | 适合场景 |
|---|---|---|---|
| LanceDB | 不需要(内置) | 免费 | 个人/小团队,文档量 < 10万段 |
| Chroma | 需要 pip install | 免费 | 开发者,需要更多自定义 |
| Pinecone | 不需要安装,但要注册 | 免费额度有限 | 云端部署,大规模生产 |
| Weaviate | 需要 Docker | 免费 | 企业级,需要复杂过滤查询 |
结论: 你是个人使用,22 篇文档,LanceDB 完全够用,零配置成本。
4.4 配置完成¶
三项都选好后,点击 "Save & Continue"。AnythingLLM 会自动测试连接:
✓ LLM connected — Ollama 连接成功
✓ Embedding connected — Embedding 模型连接成功
✓ Vector DB ready — LanceDB 就绪
如果某项连接失败,检查:
1. Ollama 是否正在运行(在终端输入 ollama ps 确认)
2. URL 是否正确(http://localhost:11434)
3. 模型是否已下载(ollama list 查看)
5. 导入文档实操¶
配置完成后,最关键的步骤:把你的 22 篇知识库 md 文件导入 AnythingLLM。
5.1 创建 Workspace¶
1. 点击左侧边栏的 "+" 号
2. 输入 Workspace 名称:"生信面试知识库"
3. 点击创建
5.2 上传文档¶
1. 进入"生信面试知识库" Workspace
2. 点击上方的 "Upload" 图标(或拖拽文件进来)
3. 选择你的知识库文件夹:
/home/pweaz/面试/knowledge_base 知识库/
需要导入的文件清单(22 篇):
├── 01_宏基因组全流程.md
├── 02_微生物多样性分析.md
├── 03_功能注释数据库.md
├── 04_细菌基因组.md
├── 05_微生物数据库.md
├── 06_Linux与Shell脚本.md
├── 07_Python数据分析.md
├── 08_R语言可视化.md
├── 09_流程管理工具.md
├── 10_面试高频题.md
├── 11_统计学基础.md
├── 12_机器学习基础.md
├── 13_测序技术原理.md
├── 14_比对与组装工具.md
├── 15_转录组分析流程.md
├── 16_Git版本控制.md
├── 17_Docker与Conda环境管理.md
├── 18_正则表达式.md
├── 19_SQL数据库基础.md
├── 20_AI与生信交叉应用.md
├── 21_大语言模型入门.md
└── 22_Prompt工程技巧.md
4. 全选文件 → 点击"Upload"
小技巧: Windows 桌面版支持直接拖拽文件夹,把整个 knowledge_base 知识库 文件夹拖进去就行。
5.3 将文档移入 Workspace¶
上传后文档会出现在"文档管理器"的左侧(未分配区域)。你需要把它们移到 Workspace 里:
1. 在文档管理器中,全选所有已上传的文档
2. 点击 "Move to Workspace" → 选择"生信面试知识库"
3. AnythingLLM 会自动开始处理:
- 读取每个 md 文件的内容
- 按照 chunk 大小切分(默认 1000 字符一段)
- 用 Embedding 模型把每段文字变成向量
- 存入 LanceDB 向量数据库
4. 等待处理完成(22 篇 md 文件大约 1-3 分钟)
处理完成后,你会看到每个文档旁边有绿色对勾,表示已成功向量化。
5.4 验证导入成功¶
在对话框里输入一个问题测试:
你:宏基因组分析的标准流程是什么?
如果 AI 能引用你 01_宏基因组全流程.md 里的内容来回答,就说明导入成功了。回答下方会显示引用来源(citation),点击可以查看原文。
6. 使用教程¶
6.1 对话问答(基础模式)¶
最核心的功能:用自然语言问问题,AI 从你的文档里找答案。
使用方法: 直接在对话框输入问题。
面试复习时的实用问法:
# 直接问知识点
"Alpha 多样性和 Beta 多样性的区别是什么?"
# 问流程步骤
"用 MetaPhlAn4 做物种注释的完整命令是什么?"
# 问对比
"Kraken2 和 MetaPhlAn4 有什么区别?各自适合什么场景?"
# 模拟面试
"如果面试官问我'你的宏基因组项目中如何做质控',我该怎么回答?"
# 串联知识
"我的 T2D 项目用了随机森林,请帮我把机器学习基础和宏基因组分析串起来,
解释为什么用随机森林做菌群标志物筛选。"
6.2 Agent 模式¶
Agent 模式让 AI 不只是回答问题,还能"干活"。
开启方法:
1. 在 Workspace 设置中 → "Agent Configuration"
2. 选择 Agent 使用的 LLM 模型(建议和主模型一致)
3. 启用需要的工具(Skills):
- Web Search — 联网搜索最新信息
- Web Scraping — 读取网页内容
- RAG — 搜索你的知识库文档
- Code Runner — 执行代码
使用场景:
# 在对话框输入 @agent 激活 Agent 模式
@agent 帮我搜索一下 MetaPhlAn4 最新版本是多少,和我知识库里记录的版本对比一下
@agent 帮我从我的知识库里提取所有提到的生信数据库名称,列成表格
@agent 帮我把"面试高频题"文档里的问题提取出来,生成一个 Anki 卡片格式
6.3 自定义 Prompt(系统提示词)¶
你可以给 Workspace 设置一个"身份",让 AI 更精准地回答。
设置方法:
1. 进入 Workspace 设置 → "Chat Settings"
2. 在 "System Prompt" 框中输入:
推荐的 System Prompt(直接复制):
你是一个生物信息学面试辅导助手。用户是一名 2026 届毕业生,
主攻宏基因组方向(2型糖尿病肠道菌群研究),正在准备生信工程师面试。
回答要求:
1. 优先从用户提供的知识库文档中查找答案,引用具体来源
2. 用中文回答,专业术语保留英文并在括号里加白话解释
3. 回答要分层次:先给一句话总结,再展开详细解释
4. 如果是面试题,先给"标准答案",再给"加分回答"
5. 如果知识库里没有相关内容,明确说明"知识库中未找到相关内容",
不要编造答案
其他可调参数:
| 参数 | 默认值 | 建议值 | 说明 |
|---|---|---|---|
| Temperature | 0.7 | 0.3 | 越低回答越稳定、越少"创意发挥",面试复习建议调低 |
| Top-K Results | 4 | 6 | 每次检索返回的文档段落数,越多回答越全但速度越慢 |
| Chat History | 20 | 20 | 记住最近几轮对话,保持默认即可 |
| Chat Mode | Chat | Chat | Chat = 基于知识库回答;Query = 只返回原文不生成回答 |
6.4 API 调用¶
AnythingLLM 提供了 REST API,你可以用 Python 脚本批量查询知识库。
获取 API Key:
1. 点击左下角齿轮图标 → "Tools" → "API Keys"
2. 点击 "Create New API Key"
3. 复制生成的 Key(类似 ZCMG7WP-XXXXXXX)
Python 调用示例:
import requests
# AnythingLLM 桌面版默认端口 3001
BASE_URL = "http://localhost:3001/api"
API_KEY = "你的API Key"
headers = {
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json"
}
# 向 Workspace 发送问题
def ask_knowledge_base(question, workspace_slug="sheng-xin-mian-shi-zhi-shi-ku"):
"""
向 AnythingLLM 知识库提问
workspace_slug: Workspace 的 URL 标识符(在 Workspace 设置里可以看到)
"""
url = f"{BASE_URL}/v1/workspace/{workspace_slug}/chat"
data = {
"message": question,
"mode": "chat" # chat = RAG模式;query = 纯检索模式
}
response = requests.post(url, json=data, headers=headers)
result = response.json()
return result["textResponse"]
# 示例:批量查询面试题
questions = [
"什么是宏基因组?和扩增子测序有什么区别?",
"Alpha多样性常用的指标有哪些?",
"随机森林的原理是什么?",
"解释一下什么是 Embedding",
"MetaPhlAn4 和 Kraken2 的区别?"
]
for q in questions:
print(f"\n问:{q}")
answer = ask_knowledge_base(q)
print(f"答:{answer[:200]}...") # 只打印前200字
实用场景: 把面试高频题全部批量跑一遍,把回答导出成文档,在手机上反复看。
7. AnythingLLM vs DeepTutor vs Quivr 对比¶
| 维度 | AnythingLLM | DeepTutor | Quivr |
|---|---|---|---|
| 定位 | 本地知识库问答平台 | AI 文献阅读助手 | AI 知识管理平台 |
| 开源 | 是(MIT 协议) | 部分开源 | 是(AGPL 协议) |
| 安装方式 | 桌面版一键安装 / Docker | 浏览器插件 / 在线 | Docker 部署 |
| 安装难度 | 低(下载安装即用) | 极低(浏览器插件) | 高(需要 Docker + Supabase) |
| 支持文档类型 | md/txt/pdf/docx/csv/json/网页 | 主要是 PDF(论文) | md/txt/pdf/docx/csv |
| LLM 选择 | Ollama/OpenAI/Anthropic 等 20+ | 自带模型 / GPT-4 | Ollama/OpenAI 等 |
| 本地运行 | 完全支持 | 部分(需联网) | 支持(需 Docker) |
| 数据隐私 | 全本地,零泄露 | 数据可能过云端 | Docker 本地可控 |
| Agent 功能 | 有(联网搜索/代码执行) | 无 | 有 |
| API 调用 | 有(REST API) | 无 | 有(REST API) |
| 多用户 | 支持(桌面版单用户) | 单用户 | 支持(多用户) |
| 中文支持 | 取决于 LLM(Qwen 表现好) | 一般 | 取决于 LLM |
| 适合场景 | 个人知识库/团队文档问答 | 论文精读/文献综述 | 企业级知识管理 |
| 你该选哪个 | 首选 — 你的场景完美匹配 | 补充 — 读英文论文时用 | 不推荐 — 部署太复杂 |
总结建议:
- 日常面试复习 → AnythingLLM:把知识库文档全部导入,随时问答
- 读英文论文 → DeepTutor:作为浏览器插件辅助阅读
- 两者配合使用,互不冲突
8. 常见报错与解决方案¶
报错 1:Ollama connection failed / Could not connect to Ollama¶
原因:AnythingLLM 无法连接到 Ollama 服务
解决:
1. 确认 Ollama 正在运行:
- Windows:任务栏右下角应该有 Ollama 图标
- WSL:运行 ollama ps 看是否有输出
2. 确认 URL 正确:
- 如果 Ollama 在 Windows 本机 → http://localhost:11434
- 如果 Ollama 在 WSL 里 → 需要先确认 WSL 的 IP:
在 WSL 终端运行 hostname -I,用输出的 IP 替换 localhost
3. 确认防火墙没有拦截 11434 端口
4. 重启 Ollama 服务后重试
报错 2:Embedding model not found / No embedding model selected¶
原因:没有选择 Embedding 模型,或模型未下载
解决:
1. 先在终端下载 Embedding 模型:
ollama pull nomic-embed-text
2. 在 AnythingLLM 设置中刷新模型列表
3. 选择 nomic-embed-text 作为 Embedding 模型
4. 保存设置
报错 3:文档上传后状态一直显示 "Processing" / 卡住不动¶
原因:Embedding 过程卡死,通常是模型没加载成功或显存不足
解决:
1. 先在终端手动测试 Embedding 模型是否能工作:
curl http://localhost:11434/api/embed -d '{"model":"nomic-embed-text","input":"test"}'
如果返回一组数字,说明模型正常
2. 如果报错,重启 Ollama:
- Windows:右键任务栏 Ollama 图标 → 退出 → 重新打开
- WSL:pkill ollama; ollama serve &
3. 如果显存不足,关掉其他占显存的程序(如正在运行的 LLM 对话)
4. 重新导入文档
报错 4:回答完全不相关 / AI 没有引用文档内容¶
原因:检索失败,可能是 Embedding 质量差或文档没被正确向量化
解决:
1. 检查文档是否成功导入:
在 Workspace 设置 → Documents 里确认文档显示绿色对勾
2. 检查 Chat Mode 是否为 "Chat"(不是 "Query")
3. 调大 Top-K Results(从 4 调到 8)
4. 尝试更换 Embedding 模型:
- nomic-embed-text 对中文效果一般
- 如果你的文档中英混合,试试 bge-m3
5. 重新处理文档:删除 Workspace 中的文档 → 重新导入
报错 5:Error: ENOMEM / 内存不足¶
原因:同时运行 LLM + Embedding 模型,显存或内存被撑爆
解决:
1. 减少 Ollama 并行加载的模型数:
设置环境变量 OLLAMA_MAX_LOADED_MODELS=1
2. 使用更小的 LLM 模型(从 13B 降到 7B)
3. 关闭其他占内存的程序
4. 等 Embedding 处理完成后再开始对话(避免 LLM 和 Embedding 同时加载)
报错 6:API 调用返回 401 Unauthorized¶
原因:API Key 不正确或已过期
解决:
1. 确认你复制了完整的 API Key(不要多空格或少字符)
2. 确认 Header 格式正确:Authorization: Bearer <你的Key>
3. 如果还不行,在 AnythingLLM 设置里重新生成一个 API Key
4. 确认 AnythingLLM 桌面版正在运行(API 服务依赖于桌面程序)
9. 速查表¶
# ============================================================
# AnythingLLM 速查表(2026-05 版)
# ============================================================
# ========== 前置准备 ==========
# 下载 AnythingLLM 桌面版
# 地址:https://anythingllm.com/desktop
# 下载 Embedding 模型(在 Ollama 终端执行)
ollama pull nomic-embed-text # 推荐,768 维,274MB
ollama pull bge-m3 # 备选,多语言支持好
# ========== 配置三件套 ==========
# LLM Provider → Ollama(http://localhost:11434)
# Embedding Provider → Ollama(nomic-embed-text)
# Vector Database → LanceDB(内置,无需配置)
# ========== Workspace 操作 ==========
# 创建 Workspace:左侧 "+" → 输入名称 → 创建
# 上传文档:点击 Upload 图标 → 选择文件/拖拽文件夹
# 移入 Workspace:全选文档 → Move to Workspace
# 设置 Prompt:Workspace 设置 → Chat Settings → System Prompt
# ========== 对话技巧 ==========
# 普通问答 → 直接输入问题
# Agent 模式 → 输入 @agent + 问题
# Query 模式 → 切换 Chat Mode 为 Query(只返回原文片段)
# ========== 推荐参数 ==========
# Temperature: 0.3(面试复习建议低温度)
# Top-K Results: 6(检索返回段落数)
# Chunk Size: 1000(文档切分大小,字符数)
# Chunk Overlap: 200(段落之间的重叠字符数,避免切断句子)
# ========== API 调用 ==========
# 获取 API Key:设置 → Tools → API Keys → Create New
# API 端点:http://localhost:3001/api
# 对话接口:POST /api/v1/workspace/{slug}/chat
# 文档列表:GET /api/v1/workspace/{slug}/documents
# ========== 常用排障 ==========
ollama ps # 确认 Ollama 正在运行
ollama list # 确认模型已下载
curl http://localhost:11434/api/tags # 测试 Ollama API 是否正常
# Windows 防火墙:允许 11434 和 3001 端口
10. 延伸学习资源¶
- AnythingLLM 官方文档: https://docs.anythingllm.com/ — 最权威的配置参考
- AnythingLLM GitHub: https://github.com/Mintplex-Labs/anything-llm — 源码和 Issue 讨论
- AnythingLLM YouTube 频道: 官方有完整的视频教程,搜索 "AnythingLLM tutorial"
- RAG 原理论文: Lewis et al., 2020, "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks" — 理解 RAG 的源头
- Ollama + AnythingLLM 搭配教程: 你的
01_Ollama本地大模型部署与使用.md是前置知识 - LangChain RAG 实战: 你的
02_LangChain入门与RAG实战.md讲了 RAG 的代码实现层面,和 AnythingLLM 的 GUI 操作互为补充 - 向量数据库对比: https://github.com/erikbern/ann-benchmarks — 各向量数据库性能基准测试
文档信息: 最后更新 2026-05-03 | AnythingLLM Desktop 最新版 v1.7.x | GitHub Stars: 35k+