LlamaIndex 常见问题
基础问题
Q1: LlamaIndex 和 LangChain 有什么区别?
A: LlamaIndex 侧重数据连接、索引与检索;LangChain 侧重链式编排、Agent 与工具。数据密集、RAG 场景多用 LlamaIndex;复杂工作流多用 LangChain。两者可配合使用。
Q2: 可以用本地模型吗?
A: 可以。通过 llama-index-llms-ollama、llama-index-embeddings-ollama 等使用 Ollama。
Q3: 支持哪些向量数据库?
A: 支持 Chroma、Pinecone、Milvus、Qdrant、Weaviate、pgvector 等,参见官方文档。
使用问题
Q4: 如何做增量索引?
A: 使用 index.insert_nodes() 插入新文档节点,避免全量重建。
Q5: 检索结果不准确怎么优化?
A: 调整 chunk size、增加 top_k、启用 Hybrid Search、使用 Reranker、优化分块策略。
Q6: 如何与 MCP 集成?
A: 可将 LlamaIndex 的检索封装为 MCP 工具,供支持 MCP 的客户端调用。
技术问题
Q7: 大文档如何高效索引?
A: 合理分块、使用持久化向量库、考虑树索引做分层摘要。
Q8: 与 RAG 的关系?
A: LlamaIndex 是 RAG 的典型实现框架,覆盖加载、索引、检索、生成全流程。详见 RAG 技术。
最后更新: 2025 年 3 月