跳到主要内容

LlamaIndex 常见问题

基础问题

Q1: LlamaIndex 和 LangChain 有什么区别?

A: LlamaIndex 侧重数据连接、索引与检索;LangChain 侧重链式编排、Agent 与工具。数据密集、RAG 场景多用 LlamaIndex;复杂工作流多用 LangChain。两者可配合使用。

Q2: 可以用本地模型吗?

A: 可以。通过 llama-index-llms-ollamallama-index-embeddings-ollama 等使用 Ollama。

Q3: 支持哪些向量数据库?

A: 支持 Chroma、Pinecone、Milvus、Qdrant、Weaviate、pgvector 等,参见官方文档。

使用问题

Q4: 如何做增量索引?

A: 使用 index.insert_nodes() 插入新文档节点,避免全量重建。

Q5: 检索结果不准确怎么优化?

A: 调整 chunk size、增加 top_k、启用 Hybrid Search、使用 Reranker、优化分块策略。

Q6: 如何与 MCP 集成?

A: 可将 LlamaIndex 的检索封装为 MCP 工具,供支持 MCP 的客户端调用。

技术问题

Q7: 大文档如何高效索引?

A: 合理分块、使用持久化向量库、考虑树索引做分层摘要。

Q8: 与 RAG 的关系?

A: LlamaIndex 是 RAG 的典型实现框架,覆盖加载、索引、检索、生成全流程。详见 RAG 技术


最后更新: 2025 年 3 月