LlamaIndex 快速入门
本指南帮助你快速搭建第一个 LlamaIndex 应用。
环境准备
- Python 3.9+
- OpenAI API Key 或本地 Ollama
安装
pip install llama-index llama-index-llms-openai llama-index-embeddings-openai
# 或使用 Ollama
pip install llama-index llama-index-llms-ollama llama-index-embeddings-ollama
第一个示例:文档问答
1. 准备文档
在项目目录创建 data/ 文件夹,放入若干 .txt 或 .md 文件。
2. 加载 并索引
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
# 加载文档
documents = SimpleDirectoryReader("data").load_data()
# 构建向量索引(自动分块、Embedding、存储)
index = VectorStoreIndex.from_documents(documents)
3. 查询
query_engine = index.as_query_engine()
response = query_engine.query("文档中提到了哪些关键概念?")
print(response)
使用本地 Ollama
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
Settings.llm = Ollama(model="llama3")
Settings.embed_model = OllamaEmbedding(model="nomic-embed-text")
documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
response = index.as_query_engine().query("你的问题")
print(response)
持久化索引
index.storage_context.persist(persist_dir="./storage")
# 加载
from llama_index.core import load_index_from_storage, StorageContext
storage_context = StorageContext.from_defaults(persist_dir="./storage")
index = load_index_from_storage(storage_context)