跳到主要内容

LlamaIndex 快速入门

本指南帮助你快速搭建第一个 LlamaIndex 应用。

环境准备

  • Python 3.9+
  • OpenAI API Key 或本地 Ollama

安装

pip install llama-index llama-index-llms-openai llama-index-embeddings-openai
# 或使用 Ollama
pip install llama-index llama-index-llms-ollama llama-index-embeddings-ollama

第一个示例:文档问答

1. 准备文档

在项目目录创建 data/ 文件夹,放入若干 .txt.md 文件。

2. 加载并索引

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader

# 加载文档
documents = SimpleDirectoryReader("data").load_data()

# 构建向量索引(自动分块、Embedding、存储)
index = VectorStoreIndex.from_documents(documents)

3. 查询

query_engine = index.as_query_engine()
response = query_engine.query("文档中提到了哪些关键概念?")
print(response)

使用本地 Ollama

from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings

Settings.llm = Ollama(model="llama3")
Settings.embed_model = OllamaEmbedding(model="nomic-embed-text")

documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
response = index.as_query_engine().query("你的问题")
print(response)

持久化索引

index.storage_context.persist(persist_dir="./storage")
# 加载
from llama_index.core import load_index_from_storage, StorageContext
storage_context = StorageContext.from_defaults(persist_dir="./storage")
index = load_index_from_storage(storage_context)

下一步