跳到主要内容

快速开始

前置条件

  • Python 3.10+
  • 或 Docker

方式一:pip 安装

pip install langflow
langflow run

默认访问 http://localhost:7860

方式二:Docker

docker run -d -p 7860:7860 langflowai/langflow

创建第一个 Flow

  1. 打开 Langflow,新建 Flow
  2. 从左侧拖入 OpenAIOllama 节点
  3. 拖入 Prompt 节点,编写简单提示
  4. 将 Prompt 的输出连到 LLM 的输入
  5. 添加 OutputResponse 节点接收结果
  6. 点击 Run 测试
  7. 在输入框输入问题,查看输出

简单 RAG 示例

  1. 添加 Document Loader(如 PDF)
  2. 添加 Text Splitter
  3. 添加 Embedding(如 OpenAI)与 Vector Store(如 Chroma)
  4. 连接 Loader → Splitter → Embedding → Vector Store
  5. 添加 Retriever,连接 Vector Store
  6. 添加 Prompt,将 Retriever 输出作为上下文
  7. 添加 LLM,连接 Prompt
  8. 运行并测试检索增强对话

环境变量

  • OPENAI_API_KEY:若使用 OpenAI
  • LANGCHAIN_TRACING_V2:可选,启用 LangSmith 追踪

验证清单

  • Langflow 可正常启动
  • 可创建简单 Flow 并运行
  • 了解节点连线与数据流
  • 可选:完成简单 RAG Flow

下一步