跳到主要内容

常见问题

安装与运行

Q: 启动报错或端口冲突?

A: 检查 7860 端口是否占用,可设置 LANGFLOW_PORT 更换端口。确保 Python 版本 3.10+。

Q: 如何连接 Ollama?

A: 在 LLM 节点选择 Ollama 或 OpenAI Compatible,base_url 填 http://host:11434/v1

使用

Q: Langflow 与 LangChain 的关系?

A: Langflow 是 LangChain 的可视化前端,节点即 LangChain 组件,可导出为标准 LangChain 代码。

Q: 导出的代码如何用于生产?

A: 导出后为 Python 脚本,可放入项目、加错误处理与部署。也可通过 Langflow API 远程调用。

参考