常见问题
安装与运行
Q: 启动报错或端口冲突?
A: 检查 7860 端口是否占用,可设置 LANGFLOW_PORT 更换端口。确保 Python 版本 3.10+。
Q: 如何连接 Ollama?
A: 在 LLM 节点选择 Ollama 或 OpenAI Compatible,base_url 填 http://host:11434/v1。
使用
Q: Langflow 与 LangChain 的关系?
A: Langflow 是 LangChain 的可视化前端,节点即 LangChain 组件,可导出为标准 LangChain 代码。
Q: 导出的代码如何用于生产?
A: 导出后为 Python 脚本,可放入项目、加错误处理与部署。也可通过 Langflow API 远程调用。