
❝还在为海量数据检索效率低下而头疼?本文将手把手教你用 LangGraph 和 Elasticsearch 搭建一套 智能 RAG 工作流,5 步实现精准文档问答! 无论你是开发者还是技术决策者,都能快速构建企业级 AI 解决方案。
🔍 为什么选择 LangGraph + Elasticsearch?
Elasticsearch 原生集成主流生成式 AI 工具,而 LangGraph 检索代理模板 是由 LangChain 开发的开源 RAG 应用框架。两者结合,不仅能快速构建基于多模态检索的问答系统,还能通过可视化流图显著提升开发效率。
⚙️ 快速搭建指南(5 步上手)
✅ 前置条件
- Elasticsearch 8.0+(支持本地或云端)
- LLM 接入密钥:如 中 Cohere 中、中 OpenAI 中、中 Claude 中
🛠 Step 1:安装 & 初始化项目
pip install --upgrade
"langgraph-cli[inmem]"
mkdir lg-agent-demo && cd lg-agent-demo
langgraph new lg-agent-demo
选择模板: 👉 Retrieval Agent(选项 4)+ Python(选项 1)
模板选择界面若遇 SSL 错误,可运行安装证书命令(Mac):
/Applications/Python\ 3.9/Install\ Certificates.command
🛠 Step 2:环境与依赖配置
python3 -m venv lg-demo
source lg-demo/bin/activate
pip install -e .
cp .env.example .env
编辑 .env
配置文件(示例):
ELASTICSEARCH_URL=https://your_elastic_url
ELASTICSEARCH_API_KEY=your_elastic_key
COHERE_API_KEY=your_cohere_key
🛠 Step 3:模型参数设置
修改 src/retrieval_graph/configuration.py
文件,配置使用的嵌入与生成模型:
embedding_model = "cohere/embed-english-v3.0"
query_model = "cohere/command-r-08-2024"
response_model = "cohere/command-r-08-2024"
🛠 Step 4:启动 LangGraph 服务
langgraph dev
成功后访问 Studio,默认包含两个流程:
- Retrieval Graph:用于检索文档并生成回答
工作流界面🛠 Step 5:文档注入 + 实时问答
注入测试数据(以 NoveTech Q1 财报为例):
[
{"page_content": "NoveTech Q1 2025 Revenue: $120.5M..."},
{"page_content": "AI 市场份额增长 15%,开设两家新办公室..."}
]
在 Retrieval Graph 中执行查询:
What was NovaTech Solutions total revenue in Q1 2025?
系统将精准返回答案,并展示引用文档:
⚡️ 增强功能:预测用户接下来会问什么

通过添加 predict_query
节点与提示词,系统可预测用户可能的后续提问,形成更连贯的交互体验。
提示词样例(位于 prompts.py
):
PREDICT_NEXT_QUESTION_PROMPT = """
根据用户最近一次提问与返回文档,预测用户可能会继续提出的 3 个自然问题...
"""
界面效果如下:
💎 为什么值得一试?
| |
---|
| 可视化流程图 + 模板化配置,最快 30 分钟构建 RAG 应用 |
| 本地/云端灵活切换,支持多种 LLM 与向量库接入 |
| |
| |
| |
🔥 行动号召
立即动手打造你的智能 RAG 助手:
💬 评论区留言:分享你的搭建心得!
今天的内容就到这里,如果老铁觉得还行,可以来一波三连,感谢!