使用 LangChain、Zilliz Cloud、Google Vertex AI Gemini 2.0 Pro 和 Google Vertex AI text-embedding-004 构建 RAG 聊天机器人
什么是 RAG
检索增强生成(Retrieval-Augmented Generation,简称 RAG)正引领生成式 AI,尤其是对话式 AI 的新潮流。它将预训练的大语言模型(LLM,如 OpenAI 的 GPT)与存储于向量数据库(如 Milvus、Zilliz Cloud)中的外部知识源相结合,从而让模型输出更准确、更具上下文相关性,并且能够及时融合最新信息。 一个完整的 RAG 系统通常包含以下四大核心组件:
- 向量数据库:用于存储与检索向量化后的知识;
- 嵌入模型:将文本转为向量表示,为后续的相似度搜索提供支持;
- 大语言模型(LLM):根据检索到的上下文和用户提问生成回答;
- 框架:负责将上述组件串联成可用的应用。
核心组件说明
本教程将带你在 Python 环境下,借助以下组件一步步搭建一个初级的 RAG 聊天机器人:
- LangChain: 一个开源框架,帮助你协调大语言模型、向量数据库、嵌入模型等之间的交互,使集成检索增强生成(RAG)管道变得更容易。
- Zilliz Cloud:一个基于开源项目 Milvus 构建的全托管向量数据库即服务(DBaaS)平台,旨在处理大规模高性能的向量数据处理。通过先进的向量搜索技术,Zilliz Cloud 可帮助企业高效存储、搜索和分析大量非结构化数据,如文本、图像或音频,并提供支持最多 100 万个向量的免费套餐。
- Google Vertex AI Gemini 2.0 Pro: 这个先进的人工智能模型结合了强大的机器学习能力,适用于从自然语言处理到图像分析的多种应用。它的优势在于多模态理解和快速部署,使其成为寻求利用人工智能增强各个行业自动化和决策能力的企业的理想选择。
- Google Vertex AI text-embedding-004: 该模型专注于为多种自然语言处理任务创建高质量的文本嵌入。它的优势在于有效捕捉语义意义和关系,适用于语义搜索、聚类和推荐系统等应用。非常适合希望从文本数据中增强AI驱动洞察的开发者。
完成本教程后,你将拥有一个能够基于自定义知识库回答问题的完整聊天机器人。
注意事项: 使用专有模型前请确保已获取有效 API 密钥。
实战:搭建 RAG 聊天机器人
第 1 步:安装并配置 LangChain
%pip install --quiet --upgrade langchain-text-splitters langchain-community langgraph
第 2 步:安装并配置 Google Vertex AI Gemini 2.0 Pro
pip install -qU "langchain[google-vertexai]"
# Ensure your VertexAI credentials are configured
from langchain.chat_models import init_chat_model
llm = init_chat_model("gemini-2.0-pro-exp-02-05", model_provider="google_vertexai")
第 3 步:安装并配置 Google Vertex AI text-embedding-004
pip install -qU langchain-google-vertexai
from langchain_google_vertexai import VertexAIEmbeddings
embeddings = VertexAIEmbeddings(model="text-embedding-004")
第 4 步:安装并配置 Zilliz Cloud
pip install -qU langchain-milvus
from langchain_milvus import Zilliz
vector_store = Zilliz(
embedding_function=embeddings,
connection_args={
"uri": ZILLIZ_CLOUD_URI,
"token": ZILLIZ_CLOUD_TOKEN,
},
)
第 5 步:正式构建 RAG 聊天机器人
在设置好所有组件之后,我们来搭建一个简单的聊天机器人。我们将使用 Milvus介绍文档 作为私有知识库。你可以用你自己的数据集替换它,来定制你自己的 RAG 聊天机器人。
import bs4
from langchain import hub
from langchain_community.document_loaders import WebBaseLoader
from langchain_core.documents import Document
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langgraph.graph import START, StateGraph
from typing_extensions import List, TypedDict
# 加载并拆分博客内容
loader = WebBaseLoader(
web_paths=("https://milvus.io/docs/overview.md",),
bs_kwargs=dict(
parse_only=bs4.SoupStrainer(
class_=("doc-style doc-post-content")
)
),
)
docs = loader.load()
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
all_splits = text_splitter.split_documents(docs)
# 索引分块
_ = vector_store.add_documents(documents=all_splits)
# Define prompt for question-answering
prompt = hub.pull("rlm/rag-prompt")
# 定义应用状态
class State(TypedDict):
question: str
context: List[Document]
answer: str
# 定义应用步骤
def retrieve(state: State):
retrieved_docs = vector_store.similarity_search(state["question"])
return {"context": retrieved_docs}
def generate(state: State):
docs_content = "\n\n".join(doc.page_content for doc in state["context"])
messages = prompt.invoke({"question": state["question"], "context": docs_content})
response = llm.invoke(messages)
return {"answer": response.content}
# 编译应用并测试
graph_builder = StateGraph(State).add_sequence([retrieve, generate])
graph_builder.add_edge(START, "retrieve")
graph = graph_builder.compile()
测试聊天机器人
Yeah! You've built your own chatbot. Let's ask the chatbot a question.
response = graph.invoke({"question": "What data types does Milvus support?"})
print(response["answer"])
示例输出
Milvus 支持多种数据类型,包括稀疏向量、二进制向量、JSON 和数组。此外,它还支持常见的数值类型和字符类型,使其能够满足不同的数据建模需求。这使得用户能够高效地管理非结构化或多模态数据。
优化小贴士
在搭建 RAG 系统时,合理调优能显著提升性能与效率。下面为各组件提供一些实用建议:
LangChain 优化建议
为了优化 LangChain,需要通过高效地构建链路和代理来减少工作流程中的冗余操作。使用缓存避免重复计算,从而加快系统速度,并尝试采用模块化设计,确保模型或数据库等组件能够轻松替换。这将提供灵活性和效率,使您能够快速扩展系统,而无需不必要的延迟或复杂性。
Zilliz Cloud 优化建议
优化 Zilliz Cloud 以支持 RAG 系统需要高效的索引选择、查询调优和资源管理。使用 HNSW(Hierarchical Navigable Small World)索引实现高速的近似最近邻搜索,同时平衡召回率与效率。根据数据集规模和查询负载,微调 ef_construction 和 M 参数,以优化搜索的准确性和延迟。启用动态扩展功能,可有效应对波动的工作负载,确保在不同查询负载下保持稳定性能。通过数据分区来提高检索速度,将相关数据分组以减少不必要的比较。定期更新和优化嵌入,尤其在处理不断变化的数据集时,可保持结果的相关性。采用混合搜索技术(例如结合向量搜索与关键词搜索)以提升响应质量。通过 Zilliz Cloud 的仪表板监控系统指标,并根据需要调整配置,以维持低延迟和高吞吐量的性能。
Google Vertex AI Gemini 2.0 Pro 优化建议
Gemini 2.0 Pro旨在支持高级推理,非常适合需要深度上下文理解的RAG应用。通过使用多阶段排名技术优化检索,以确保仅包含最相关的文档在上下文中。保持提示结构化和逻辑清晰,关键信息应提前呈现。调整温度(0.1–0.3)以精确控制响应风格和准确性。利用谷歌的缓存和批处理机制提高效率并降低API成本。流式响应可以通过减少感知延迟来增强实时应用的体验。如果部署多个模型,建议将Gemini 2.0 Pro保留用于深入分析,而使用较小的模型进行基本检索和摘要。
Google Vertex AI text-embedding-004 优化建议
Google Vertex AI text-embedding-004 提供高质量的嵌入,适用于广泛的 RAG 应用。为了提高检索效率,通过预处理数据并关注关键概念和相关上下文来减少输入文本中的冗余。对于大规模部署,利用批处理以并行生成嵌入,从而减少延迟。通过实施混合搜索策略(将传统关键词匹配与稠密向量相似性结合)来优化搜索性能。微调温度设置,以在创意和精准之间取得平衡,并调整模型的 top-k 和 top-p 参数,以控制结果的可变性。缓存高需求查询的嵌入,以减少不必要的处理,并定期刷新嵌入,以保持新数据引入时的相关性。
通过系统性实施这些优化方案,RAG 系统将在响应速度、结果准确率、资源利用率等维度获得全面提升。 AI 技术迭代迅速,建议定期进行压力测试与架构调优,持续跟踪最新优化方案,确保系统在技术发展中始终保持竞争优势。
RAG 成本计算器
估算 RAG 成本时,需要分析向量存储、计算资源和 API 使用等方面的开销。主要成本驱动因素包括向量数据库查询、嵌入生成和 LLM 推理。RAG 成本计算器是一款免费的在线工具,可快速估算构建 RAG 的费用,涵盖切块(chunking)、嵌入、向量存储/搜索和 LLM 生成。能帮助你发现节省费用的机会,最高可通过无服务器方案在向量存储成本上实现 10 倍降本。
Calculate your RAG cost
收获与总结
“我们一起 embarked on 的旅程真是不可思议!在本教程中,我们探索了如何利用强大的框架、向量数据库、LLM 和嵌入模型的创新组合构建一个前沿的 RAG 系统。我们使用的框架无缝地将这些组件结合在一起,提供了利用其全部能力所需的结构。通过整合向量数据库,我们解锁了以闪电般的速度搜索和检索信息的能力,确保您的应用能够及时响应用户需求。
借助谷歌 Vertex AI Gemini 2.0 Pro,我们将对话智能带入了生活,使动态互动变得自然且引人入胜。嵌入模型——谷歌 Vertex AI text-embedding-004——通过生成细致的语义表示来丰富我们对数据的理解,提高了我们处理和分析信息的能力。此外,附带的优化技巧和实用的免费成本计算器使您现在掌握了优化系统性能和效率的知识。
那么,您准备好将所学应用于实践,开始构建、优化和创新了吗?可能性是无穷无尽的,工具触手可及。深入探索,进行试验,将您对无缝 RAG 应用程序的愿景变为现实!您通往未来信息检索和对话 AI 的旅程现在开始——去释放您的创造力吧!”
欢迎反馈!
我们很期待听到你的使用心得与建议! 🌟 你可以:
- 在下方留言;
- 加入 Milvus Discord 社区,与全球 AI 爱好者一起交流。 如果你觉得本教程对你有帮助,别忘了给 Milvus GitHub 仓库点个 ⭐,这将激励我们不断创作!💖