使用 LangChain、Milvus、Anthropic Claude 3.5 Sonnet 和 voyage-3 构建 RAG 聊天机器人
什么是 RAG
检索增强生成(Retrieval-Augmented Generation,简称 RAG)正引领生成式 AI,尤其是对话式 AI 的新潮流。它将预训练的大语言模型(LLM,如 OpenAI 的 GPT)与存储于向量数据库(如 Milvus、Zilliz Cloud)中的外部知识源相结合,从而让模型输出更准确、更具上下文相关性,并且能够及时融合最新信息。 一个完整的 RAG 系统通常包含以下四大核心组件:
- 向量数据库:用于存储与检索向量化后的知识;
- 嵌入模型:将文本转为向量表示,为后续的相似度搜索提供支持;
- 大语言模型(LLM):根据检索到的上下文和用户提问生成回答;
- 框架:负责将上述组件串联成可用的应用。
核心组件说明
本教程将带你在 Python 环境下,借助以下组件一步步搭建一个初级的 RAG 聊天机器人:
- LangChain: 一个开源框架,帮助你协调大语言模型、向量数据库、嵌入模型等之间的交互,使集成检索增强生成(RAG)管道变得更容易。
- Milvus: 一个开源的向量数据库,专门用于高效地存储、索引和搜索大规模向量嵌入,非常适合用于检索增强生成(RAG)、语义搜索和推荐系统等场景。如果您需要更具扩展性的解决方案,或不想管理自己的基础设施,我们推荐使用 Zilliz Cloud,这是一个基于开源项目 Milvus构建的全托管向量数据库服务,并提供支持最多 100 万个向量的免费套餐。
- Anthropic Claude 3.5 Sonnet: Claude 3系列中的这个先进模型旨在实现深刻理解和创造性的语言生成。凭借增强的提示理解和上下文意识,它在复杂对话、创意写作和高级内容创作中表现卓越。非常适合需要深入参与和高质量输出的应用场景。
- Voyage-3: 致力于AI驱动的导航和行程规划,Voyage-3优化了路线效率,同时提供实时交通更新和数据洞察。其优势在于预测分析和自适应学习,使其成为物流、配送服务和需要可靠智能导航解决方案的旅游应用的理想选择。
完成本教程后,你将拥有一个能够基于自定义知识库回答问题的完整聊天机器人。
注意事项: 使用专有模型前请确保已获取有效 API 密钥。
实战:搭建 RAG 聊天机器人
第 1 步:安装并配置 LangChain
%pip install --quiet --upgrade langchain-text-splitters langchain-community langgraph
第 2 步:安装并配置 Anthropic Claude 3.5 Sonnet
pip install -qU "langchain[anthropic]"
import getpass
import os
if not os.environ.get("ANTHROPIC_API_KEY"):
os.environ["ANTHROPIC_API_KEY"] = getpass.getpass("Enter API key for Anthropic: ")
from langchain.chat_models import init_chat_model
llm = init_chat_model("claude-3-5-sonnet-latest", model_provider="anthropic")
第 3 步:安装并配置 voyage-3
pip install -qU langchain-voyageai
import getpass
import os
if not os.environ.get("VOYAGE_API_KEY"):
os.environ["VOYAGE_API_KEY"] = getpass.getpass("Enter API key for Voyage AI: ")
from langchain-voyageai import VoyageAIEmbeddings
embeddings = VoyageAIEmbeddings(model="voyage-3")
第 4 步:安装并配置 Milvus
pip install -qU langchain-milvus
from langchain_milvus import Milvus
vector_store = Milvus(embedding_function=embeddings)
第 5 步:正式构建 RAG 聊天机器人
在设置好所有组件之后,我们来搭建一个简单的聊天机器人。我们将使用 Milvus介绍文档 作为私有知识库。你可以用你自己的数据集替换它,来定制你自己的 RAG 聊天机器人。
import bs4
from langchain import hub
from langchain_community.document_loaders import WebBaseLoader
from langchain_core.documents import Document
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langgraph.graph import START, StateGraph
from typing_extensions import List, TypedDict
# 加载并拆分博客内容
loader = WebBaseLoader(
web_paths=("https://milvus.io/docs/overview.md",),
bs_kwargs=dict(
parse_only=bs4.SoupStrainer(
class_=("doc-style doc-post-content")
)
),
)
docs = loader.load()
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
all_splits = text_splitter.split_documents(docs)
# 索引分块
_ = vector_store.add_documents(documents=all_splits)
# Define prompt for question-answering
prompt = hub.pull("rlm/rag-prompt")
# 定义应用状态
class State(TypedDict):
question: str
context: List[Document]
answer: str
# 定义应用步骤
def retrieve(state: State):
retrieved_docs = vector_store.similarity_search(state["question"])
return {"context": retrieved_docs}
def generate(state: State):
docs_content = "\n\n".join(doc.page_content for doc in state["context"])
messages = prompt.invoke({"question": state["question"], "context": docs_content})
response = llm.invoke(messages)
return {"answer": response.content}
# 编译应用并测试
graph_builder = StateGraph(State).add_sequence([retrieve, generate])
graph_builder.add_edge(START, "retrieve")
graph = graph_builder.compile()
测试聊天机器人
Yeah! You've built your own chatbot. Let's ask the chatbot a question.
response = graph.invoke({"question": "What data types does Milvus support?"})
print(response["answer"])
示例输出
Milvus 支持多种数据类型,包括稀疏向量、二进制向量、JSON 和数组。此外,它还支持常见的数值类型和字符类型,使其能够满足不同的数据建模需求。这使得用户能够高效地管理非结构化或多模态数据。
优化小贴士
在搭建 RAG 系统时,合理调优能显著提升性能与效率。下面为各组件提供一些实用建议:
LangChain 优化建议
为了优化 LangChain,需要通过高效地构建链路和代理来减少工作流程中的冗余操作。使用缓存避免重复计算,从而加快系统速度,并尝试采用模块化设计,确保模型或数据库等组件能够轻松替换。这将提供灵活性和效率,使您能够快速扩展系统,而无需不必要的延迟或复杂性。
Milvus 优化建议
Milvus 作为一个高效的向量数据库,在 RAG 系统的检索任务中发挥着关键作用。要优化其性能,应确保构建合适的索引,以平衡速度和准确性;对于响应时间至关重要的场景,可考虑使用 HNSW(Hierarchical Navigable Small World)进行高效的最近邻搜索。根据使用模式对数据进行分区,有助于提升查询性能并减少加载时间,从而提高系统的可扩展性。根据查询频率定期监控并调整缓存设置,以避免数据检索时出现延迟。向量插入时采用批处理模式,可以减少数据库锁争用,提高整体吞吐量。此外,通过调整向量的维度来优化模型参数:更高的维度可以提升检索准确性,但可能增加搜索时间,因此需根据具体用例和硬件条件找到最佳平衡点。
Anthropic Claude 3.5 Sonnet 优化建议
Claude 3.5 Sonnet 提供了增强的推理能力,同时在速度和复杂性之间保持平衡。通过优化检索管道来优先考虑排名最高的上下文,减少不必要的令牌消耗。使用自适应切块方法提供结构化和简洁的上下文,确保模型只接收最相关的信息。实施动态查询选择方法,将简单的问题路由到 Claude 3.5 Haiku,以提高成本和速度效率,同时将 Sonnet 保留用于更深层次的推理。通过批处理和响应缓存来优化 API 请求处理,以降低延迟。微调温度和采样设置,对于基于检索的任务保持较低,以实现确定性的输出。使用系统指令来指导响应,改善一致性并减少幻觉。如果大规模部署,利用并行查询执行和实时监控,根据系统性能指标动态调整工作负载。
voyage-3 优化建议
voyage-3是一个多功能模型,适用于RAG系统中的平衡性能,使得高效的检索策略对于保持低延迟和高准确性至关重要。通过利用基于嵌入的相似性搜索和重排序来提升检索效果,以确保包含相关的上下文。构造提示时需明确上下文分离和简明的指令,以最大化响应的准确性。将温度设置在0.1到0.3之间,以控制输出,同时调整top-k和top-p以实现灵活性。对频繁查询的数据实施响应缓存,以最小化冗余处理和API调用。利用并行处理和请求批量处理来优化资源效率。对于多模型部署,将voyage-3分配给中等复杂度的任务,同时使用更大的模型进行深入分析,使用更小的模型进行实时、低延迟的查询。
通过系统性实施这些优化方案,RAG 系统将在响应速度、结果准确率、资源利用率等维度获得全面提升。 AI 技术迭代迅速,建议定期进行压力测试与架构调优,持续跟踪最新优化方案,确保系统在技术发展中始终保持竞争优势。
RAG 成本计算器
估算 RAG 成本时,需要分析向量存储、计算资源和 API 使用等方面的开销。主要成本驱动因素包括向量数据库查询、嵌入生成和 LLM 推理。RAG 成本计算器是一款免费的在线工具,可快速估算构建 RAG 的费用,涵盖切块(chunking)、嵌入、向量存储/搜索和 LLM 生成。能帮助你发现节省费用的机会,最高可通过无服务器方案在向量存储成本上实现 10 倍降本。
Calculate your RAG cost
收获与总结
你学到了什么?你刚刚经历了一个激动人心的教程,展示了如何将一个强大的框架与向量数据库、尖端的LLM和复杂的嵌入模型无缝集成,以创建一个最先进的检索增强生成(RAG)系统!这不是很令人兴奋吗?通过使用LangChain,你见证了这个框架如何优雅地将所有这些组件联系在一起,确保顺畅的交互和工作流程。Milvus向量数据库使你具备了进行闪电般快速搜索的能力,在处理巨大的数据集时极大地提高了效率。同时,Anthropic Claude的3.5 Sonnet将对话智能带到了前所未有的高度。想象一下以自然语言与用户互动,并且能够前所未有地上下文响应!此外,嵌入模型生成丰富的语义表示,允许你的RAG系统真正理解信息中的空白,使每个交互更加有意义。
在整个教程过程中,你掌握了一些实用的优化技巧,并且不要忘记免费的成本计算器,以使你在推进项目时的预算管理变得轻而易举。现在,你已经掌握了这些知识,前景一片广阔!快来开始你的构建,释放你的创造力,创新你自己的RAG应用程序。世界在等待你精彩的创意——让我们开始吧!
欢迎反馈!
我们很期待听到你的使用心得与建议! 🌟 你可以:
- 在下方留言;
- 加入 Milvus Discord 社区,与全球 AI 爱好者一起交流。 如果你觉得本教程对你有帮助,别忘了给 Milvus GitHub 仓库点个 ⭐,这将激励我们不断创作!💖