使用 LangChain、Faiss、OpenAI GPT-4o 和 Ollama bge-m3 构建 RAG 聊天机器人

什么是 RAG

检索增强生成(Retrieval-Augmented Generation,简称 RAG)正引领生成式 AI,尤其是对话式 AI 的新潮流。它将预训练的大语言模型(LLM,如 OpenAI 的 GPT)与存储于向量数据库(如 MilvusZilliz Cloud)中的外部知识源相结合,从而让模型输出更准确、更具上下文相关性,并且能够及时融合最新信息。 一个完整的 RAG 系统通常包含以下四大核心组件:

  • 向量数据库:用于存储与检索向量化后的知识;
  • 嵌入模型:将文本转为向量表示,为后续的相似度搜索提供支持;
  • 大语言模型(LLM):根据检索到的上下文和用户提问生成回答;
  • 框架:负责将上述组件串联成可用的应用。

核心组件说明

本教程将带你在 Python 环境下,借助以下组件一步步搭建一个初级的 RAG 聊天机器人:

  • LangChain: 一个开源框架,帮助你协调大语言模型、向量数据库、嵌入模型等之间的交互,使集成检索增强生成(RAG)管道变得更容易。
  • Faiss: 也被称为 Facebook AI Similarity Search,是一个开源的向量搜索库,可让开发者在庞大的 非结构化数据集内快速搜索语义相似的多媒体数据。(如果您需要更具扩展性的解决方案,或不想管理自己的基础设施,我们推荐使用 Zilliz Cloud,这是一个基于开源项目 Milvus 构建的全托管向量数据库服务,并提供支持最多 100 万个向量的免费套餐)。
  • OpenAI GPT-4o: 这款来自OpenAI的先进模型专注于生成高度连贯和上下文相关的文本。它对细微语言的理解得到了提升,在创意写作、对话代理和教育内容方面表现出色。GPT-4o非常适合需要深入回应和创造力的应用,具有跨行业的多样性。
  • Ollama bge-m3: Ollama bge-m3 是一个强大的语言模型,旨在处理复杂的自然语言理解和生成任务。它在提供上下文回应方面表现出色,因此非常适合用于聊天机器人、内容创作和数字助手等应用,在这些应用中,交谈的流畅性和连贯性至关重要。

完成本教程后,你将拥有一个能够基于自定义知识库回答问题的完整聊天机器人。

注意事项: 使用专有模型前请确保已获取有效 API 密钥。

实战:搭建 RAG 聊天机器人

第 1 步:安装并配置 LangChain

%pip install --quiet --upgrade langchain-text-splitters langchain-community langgraph

第 2 步:安装并配置 OpenAI GPT-4o

pip install -qU "langchain[openai]"
import getpass
import os

if not os.environ.get("OPENAI_API_KEY"):
  os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain.chat_models import init_chat_model

llm = init_chat_model("gpt-4o", model_provider="openai")

第 3 步:安装并配置 Ollama bge-m3

pip install -qU langchain-ollama
from langchain_ollama import OllamaEmbeddings

embeddings = OllamaEmbeddings(model="bge-m3")

第 4 步:安装并配置 Faiss

pip install -qU langchain-community
from langchain_community.vectorstores import FAISS

vector_store = FAISS(embedding_function=embeddings)

第 5 步:正式构建 RAG 聊天机器人

在设置好所有组件之后,我们来搭建一个简单的聊天机器人。我们将使用 Milvus介绍文档 作为私有知识库。你可以用你自己的数据集替换它,来定制你自己的 RAG 聊天机器人。

import bs4
from langchain import hub
from langchain_community.document_loaders import WebBaseLoader
from langchain_core.documents import Document
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langgraph.graph import START, StateGraph
from typing_extensions import List, TypedDict

# 加载并拆分博客内容
loader = WebBaseLoader(
    web_paths=("https://milvus.io/docs/overview.md",),
    bs_kwargs=dict(
        parse_only=bs4.SoupStrainer(
            class_=("doc-style doc-post-content")
        )
    ),
)

docs = loader.load()

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
all_splits = text_splitter.split_documents(docs)

# 索引分块
_ = vector_store.add_documents(documents=all_splits)

# Define prompt for question-answering
prompt = hub.pull("rlm/rag-prompt")


# 定义应用状态
class State(TypedDict):
    question: str
    context: List[Document]
    answer: str


# 定义应用步骤
def retrieve(state: State):
    retrieved_docs = vector_store.similarity_search(state["question"])
    return {"context": retrieved_docs}


def generate(state: State):
    docs_content = "\n\n".join(doc.page_content for doc in state["context"])
    messages = prompt.invoke({"question": state["question"], "context": docs_content})
    response = llm.invoke(messages)
    return {"answer": response.content}


# 编译应用并测试
graph_builder = StateGraph(State).add_sequence([retrieve, generate])
graph_builder.add_edge(START, "retrieve")
graph = graph_builder.compile()

测试聊天机器人

Yeah! You've built your own chatbot. Let's ask the chatbot a question.

response = graph.invoke({"question": "What data types does Milvus support?"})
print(response["answer"])

示例输出

Milvus 支持多种数据类型,包括稀疏向量、二进制向量、JSON 和数组。此外,它还支持常见的数值类型和字符类型,使其能够满足不同的数据建模需求。这使得用户能够高效地管理非结构化或多模态数据。

优化小贴士

在搭建 RAG 系统时,合理调优能显著提升性能与效率。下面为各组件提供一些实用建议:

LangChain 优化建议

为了优化 LangChain,需要通过高效地构建链路和代理来减少工作流程中的冗余操作。使用缓存避免重复计算,从而加快系统速度,并尝试采用模块化设计,确保模型或数据库等组件能够轻松替换。这将提供灵活性和效率,使您能够快速扩展系统,而无需不必要的延迟或复杂性。

Faiss 优化建议

为了提升 Faiss 库在检索增强生成(RAG)系统中的性能,首先根据数据量和查询速度要求选择合适的索引类型;例如,使用 IVF(倒排文件)索引可以通过减少搜索空间,显著加速大数据集上的查询。通过使用 nlist 参数将数据划分为更小的簇,并在检索时设置合适的探测数 (nprobe),以平衡速度和准确性,从而优化索引过程。确保向量得到正确的归一化,并在索引过程中考虑使用 16 位或 8 位量化,以减少大数据集的内存占用,同时保持合理的检索准确性。此外,如果可用,可以考虑利用 GPU 加速,因为 Faiss 受益于并行处理,能够加快最近邻搜索的速度。通过不断微调和基于不同参数与配置的基准测试,您可以找到最适合数据特性和检索需求的高效设置。

OpenAI GPT-4o 优化建议

GPT-4o针对速度和效率进行了优化,使其成为高性能RAG应用的绝佳选择。通过优化检索策略来最大化效率——使用重新排名的方法来优先考虑与模型相关性最高的文档。在保持检索上下文简洁的同时,减少令牌消耗,并确保提示遵循结构化格式。将温度调整至(0.1-0.2)以获得精确、基于事实的响应,同时在创意或探索性任务中略微提高温度。利用OpenAI API的流媒体功能来优化响应速度,减少实时应用的延迟。实施提示模板以标准化输入并减少响应中的变异性。使用混合搜索(结合关键词搜索和向量搜索)以实现更准确和上下文相关的检索。定期监控API延迟和响应一致性,动态调整检索参数以实现最佳性能。

Ollama bge-m3 优化建议

为了优化在检索增强生成设置中的Ollama bge-m3组件,建议实施一个明确定义的缓存策略以存储经常访问的数据,这将显著减少响应时间并提升整体延迟。此外,通过调整检索模型的参数来提升查询相关性,以最大化质量,利用嵌入进行上下文增强。批量处理查询可以进一步提高吞吐量。最后,持续监控性能指标,以识别瓶颈并进行基于数据的调整,确保在生产环境中具有强大的可扩展性和响应能力。

通过系统性实施这些优化方案,RAG 系统将在响应速度、结果准确率、资源利用率等维度获得全面提升。 AI 技术迭代迅速,建议定期进行压力测试与架构调优,持续跟踪最新优化方案,确保系统在技术发展中始终保持竞争优势。

RAG 成本计算器

估算 RAG 成本时,需要分析向量存储、计算资源和 API 使用等方面的开销。主要成本驱动因素包括向量数据库查询、嵌入生成和 LLM 推理。RAG 成本计算器是一款免费的在线工具,可快速估算构建 RAG 的费用,涵盖切块(chunking)、嵌入、向量存储/搜索和 LLM 生成。能帮助你发现节省费用的机会,最高可通过无服务器方案在向量存储成本上实现 10 倍降本。

立即使用 RAG 成本计算器

Calculate your RAG cost Calculate your RAG cost

收获与总结

"到现在为止,你已经解锁了从零开始构建RAG系统的魔力!你已经看到LangChain如何作为粘合剂,灵活地协调整个管道。它无缝连接了Faiss——一个高效存储和检索数据的闪电般快速的向量数据库——与OpenAI的GPT-4o,一个生成类人回答的强大LLM。你学习了Ollama bge-m3嵌入模型如何将原始文本转化为丰富的数值表示,使Faiss能够找到与你的查询最相关的上下文。这些工具共同形成了一个动态的工作流程:摄取数据,转换为嵌入,存储以便快速检索,然后让LLM生成准确且经过上下文丰富的答案。在此过程中,你发现了一些优化技巧,比如调整块大小以获得更好的嵌入,或在Faiss中使用元数据过滤以加快搜索速度。而谁能忘记那个免费的RAG成本计算器呢?这是你在性能和预算之间取得平衡的秘密武器,让你可以在不破产的情况下进行实验!

但这不仅仅是遵循步骤——这关乎赋权。你已经掌握了创建能够理解智能响应的AI应用程序的技能,无论你是在构建聊天机器人、研究助手,还是其他完全不同的东西。可能性是无穷无尽的,而现在你具备了迭代、优化和创新的能力。也许你会为特定领域微调嵌入,或者在未来集成多模态数据。无论你选择什么,记住:你编写的每一行代码都将你的想法更接近现实。所以,去吧,去构建!调整参数,探索新数据集,推动RAG能做的边界。AI的未来掌握在你手中——今天就开始,让你的创造力尽情飞扬。🚀"

欢迎反馈!

我们很期待听到你的使用心得与建议! 🌟 你可以:

  • 在下方留言;
  • 加入 Milvus Discord 社区,与全球 AI 爱好者一起交流。 如果你觉得本教程对你有帮助,别忘了给 Milvus GitHub 仓库点个 ⭐,这将激励我们不断创作!💖

大规模向量数据库

Zilliz Cloud 是一个专为大规模应用构建的全托管向量数据库,完美适配您的 RAG 应用。

免费试用 Zilliz Cloud

继续阅读