使用 LangChain、pgvector、OpenAI GPT-4o mini 和 mistral-embed 构建 RAG 聊天机器人

什么是 RAG

检索增强生成(Retrieval-Augmented Generation,简称 RAG)正引领生成式 AI,尤其是对话式 AI 的新潮流。它将预训练的大语言模型(LLM,如 OpenAI 的 GPT)与存储于向量数据库(如 MilvusZilliz Cloud)中的外部知识源相结合,从而让模型输出更准确、更具上下文相关性,并且能够及时融合最新信息。 一个完整的 RAG 系统通常包含以下四大核心组件:

  • 向量数据库:用于存储与检索向量化后的知识;
  • 嵌入模型:将文本转为向量表示,为后续的相似度搜索提供支持;
  • 大语言模型(LLM):根据检索到的上下文和用户提问生成回答;
  • 框架:负责将上述组件串联成可用的应用。

核心组件说明

本教程将带你在 Python 环境下,借助以下组件一步步搭建一个初级的 RAG 聊天机器人:

  • LangChain: 一个开源框架,帮助你协调大语言模型、向量数据库、嵌入模型等之间的交互,使集成检索增强生成(RAG)管道变得更容易。
  • Pgvector: 一个面向 PostgreSQL 的开源扩展,可高效存储和查询高维向量数据,适用于机器学习和 AI 应用。该扩展专为处理嵌入数据而设计,支持使用 HNSW 和 IVFFlat 等算法进行快速的近似最近邻(ANN)搜索。但由于它只是传统搜索的向量搜索附加组件,而非专门构建的向量数据库,因此在可扩展性、可用性以及其他企业级应用所需的高级功能方面存在不足。因此,如果您需要更具扩展性的解决方案,或不想管理自己的基础设施,我们推荐使用 Zilliz Cloud,这是一个基于开源项目 Milvus构建的全托管向量数据库服务,并提供支持最多 100 万个向量的免费套餐。)
  • OpenAI GPT-4o mini: 该模型是先进的GPT-4架构的紧凑版,旨在提高效率和降低资源消耗。它在自然语言理解和生成任务中表现出色,非常适合用于聊天机器人实现、内容创作以及响应速度和成本效益至关重要的互动应用。
  • Mistral-Embed: Mistral-Embed 是一个最先进的嵌入模型,旨在实现高维文本表示。它在语义搜索、相似度测量和推荐系统等任务中表现出色,提供准确的上下文嵌入。非常适合增强自然语言处理应用,它在性能与可扩展性之间达到了良好的平衡,使其适用于研究和实际应用。

完成本教程后,你将拥有一个能够基于自定义知识库回答问题的完整聊天机器人。

注意事项: 使用专有模型前请确保已获取有效 API 密钥。

实战:搭建 RAG 聊天机器人

第 1 步:安装并配置 LangChain

%pip install --quiet --upgrade langchain-text-splitters langchain-community langgraph

第 2 步:安装并配置 OpenAI GPT-4o mini

pip install -qU "langchain[openai]"
import getpass
import os

if not os.environ.get("OPENAI_API_KEY"):
  os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain.chat_models import init_chat_model

llm = init_chat_model("gpt-4o-mini", model_provider="openai")

第 3 步:安装并配置 mistral-embed

pip install -qU langchain-mistralai
import getpass
import os

if not os.environ.get("MISTRALAI_API_KEY"):
  os.environ["MISTRALAI_API_KEY"] = getpass.getpass("Enter API key for MistralAI: ")

from langchain_mistralai import MistralAIEmbeddings

embeddings = MistralAIEmbeddings(model="mistral-embed")

第 4 步:安装并配置 pgvector

pip install -qU langchain-postgres
from langchain_postgres import PGVector

vector_store = PGVector(
    embeddings=embeddings,
    collection_name="my_docs",
    connection="postgresql+psycopg://...",
)

第 5 步:正式构建 RAG 聊天机器人

在设置好所有组件之后,我们来搭建一个简单的聊天机器人。我们将使用 Milvus介绍文档 作为私有知识库。你可以用你自己的数据集替换它,来定制你自己的 RAG 聊天机器人。

import bs4
from langchain import hub
from langchain_community.document_loaders import WebBaseLoader
from langchain_core.documents import Document
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langgraph.graph import START, StateGraph
from typing_extensions import List, TypedDict

# 加载并拆分博客内容
loader = WebBaseLoader(
    web_paths=("https://milvus.io/docs/overview.md",),
    bs_kwargs=dict(
        parse_only=bs4.SoupStrainer(
            class_=("doc-style doc-post-content")
        )
    ),
)

docs = loader.load()

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
all_splits = text_splitter.split_documents(docs)

# 索引分块
_ = vector_store.add_documents(documents=all_splits)

# Define prompt for question-answering
prompt = hub.pull("rlm/rag-prompt")


# 定义应用状态
class State(TypedDict):
    question: str
    context: List[Document]
    answer: str


# 定义应用步骤
def retrieve(state: State):
    retrieved_docs = vector_store.similarity_search(state["question"])
    return {"context": retrieved_docs}


def generate(state: State):
    docs_content = "\n\n".join(doc.page_content for doc in state["context"])
    messages = prompt.invoke({"question": state["question"], "context": docs_content})
    response = llm.invoke(messages)
    return {"answer": response.content}


# 编译应用并测试
graph_builder = StateGraph(State).add_sequence([retrieve, generate])
graph_builder.add_edge(START, "retrieve")
graph = graph_builder.compile()

测试聊天机器人

Yeah! You've built your own chatbot. Let's ask the chatbot a question.

response = graph.invoke({"question": "What data types does Milvus support?"})
print(response["answer"])

示例输出

Milvus 支持多种数据类型,包括稀疏向量、二进制向量、JSON 和数组。此外,它还支持常见的数值类型和字符类型,使其能够满足不同的数据建模需求。这使得用户能够高效地管理非结构化或多模态数据。

优化小贴士

在搭建 RAG 系统时,合理调优能显著提升性能与效率。下面为各组件提供一些实用建议:

LangChain 优化建议

为了优化 LangChain,需要通过高效地构建链路和代理来减少工作流程中的冗余操作。使用缓存避免重复计算,从而加快系统速度,并尝试采用模块化设计,确保模型或数据库等组件能够轻松替换。这将提供灵活性和效率,使您能够快速扩展系统,而无需不必要的延迟或复杂性。

pgvector 优化建议

为了优化 pgvector 在检索增强生成(RAG)设置中的表现,可以考虑使用 GiST 或 IVFFlat 索引向量,以显著加快搜索查询并提高检索性能。确保在查询执行过程中利用并行化,使得多个查询能够同时处理,尤其是在处理大数据集时。通过调整向量存储大小并在可能的情况下使用压缩嵌入来优化内存使用。为了进一步提升查询速度,可以实现预过滤技术,在查询之前缩小搜索空间。定期重建索引,以确保其与新数据保持同步。通过微调向量化模型来减少维度,同时不牺牲准确性,从而提升存储效率和检索时间。最后,仔细管理资源分配,利用水平扩展处理更大的数据集,并将计算密集型操作卸载到专用处理单元,以保持在高流量期间的响应能力。

OpenAI GPT-4o mini 优化建议

GPT-4o mini是GPT-4o的一个更小、更具成本效益的变体,非常适合低延迟的RAG应用。通过限制检索的文档数量仅为最相关的文档,从而优化检索,确保模型不会因不必要的上下文而超负荷。有效地构建提示,使用项目符号或编号列表以增强清晰度和重点。将温度设定在0.1–0.2之间以获取事实性响应,并调整top-p和top-k值以细化输出精度。对频繁访问的查询实施缓存,以最小化API调用并降低成本。对于高吞吐量的应用,可以批量处理多个查询以优化API效率。流式传输响应以提高实时应用中的互动性。如果在多模型管道中使用GPT-4o mini,请考虑将其用于简单任务,同时将更大的模型保留用于复杂推理。

mistral-embed 优化建议

mistral-embed 是一个多功能的嵌入模型,适用于多种基于文本的 RAG 应用。为了增强检索能力,通过在特定领域数据上进行微调来优化嵌入质量,以捕捉细微的语义关系。使用高效的向量搜索技术,如 FAISS 或 HNSW,以快速识别大数据集中的相关文档。为了更好的存储管理,在不牺牲准确性的前提下压缩嵌入,例如通过量化或降维。为了最大化吞吐量,批量处理嵌入请求,并使用多线程来并行计算。定期用新数据更新嵌入存储,以确保检索的时效性和准确性。通过调整超参数,如温度和 top-k,来优化模型性能,以平衡检索结果的精确性和多样性。”

通过系统性实施这些优化方案,RAG 系统将在响应速度、结果准确率、资源利用率等维度获得全面提升。 AI 技术迭代迅速,建议定期进行压力测试与架构调优,持续跟踪最新优化方案,确保系统在技术发展中始终保持竞争优势。

RAG 成本计算器

估算 RAG 成本时,需要分析向量存储、计算资源和 API 使用等方面的开销。主要成本驱动因素包括向量数据库查询、嵌入生成和 LLM 推理。RAG 成本计算器是一款免费的在线工具,可快速估算构建 RAG 的费用,涵盖切块(chunking)、嵌入、向量存储/搜索和 LLM 生成。能帮助你发现节省费用的机会,最高可通过无服务器方案在向量存储成本上实现 10 倍降本。

立即使用 RAG 成本计算器

Calculate your RAG cost Calculate your RAG cost

收获与总结

通过这个教程的深入学习,您已经解锁了从零开始构建 RAG 系统的魔力!您现在理解 LangChain 是如何将一切紧密结合在一起的,协调数据、嵌入和语言模型之间的工作流程。您已经看到了 pgvector 如何将 PostgreSQL 变成一个强大的向量数据库,高效地存储和检索由 Mistral-Embed 生成的语义嵌入。该嵌入模型将文本转换为丰富的数值表示,使您的系统能够理解数据中的上下文和关系。然后,OpenAI 的 GPT-4o mini 就像大脑一样,合成检索到的信息,生成连贯且人性化的响应。这些工具共同构成了一个无缝的数据处理管道:摄取数据、嵌入数据、存储以便快速检索,并生成准确且自然的答案。此外,您还掌握了优化性能的专业技巧,例如调整分块策略或在 pgvector 中建立索引,甚至发现如何使用免费的 RAG 成本计算器来估算费用并智能地扩展。

但这仅仅是一个开始!您现在具备了创建 RAG 应用程序的能力,这些应用程序能够回答问题、总结内容或为具有上下文意识的智能聊天机器人提供支持。想象一下构建客户支持系统、个性化学习工具或动态研究助手——这一切都建立在您获得的基础技能之上。该教程不仅教会了您如何,还解释了为什么,让您能够进行实验、调整和创新。那么,接下来呢?投入到自己的项目中,尝试不同的数据集,完善您的管道。优化速度、成本或准确性——您已经拥有了实现这一切的工具。AI 驱动的应用世界等待着您去探索。让我们一起构建一些惊人的东西吧!🚀

欢迎反馈!

我们很期待听到你的使用心得与建议! 🌟 你可以:

  • 在下方留言;
  • 加入 Milvus Discord 社区,与全球 AI 爱好者一起交流。 如果你觉得本教程对你有帮助,别忘了给 Milvus GitHub 仓库点个 ⭐,这将激励我们不断创作!💖

大规模向量数据库

Zilliz Cloud 是一个专为大规模应用构建的全托管向量数据库,完美适配您的 RAG 应用。

免费试用 Zilliz Cloud

继续阅读

AI Assistant