使用 LangChain、LangChain vector store、Mistral AI Ministral 8B 和 OpenAI text-embedding-ada-002 构建 RAG 聊天机器人

什么是 RAG

检索增强生成(Retrieval-Augmented Generation,简称 RAG)正引领生成式 AI,尤其是对话式 AI 的新潮流。它将预训练的大语言模型(LLM,如 OpenAI 的 GPT)与存储于向量数据库(如 MilvusZilliz Cloud)中的外部知识源相结合,从而让模型输出更准确、更具上下文相关性,并且能够及时融合最新信息。 一个完整的 RAG 系统通常包含以下四大核心组件:

  • 向量数据库:用于存储与检索向量化后的知识;
  • 嵌入模型:将文本转为向量表示,为后续的相似度搜索提供支持;
  • 大语言模型(LLM):根据检索到的上下文和用户提问生成回答;
  • 框架:负责将上述组件串联成可用的应用。

核心组件说明

本教程将带你在 Python 环境下,借助以下组件一步步搭建一个初级的 RAG 聊天机器人:

  • LangChain: 一个开源框架,帮助你协调大语言模型、向量数据库、嵌入模型等之间的交互,使集成检索增强生成(RAG)管道变得更容易。
  • LangChain in-memory vector store: 一个内存型, 临时性 的向量存储,将嵌入数据存储在内存中,并通过精确的线性搜索找到最相似的嵌入。默认的相似度度量是余弦相似度,但可以更改为 ml-distance 支持的任何相似度度量。目前该存储仅适用于演示,不支持 ID 或删除操作。 (如果您需要为应用程序或企业项目提供更具扩展性的解决方案,我们推荐使用 Zilliz Cloud,这是一个基于开源项目 Milvus构建的全托管向量数据库服务,并提供支持最多 100 万个向量的免费套餐。)
  • Mistral AI Ministral 8B: 该模型旨在满足高性能生成任务,拥有80亿个参数,提供效率与能力的平衡。它在文档生成、对话人工智能和创意内容制作方面表现出色。非常适合寻求强大但易于管理的复杂语言应用模型的开发者,同时又无需更大架构所需的资源。
  • OpenAI text-embedding-ada-002: 这个模型专注于生成高质量的文本嵌入,为各种自然语言处理应用提供强大的工具。它的优势在于语义搜索、聚类和推荐任务。非常适合需要高效且可扩展解决方案的开发者,以理解和处理多种语境中的自然语言数据。

完成本教程后,你将拥有一个能够基于自定义知识库回答问题的完整聊天机器人。

注意事项: 使用专有模型前请确保已获取有效 API 密钥。

实战:搭建 RAG 聊天机器人

第 1 步:安装并配置 LangChain

%pip install --quiet --upgrade langchain-text-splitters langchain-community langgraph

第 2 步:安装并配置 Mistral AI Ministral 8B

pip install -qU "langchain[mistralai]"
import getpass
import os

if not os.environ.get("MISTRAL_API_KEY"):
  os.environ["MISTRAL_API_KEY"] = getpass.getpass("Enter API key for Mistral AI: ")

from langchain.chat_models import init_chat_model

llm = init_chat_model("ministral-8b-latest", model_provider="mistralai")

第 3 步:安装并配置 OpenAI text-embedding-ada-002

pip install -qU langchain-openai
import getpass
import os

if not os.environ.get("OPENAI_API_KEY"):
  os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(model="text-embedding-ada-002")

第 4 步:安装并配置 LangChain vector store

pip install -qU langchain-core
from langchain_core.vectorstores import InMemoryVectorStore

vector_store = InMemoryVectorStore(embeddings)

第 5 步:正式构建 RAG 聊天机器人

在设置好所有组件之后,我们来搭建一个简单的聊天机器人。我们将使用 Milvus介绍文档 作为私有知识库。你可以用你自己的数据集替换它,来定制你自己的 RAG 聊天机器人。

import bs4
from langchain import hub
from langchain_community.document_loaders import WebBaseLoader
from langchain_core.documents import Document
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langgraph.graph import START, StateGraph
from typing_extensions import List, TypedDict

# 加载并拆分博客内容
loader = WebBaseLoader(
    web_paths=("https://milvus.io/docs/overview.md",),
    bs_kwargs=dict(
        parse_only=bs4.SoupStrainer(
            class_=("doc-style doc-post-content")
        )
    ),
)

docs = loader.load()

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
all_splits = text_splitter.split_documents(docs)

# 索引分块
_ = vector_store.add_documents(documents=all_splits)

# Define prompt for question-answering
prompt = hub.pull("rlm/rag-prompt")


# 定义应用状态
class State(TypedDict):
    question: str
    context: List[Document]
    answer: str


# 定义应用步骤
def retrieve(state: State):
    retrieved_docs = vector_store.similarity_search(state["question"])
    return {"context": retrieved_docs}


def generate(state: State):
    docs_content = "\n\n".join(doc.page_content for doc in state["context"])
    messages = prompt.invoke({"question": state["question"], "context": docs_content})
    response = llm.invoke(messages)
    return {"answer": response.content}


# 编译应用并测试
graph_builder = StateGraph(State).add_sequence([retrieve, generate])
graph_builder.add_edge(START, "retrieve")
graph = graph_builder.compile()

测试聊天机器人

Yeah! You've built your own chatbot. Let's ask the chatbot a question.

response = graph.invoke({"question": "What data types does Milvus support?"})
print(response["answer"])

示例输出

Milvus 支持多种数据类型,包括稀疏向量、二进制向量、JSON 和数组。此外,它还支持常见的数值类型和字符类型,使其能够满足不同的数据建模需求。这使得用户能够高效地管理非结构化或多模态数据。

优化小贴士

在搭建 RAG 系统时,合理调优能显著提升性能与效率。下面为各组件提供一些实用建议:

LangChain 优化建议

为了优化 LangChain,需要通过高效地构建链路和代理来减少工作流程中的冗余操作。使用缓存避免重复计算,从而加快系统速度,并尝试采用模块化设计,确保模型或数据库等组件能够轻松替换。这将提供灵活性和效率,使您能够快速扩展系统,而无需不必要的延迟或复杂性。

LangChain in-memory vector store 优化建议

LangChain 内存型向量存储只是一个临时性的向量存储,它将嵌入数据存储在内存中,并进行精确的线性搜索以找到最相似的嵌入。它的功能非常有限,仅适用于演示。如果您计划构建一个功能完整甚至生产级的解决方案,我们推荐使用 Zilliz Cloud,这是一个基于开源项目 Milvus构建的全托管向量数据库服务,并提供支持最多 100 万个向量的免费套餐。)

Mistral AI Ministral 8B 优化建议

Ministral 8B在效率和推理能力之间提供了良好的平衡,使其成为RAG应用的一个不错的中档选择。通过利用混合搜索(结合向量搜索和关键词搜索)来优化检索,以提高准确性。使用提示工程技术,如结构化输入格式和上下文的逻辑排序,以增强响应质量。调整温度(0.1-0.3)和top-k值,以平衡事实准确性与创造性灵活性。实现响应缓存,以改善对常见查询的延迟。如果进行大规模部署,使用模型并行性在多个GPU或节点之间有效分配工作负载。通过使用半精度(FP16)或量化模型来优化内存管理,以提高吞吐量。细化检索粒度,确保每个查询中仅包含最相关和简洁的上下文。

OpenAI text-embedding-ada-002 优化建议

OpenAI text-embedding-ada-002以其性能和成本效率的平衡而广受欢迎。在嵌入之前,通过将长文档分割成较小且有意义的块来优化检索,以确保与查询的更好上下文对齐。如果处理大规模嵌入,请实施向量量化以减少内存占用。使用多阶段检索,首先进行初始的ANN搜索,然后进行更精确的过滤或重排序步骤。根据数据更新周期调整索引刷新频率,以维持相关性而不增加过多的计算开销。利用批处理进行嵌入操作,以最小化API延迟。考虑在密集搜索可能失败的边缘案例中使用回退机制,例如基于关键词的检索。

通过系统性实施这些优化方案,RAG 系统将在响应速度、结果准确率、资源利用率等维度获得全面提升。 AI 技术迭代迅速,建议定期进行压力测试与架构调优,持续跟踪最新优化方案,确保系统在技术发展中始终保持竞争优势。

RAG 成本计算器

估算 RAG 成本时,需要分析向量存储、计算资源和 API 使用等方面的开销。主要成本驱动因素包括向量数据库查询、嵌入生成和 LLM 推理。RAG 成本计算器是一款免费的在线工具,可快速估算构建 RAG 的费用,涵盖切块(chunking)、嵌入、向量存储/搜索和 LLM 生成。能帮助你发现节省费用的机会,最高可通过无服务器方案在向量存储成本上实现 10 倍降本。

立即使用 RAG 成本计算器

Calculate your RAG cost Calculate your RAG cost

收获与总结

哇,你刚刚踏上了多么令人难以置信的旅程啊!通过这个教程,你探索了构建最前沿的增强检索生成(RAG)系统的令人兴奋的世界,使用了一些奇妙的工具:LangChain 框架、创新的向量数据库、Mistral AI 的 Ministral 8B 大语言模型(LLM),以及强大的 OpenAI text-embedding-ada-002 嵌入模型。这个难题的每个部分都有其独特的能力,共同创造出一个真正非凡的解决方案。

你了解了 LangChain 框架如何无缝地集成所有这些组件,充当连接它们的中枢,并巧妙地协调它们之间的互动。向量数据库凭借其速度和高效性,使你能够快速搜索,显著提升了你应用的性能和用户体验。同时,Mistral AI LLM 为你的系统注入了对话智能,为实现自然直观的引人入胜的互动铺平了道路。不要忘记嵌入模型!通过生成丰富的语义表示,它为你的 RAG 应用提供了深度,使其能够真正理解和响应用户查询。

如果这些还不够,我们还提供了实用的优化技巧,甚至有一个免费的成本计算器,帮助你微调和扩展项目。现在你掌握了这些知识,想象一下未来无尽的可能性吧!深入其中,开始构建、优化和创新你自己的 RAG 应用。唯一的限制就是你的想象力!让我们开始吧——人工智能的世界在等着你独特的想法来掀起波澜!

欢迎反馈!

我们很期待听到你的使用心得与建议! 🌟 你可以:

  • 在下方留言;
  • 加入 Milvus Discord 社区,与全球 AI 爱好者一起交流。 如果你觉得本教程对你有帮助,别忘了给 Milvus GitHub 仓库点个 ⭐,这将激励我们不断创作!💖

大规模向量数据库

Zilliz Cloud 是一个专为大规模应用构建的全托管向量数据库,完美适配您的 RAG 应用。

免费试用 Zilliz Cloud

继续阅读

AI Assistant