术语表  / AI 幻觉
AI 幻觉

AI 幻觉(Hallucination)

什么是 AI 幻觉?

人工智能幻觉是指由语言模型(如 ChatGPT)提供的答案看似合理但完全错误。这些不准确的答案并非语言模型故意撒谎,而是因为用于模型的训练数据中不包含正确回答问题所需的必要信息。例如,ChatGPT 的训练中未包含 2021 年 9 月后的任何数据,因此如果您询问这类数据,ChatGPT 无法准确回答。

虽然在某些情况下,ChatGPT 会明确表示它不知道答案,但也有些情况下可能会生成完全虚构的答案。

AI 幻觉问题

当 AI 模型生成错误信息并将其呈现为事实时,就会发生 AI 幻觉。这些幻觉通常是由于训练数据和算法的局限性或偏见所导致,从而产生不准确且可能有害的内容。

为什么会产生幻觉?

AI 幻觉可能由多种原因引起,包括:

  • 不足、过时或低质量的训练数据:AI 模型的好坏取决于其所受的训练数据。如果 AI 工具不理解您的提示或缺乏足够信息,它可能依赖于有限的数据集来生成响应,即使这些响应是不准确的。
  • 过拟合:在有限数据集上训练的 AI 模型可能会记住输入和相应的输出。因此,它可能难以泛化到新数据,从而有效地导致 AI 幻觉。

此外,其他因素也可能导致 AI 幻觉,例如使用 AI 模型未受训练的成语或俚语表达,以及对抗性攻击,其中提示被故意设计来混淆 AI。

AI 幻觉例子

AI 幻觉的例子包括在使用 ChatGPT 时遇到的这个例子。当我们问 ChatGPT “Hugging Face 是否支持 OpenAI Whisper?”时,它承认了自己的局限性并给了我们一个答案。但是它没有参考数据,所以答案实际上对我们没有任何帮助。

截至我 2021 年 9 月的知识截止点,Hugging Face 尚未宣布支持 OpenAI Whisper。然而,他们未来可能会增加支持。OpenAI Whisper 是 OpenAI 的一款新语言模型,其他公司和开发者可能需要一些时间将其集成到他们的平台和产品中。

当我们通过一个存储最新内容(Github 仓库、文档、readme文件等)且基于向量数据库搭建的聊天机器人询问同样的问题时,我们得到了一个完全不同但十分准确的回答。

是的,Hugging Face 支持 OpenAI Whisper。转换器库中有 FlaxWhisperModel 类,它是围绕 OpenAI Whisper 模型的包装器。您可以使用这个类加载预训练的 OpenAI Whisper 模型,并用它进行各种自然语言处理任务,如文本分类、问题解答和文本生成。

如何减少 AI 幻觉

您可以做一些事情来帮助减少或消除 AI 幻觉。首先是在寻找答案时给予 LLM 具体指示。例如,您可以要求它只用“是”或“否”回答,或者要求它提供参考资料以帮助您确保回答的准确性,或者您也可以尝试调整“温度”(Temperature)参数。

此外,您可以提供实际数据来生成答案。将您的数据转换为 Embedding 向量并将它们存储在向量数据库中。用户仅需与聊天机器人前端进行交互。用户提出问题;问题随后被转换为向量。然后机器人进行近似最近邻搜索,以找到语义上相似的向量,然后将这些数据呈现给 LLM 以生成准确的回应。

Zilliz 如何帮助减少 AI 幻觉?

Zilliz Cloud(和 Milvus)通过存储和查询已转换为 Embedding 向量的知识库,帮助减少 AI 幻觉。OSSChat 是一个示例应用,展示了向量数据库如何有效减少幻觉。以下是一些关于如何使用 Zilliz 减少幻觉的资源: