什么是RAG系统中的偏见?

什么是RAG系统中的偏见?

RAG,即“检索增强生成”(Retrieval-Augmented Generation),在减少模型幻觉和增强大型语言模型(LLM)的特定领域知识库方面得到了广泛认可。将 LLM 生成的信息与外部数据源相互印证有助于保持模型输出的新鲜度和真实性。然而,最近在RAG系统中的发现凸显了基于 RAG 的 LLM 存在的问题,例如 RAG 系统中包含的偏见。

LLM 中的偏见一直是人们讨论的话题,但由于 RAG 的使用,这一问题值得关注。本文探讨了人工智能中的公平性、RAG 带来的不同公平性风险、为什么会出现这种情况、如何减轻这种情况以及对未来的建议。

RAG系统中的偏见概述

RAG 是一种人工智能技术,它通过整合外部资源来增强大型语言模型。它允许模型对其生成的信息进行事实检查或校对。由 RAG 驱动的人工智能模型被认为更可信、更新更快,因为引用外部来源增加了数据的责任性。这还能防止模型生成过时的信息。RAG 系统的核心功能取决于外部数据集、数据集的质量以及数据集接受审查的程度。如果 RAG 系统引用的外部数据集没有经过开发人员的审查,那么系统就可能存在偏见和成见。

人工智能的伦理考量

人工智能(AI)的发展日新月异,将一些关键的伦理问题推到了前沿,开发人员必须解决这些问题,以确保负责任地开发和部署人工智能。这一发展引起了人们对 RAG 系统中经常被忽视的人工智能伦理概念和算法公平性的关注。

人工智能的公平性

自从人工智能驱动的聊天机器人出现以来,人工智能的公平性一直受到广泛关注。例如,谷歌的 Gemini 产品就因过度呈现人工智能生成的有色人种图像,从而过度补偿种族偏见而受到批评。此外,减少宗教和性别等显性偏见的尝试非常广泛,而鲜为人知的偏见却不为人所注意。研究人员已经努力减少人工智能中固有的偏见,但他们并没有过多关注在其他处理阶段增加的偏见。

RAG导致的不公平

从本质上讲,RAG 是利用外部来源对 LLM 生成的信息进行事实核查。这一过程通常会增加更多有价值的最新信息。但是,如果外部来源向 RAG 提供带有偏见的信息,就会进一步强化本来会被视为不道德的产出。从外部来源检索知识可能会无意中引入不受欢迎的有偏见的信息,导致法律专家小组的产出带有歧视性。

为什么会出现这种情况?

RAG 中的偏见源于用户缺乏公平意识,以及缺乏对有偏见信息进行净化的协议。人们普遍认为 RAG 可以减少错误信息,但却忽视了它所产生的偏见。人们在使用外部数据源时,不会检查其是否存在偏见问题。低水平的公平意识会导致某种程度的偏见,即使是在经过审查的数据集中也是如此。

 RAG 的公平性风险

Link: Source

最近的研究从用户对公平性认识的三个层面研究了 RAG 的公平性风险,并揭示了检索前和检索后增强方法的影响。测试发现,RAG 不需要微调或再培训就能破坏公平性,对手可以利用 RAG 以较低的成本引入偏见,而被发现的几率非常低。研究得出结论,目前的对齐方法不足以确保基于 RAG 的 LLM 的公平性。

缓解策略

有几种策略可以解决基于检索增强生成(RAG)的大型语言模型(LLM)中的公平性风险:

  • 偏见感知检索机制通过使用基于公平性指标的来源来过滤或重新排列文档,从而减少有偏见或倾斜信息的暴露。这些机制可以使用预先训练好的偏见检测模型或自定义排序算法来优先考虑平衡的观点。
  • 公平感知摘要技术通过改进检索文档中的关键点来确保中立性和代表性。它们能减少错误表述,防止遗漏边缘化观点,并利用公平驱动的约束条件纳入不同观点。
  • 情境感知除错模型通过分析检索内容中的问题语言、刻板印象或歪曲叙述,动态识别并消除偏见。它们可以利用公平性约束或学习到的道德准则,实时调整或重构输出内容。
  • 用户干预工具可在生成数据前对检索到的数据进行人工审核,允许用户标记、修改或排除有偏见的来源。这些工具通过提供检索过程的透明度和控制来加强对公平性的监督。

通过控制嵌入器来减轻 RAG 偏见的可能性

Link: Source

最新研究探讨了通过控制嵌入器来减轻 RAG 偏见的可能性。嵌入器指的是将文本数据转换为数字表示(称为嵌入)的模型或算法。这些嵌入捕捉了文本的语义,RAG 系统利用它们在生成回复之前从知识库中获取相关信息。考虑到这种关系,研究发现,反向偏置嵌入器可以消除整个 RAG 系统的偏置

此外,他们还发现,一个语料库中的最佳嵌入器仍然是语料库偏见变化的最佳嵌入器。最后,研究人员得出结论,大多数去偏见工作都集中在 RAG 系统的检索过程上,而这是不够的,正如前面所讨论的那样。

小结

与传统的基于人工智能的 LLM 相比,基于 RAG 的 LLM 具有显著的优势,并能弥补其很多缺点。但它并不是万能的,这一点从它带来的公平性风险就能看出来。虽然 RAG 有助于减少幻觉并提高特定领域的准确性,但它也会无意中放大外部数据集中存在的偏见。即使是精心策划的数据也无法完全确保公平性,这就凸显出需要更强大的缓解策略。RAG 需要更好的保障机制来防止公平性下降,而总结和偏见感知检索在降低风险方面发挥着关键作用。

评论留言