护栏通过合并监控工具来检测和缓解LLMs的偏差输出,这些工具会分析生成的内容是否存在歧视性语言或模式。这些工具评估产出是否反映了不公平的陈规定型观念或与性别、种族、族裔或其他敏感因素有关的偏见。护栏使用预定义的公平标准来标记有偏差的输出,并在它们到达最终用户之前对其进行过滤。
护栏使用的一种常见技术是在模型训练期间应用公平准则。通过分析训练数据并识别可能存在偏见的区域,护栏可以指导LLM生成更加平衡和中立的内容。他们还可以根据模型历史响应中公认的偏差对输出进行校正。
护栏通常会根据反馈和持续评估随时间进行调整,以确保模型继续改进其对偏差的处理,以应对新的社会问题或数据中出现的问题。这些措施可能涉及加强模型对社会偏见的认识,并引导其学习更具包容性的行为模式。