神经网络使用量化预测置信度的概率方法来处理不确定性。例如,softmax输出分类任务的概率,指示模型在每个类中的置信度。但是,这些概率可能无法反映真实的不确定性,从而促使温度缩放或贝叶斯神经网络等技术进行更好的校准。
Dropout通常用于训练期间的正则化,也可以估计预测中的不确定性。通过在推理时应用dropout (蒙特卡洛Dropout),网络为同一输入生成多个输出。这些输出的变化表明不确定性,在医疗诊断或自动驾驶等应用中很有用,其中置信度很重要。
此外,集成方法结合了来自多个神经网络的预测,以提高鲁棒性和测量不确定性。例如,在稍微不同的数据子集上训练的模型集合可以通过平均它们的输出来提供更可靠的预测。这些方法对于在现实场景中部署神经网络至关重要,即使在不确定的条件下也能确保安全性和可靠性。