什么是随机梯度下降(SGD)?

什么是随机梯度下降(SGD)?

在监督训练中,模型提供有标记的数据,这意味着训练数据集中的每个输入都有相应的目标输出 (标签)。模型通过将其预测与正确的标签进行比较并根据误差 (损失) 调整其权重来学习。监督学习通常用于分类、回归和对象检测等任务。

另一方面,无监督训练涉及使用没有标记输出的数据。模型的目标是找到数据中隐藏的模式或结构,例如将相似的数据点聚集在一起或减少输入空间的维度。无监督学习的常见应用包括聚类、异常检测和生成模型。

主要区别在于标记数据的可用性: 监督学习需要标记数据进行训练,而无监督学习使用未标记数据自动发现模式。

本内容由AI工具辅助生成,内容仅供参考,请仔细甄别

专为生成式AI应用设计的向量数据库

Zilliz Cloud 是一个高性能、易扩展的 GenAI 应用的托管向量数据库服务。

免费试用Zilliz Cloud
继续阅读
时间序列预测中的均方根误差(RMSE)是什么?
时间序列聚类是一种用于根据类似的时间相关数据集随时间的模式或行为对其进行分组的方法。它涉及分析通常以一致的时间间隔收集的数据点序列,以识别表现出相似趋势或特征的组。例如,在制造环境中,时间序列聚类可以帮助根据机器的操作模式对机器进行分类,从
Read Now
部署联邦学习系统的法律影响有哪些?
"部署联邦学习系统涉及多个法律层面的影响,开发者需要仔细考虑。首先,数据隐私和保护法律,如欧洲的《通用数据保护条例》(GDPR)或美国的《加州消费者隐私法案》(CCPA),在其中起着至关重要的作用。联邦学习涉及在用户设备上去中心化的数据上训
Read Now
可解释人工智能中公平性的意义是什么?
显着性映射是可解释AI (XAI) 中使用的一种技术,可帮助开发人员了解机器学习模型如何进行预测。具体来说,它突出显示了对确定模型输出最有影响的输入区域。例如,当应用于图像分类任务时,显著图显示神经网络在做出决策时关注图像的哪些部分。这种视
Read Now

AI Assistant