时间序列预测和回归都是用于根据历史数据预测未来结果的技术,但它们在方法和处理的数据类型上有根本的不同。时间序列预测特别关注以固定时间间隔收集的数据,重点关注可以在这些时间间隔内识别的模式。典型的例子包括预测股票价格、天气模式或一段时间内的销售数据。相反,回归分析用于理解因变量与一个或多个自变量之间的关系,这可能不一定涉及基于时间的数据。例如,回归可以帮助分析房价如何受到平方英尺,卧室数量或位置等因素的影响。
两种方法之间的主要区别之一在于对时间依赖性的处理。在时间序列预测中,传统的统计模型,如ARIMA (自回归集成移动平均) 或指数平滑法考虑了数据点的自相关性; 也就是说,过去的值会影响未来的值。这意味着时间是模型中的固有因素。另一方面,回归分析通常假设观察值彼此独立,除非另外特别建模。在回归中,重点是找到基于变量的拟合直线或曲线,而时间序列预测则利用过去的数据点进行预测。
此外,特征的选择在两种方法之间显著不同。在时间序列预测中,主要特征是时间本身,通常表示为连续变量,以及目标变量的滞后版本,以捕获趋势和季节性。这可以涉及基于时间 (诸如星期几或月份) 来创建新特征。在回归中,您可以收集所有相关特征 (可能是静态的或动态的) 来预测目标变量。例如,如果您想预测网站的流量,您可以在回归分析中使用营销支出、季节性或用户人口统计等变量,而时间序列预测将重点关注一段时间内的网站流量数据,以识别任何模式或趋势。