目录

引言

简单指数平滑(SES)是一种预测方法,它使用历史值的加权平均值来预测下一个值。权重分配给最近的值,而最旧的值权重较低。这是因为 SES 假设最近的值比旧的值与预测未来更相关。

SES 通过一个简单的公式实现

y^T+1T=αyT+α(1α)yT1+α(1α)2yT2+,\hat{y}_{T+1|T} = \alpha y_T + \alpha(1-\alpha) y_{T-1} + \alpha(1-\alpha)^2 y_{T-2}+ \cdots,

平滑因子控制分配给最近值的权重大小。 α 值越高意味着分配给新值的权重越大,而 α 值越低意味着分配给旧值的权重越大。

时间序列中的季节性是指时间序列在特定时间段内规律、重复的变化模式。

季节性在时间序列分析中可能是一个挑战,因为它会掩盖数据中潜在的趋势。

季节性是分析时间序列数据时需要考虑的重要因素。通过理解数据中的季节性模式,可以做出更准确的预测和更好的决策。

季节性指数平滑模型

指数平滑方法中最简单的方法自然称为简单指数平滑(SES)。这种方法适用于预测没有明显趋势或季节性模式的数据。

使用朴素方法,所有未来预测都等于序列的最后一个观测值,y^T+hT=yT,\hat{y}_{T+h|T} = y_{T},

对于 h=1,2,h=1,2,\dots。因此,朴素方法假设最近的观测值是唯一重要的,所有之前的观测值对未来没有任何信息。这可以被视为加权平均,其中所有权重都赋予最后一个观测值。

使用平均方法,所有未来预测都等于观测数据的简单平均值,y^T+hT=1Tt=1Tyt,\hat{y}_{T+h|T} = \frac1T \sum_{t=1}^T y_t,

对于 h=1,2,h=1,2,\dots。因此,平均方法假设所有观测值都同等重要,并在生成预测时赋予它们同等权重。

我们通常想要介于这两个极端之间的方法。例如,给最近的观测值比遥远的观测值赋予更大的权重可能更合理。这正是简单指数平滑背后的概念。预测使用加权平均值计算,其中权重随着观测值来自更远的过去而呈指数下降——最旧的观测值关联的权重最小

其中 0α10 \le \alpha \le 1 是平滑参数。时间 T+1T+1 的一步提前预测是序列 y1,,yTy_1,\dots,y_T 中所有观测值的加权平均。权重下降的速度由参数 α\alpha 控制。

对于 0 到 1 之间的任何 α\alpha,随着时间回溯,分配给观测值的权重呈指数下降,因此得名“指数平滑”。如果 α\alpha 很小(即接近 0),则更多权重给予更遥远的过去的观测值。如果 α\alpha 很大(即接近 1),则更多权重给予最近的观测值。对于极端情况 α=1\alpha=1y^T+1T=yT\hat{y}_{T+1|T}=y_T,预测等于朴素预测。

如何知道季节性参数的值?

要确定季节性调整简单指数平滑(SES Seasonally Adjusted)模型中季节性参数 s 的值,可以使用不同的方法,具体取决于数据的性质和分析的目标。

以下是一些确定季节性参数 ss 值的常用方法

  1. 可视化分析: 可以对时间序列数据进行可视化分析,以识别任何季节性模式。如果在数据中观察到明显的季节性模式,可以将季节性周期的长度用作 ss 的值。

  2. 统计方法: 可以使用统计技术(例如自相关)来识别数据中的季节性模式。 ss 的值可以是自相关函数中观察到显著峰值的周期数。

  3. 频率分析: 可以对数据进行频率分析以识别季节性模式。 ss 的值可以是频谱中观察到显著峰值的周期数。参见

  4. 试错法: 您可以尝试不同的 ss 值,并选择使模型与数据最佳拟合的值。

值得注意的是,ss 值b的选择会显著影响季节性调整 SES 模型预测的准确性。因此,建议在选择最终 ss 值之前,测试不同的 ss 值并使用适当的评估指标评估模型性能。

如何验证简单指数平滑模型和季节性调整?

为了验证季节性调整简单指数平滑(SES Seasonally Adjusted)模型,可以使用不同的定理和评估指标,具体取决于分析的目标和数据的性质。

以下是一些用于验证季节性调整 SES 模型的常用定理

  1. 高斯-马尔可夫定理:此定理表明,如果满足某些条件,则最小二乘估计量是最佳线性无偏估计量。在季节性调整 SES 的情况下,模型参数使用最小二乘法进行估计,因此可以使用高斯-马尔可夫定理来评估模型拟合的质量。

  2. 单位根定理:此定理用于确定时间序列是否平稳。如果时间序列不平稳,则季节性调整 SES 模型不适用,因为它假设时间序列是平稳的。因此,使用单位根定理来评估时间序列的平稳性并确定季节性调整 SES 模型是否合适。

  3. Ljung-Box 定理:此定理用于评估模型拟合的优度,并确定模型残差是否为白噪声。如果残差是白噪声,则模型与数据拟合良好,模型预测准确。Ljung-Box 定理用于检验模型残差是否独立且不相关。

除了这些定理外,还可以使用各种评估指标,例如均方根误差 (MSE)、平均绝对误差 (MAE) 和确定系数 (R²),来评估季节性调整 SES 模型的性能并将其与其他预测模型进行比较。

加载库和数据

提示

需要 Statsforecast。要安装,请参见说明

接下来,我们导入绘图库并配置绘图样式。

import matplotlib.pyplot as plt
import seaborn as sns
from statsmodels.graphics.tsaplots import plot_acf, plot_pacf
plt.style.use('grayscale') # fivethirtyeight  grayscale  classic
plt.rcParams['lines.linewidth'] = 1.5
dark_style = {
    'figure.facecolor': '#008080',  # #212946
    'axes.facecolor': '#008080',
    'savefig.facecolor': '#008080',
    'axes.grid': True,
    'axes.grid.which': 'both',
    'axes.spines.left': False,
    'axes.spines.right': False,
    'axes.spines.top': False,
    'axes.spines.bottom': False,
    'grid.color': '#000000',  #2A3459
    'grid.linewidth': '1',
    'text.color': '0.9',
    'axes.labelcolor': '0.9',
    'xtick.color': '0.9',
    'ytick.color': '0.9',
    'font.size': 12 }
plt.rcParams.update(dark_style)


from pylab import rcParams
rcParams['figure.figsize'] = (18,7)

读取数据

import pandas as pd

df=pd.read_csv("https://raw.githubusercontent.com/Naren8520/Serie-de-tiempo-con-Machine-Learning/main/Data/ads.csv")
df.head()
时间广告
02017-09-13T00:00:0080115
12017-09-13T01:00:0079885
22017-09-13T02:00:0089325
32017-09-13T03:00:00101930
42017-09-13T04:00:00121630

StatsForecast 的输入始终是具有三列的长格式数据框:unique_id、ds 和 y

  • unique_id (字符串、整数或类别) 代表序列的标识符。

  • ds (日期戳) 列应采用 Pandas 预期的格式,日期最好是 YYYY-MM-DD,时间戳最好是 YYYY-MM-DD HH:MM:SS。

  • y (数值) 代表我们希望预测的度量值。

df["unique_id"]="1"
df.columns=["ds", "y", "unique_id"]
df.head()
dsyunique_id
02017-09-13T00:00:00801151
12017-09-13T01:00:00798851
22017-09-13T02:00:00893251
32017-09-13T03:00:001019301
42017-09-13T04:00:001216301
print(df.dtypes)
ds           object
y             int64
unique_id    object
dtype: object

我们可以看到我们的时间变量 (ds) 是对象格式,我们需要将其转换为日期格式

df["ds"] = pd.to_datetime(df["ds"])

使用 plot 方法探索数据

使用 StatsForecast 类中的 plot 方法绘制一些序列。此方法会随机打印数据集中的一个序列,对于基本 EDA 非常有用。

from statsforecast import StatsForecast

StatsForecast.plot(df)

增强迪基-福勒检验

增强迪基-福勒 (ADF) 检验是一种统计检验,用于确定时间序列数据中是否存在单位根。单位根可能导致时间序列分析中出现不可预测的结果。在单位根检验中形成零假设,以确定时间序列数据受趋势影响的程度。接受零假设意味着我们接受时间序列数据不平稳的证据。拒绝零假设或接受备择假设意味着我们接受时间序列数据由平稳过程生成的证据。此过程也称为平稳趋势。ADF 检验统计量的值为负。ADF 值越低,对零假设的拒绝越强。

增强迪基-福勒检验是用于检验给定时间序列是否平稳的常用统计检验。我们可以通过定义零假设和备择假设来实现此目的。

零假设:时间序列是非平稳的。它给出时间依赖的趋势。备择假设:时间序列是平稳的。换句话说,该序列不依赖于时间。

ADF 或 t 统计量 < 临界值:拒绝零假设,时间序列平稳。ADF 或 t 统计量 > 临界值:未能拒绝零假设,时间序列非平稳。

from statsmodels.tsa.stattools import adfuller

def Augmented_Dickey_Fuller_Test_func(series , column_name):
    print (f'Dickey-Fuller test results for columns: {column_name}')
    dftest = adfuller(series, autolag='AIC')
    dfoutput = pd.Series(dftest[0:4], index=['Test Statistic','p-value','No Lags Used','Number of observations used'])
    for key,value in dftest[4].items():
       dfoutput['Critical Value (%s)'%key] = value
    print (dfoutput)
    if dftest[1] <= 0.05:
        print("Conclusion:====>")
        print("Reject the null hypothesis")
        print("The data is stationary")
    else:
        print("Conclusion:====>")
        print("The null hypothesis cannot be rejected")
        print("The data is not stationary")
Augmented_Dickey_Fuller_Test_func(df["y"],'Ads')
Dickey-Fuller test results for columns: Ads
Test Statistic         -7.089634e+00
p-value                 4.444804e-10
No Lags Used            9.000000e+00
                            ...     
Critical Value (1%)    -3.462499e+00
Critical Value (5%)    -2.875675e+00
Critical Value (10%)   -2.574304e+00
Length: 7, dtype: float64
Conclusion:====>
Reject the null hypothesis
The data is stationary

自相关图

自相关 (ACF) 和偏自相关 (PACF) 的重要特征如下

自相关 (ACF):1. 识别时间依赖模式:ACF 显示观测值与其滞后值在不同时间间隔的关联性。有助于识别时间序列中的时间依赖模式,例如趋势或季节性的存在。

  1. 指示序列的“记忆”:ACF 允许我们确定过去的观测值对未来观测值的影响程度。如果 ACF 在多个滞后处显示显著自相关,则表明序列具有长期记忆,并且过去的观测值与预测未来观测值相关。

  2. 有助于识别 MA(移动平均)模型:ACF 的形状可以揭示时间序列中存在移动平均分量。ACF 显示显著相关性的滞后可能表明 MA 模型的阶数。

偏自相关 (PACF):1. 识别直接依赖:与 ACF 不同,PACF 消除了中间滞后的间接影响,并测量观测值与其滞后值之间的直接关联性。它有助于识别观测值与其滞后值之间的直接依赖关系,而不受中间滞后影响。

  1. 有助于识别 AR(自回归)模型:PACF 的形状可以揭示时间序列中存在自回归分量。PACF 显示显著相关性的滞后可能表明 AR 模型的阶数。

  2. 与 ACF 结合使用:PACF 与 ACF 结合使用以确定 AR 或 MA 模型的阶数。通过分析 ACF 和 PACF,可以识别显著滞后并构建适合时间序列分析和预测的模型。

总而言之,ACF 和 PACF 是时间序列分析中的互补工具,它们提供时间依赖信息并帮助识别构建预测模型的适当组件。

fig, axs = plt.subplots(nrows=1, ncols=2)

plot_acf(df["y"],  lags=30, ax=axs[0],color="fuchsia")
axs[0].set_title("Autocorrelation");

plot_pacf(df["y"],  lags=30, ax=axs[1],color="lime")
axs[1].set_title('Partial Autocorrelation')

plt.show();

时间序列分解

如何分解时间序列以及为什么?

在时间序列分析中预测新值时,了解过去数据非常重要。更正式地说,了解值随时间变化的模式非常重要。有很多原因可能导致我们的预测值偏离正确方向。基本上,时间序列由四个组件组成。这些组件的变化导致时间序列模式的变化。这些组件是

  • 水平 (Level): 这是随时间平均的主要值。
  • 趋势 (Trend): 趋势是导致时间序列中出现增加或减少模式的值。
  • 季节性 (Seasonality): 这是时间序列中短时间发生的周期性事件,会导致时间序列中出现短期增加或减少的模式。
  • 残差/噪声 (Residual/Noise): 这些是时间序列中的随机变化。

这些组件随时间组合在一起形成时间序列。大多数时间序列由水平和噪声/残差组成,趋势或季节性是可选值。

如果季节性和趋势是时间序列的一部分,那么将对预测值产生影响。因为预测时间序列的模式可能与之前的时间序列不同。

时间序列中组件的组合可以是两种类型:* 加性 * 乘性

加性时间序列

如果时间序列的组件相加构成时间序列。那么该时间序列称为加性时间序列。通过可视化,我们可以说如果时间序列的增加或减少模式在整个序列中相似,那么该时间序列就是加性的。任何加性时间序列的数学函数可以表示为:y(t)=level+Trend+seasonality+noisey(t) = level + Trend + seasonality + noise

乘性时间序列

如果时间序列的组件相乘在一起,那么该时间序列称为乘性时间序列。对于可视化,如果时间序列随时间呈指数增长或下降,则该时间序列可被视为乘性时间序列。乘性时间序列的数学函数可以表示为。

y(t)=LevelTrendseasonalityNoisey(t) = Level * Trend * seasonality * Noise

加性

from statsmodels.tsa.seasonal import seasonal_decompose 
a = seasonal_decompose(df["y"], model = "additive", period=12)
a.plot();

乘性

from statsmodels.tsa.seasonal import seasonal_decompose 
a = seasonal_decompose(df["y"], model = "Multiplicative", period=12)
a.plot();

将数据拆分为训练集和测试集

我们将数据分成集合

  1. 用于训练我们的 Seasonal Exponential Smoothing Model 的数据。
  2. 用于测试我们的模型的数据

对于测试数据,我们将使用最近 30 小时的数据来测试和评估我们模型的性能。

train = df[df.ds<='2017-09-20 17:00:00'] 
test = df[df.ds>'2017-09-20 17:00:00']
train.shape, test.shape
((186, 3), (30, 3))

现在让我们绘制训练数据和测试数据。

sns.lineplot(train,x="ds", y="y", label="Train", linestyle="--")
sns.lineplot(test, x="ds", y="y", label="Test")
plt.title("Ads watched (hourly data)");
plt.show()

使用 StatsForecast 实现 SeasonalExponentialSmoothing

加载库

from statsforecast import StatsForecast
from statsforecast.models import SeasonalExponentialSmoothing

实例化模型

导入并实例化模型。设置参数有时很棘手。Rob Hyndmann 大师的这篇关于季节性周期的文章对于确定 season_length 会很有帮助。

season_length = 24 # Hourly data 
horizon = len(test) # number of predictions

models = [SeasonalExponentialSmoothing(alpha=0.8, season_length=season_length)]

我们通过使用以下参数实例化新的 StatsForecast 对象来拟合模型

models: 模型列表。从 models 中选择您需要的模型并导入它们。

  • freq: 表示数据频率的字符串。(参见 pandas 可用的频率别名)。

  • n_jobs: n_jobs: int,并行处理中使用的作业数,使用 -1 表示所有核心。

  • fallback_model: 如果模型失败则使用的模型。

任何设置都传入构造函数。然后调用其 fit 方法并传入历史数据框。

sf = StatsForecast(models=models, freq='h')

拟合模型

sf.fit(df=train)
StatsForecast(models=[SeasonalES])

让我们看看我们的 Seasonal Exponential Smoothing Model 的结果。我们可以通过以下指令观察它

result=sf.fitted_[0,0].model_
result
{'mean': array([161567.6  , 163186.56 , 134410.94 , 106145.6  ,  93383.164,
         79489.72 ,  79769.   ,  77651.984,  85288.33 ,  99665.31 ,
        123067.336, 115759.51 , 103556.234, 100510.09 ,  97411.65 ,
        107672.88 , 121150.84 , 140041.22 , 140075.19 , 140903.34 ,
        142615.28 , 142360.75 , 142615.6  , 142658.62 ], dtype=float32),
 'fitted': array([       nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan,        nan,        nan,        nan,
               nan,        nan, 163840.   , 166235.   , 139520.   ,
        105895.   ,  96780.   ,  82520.   ,  80125.   ,  75335.   ,
         85105.   , 102080.   , 125135.   , 118030.   , 109225.   ,
        102475.   , 102240.   , 115840.   , 130540.   , 144325.   ,
        148970.   , 149150.   , 148040.   , 148810.   , 149830.   ,
        150570.   , 152320.   , 153663.   , 131208.   , 104231.   ,
         93096.   ,  82716.   ,  77077.   ,  75171.   ,  83133.   ,
         91452.   , 119771.   , 115758.   , 110597.   ,  99583.   ,
        103796.   , 110100.   , 127420.   , 141213.   , 151770.   ,
        146850.   , 148024.   , 147950.   , 146566.   , 149542.   ,
        158244.   , 159600.6  , 134657.6  , 111202.2  ,  98779.2  ,
         86635.2  ,  85683.4  ,  86110.2  ,  90506.6  , 101862.4  ,
        116706.2  , 126311.6  , 135227.4  , 135468.6  , 135359.2  ,
        128572.   , 130476.   , 142226.6  , 156254.   , 151370.   ,
        152592.8  , 150546.   , 149829.2  , 147856.4  , 153668.8  ,
        149420.12 , 127127.52 , 116580.44 ,  97115.84 ,  92215.04 ,
         88384.68 ,  88698.04 ,  90561.32 ,  99004.48 , 113397.24 ,
        128838.32 , 140169.48 , 149141.72 , 149135.84 , 138650.4  ,
        144135.2  , 157333.31 , 164318.8  , 163698.   , 161030.56 ,
        155953.2  , 157209.84 , 157587.28 , 165409.77 , 165804.03 ,
        139593.5  , 113680.086,  97299.17 ,  83783.01 ,  81284.94 ,
         80419.61 ,  88548.266,  99632.9  , 121703.445, 114827.664,
        107585.9  , 107952.34 , 107951.17 , 109782.08 , 124771.04 ,
        140070.66 , 144959.77 , 146123.6  , 145982.11 , 147478.64 ,
        147709.97 , 151845.45 , 162297.95 , 155892.81 , 135694.7  ,
        108388.016,  95495.836,  80368.6  ,  78924.984,  75819.92 ,
         83301.66 ,  98286.58 , 119816.69 , 113457.53 , 100621.18 ,
         96790.47 ,  96518.234, 105304.414, 120754.21 , 136806.12 ,
        146155.95 , 140556.72 , 146976.42 , 145443.73 , 150638.   ,
        155233.1  ], dtype=float32)}

现在让我们可视化我们模型的拟合值。

正如我们所见,上面获得的结果是一个字典输出,要从字典中提取每个元素,我们将使用 .get() 函数提取元素,然后将其保存在 pd.DataFrame() 中。

fitted=pd.DataFrame(result.get("fitted"), columns=["fitted"])
fitted["ds"]=df["ds"]
fitted
拟合值ds
0NaN2017-09-13 00:00:00
1NaN2017-09-13 01:00:00
2NaN2017-09-13 02:00:00
.........
183145443.7343752017-09-20 15:00:00
184150638.0000002017-09-20 16:00:00
185155233.0937502017-09-20 17:00:00
sns.lineplot(df, x="ds", y="y", label="Actual", linewidth=2)
sns.lineplot(fitted,x="ds", y="fitted", label="Fitted", linestyle="--" )

plt.title("Ads watched (hourly data)");
plt.show()

预测方法

如果您想在具有多个序列或模型的生产环境中提高速度,我们建议使用 StatsForecast.forecast 方法而不是 .fit.predict

主要区别在于 .forecast 不存储拟合值,并且在分布式环境中具有高度可扩展性。

forecast 方法接受两个参数:预测接下来的 h (horizon) 和 level

  • h (int): 表示未来 h 步的预测。在本例中,为未来 30 小时。

这里的 forecast 对象是一个新的数据框,它包含一列模型的名称和 y hat 值,以及不确定性区间列。根据您的计算机,此步骤大约需要 1 分钟。

Y_hat = sf.forecast(df=train, h=horizon, fitted=True)
Y_hat
unique_idds季节性指数平滑
012017-09-20 18:00:00161567.593750
112017-09-20 19:00:00163186.562500
212017-09-20 20:00:00134410.937500
............
2712017-09-21 21:00:00106145.601562
2812017-09-21 22:00:0093383.164062
2912017-09-21 23:00:0079489.718750
values=sf.forecast_fitted_values()
values.head()
unique_iddsy季节性指数平滑
012017-09-13 00:00:0080115.0NaN
112017-09-13 01:00:0079885.0NaN
212017-09-13 02:00:0089325.0NaN
312017-09-13 03:00:00101930.0NaN
412017-09-13 04:00:00121630.0NaN
sf.plot(train, Y_hat)

带有置信区间的 predict 方法

使用 predict 方法生成预测。

predict 方法接受两个参数:预测接下来的 h (for horizon) 和 level

  • h (int): 表示未来 h 步的预测。在本例中,为未来 30 小时。

这里的 forecast 对象是一个新的数据框,它包含一列模型的名称和 y hat 值,以及不确定性区间列。

此步骤应该不到 1 秒。

forecast_df = sf.predict(h=horizon) 
forecast_df
unique_idds季节性指数平滑
012017-09-20 18:00:00161567.593750
112017-09-20 19:00:00163186.562500
212017-09-20 20:00:00134410.937500
............
2712017-09-21 21:00:00106145.601562
2812017-09-21 22:00:0093383.164062
2912017-09-21 23:00:0079489.718750

交叉验证

在前面的步骤中,我们使用了历史数据来预测未来。然而,为了评估其准确性,我们也希望知道模型在过去的表现如何。要评估模型在您的数据上的准确性和稳健性,请执行交叉验证。

对于时间序列数据,交叉验证是通过在历史数据上定义滑动窗口并预测其后的周期来完成的。这种形式的交叉验证使我们能够更好地估计模型在更广泛的时间实例上的预测能力,同时保持训练集中的数据连续,这是我们的模型所必需的。

下图描绘了这种交叉验证策略

执行时间序列交叉验证

时间序列模型的交叉验证被认为是最佳实践,但大多数实现速度很慢。statsforecast 库将交叉验证实现为分布式操作,从而减少执行过程的时间。如果您有大型数据集,您还可以使用 Ray、Dask 或 Spark 在分布式集群中执行交叉验证。

在这种情况下,我们希望评估每个模型在过去 5 个月(n_windows=5)的性能,每隔一个月进行预测(step_size=12)。根据您的计算机,此步骤大约需要 1 分钟。

StatsForecast 类中的 cross_validation 方法接受以下参数。

  • df: 训练数据框

  • h (int): 表示预测的未来 h 步。在本例中,为未来 30 小时。

  • step_size (int): 每个窗口之间的步长。换句话说:您希望多久运行一次预测过程。

  • n_windows(int): 用于交叉验证的窗口数。换句话说:您要评估过去多少个预测过程。

crossvalidation_df = sf.cross_validation(df=df,
                                         h=horizon,
                                         step_size=12,
                                         n_windows=3)

crossvalidation_df 对象是一个新的数据框,包含以下列

  • unique_id: 序列标识符。
  • ds: 日期戳或时间索引
  • cutoff: n_windows 的最后一个日期戳或时间索引。
  • y: 真实值
  • "model": 模型名称和拟合值的列。
crossvalidation_df
unique_idds截止日期y季节性指数平滑
012017-09-19 18:00:002017-09-19 17:00:00161385.0162297.953125
112017-09-19 19:00:002017-09-19 17:00:00165010.0155892.812500
212017-09-19 20:00:002017-09-19 17:00:00134090.0135694.703125
..................
8712017-09-21 21:00:002017-09-20 17:00:00103080.0106145.601562
8812017-09-21 22:00:002017-09-20 17:00:0095155.093383.164062
8912017-09-21 23:00:002017-09-20 17:00:0080285.079489.718750

模型评估

现在我们将使用预测结果评估我们的模型,我们将使用不同类型的指标 MAE、MAPE、MASE、RMSE、SMAPE 来评估准确性。

from functools import partial

import utilsforecast.losses as ufl
from utilsforecast.evaluation import evaluate
evaluate(
    test.merge(Y_hat),
    metrics=[ufl.mae, ufl.mape, partial(ufl.mase, seasonality=season_length), ufl.rmse, ufl.smape],
    train_df=train,
)
unique_id指标季节性指数平滑
01mae5728.207812
11mape0.049386
21mase0.707731
31rmse7290.840738
41smape0.024009

致谢

我们要感谢 Naren Castellon 撰写此教程。

参考资料

  1. Changquan Huang • Alla Petukhina. Springer series (2022). Applied Time Series Analysis and Forecasting with Python.
  2. Ivan Svetunkov. 使用增强动态自适应模型 (ADAM) 进行预测和分析
  3. James D. Hamilton. Time Series Analysis Princeton University Press, Princeton, New Jersey, 1st Edition, 1994.
  4. Nixtla 参数.
  5. Pandas 可用频率.
  6. Rob J. Hyndman 和 George Athanasopoulos (2018). “Forecasting Principles and Practice (第 3 版)”.
  7. 季节性周期 - Rob J Hyndman.