AutoModels
NeuralForecast 包含了用户友好的神经网络预测模型实现,可轻松切换计算能力(GPU/CPU),进行计算并行化和超参数调优。
所有 NeuralForecast 模型都是“全局的”,因为我们使用输入 pd.DataFrame 数据 Y_df
中的所有序列对其进行训练,但目前的优化目标是“单变量的”,因为它不考虑时间序列之间输出预测的相互作用。与 StatsForecast 库类似,core.NeuralForecast
允许您高效地探索模型集合,并包含用于方便整理输入和输出 pd.DataFrames 预测结果的函数。
首先我们加载 AirPassengers 数据集,以便您可以运行所有示例。
1. 自动预测
A. 基于 RNN 的模型
源
AutoRNN
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f347e2290> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoLSTM
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ed2c0d0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoGRU
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ed134f0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoTCN
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ffe1480> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoDeepAR
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | DistributionLoss | DistributionLoss() | 实例化自损失函数集合的训练损失类。 |
valid_loss | MQLoss | MQLoss() | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff95c90> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoDilatedRNN
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2fff2230> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoBiTCN
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f3401d870> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
B. 基于 MLP 的模型
源
AutoMLP
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ffe1ed0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoNBEATS
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ffe2140> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoNBEATSx
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f34170a00> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoNHITS
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ffc0af0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoDLinear
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff97310> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoNLinear
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff234c0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoTiDE
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff85540> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoDeepNPTS
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f34126dd0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
C. 基于 KAN 的模型
源
AutoKAN
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff73a60> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
D. 基于 Transformer 的模型
源
AutoTFT
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff86470> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoVanillaTransformer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f34111ba0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoInformer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff4d270> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoAutoformer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f2ff22e60> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoFEDformer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340fe2c0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoPatchTST
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f3416ae00> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoiTransformer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f3416b610> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoTimeXer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340fdff0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
E. 基于 CNN 的模型
源
AutoTimesNet
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340b7280> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
F. 多变量模型
源
AutoStemGNN
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340f0880> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoHINT
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
cls_model | PyTorch/PyTorchLightning 模型 | 请参阅这里的 neuralforecast.models 集合。 | |
h | int | 预测范围 | |
loss | PyTorch 模块 | 实例化自损失函数集合的训练损失类。 | |
valid_loss | PyTorch 模块 | 实例化自损失函数集合的验证损失类。 | |
S | |||
config | dict 或 callable | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 | |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f341982e0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoTSMixer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f3408db70> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoTSMixerx
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340c6b60> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoMLPMultivariate
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f3408d900> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoSOFTS
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f34756200> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoTimeMixer
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340ef130> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |
源
AutoRMoK
*用于自动超参数优化的类,它基于 ray
构建,提供了多种超参数优化工具,包括经典的网格搜索、贝叶斯优化和 HyperBand 算法。
要优化的验证损失由 config['loss']
字典值定义,config 还包含其余的超参数搜索空间。
需要注意的是,超参数优化的成功很大程度上取决于验证期和测试期之间存在强相关性。*
类型 | 默认值 | 详情 | |
---|---|---|---|
h | int | 预测范围 | |
n_series | |||
loss | MAE | MAE() | 实例化自损失函数集合的训练损失类。 |
valid_loss | NoneType | None | 实例化自损失函数集合的验证损失类。 |
config | NoneType | None | 包含 ray.tune 定义的搜索空间的字典或接受 optuna trial 并返回配置字典的函数。 |
search_alg | BasicVariantGenerator | <ray.tune.search.basic_variant.BasicVariantGenerator object at 0x7f6f340a34c0> | 关于 ray,请参阅https://docs.rayai.org.cn/en/latest/tune/api_docs/suggestion.html 关于 optuna,请参阅https://docs.optuna.cn/en/stable/reference/samplers/index.html。 |
num_samples | int | 10 | 超参数优化步骤/样本的数量。 |
refit_with_val | bool | False | 最佳模型的重新训练应保留 val_size。 |
cpus | int | 4 | 优化期间使用的 cpu 数量。仅与 ray tune 一起使用。 |
gpus | int | 0 | 优化期间使用的 gpu 数量,默认为所有可用 gpu。仅与 ray tune 一起使用。 |
verbose | bool | False | 跟踪进度。 |
alias | NoneType | None | 模型的自定义名称。 |
backend | str | ray | 用于搜索超参数空间的后端,可以是“ray”或“optuna”。 |
callbacks | NoneType | None | 优化过程中要调用的函数列表。 ray 参考:https://docs.rayai.org.cn/en/latest/tune/tutorials/tune-metrics.html optuna 参考:https://docs.optuna.cn/en/stable/tutorial/20_recipes/007_optuna_callback.html |