N-BEATS¶
- class darts.models.forecasting.nbeats.NBEATSModel(input_chunk_length, output_chunk_length, output_chunk_shift=0, generic_architecture=True, num_stacks=30, num_blocks=1, num_layers=4, layer_widths=256, expansion_coefficient_dim=5, trend_polynomial_degree=2, dropout=0.0, activation='ReLU', **kwargs)[来源]¶
基类:
PastCovariatesTorchModel
神经基扩展分析时序预测 (N-BEATS)。
这是 N-BEATS 架构的一个实现,如 [1] 中所述。
除了论文中介绍的单变量版本外,我们的实现还通过将模型输入展平为一维序列并将输出重塑为适当维度的张量来支持多变量序列(和协变量)。此外,它还支持生成概率预测(通过指定 likelihood 参数)。
该模型支持过去协变量(在预测时间之前 input_chunk_length 个点已知)。
- 参数
input_chunk_length (
int
) – 作为模型输入(每个块)使用的过去时间步长数量。适用于目标序列以及过去和/或未来协变量(如果模型支持)。output_chunk_length (
int
) – 内部模型一次(每个块)预测的时间步长数量。也是将未来协变量的未来值用作模型输入的数量(如果模型支持未来协变量)。它与 predict() 中使用的预测范围 n 不同,后者是使用一步预测或自回归预测生成的期望预测点数量。设置 n <= output_chunk_length 可阻止自回归。这在协变量未延伸到足够远的未来,或者需要禁止模型使用过去和/或未来协变量的未来值进行预测时非常有用(取决于模型的协变量支持)。output_chunk_shift (
int
) – 可选参数,将输出块的起始点向未来位移(相对于输入块结束)的步数。这将会在输入和输出之间创建一个间隙。如果模型支持 future_covariates,则未来值将从位移后的输出块中提取。预测将在目标 series 结束后的 output_chunk_shift 步开始。如果设置了 output_chunk_shift,模型将无法生成自回归预测(n > output_chunk_length)。generic_architecture (
bool
) – 布尔值,指示是否使用 N-BEATS 的通用架构。如果不是,则使用论文中概述的可解释架构(包含一个趋势堆栈和一个季节性堆栈,以及相应的波形生成器函数)。num_stacks (
int`) – 构成整个模型的堆栈数量。仅在 generic_architecture 设置为 True 时使用。可解释架构始终使用两个堆栈 - 一个用于趋势,一个用于季节性。
num_blocks (
int`) – 构成每个堆栈的块数量。
num_layers (
int`) – 每个堆栈的每个块中,在最终分叉层之前的全连接层数量。
layer_widths (
Union
[int
,list
[int`]]) – 决定每个堆栈的每个块中每个全连接层包含的神经元数量。如果传入一个列表,其长度必须等于 num_stacks,并且列表中每个条目对应于相应堆栈的层宽度。如果传入一个整数,则每个堆栈的块都将拥有相同宽度的全连接层。
expansion_coefficient_dim (
int`) – 波形生成器参数的维度,也称为扩展系数。仅在 generic_architecture 设置为 True 时使用。
trend_polynomial_degree (
int`) – 在趋势堆栈中用作波形生成器的多项式次数。仅在 generic_architecture 设置为 False 时使用。
dropout (
float`) – 在全连接层中使用的 Dropout 概率。这与推理时用于模型不确定性估计的 Monte Carlo Dropout 兼容(在预测时通过
mc_dropout=True
启用)。activation (
str`) – 编码器/解码器中间层的激活函数(默认值为 'ReLU')。支持的激活函数:['ReLU', 'RReLU', 'PReLU', 'ELU', 'Softplus', 'Tanh', 'SELU', 'LeakyReLU', 'Sigmoid', 'GELU']
**kwargs – 用于初始化 pytorch_lightning.Module、pytorch_lightning.Trainer 和 Darts 的
TorchForecastingModel
的可选参数。loss_fn – 用于训练的 PyTorch 损失函数。如果指定了
likelihood
参数,对于概率模型将忽略此参数。默认值:torch.nn.MSELoss()
。likelihood – Darts 的
Likelihood
模型之一,用于概率预测。默认值:None
。torch_metrics – 用于评估的 Torch 评估指标或
MetricCollection
。可在 https://torchmetrics.readthedocs.io/en/latest/ 找到可用评估指标的完整列表。默认值:None
。optimizer_cls – 将要使用的 PyTorch 优化器类。默认值:
torch.optim.Adam
。optimizer_kwargs – 可选参数,PyTorch 优化器的一些关键字参数(例如,
{'lr': 1e-3}
用于指定学习率)。否则将使用选定的optimizer_cls
的默认值。默认值:None
。lr_scheduler_cls – 可选参数,将要使用的 PyTorch 学习率调度器类。指定
None
相当于使用恒定学习率。默认值:None
。lr_scheduler_kwargs – 可选参数,PyTorch 学习率调度器的一些关键字参数。默认值:
None
。use_reversible_instance_norm – 是否使用可逆实例归一化 RINorm 以对抗分布偏移,如 [2] 中所示。它仅应用于目标序列的特征,而不应用于协变量。
batch_size – 每个训练过程(pass)中使用的时序数量(输入和输出序列)。默认值:
32
。n_epochs – 模型训练的总轮数。默认值:
100
。model_name – 模型名称。用于创建检查点和保存 tensorboard 数据。如果未指定,默认为字符串
"YYYY-mm-dd_HH_MM_SS_torch_model_run_PID"
,其中名称的初始部分用本地日期和时间格式化,而 PID 是进程 ID(防止不同进程同时生成的模型共享同一个模型名称)。例如,"2021-06-14_09_53_32_torch_model_run_44607"
。work_dir – 工作目录的路径,用于保存检查点和 Tensorboard 摘要。默认值: 当前工作目录。
log_tensorboard – 如果设置,则使用 Tensorboard 记录不同参数。日志将位于:
"{work_dir}/darts_logs/{model_name}/logs/"
。默认值:False
。nr_epochs_val_period – 在评估验证损失之前等待的轮数(如果向
fit()
方法传入了验证TimeSeries
)。默认值:1
。force_reset – 如果设置为
True
,任何同名已存在的模型将被重置(所有检查点将被丢弃)。默认值:False
。save_checkpoints – 是否自动保存未训练的模型和训练中的检查点。要从检查点加载模型,请调用
MyModelClass.load_from_checkpoint()
,其中MyModelClass
是所使用的TorchForecastingModel
类(例如TFTModel
、NBEATSModel
等)。如果设置为False
,模型仍然可以使用save()
手动保存,并使用load()
加载。默认值:False
。add_encoders –
可以使用 add_encoders 自动生成大量过去和未来协变量。这可以通过添加多个预定义索引编码器和/或用作索引编码器的用户自定义函数来完成。此外,还可以添加一个像 Darts 的
Scaler
这样的转换器来转换生成的协变量。所有这些都在一个框架下自动完成,只需在模型创建时指定。阅读SequentialEncoder
了解关于add_encoders
的更多信息。默认值:None
。一个展示部分add_encoders
功能的示例def encode_year(idx): return (idx.year - 1950) / 50 add_encoders={ 'cyclic': {'future': ['month']}, 'datetime_attribute': {'future': ['hour', 'dayofweek']}, 'position': {'past': ['relative'], 'future': ['relative']}, 'custom': {'past': [encode_year]}, 'transformer': Scaler(), 'tz': 'CET' }
random_state – 控制权重初始化的随机性。请查看此链接了解更多详情。默认值:
None
。pl_trainer_kwargs –
默认情况下,
TorchForecastingModel
会创建一个带有多个有用预设的 PyTorch Lightning Trainer,用于执行训练、验证和预测过程。这些预设包括自动检查点、tensorboard 日志记录、设置 torch 设备等。使用pl_trainer_kwargs
,您可以添加额外的关键字参数来实例化 PyTorch Lightning trainer 对象。请查看PL Trainer 文档以了解有关受支持关键字参数的更多信息。默认值:None
。通过使用pl_trainer_kwargs
并指定键"accelerator"
、"devices"
和"auto_select_gpus"
,也可以在 GPU 上运行。以下是在pl_trainer_kwargs
字典中设置设备的一些示例{"accelerator": "cpu"}
用于 CPU,{"accelerator": "gpu", "devices": [i]}
仅使用 GPUi
(i
必须是整数),{"accelerator": "gpu", "devices": -1, "auto_select_gpus": True}
使用所有可用 GPU。
更多信息请参阅此处: https://pytorch-lightning.readthedocs.io/en/stable/common/trainer.html#trainer-flags 和 https://pytorch-lightning.readthedocs.io/en/stable/accelerators/gpu_basic.html#train-on-multiple-gpus
使用参数
"callbacks"
,您可以向 Darts 的TorchForecastingModel
添加自定义或 PyTorch-Lightning 内置的回调。下面是一个向训练过程添加 EarlyStopping 的示例。如果验证损失 val_loss 未按规范改进,模型将提前停止训练。更多关于回调的信息,请访问: PyTorch Lightning Callbacksfrom pytorch_lightning.callbacks.early_stopping import EarlyStopping # stop training when validation loss does not decrease more than 0.05 (`min_delta`) over # a period of 5 epochs (`patience`) my_stopper = EarlyStopping( monitor="val_loss", patience=5, min_delta=0.05, mode='min', ) pl_trainer_kwargs={"callbacks": [my_stopper]}
注意,您还可以在
fit()
和predict()
中使用可选参数trainer
来使用自定义的 PyTorch Lightning Trainer 进行训练和预测。show_warnings – 是否显示由 PyTorch Lightning 引发的警告。这有助于检测您的预测用例中潜在的问题。默认值:
False
。
参考
- 1
- 2
T. Kim 等人,“用于对抗分布偏移的准确时序预测的可逆实例归一化”,https://openreview.net/forum?id=cGDAkQo1C0p
示例
>>> from darts.datasets import WeatherDataset >>> from darts.models import NBEATSModel >>> series = WeatherDataset().load() >>> # predicting atmospheric pressure >>> target = series['p (mbar)'][:100] >>> # optionally, use past observed rainfall (pretending to be unknown beyond index 100) >>> past_cov = series['rain (mm)'][:100] >>> # changing the activation function of the encoder/decoder to LeakyReLU >>> model = NBEATSModel( >>> input_chunk_length=6, >>> output_chunk_length=6, >>> n_epochs=5, >>> activation='LeakyReLU' >>> ) >>> model.fit(target, past_covariates=past_cov) >>> pred = model.predict(6) >>> pred.values() array([[ 929.78509085], [1013.66339481], [ 999.8843893 ], [ 892.66032082], [ 921.09781534], [ 950.37965429]])
注意
NBEATS 示例 Notebook 介绍了一些可用于提高预测质量的技术,与此简单用法示例相比。
属性
模型是否考虑静态协变量(如果存在)。
一个 8 元组,依次包含:(最小目标滞后,最大目标滞后,最小过去协变量滞后,最大过去协变量滞后,最小未来协变量滞后,最大未来协变量滞后,输出位移,最大目标训练滞后(仅适用于 RNNModel))。
返回模型用于概率预测的似然(如果有)。
训练模型的最小样本数量。
模型一次预测的时间步长数量,未为统计模型定义。
输出/预测在输入结束之后开始的时间步长数量。
模型实例是否支持直接预测似然参数
模型是否考虑时序中的多于一个变量。
模型是否支持优化过的历史预测
模型是否支持过去协变量
检查使用此配置的预测模型是否支持概率预测。
模型是否支持用于训练的样本权重。
模型是否支持静态协变量
模型是否支持对任何输入 series 进行预测。
模型一旦拟合后是否使用未来协变量。
模型一旦拟合后是否使用过去协变量。
模型一旦拟合后是否使用静态协变量。
epochs_trained
input_chunk_length
model_created
model_params
方法
backtest
(series[, past_covariates, ...])计算模型对(潜在多个)series 的历史预测产生的误差值。
fit
(series[, past_covariates, ...])在一个或多个序列上拟合/训练模型。
fit_from_dataset
(train_dataset[, ...])使用特定的
darts.utils.data.TrainingDataset
实例训练模型。generate_fit_encodings
(series[, ...])生成用于拟合模型的协变量编码,并返回一个包含原始和编码后协变量堆叠在一起的过去和未来协变量序列的元组。
generate_fit_predict_encodings
(n, series[, ...])生成用于训练和推理/预测的协变量编码,并返回一个包含原始和编码后协变量堆叠在一起的过去和未来协变量序列的元组。
generate_predict_encodings
(n, series[, ...])生成用于推理/预测集的协变量编码,并返回一个包含原始和编码后协变量堆叠在一起的过去和未来协变量序列的元组。
gridsearch
(parameters, series[, ...])使用网格搜索在给定集合中寻找最佳超参数。
historical_forecasts
(series[, ...])通过模拟在提供的(潜在多个)series 的整个历史中不同时间点的预测,生成历史预测。
load
(path[, pl_trainer_kwargs])从给定文件路径加载模型。
load_from_checkpoint
(model_name[, work_dir, ...])从位于 '{work_dir}/darts_logs/{model_name}/checkpoints/' 的自动保存检查点加载模型。
load_weights
(path[, load_encoders, skip_checks])从手动保存的模型(使用
save()
保存)加载权重。load_weights_from_checkpoint
([model_name, ...])仅从位于 '{work_dir}/darts_logs/{model_name}/ checkpoints/' 的自动保存检查点加载权重。
lr_find
(series[, past_covariates, ...])PyTorch Lightning 的 Tuner.lr_find() 的包装器。
predict
(n[, series, past_covariates, ...])预测训练序列结束后的
n
个时间步长,或指定的series
的。predict_from_dataset
(n, input_series_dataset)此方法允许使用特定的
darts.utils.data.InferenceDataset
实例进行预测。重置模型对象并移除所有存储的数据 - 模型、检查点、记录器和训练历史。
residuals
(series[, past_covariates, ...])计算模型对(潜在多个)series 的历史预测产生的残差。
save
([path, clean])在给定路径下保存模型。
to_cpu
()更新 PyTorch Lightning Trainer 参数,以便下次调用 `fit()` 或
predict()
时将模型移动到 CPU。to_onnx
([path])将模型导出到 ONNX 格式以进行优化推理,它是 PyTorch Lightning 的
torch.onnx.export()
方法(官方文档)的包装器。返回使用相同参数创建的一个新的(未训练的)模型实例。
- backtest(series, past_covariates=None, future_covariates=None, historical_forecasts=None, forecast_horizon=1, num_samples=1, train_length=None, start=None, start_format='value', stride=1, retrain=True, overlap_end=False, last_points_only=False, metric=<function mape>, reduction=<function mean>, verbose=False, show_warnings=True, predict_likelihood_parameters=False, enable_optimization=True, data_transformers=None, metric_kwargs=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None)¶
计算模型对(潜在多个)series 的历史预测产生的误差值。
如果提供了 historical_forecasts,则评估指标(由 metric 函数给出)将直接在所有预测值和实际值上进行评估。必须传递用于生成历史预测的相同的 series 和 last_points_only 值。最后,该方法返回所有这些评估指标分数的可选 reduction(默认为均值)。
如果 historical_forecasts 为
None
,它将首先使用下面给出的参数生成历史预测(更多信息请参阅ForecastingModel.historical_forecasts()
),然后按照上述描述进行评估。评估指标可以使用 metric_kwargs 进一步自定义(例如,控制跨组件、时间步长、多个序列的聚合,或其他必需参数,例如分位数指标的 q 等)。
- 参数
series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 用于连续训练(如果 retrain 不是False
)和计算历史预测的一个(或多个)目标时序序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,对于 series 中的每个输入时序序列,提供一个(或多个)过去观测的协变量时序序列。这仅适用于模型支持过去协变量时。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,对于 series 中的每个输入时序序列,提供一个(或多个)未来已知的协变量时序序列。这仅适用于模型支持未来协变量时。historical_forecasts (
Union
[TimeSeries
,Sequence
[TimeSeries
],Sequence
[Sequence
[TimeSeries
]],None
]) – 可选项,要评估的历史预测时间序列(或序列的序列/序列的序列)。对应于historical_forecasts()
的输出。必须传递用于生成历史预测的相同的 series 和 last_points_only 值。如果提供此参数,将跳过历史预测过程,并忽略除 series、last_points_only、metric 和 reduction 之外的所有参数。forecast_horizon (
int
) – 预测的预测范围。num_samples (
int
) – 从概率模型中采样的预测次数。仅对概率模型使用>1
的值。train_length (
Optional
[int
,None
]) – 可选项,为每个构建的训练集(滚动窗口模式)使用固定长度/时间步数。仅当 retrain 不为False
时有效。默认为None
,在这种情况下,它将使用直到预测时间为止的所有时间步长(扩展窗口模式)。如果大于可用的时间步长数,则使用扩展模式。必须至少为 min_train_series_length。start (
Union
[Timestamp
,float
,int
,None
]) –可选项,计算第一个预测的时间点。此参数支持:
float
、int
、pandas.Timestamp
和None
。如果为float
,则表示时间序列中应位于第一个预测点之前的比例。如果为int
,则对于带有 pd.DatetimeIndex 的 series,它是第一个预测点的索引位置;对于带有 pd.RangeIndex 的 series,它是索引值。后者可以通过 start_format="position" 更改为索引位置。如果为pandas.Timestamp
,则表示第一个预测点的时间戳。如果为None
,第一个预测点将自动设置为:如果 retrain 为
False
,或 retrain 为可调用对象且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。如果 retrain 为
True
或int
(给定 train_length),或 retrain 为Callable
且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。否则设置为第一个可训练点(给定 train_length)。
- 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
是 stride 在 start 之后的一个整倍数。如果不存在有效的起始点,则引发 ValueError。
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也将
向未来偏移 output_chunk_shift 个点。
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
(使用
None
时的默认行为)并从第一个可训练/可预测点开始。
start_format (
Literal
[‘position’, ‘value’]) – 定义 start 的格式。如果设置为'position'
,start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为'value'
,start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:'value'
。stride (
int
) – 两个连续预测之间的时间步数。retrain (
Union
[bool
,int
,Callable
[…,bool
]]) –是否以及/或在何种条件下在预测前重新训练模型。此参数支持 3 种不同的类型:
bool
,(正)int
,和Callable
(返回bool
)。当为bool
时:在每一步重新训练模型(True),或从不重新训练模型(False)。当为int
时:模型每 retrain 次迭代重新训练。当为Callable
时:当可调用对象返回 True 时重新训练模型。可调用对象必须具有以下位置参数:counter (int):当前的 retrain 迭代次数。
pred_time (pd.Timestamp 或 int):预测时间的时间戳(训练序列的末尾)。
train_series (TimeSeries):直到 pred_time 的训练序列。
past_covariates (TimeSeries):直到 pred_time 的过去协变量序列。
future_covariates (TimeSeries):直到 min(pred_time + series.freq * forecast_horizon, series.end_time()) 的未来协变量序列。
注意:如果未将任何可选的 *_covariates 传递给 historical_forecast,则会将
None
传递给相应的 retrain 函数参数。注意:某些模型需要每次都重新训练,并且不支持 retrain=True 以外的任何值。注意:这也控制 data_transformers 的重新训练。overlap_end (
bool
) – 返回的预测是否可以超出序列的末尾。last_points_only (
bool
) – 是否仅返回每个历史预测的最后一个点。如果设置为True
,则方法(对于 series 中的每个时间序列)返回一个包含连续点预测的TimeSeries
。否则,返回历史TimeSeries
预测列表。metric (
Union
[Callable
[…,Union
[float
,list
[float
],ndarray
,list
[ndarray
]]],list
[Callable
[…,Union
[float
,list
[float
],ndarray
,list
[ndarray
]]]]]) – 一个度量函数或度量函数列表。每个度量必须是 Darts 度量(参见此处),或者是一个具有与 Darts 度量签名相同的自定义度量,使用装饰器multi_ts_support()
和multi_ts_support()
,并返回度量分数。reduction (
Optional
[Callable
[…,float
],None
]) – 当 last_points_only 设置为 False 时,用于组合获得的单个误差分数的函数。当提供多个度量函数时,该函数将接收参数 axis = 1 以获得每个度量函数的单个值。如果明确设置为None
,该方法将返回单个误差分数列表。默认设置为np.mean
。verbose (
bool
) – 是否打印进度。show_warnings (
bool
) – 是否显示与历史预测优化或参数 start 和 train_length 相关的警告。predict_likelihood_parameters (
bool
) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有 likelihood、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:False
。enable_optimization (
bool
) – 当支持和可用时,是否使用 historical_forecasts 的优化版本。默认值:True
。data_transformers (
Optional
[dict
[str
,Union
[BaseDataTransformer
,Pipeline
]],None
]) –可选项,一个字典,包含要应用于相应序列(可能的键:”series”, “past_covariates”, “future_covariates”)的 BaseDataTransformer 或 Pipeline。如果提供,所有输入序列必须位于未转换的空间中。对于可拟合的转换器/管道:
如果 retrain=True,则数据转换器在每个历史预测步骤都会根据训练数据重新拟合。
如果 retrain=False,则数据转换器在所有预测之前仅对序列进行一次转换。
拟合后的转换器在训练和预测期间用于转换输入。如果转换是可逆的,则预测将被逆转换。仅当 historical_forecasts=None 时有效。
metric_kwargs (
Union
[dict
[str
,Any
],list
[dict
[str
,Any
]],None
]) – 传递给 metric() 的额外参数,例如用于并行化的 'n_jobs',用于减少组件维度度量的 'component_reduction',用于缩放度量的季节性参数 'm' 等。这些参数将单独传递给每个度量,并且仅当它们存在于相应度量的签名中时才有效。缩放度量(例如 mase, rmsse, ...)的参数 'insample' 将被忽略,因为它在内部处理。fit_kwargs (
Optional
[dict
[str
,Any
],None
]) – 可选项,传递给模型 fit() 方法的一些额外参数。predict_kwargs (
Optional
[dict
[str
,Any
],None
]) – 可选项,传递给模型 predict() 方法的一些额外参数。sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 可选项,应用于目标 series 标签进行训练的样本权重。仅当 retrain 不为False
时有效。它们按观测值、按标签(output_chunk_length 中的每个步骤)和按组件应用。如果是一个序列或序列的序列,则使用这些权重。如果权重序列只有一个组件/列,则权重将全局应用于 series 中的所有组件。否则,对于特定组件的权重,组件数必须与 series 的组件数匹配。如果是一个字符串,则权重使用内置的加权函数生成。可用选项是 "linear" 或 "exponential" 衰减 - 时间越久远,权重越低。权重是按时间 series 计算的。
- 返回类型
Union
[float
,ndarray
,list
[float
],list
[ndarray
]]- 返回
float – 当只有一个单变量/多变量序列、一个 metric 函数以及
使用 last_points_only=True 生成的 historical_forecasts 时,返回一个回测分数。
使用 last_points_only=False 并使用回测 reduction 生成的 historical_forecasts 时,返回一个回测分数。
np.ndarray – 一个回测分数组成的 numpy 数组。适用于单个序列和以下情况之一:
一个 metric 函数,使用 last_points_only=False 和回测 reduction=None 生成的 historical_forecasts。输出形状为 (n 预测, *)。
多个 metric 函数和使用 last_points_only=False 生成的 historical_forecasts。当使用回测 reduction 时,输出形状为 (*, n 度量);当 reduction=None 时,输出形状为 (n 预测, *, n 度量)。
包括 series_reduction 的多个单变量/多变量序列,并且“按时间步长度量”的 component_reduction=None 或 time_reduction=None 中至少有一个。
List[float] – 与 float 类型相同,但适用于序列的序列。返回的度量列表长度为 len(series),其中包含每个输入 series 的 float 度量。
List[np.ndarray] – 与 np.ndarray 类型相同,但适用于序列的序列。返回的度量列表长度为 len(series),其中包含每个输入 series 的 np.ndarray 度量。
- property considers_static_covariates: bool¶
模型是否考虑静态协变量(如果存在)。
- 返回类型
bool
- property epochs_trained: int¶
- 返回类型
int
- property extreme_lags: tuple[Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], int, Optional[int]]¶
一个包含以下顺序的 8 元组:(最小目标滞后, 最大目标滞后, 最小过去协变量滞后, 最大过去协变量滞后, 最小未来协变量滞后, 最大未来协变量滞后, 输出偏移, 最大目标训练滞后 (仅适用于 RNNModel))。如果 0 是第一个预测的索引,则所有滞后都是相对于该索引计算的。
参见下面的示例。
- 如果模型未拟合以下参数:
目标(仅涉及 RegressionModels):则第一个元素应为 None。
过去协变量:则第三和第四个元素应为 None。
未来协变量:则第五和第六个元素应为 None。
使用过去或未来协变量的模型,和/或具有最小目标滞后和最大目标滞后可能不同于 -1 和 0 的模型应覆盖此属性。
注意
最大目标滞后(第二个值)不能为 None,并且始终大于或等于 0。
示例
>>> model = LinearRegressionModel(lags=3, output_chunk_length=2) >>> model.fit(train_series) >>> model.extreme_lags (-3, 1, None, None, None, None, 0, None) >>> model = LinearRegressionModel(lags=3, output_chunk_length=2, output_chunk_shift=2) >>> model.fit(train_series) >>> model.extreme_lags (-3, 1, None, None, None, None, 2, None) >>> model = LinearRegressionModel(lags=[-3, -5], lags_past_covariates = 4, output_chunk_length=7) >>> model.fit(train_series, past_covariates=past_covariates) >>> model.extreme_lags (-5, 6, -4, -1, None, None, 0, None) >>> model = LinearRegressionModel(lags=[3, 5], lags_future_covariates = [4, 6], output_chunk_length=7) >>> model.fit(train_series, future_covariates=future_covariates) >>> model.extreme_lags (-5, 6, None, None, 4, 6, 0, None) >>> model = NBEATSModel(input_chunk_length=10, output_chunk_length=7) >>> model.fit(train_series) >>> model.extreme_lags (-10, 6, None, None, None, None, 0, None) >>> model = NBEATSModel(input_chunk_length=10, output_chunk_length=7, lags_future_covariates=[4, 6]) >>> model.fit(train_series, future_covariates) >>> model.extreme_lags (-10, 6, None, None, 4, 6, 0, None)
- 返回类型
tuple
[Optional
[int
,None
],Optional
[int
,None
],Optional
[int
,None
],Optional
[int
,None
],Optional
[int
,None
],Optional
[int
,None
],int
,Optional
[int
,None
]]
- fit(series, past_covariates=None, future_covariates=None, val_series=None, val_past_covariates=None, val_future_covariates=None, trainer=None, verbose=None, epochs=0, max_samples_per_ts=None, dataloader_kwargs=None, sample_weight=None, val_sample_weight=None)¶
在一个或多个序列上拟合/训练模型。
此方法封装了
fit_from_dataset()
,为该模型构建一个默认训练数据集。如果您需要更多地控制训练时如何切片序列,可以考虑调用fit_from_dataset()
并传入自定义的darts.utils.data.TrainingDataset
。训练使用 PyTorch Lightning Trainer 进行。它使用预设和模型创建时使用的
pl_trainer_kwargs
中的默认 Trainer 对象。您也可以使用可选参数trainer
来使用自定义 Trainer。有关 PyTorch Lightning Trainer 的更多信息,请查阅此链接。此函数可以调用多次以进行额外的训练。如果指定了
epochs
,模型将(额外)训练epochs
轮次。下面记录了所有可能的参数,但并非所有模型都支持所有参数。例如,所有
PastCovariatesTorchModel
仅支持past_covariates
而不支持future_covariates
。如果您尝试使用错误的协变量参数来拟合模型,Darts 将会报错。处理协变量时,Darts 将尝试使用目标和协变量的时间轴来确定正确的时间切片。因此,协变量可以比实际需要更长;只要时间轴正确,Darts 就能正确处理它们。如果它们的时间跨度不足,Darts 也会报错。
- 参数
series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 用作目标(即模型将训练预测的对象)的序列或序列的序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,指定过去观测协变量的序列或序列的序列。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,指定未来已知协变量的序列或序列的序列。val_series (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,一个或多个验证目标序列,用于在整个训练过程中计算验证损失并跟踪表现最佳的模型。val_past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,与验证序列对应的过去协变量(必须与covariates
匹配)。val_future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,与验证序列对应的未来协变量(必须与covariates
匹配)。val_sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 与 sample_weight 相同,但用于评估数据集。trainer (
Optional
[Trainer
,None
]) – 可选项,一个自定义的 PyTorch-Lightning Trainer 对象来执行训练。使用自定义trainer
将覆盖 Darts 的默认 trainer。verbose (
Optional
[bool
,None
]) – 是否打印进度。如果 pl_trainer_kwargs 中存在 ProgressBar 回调,则忽略此参数。epochs (
int
) – 如果指定,模型将训练epochs
个(额外的)轮次,无论提供给模型构造函数的n_epochs
是什么。max_samples_per_ts (
Optional
[int
,None
]) – 可选项,每个时间序列使用的最大样本数。模型以监督方式训练,通过构建 (输入, 输出) 示例的切片。对于长的时间序列,这可能导致不必要的大量训练样本。此参数设置每个时间序列的训练样本数的上限(仅使用每个序列中最近的样本)。如果留空为 None,则不应用任何上限。dataloader_kwargs (
Optional
[dict
[str
,Any
],None
]) –可选项,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请查阅此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”, “shuffle”, “drop_last”, “collate_fn”, “pin_memory”)。更改它们时应谨慎,以避免意外行为。
sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 可选项,应用于目标 series 标签的一些样本权重。它们按观测值、按标签(output_chunk_length 中的每个步骤)和按组件应用。如果是一个序列或序列的序列,则使用这些权重。如果权重序列只有一个组件/列,则权重将全局应用于 series 中的所有组件。否则,对于特定组件的权重,组件数必须与 series 的组件数匹配。如果是一个字符串,则权重使用内置的加权函数生成。可用选项是 "linear" 或 "exponential" 衰减 - 时间越久远,权重越低。权重根据 series 中最长序列的长度全局计算。然后对于每个序列,从全局权重的末尾提取权重。这可以在所有序列中提供统一的时间加权。val_sample_weight – 与 sample_weight 相同,但用于评估数据集。
- 返回
拟合后的模型。
- 返回类型
self
- fit_from_dataset(train_dataset, val_dataset=None, trainer=None, verbose=None, epochs=0, dataloader_kwargs=None)¶
使用特定的
darts.utils.data.TrainingDataset
实例训练模型。这些数据集实现了 PyTorchDataset
,并指定了如何切片目标和协变量进行训练。如果您不确定使用哪种训练数据集,可以考虑调用fit()
,它将为该模型创建一个适当的默认训练数据集。训练使用 PyTorch Lightning Trainer 进行。它使用预设和模型创建时使用的
pl_trainer_kwargs
中的默认 Trainer 对象。您也可以使用可选参数trainer
来使用自定义 Trainer。有关 PyTorch Lightning Trainer 的更多信息,请查阅此链接。此函数可以调用多次以进行额外的训练。如果指定了
epochs
,模型将(额外)训练epochs
轮次。- 参数
train_dataset (
TrainingDataset
) – 与此模型类型匹配的训练数据集(例如,PastCovariatesTrainingDataset
适用于PastCovariatesTorchModel
)。val_dataset (
Optional
[TrainingDataset
,None
]) – 一个与此模型类型匹配的训练数据集(例如,PastCovariatesTrainingDataset
适用于 :class:`PastCovariatesTorchModel`s),表示验证集(用于跟踪验证损失)。trainer (
Optional
[Trainer
,None
]) – 可选项,一个自定义的 PyTorch-Lightning Trainer 对象来执行预测。使用自定义 trainer 将覆盖 Darts 的默认 trainer。verbose (
Optional
[bool
,None
]) – 是否打印进度。如果 pl_trainer_kwargs 中存在 ProgressBar 回调,则忽略此参数。epochs (
int
) – 如果指定,模型将训练epochs
个(额外的)轮次,无论提供给模型构造函数的n_epochs
是什么。dataloader_kwargs (
Optional
[dict
[str
,Any
],None
]) –可选项,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请查阅此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”, “shuffle”, “drop_last”, “collate_fn”, “pin_memory”)。更改它们时应谨慎,以避免意外行为。
- 返回
拟合后的模型。
- 返回类型
self
- generate_fit_encodings(series, past_covariates=None, future_covariates=None)¶
生成用于拟合模型的协变量编码,并返回一个元组,其中包含将原始和编码协变量堆叠在一起的过去和未来协变量序列。编码由模型创建时使用参数 add_encoders 定义的编码器生成。传递用于训练/拟合模型的相同 series、past_covariates 和 future_covariates。
- 参数
series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 拟合模型时使用的包含目标值的序列或序列的序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,拟合模型时使用的包含过去观测协变量的序列或序列的序列。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,拟合模型时使用的包含未来已知协变量的序列或序列的序列。
- 返回
一个包含 (过去协变量, 未来协变量) 的元组。每个协变量都包含原始协变量和编码后的协变量。
- 返回类型
Tuple[Union[TimeSeries, Sequence[TimeSeries]], Union[TimeSeries, Sequence[TimeSeries]]]
- generate_fit_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶
生成用于训练和推断/预测的协变量编码,并返回一个包含将原始和编码协变量堆叠在一起的过去和未来协变量序列的元组。编码由模型创建时使用参数 add_encoders 定义的编码器生成。传递您打算用于训练和预测的相同 series、past_covariates 和 future_covariates。
- 参数
n (
int
) – 打算用于预测的、位于 series 结尾之后的时间步数。series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 打算用于训练和预测的包含目标值的序列或序列的序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,打算用于训练和预测的包含过去观测协变量的序列。维度必须与用于训练的协变量的维度匹配。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,打算用于预测的包含未来已知协变量的序列。维度必须与用于训练的协变量的维度匹配。
- 返回
一个包含 (过去协变量, 未来协变量) 的元组。每个协变量都包含原始协变量和编码后的协变量。
- 返回类型
Tuple[Union[TimeSeries, Sequence[TimeSeries]], Union[TimeSeries, Sequence[TimeSeries]]]
- generate_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶
生成用于推断/预测集的协变量编码,并返回一个包含将原始和编码协变量堆叠在一起的过去和未来协变量序列的元组。编码由模型创建时使用参数 add_encoders 定义的编码器生成。传递您打算用于预测的相同 series、past_covariates 和 future_covariates。
- 参数
n (
int
) – 打算用于预测的、位于 series 结尾之后的时间步数。series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 打算用于预测的包含目标值的序列或序列的序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,打算用于预测的包含过去观测协变量的序列。维度必须与用于训练的协变量的维度匹配。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,打算用于预测的包含未来已知协变量的序列。维度必须与用于训练的协变量的维度匹配。
- 返回
一个包含 (过去协变量, 未来协变量) 的元组。每个协变量都包含原始协变量和编码后的协变量。
- 返回类型
Tuple[Union[TimeSeries, Sequence[TimeSeries]], Union[TimeSeries, Sequence[TimeSeries]]]
- classmethod gridsearch(parameters, series, past_covariates=None, future_covariates=None, forecast_horizon=None, stride=1, start=None, start_format='value', last_points_only=False, show_warnings=True, val_series=None, use_fitted_values=False, metric=<function mape>, reduction=<function mean>, verbose=False, n_jobs=1, n_random_samples=None, data_transformers=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None)¶
使用网格搜索在给定集合中寻找最佳超参数。
此函数有 3 种操作模式:扩展窗口模式、分割模式和拟合值模式。这三种操作模式通过实例化 ForecastingModel 的 model_class 子类,并传入 parameters 字典中提供的超参数值的每种可能组合,来评估每种组合,并返回相对于 metric 函数表现最佳的模型。预期的 metric 函数应返回一个误差值,因此将选择产生最小 metric 输出的模型。
训练数据和测试数据之间的关系取决于操作模式。
扩展窗口模式(当传入 forecast_horizon 时激活):对于每个超参数组合,模型在 series 的不同分割上重复训练和评估。此过程通过使用
backtest()
函数作为子程序来生成从 start 开始的历史预测,并将其与 series 的真实值进行比较。请注意,模型在每次预测时都会重新训练,因此此模式速度较慢。分割窗口模式(当传入 val_series 时激活):当传入 val_series 参数时,将使用此模式。对于每个超参数组合,模型在 series 上训练并在 val_series 上评估。
拟合值模式(当 use_fitted_values 设置为 True 时激活):对于每个超参数组合,模型在 series 上训练并在生成的拟合值上评估。并非所有模型都具有拟合值,如果模型没有 fitted_values 成员,此方法将引发错误。拟合值是模型在 series 上拟合的结果。与拟合值进行比较是一种快速评估模型的方法,但无法判断模型是否过拟合了序列。
派生类必须确保模型的单个实例不与其他实例共享参数,例如,将模型保存在同一路径中。否则,在并行运行多个模型时(当
n_jobs != 1
时)可能会出现意外行为。如果无法避免此情况,则应重新定义 gridsearch,强制设置n_jobs = 1
。目前,此方法仅支持确定性预测(即模型预测仅包含 1 个样本时)。
- 参数
model_class – 要对 'series' 进行调优的 ForecastingModel 子类。
parameters (
dict
) – 一个字典,键为超参数名称,值为相应超参数的值列表。series (
TimeSeries
) – 用作训练的输入和目标的目标序列。past_covariates (
Optional
[TimeSeries
,None
]) – 可选项,过去观测的协变量序列。仅当模型支持过去协变量时适用。future_covariates (
Optional
[TimeSeries
,None
]) – 可选项,未来已知的协变量序列。仅当模型支持未来协变量时适用。forecast_horizon (
Optional
[int
,None
]) – 预测范围的整数值。激活扩展窗口模式。stride (
int
) – 仅在扩展窗口模式下使用。两个连续预测之间的时间步数。start (
Union
[Timestamp
,float
,int
,None
]) –仅在扩展窗口模式下使用。可选项,计算第一个预测的时间点。此参数支持:
float
、int
、pandas.Timestamp
和None
。如果为float
,则表示时间序列中应位于第一个预测点之前的比例。如果为int
,则对于带有 pd.DatetimeIndex 的 series,它是第一个预测点的索引位置;对于带有 pd.RangeIndex 的 series,它是索引值。后者可以通过 start_format="position" 更改为索引位置。如果为pandas.Timestamp
,则表示第一个预测点的时间戳。如果为None
,第一个预测点将自动设置为:如果 retrain 为
False
,或 retrain 为可调用对象且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。如果 retrain 为
True
或int
(给定 train_length),或 retrain 为可调用对象且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。否则设置为第一个可训练点(给定 train_length)。
- 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
是 stride 在 start 之后的一个整倍数。如果不存在有效的起始点,则引发 ValueError。
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也将
向未来偏移 output_chunk_shift 个点。
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
(使用
None
时的默认行为)并从第一个可训练/可预测点开始。
start_format (
Literal
[‘position’, ‘value’]) – 仅在扩展窗口模式下使用。定义 start 的格式。仅当 start 是整数且 series 使用 pd.RangeIndex 索引时有效。如果设置为 'position',start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为 'value',start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:'value'
last_points_only (
bool
) – 仅在扩展窗口模式下使用。是否使用整个预测或仅使用每个预测的最后一个点来计算误差。show_warnings (
bool
) – 仅在扩展窗口模式下使用。是否显示与 start 参数相关的警告。val_series (
Optional
[TimeSeries
,None
]) – 分割模式中用于验证的 TimeSeries 实例。如果提供,此序列必须紧接在 series 之后开始;以便可以对预测进行适当的比较。use_fitted_values (
bool
) – 如果为 True,则使用与拟合值的比较。如果fitted_values
不是 model_class 的属性,则引发错误。metric (
Callable
[[TimeSeries
,TimeSeries
],float
]) –一个度量函数,它返回两个 TimeSeries 之间的误差,类型为 float 值。它必须是 Darts 的“按时间聚合”度量之一(参见此处),或者是一个自定义度量,该度量以两个 TimeSeries 作为输入并返回误差。
reduction (
Callable
[[ndarray
],float
]) – 一个归约函数(将数组映射到 float),描述了在回测时如何聚合在不同验证序列上获得的误差。默认情况下,它将计算误差的平均值。verbose – 是否打印进度。
n_jobs (
int
) – 并行运行的作业数。仅当存在两个或更多参数组合需要评估时才会创建并行作业。每个作业将实例化、训练和评估模型的不同实例。默认为 1(顺序执行)。将参数设置为 -1 表示使用所有可用核心。n_random_samples (
Union
[int
,float
,None
]) – 从完整参数网格中选择的超参数组合的数量/比例。这将执行随机搜索而不是使用完整网格。如果为整数,n_random_samples 是从完整网格中选择的参数组合的数量,并且必须介于 0 和总参数组合数之间。如果为浮点数,n_random_samples 是从完整网格中选择的参数组合的比例,并且必须介于 0 和 1 之间。默认为 None,此时将忽略随机选择。data_transformers (
Optional
[dict
[str
,Union
[BaseDataTransformer
,Pipeline
]],None
]) –可选项,一个字典,包含要应用于相应序列(可能的键:”series”, “past_covariates”, “future_covariates”)的 BaseDataTransformer 或 Pipeline。如果提供,所有输入序列必须位于未转换的空间中。对于可拟合的转换器/管道:
如果 retrain=True,则数据转换器在每个历史预测步骤都会根据训练数据重新拟合。
如果 retrain=False,则数据转换器在所有预测之前仅对序列进行一次转换。
拟合后的转换器在训练和预测期间用于转换输入。如果转换是可逆的,则预测将被逆转换。
fit_kwargs (
Optional
[dict
[str
,Any
],None
]) – 传递给模型 fit() 方法的附加参数。predict_kwargs (
Optional
[dict
[str
,Any
],None
]) – 传递给模型 predict() 方法的附加参数。sample_weight (
Union
[TimeSeries
,str
,None
]) – 可选参数,用于对目标 series 标签应用样本权重进行训练。仅当 retrain 不是False
时有效。这些权重按观察、标签(output_chunk_length 中的每个步骤)和组件应用。如果是时间序列,则使用这些权重。如果权重时间序列只有一个组件/列,则该权重将全局应用于 series 中的所有组件。否则,对于组件特定的权重,组件的数量必须与 series 的数量匹配。如果是一个字符串,则使用内置的权重函数生成权重。可用选项包括 “linear”(线性)或 “exponential”(指数)衰减 - 时间越远的过去,权重越低。
- 返回
一个元组,包含从最佳性能超参数创建的未经训练的 model_class 实例,以及一个包含这些最佳超参数的字典,以及最佳超参数的度量分数。
- 返回类型
ForecastingModel, Dict, float
- historical_forecasts(series, past_covariates=None, future_covariates=None, forecast_horizon=1, num_samples=1, train_length=None, start=None, start_format='value', stride=1, retrain=True, overlap_end=False, last_points_only=True, verbose=False, show_warnings=True, predict_likelihood_parameters=False, enable_optimization=True, data_transformers=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None)¶
通过模拟在提供的(可能多个)series 的整个历史记录中在不同时间点进行的预测来生成历史预测。此过程涉及回顾性地将模型应用于不同的时间步长,就好像预测是在这些特定时刻实时进行的一样。这允许评估模型在整个序列持续时间内的性能,从而深入了解其在不同历史时期的预测准确性和鲁棒性。
此方法有两种主要模式:
重新训练模式(默认,retrain=True):在模拟的每个步骤中,模型都会重新训练,并使用更新后的模型生成预测。在处理多个时间序列时,模型会在每个时间序列上独立重新训练(尚未支持全局训练)。
预训练模式(retrain=False):在模拟的每个步骤中生成预测,而无需重新训练。仅支持预训练的全局预测模型。此模式跳过了重新训练步骤,因此速度显著更快。
通过选择合适的模式,您可以在计算效率和模型需要最新训练之间进行权衡。
重新训练模式: 此模式通过从 series 的开头扩展或使用固定长度的 train_length 重复构建训练集(起始点也可以通过 start 和 start_format 进行配置)。然后模型在此训练集上进行训练,并生成长度为 forecast_horizon 的预测。随后,训练集的结束点向前移动 stride 个时间步长,并重复此过程。
预训练模式: 此模式仅支持预训练的全局预测模型。它使用与*重新训练模式*相同的模拟步骤(忽略 train_length),但直接生成预测而无需重新训练。
默认情况下,当 last_points_only=True 时,此方法返回一个时间序列(或一个时间序列序列),由每个历史预测的最后一个点组成。因此,此时间序列的频率将是 series.freq * stride。如果 last_points_only=False,它将返回一个列表(或列表序列),其中包含完整的历史预测序列,每个序列的频率为 series.freq。
- 参数
series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 用于连续训练(如果 retrain 不是False
)和计算历史预测的一个(或多个)目标时序序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,对于 series 中的每个输入时序序列,提供一个(或多个)过去观测的协变量时序序列。这仅适用于模型支持过去协变量时。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,对于 series 中的每个输入时序序列,提供一个(或多个)未来已知的协变量时序序列。这仅适用于模型支持未来协变量时。forecast_horizon (
int
) – 预测的预测范围。num_samples (
int
) – 从概率模型中采样的预测次数。仅对概率模型使用>1
的值。train_length (
Optional
[int
,None
]) – 可选项,为每个构建的训练集(滚动窗口模式)使用固定长度/时间步数。仅当 retrain 不为False
时有效。默认为None
,在这种情况下,它将使用直到预测时间为止的所有时间步长(扩展窗口模式)。如果大于可用的时间步长数,则使用扩展模式。必须至少为 min_train_series_length。start (
Union
[Timestamp
,float
,int
,None
]) –可选项,计算第一个预测的时间点。此参数支持:
float
、int
、pandas.Timestamp
和None
。如果为float
,则表示时间序列中应位于第一个预测点之前的比例。如果为int
,则对于带有 pd.DatetimeIndex 的 series,它是第一个预测点的索引位置;对于带有 pd.RangeIndex 的 series,它是索引值。后者可以通过 start_format="position" 更改为索引位置。如果为pandas.Timestamp
,则表示第一个预测点的时间戳。如果为None
,第一个预测点将自动设置为:如果 retrain 为
False
,或 retrain 为可调用对象且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。如果 retrain 为
True
或int
(给定 train_length),或 retrain 为Callable
且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。否则设置为第一个可训练点(给定 train_length)。
- 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
是 stride 在 start 之后的一个整倍数。如果不存在有效的起始点,则引发 ValueError。
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也将
向未来偏移 output_chunk_shift 个点。
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
(使用
None
时的默认行为)并从第一个可训练/可预测点开始。
start_format (
Literal
[‘position’, ‘value’]) – 定义 start 的格式。如果设置为'position'
,start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为'value'
,start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:'value'
。stride (
int
) – 两个连续预测之间的时间步数。retrain (
Union
[bool
,int
,Callable
[…,bool
]]) –是否以及/或在何种条件下在预测前重新训练模型。此参数支持 3 种不同的类型:
bool
,(正)int
,和Callable
(返回bool
)。当为bool
时:在每一步重新训练模型(True),或从不重新训练模型(False)。当为int
时:模型每 retrain 次迭代重新训练。当为Callable
时:当可调用对象返回 True 时重新训练模型。可调用对象必须具有以下位置参数:counter (int):当前的 retrain 迭代次数。
pred_time (pd.Timestamp 或 int):预测时间的时间戳(训练序列的末尾)。
train_series (TimeSeries):直到 pred_time 的训练序列。
past_covariates (TimeSeries):直到 pred_time 的过去协变量序列。
future_covariates (TimeSeries):直到 min(pred_time + series.freq * forecast_horizon, series.end_time()) 的未来协变量序列。
注意:如果未将任何可选的 *_covariates 传递给 historical_forecast,则会将
None
传递给相应的 retrain 函数参数。注意:某些模型需要每次都重新训练,并且不支持 retrain=True 以外的任何值。注意:这也控制 data_transformers 的重新训练。overlap_end (
bool
) – 返回的预测是否可以超出序列的末尾。last_points_only (
bool
) – 是否仅返回每个历史预测的最后一个点。如果设置为True
,则方法(对于 series 中的每个时间序列)返回一个包含连续点预测的TimeSeries
。否则,返回历史TimeSeries
预测列表。verbose (
bool
) – 是否打印进度。show_warnings (
bool
) – 是否显示与历史预测优化或参数 start 和 train_length 相关的警告。predict_likelihood_parameters (
bool
) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有 likelihood、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:False
。enable_optimization (
bool
) – 当支持和可用时,是否使用 historical_forecasts 的优化版本。默认值:True
。data_transformers (
Optional
[dict
[str
,Union
[BaseDataTransformer
,Pipeline
]],None
]) –可选项,一个字典,包含要应用于相应序列(可能的键:”series”, “past_covariates”, “future_covariates”)的 BaseDataTransformer 或 Pipeline。如果提供,所有输入序列必须位于未转换的空间中。对于可拟合的转换器/管道:
如果 retrain=True,则数据转换器在每个历史预测步骤都会根据训练数据重新拟合。
如果 retrain=False,则数据转换器在所有预测之前仅对序列进行一次转换。
拟合后的转换器在训练和预测期间用于转换输入。如果转换是可逆的,则预测将被逆转换。
fit_kwargs (
Optional
[dict
[str
,Any
],None
]) – 可选项,传递给模型 fit() 方法的一些额外参数。predict_kwargs (
Optional
[dict
[str
,Any
],None
]) – 可选项,传递给模型 predict() 方法的一些额外参数。sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 可选项,应用于目标 series 标签进行训练的样本权重。仅当 retrain 不为False
时有效。它们按观测值、按标签(output_chunk_length 中的每个步骤)和按组件应用。如果是一个序列或序列的序列,则使用这些权重。如果权重序列只有一个组件/列,则权重将全局应用于 series 中的所有组件。否则,对于特定组件的权重,组件数必须与 series 的组件数匹配。如果是一个字符串,则权重使用内置的加权函数生成。可用选项是 "linear" 或 "exponential" 衰减 - 时间越久远,权重越低。权重是按时间 series 计算的。
- 返回类型
Union
[TimeSeries
,list
[TimeSeries
],list
[list
[TimeSeries
]]]- 返回
TimeSeries – 单个 series 和 last_points_only=True 的单个历史预测:它仅包含所有历史预测中步长 forecast_horizon 处的预测。
List[TimeSeries] – 历史预测列表,适用于
一个 series 序列(列表)且 last_points_only=True:对于每个序列,它仅包含所有历史预测中步长 forecast_horizon 处的预测。
单个 series 且 last_points_only=False:对于每个历史预测,它包含整个预测范围 forecast_horizon。
List[List[TimeSeries]] – series 序列且 last_points_only=False 的历史预测列表的列表。对于每个序列和历史预测,它包含整个预测范围 forecast_horizon。外部列表是输入序列中提供的序列,内部列表包含每个序列的历史预测。
- property input_chunk_length: int¶
- 返回类型
int
- property likelihood: Optional[TorchLikelihood]¶
返回模型用于概率预测的似然(如果有)。
- 返回类型
Optional
[TorchLikelihood
,None
]
- static load(path, pl_trainer_kwargs=None, **kwargs)¶
从给定文件路径加载模型。
RNNModel
的通用保存示例from darts.models import RNNModel model_loaded = RNNModel.load(path)
将 CPU 上训练的
RNNModel
加载到 GPU 的示例from darts.models import RNNModel model_loaded = RNNModel.load(path, pl_trainer_kwargs={"accelerator": "gpu"})
将 GPU 上保存的
RNNModel
加载到 CPU 的示例from darts.models import RNNModel model_loaded = RNNModel.load(path, map_location="cpu", pl_trainer_kwargs={"accelerator": "gpu"})
- 参数
path (
str
) – 加载模型的路径。如果在保存模型时未指定路径,则必须提供以“.pt”结尾的自动生成路径。pl_trainer_kwargs (
Optional
[dict
,None
]) – 可选参数,用于创建新的 Lightning Trainer,以配置模型进行下游任务(例如预测)。一些示例包括指定批处理大小或将模型移动到 CPU/GPU。有关支持的 kwargs 的更多信息,请查阅 Lightning Trainer 文档。**kwargs –
传递给 PyTorch Lightning 的
LightningModule.load_from_checkpoint()
方法的其他 kwargs,例如 `map_location` 将模型加载到与保存设备不同的设备上。有关更多信息,请阅读官方文档。
- 返回类型
TorchForecastingModel
- static load_from_checkpoint(model_name, work_dir=None, file_name=None, best=True, **kwargs)¶
从 ‘{work_dir}/darts_logs/{model_name}/checkpoints/’ 下自动保存的检查点加载模型。此方法用于创建时设置了
save_checkpoints=True
的模型。如果您手动保存了模型,请考虑使用
load()
。从检查点加载
RNNModel
的示例(model_name
是模型创建时使用的model_name
)from darts.models import RNNModel model_loaded = RNNModel.load_from_checkpoint(model_name, best=True)
如果给定了
file_name
,则返回保存在 ‘{work_dir}/darts_logs/{model_name}/checkpoints/{file_name}’ 下的模型。如果未给出
file_name
,将尝试从 ‘{work_dir}/darts_logs/{model_name}/checkpoints/’ 恢复最佳检查点(如果best
为True
)或最新检查点(如果best
为False
)。将 GPU 上保存的
RNNModel
检查点加载到 CPU 的示例from darts.models import RNNModel model_loaded = RNNModel.load_from_checkpoint(model_name, best=True, map_location="cpu") model_loaded.to_cpu()
- 参数
model_name (
str
) – 模型的名称,用于检索检查点文件夹的名称。work_dir (
Optional
[str
,None
]) – 工作目录(包含检查点文件夹)。默认为当前工作目录。file_name (
Optional
[str
,None
]) – 检查点文件的名称。如果未指定,则使用最新文件。best (
bool
) – 如果设置,将检索最佳模型(根据验证损失)而不是最新模型。仅在给出file_name
时会被忽略。**kwargs –
传递给 PyTorch Lightning 的
LightningModule.load_from_checkpoint()
方法的其他 kwargs,例如 `map_location` 将模型加载到与保存设备不同的设备上。有关更多信息,请阅读官方文档。
- 返回
相应的训练好的
TorchForecastingModel
。- 返回类型
TorchForecastingModel
- load_weights(path, load_encoders=True, skip_checks=False, **kwargs)¶
从手动保存的模型(使用
save()
保存)加载权重。注意:此方法需要能够访问 darts 模型检查点 (.pt) 才能加载编码器并对模型参数执行健全性检查。
- 参数
path (
str
) – 加载模型权重的路径。如果在保存模型时未指定路径,则必须提供以“.pt”结尾的自动生成路径。load_encoders (
bool
) – 如果设置,将从模型中加载编码器以启用直接调用 fit() 或 predict()。默认值:True
。skip_checks (
bool
) – 如果设置,将禁用加载编码器和对模型参数的健全性检查(不推荐)。不能与 load_encoders=True 一起使用。默认值:False
。**kwargs –
传递给 PyTorch 的
load()
方法的其他 kwargs,例如 `map_location` 将模型加载到与保存设备不同的设备上。有关更多信息,请阅读官方文档。
- load_weights_from_checkpoint(model_name=None, work_dir=None, file_name=None, best=True, strict=True, load_encoders=True, skip_checks=False, **kwargs)¶
仅从 ‘{work_dir}/darts_logs/{model_name}/ checkpoints/’ 下自动保存的检查点加载权重。此方法用于创建时设置了
save_checkpoints=True
并且需要使用不同优化器或学习率调度器重新训练或微调的模型。但是,它也可用于加载权重进行推断。要恢复中断的训练,请考虑使用
load_from_checkpoint()
,它也会重新加载训练器、优化器和学习率调度器的状态。对于手动保存的模型,请考虑使用
load()
或load_weights()
代替。注意:此方法需要能够访问 darts 模型检查点 (.pt) 才能加载编码器并对模型参数执行健全性检查。
- 参数
model_name (
Optional
[str
,None
]) – 模型的名称,用于检索检查点文件夹的名称。默认值:self.model_name
。work_dir (
Optional
[str
,None
]) – 工作目录(包含检查点文件夹)。默认为当前工作目录。file_name (
Optional
[str
,None
]) – 检查点文件的名称。如果未指定,则使用最新文件。best (
bool
) – 如果设置,将检索最佳模型(根据验证损失)而不是最新模型。仅在给出file_name
时会被忽略。默认值:True
。strict (
bool
) –如果设置,则严格要求 state_dict 中的键与此模块 state_dict() 返回的键匹配。默认值:
True
。有关更多信息,请阅读官方文档。load_encoders (
bool
) – 如果设置,将从模型中加载编码器以启用直接调用 fit() 或 predict()。默认值:True
。skip_checks (
bool
) – 如果设置,将禁用加载编码器和对模型参数的健全性检查(不推荐)。不能与 load_encoders=True 一起使用。默认值:False
。**kwargs –
传递给 PyTorch 的
load()
方法的其他 kwargs,例如 `map_location` 将模型加载到与保存设备不同的设备上。有关更多信息,请阅读官方文档。
- lr_find(series, past_covariates=None, future_covariates=None, val_series=None, val_past_covariates=None, val_future_covariates=None, sample_weight=None, val_sample_weight=None, trainer=None, verbose=None, epochs=0, max_samples_per_ts=None, dataloader_kwargs=None, min_lr=1e-08, max_lr=1, num_training=100, mode='exponential', early_stop_threshold=4.0)¶
这是 PyTorch Lightning 的 Tuner.lr_find() 的包装器。执行一个合适的初始学习率的范围测试,以减少选择一个良好起始学习率的猜测量。有关 PyTorch Lightning Tuner 的更多信息,请查阅此链接。如果 Tuner 没有给出令人满意的结果,建议增加 epochs 的数量。考虑使用建议的学习率创建新的模型对象,例如使用模型创建参数 optimizer_cls、optimizer_kwargs、lr_scheduler_cls 和 lr_scheduler_kwargs。
使用
RNNModel
的示例import torch from darts.datasets import AirPassengersDataset from darts.models import NBEATSModel series = AirPassengersDataset().load() train, val = series[:-18], series[-18:] model = NBEATSModel(input_chunk_length=12, output_chunk_length=6, random_state=42) # run the learning rate tuner results = model.lr_find(series=train, val_series=val) # plot the results results.plot(suggest=True, show=True) # create a new model with the suggested learning rate model = NBEATSModel( input_chunk_length=12, output_chunk_length=6, random_state=42, optimizer_cls=torch.optim.Adam, optimizer_kwargs={"lr": results.suggestion()} )
- 参数
series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 用作目标(即模型将训练预测的对象)的序列或序列的序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,指定过去观测协变量的序列或序列的序列。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,指定未来已知协变量的序列或序列的序列。val_series (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,一个或多个验证目标序列,用于在整个训练过程中计算验证损失并跟踪表现最佳的模型。val_past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,与验证序列对应的过去协变量(必须与covariates
匹配)。val_future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选项,与验证序列对应的未来协变量(必须与covariates
匹配)。sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 可选项,应用于目标 series 标签的一些样本权重。它们按观测值、按标签(output_chunk_length 中的每个步骤)和按组件应用。如果是一个序列或序列的序列,则使用这些权重。如果权重序列只有一个组件/列,则权重将全局应用于 series 中的所有组件。否则,对于特定组件的权重,组件数必须与 series 的组件数匹配。如果是一个字符串,则权重使用内置的加权函数生成。可用选项是 "linear" 或 "exponential" 衰减 - 时间越久远,权重越低。权重根据 series 中最长序列的长度全局计算。然后对于每个序列,从全局权重的末尾提取权重。这可以在所有序列中提供统一的时间加权。val_sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 与 sample_weight 相同,但用于评估数据集。trainer (
Optional
[Trainer
,None
]) – 可选项,一个自定义的 PyTorch-Lightning Trainer 对象来执行训练。使用自定义trainer
将覆盖 Darts 的默认 trainer。verbose (
Optional
[bool
,None
]) – 是否打印进度。如果 pl_trainer_kwargs 中存在 ProgressBar 回调,则忽略此参数。epochs (
int
) – 如果指定,模型将训练epochs
个(额外的)轮次,无论提供给模型构造函数的n_epochs
是什么。max_samples_per_ts (
Optional
[int
,None
]) – 可选项,每个时间序列使用的最大样本数。模型以监督方式训练,通过构建 (输入, 输出) 示例的切片。对于长的时间序列,这可能导致不必要的大量训练样本。此参数设置每个时间序列的训练样本数的上限(仅使用每个序列中最近的样本)。如果留空为 None,则不应用任何上限。dataloader_kwargs (
Optional
[dict
[str
,Any
],None
]) –可选项,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请查阅此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”, “shuffle”, “drop_last”, “collate_fn”, “pin_memory”)。更改它们时应谨慎,以避免意外行为。
min_lr (
float
) – 要探索的最小学习率max_lr (
float
) – 要探索的最大学习率num_training (
int
) – 要测试的学习率数量mode (
str
) – 每个批次后更新学习率的搜索策略:‘exponential’:指数级增加学习率。‘linear’:线性增加学习率。early_stop_threshold (
float
) – 停止搜索的阈值。如果任意一点的损失大于 early_stop_threshold*best_loss,则停止搜索。要禁用,请设置为 None
- 返回
包含 LR 扫描结果的 Lightning 的 _LRFinder 对象。
- 返回类型
lr_finder
- property min_train_samples: int¶
训练模型的最小样本数量。
- 返回类型
int
- property model_created: bool¶
- 返回类型
bool
- property model_params: dict¶
- 返回类型
dict
- property output_chunk_length: int¶
模型一次预测的时间步长数量,未为统计模型定义。
- 返回类型
int
- property output_chunk_shift: int¶
输出/预测在输入结束之后开始的时间步长数量。
- 返回类型
int
- predict(n, series=None, past_covariates=None, future_covariates=None, trainer=None, batch_size=None, verbose=None, n_jobs=1, roll_size=None, num_samples=1, dataloader_kwargs=None, mc_dropout=False, predict_likelihood_parameters=False, show_warnings=True)¶
预测训练序列结束后的
n
个时间步长,或指定的series
的。预测由 PyTorch Lightning Trainer 执行。它使用预设和模型创建时使用的
pl_trainer_kwargs
中的默认 Trainer 对象。您也可以使用可选参数trainer
使用自定义 Trainer。有关 PyTorch Lightning Trainers 的更多信息,请查阅此链接。下面文档了所有可能的参数,但并非所有模型都支持所有参数。例如,所有
PastCovariatesTorchModel
只支持past_covariates
而不支持future_covariates
。如果您尝试使用错误的协变量参数调用模型的predict()
,Darts 将会报错。如果提供的协变量没有足够的时间范围,Darts 也将报错。一般来说,并非所有模型都需要相同的协变量时间范围。
- 依赖过去协变量的模型要求在预测时知道
past_covariates
的最后input_chunk_length
个点。对于范围值n > output_chunk_length
,这些模型还要求知道至少接下来n - output_chunk_length
的未来值。 - 依赖未来协变量的模型要求知道接下来
n
个值。此外(对于DualCovariatesTorchModel
和MixedCovariatesTorchModel
),它们还要求知道这些未来协变量的“历史”值(在过去的input_chunk_length
上)。
处理协变量时,Darts 将尝试使用目标和协变量的时间轴来确定正确的时间切片。因此,协变量可以比实际需要更长;只要时间轴正确,Darts 就能正确处理它们。如果它们的时间跨度不足,Darts 也会报错。
- 参数
n (
int
) – 要生成预测的时间序列结束点之后的时间步长数量series (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,一个或多个时间序列,表示要预测其未来的目标时间序列的历史。如果指定,则方法返回这些时间序列的预测。否则,方法返回(单个)训练时间序列的预测。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,模型需要作为输入的过去观测协变量时间序列。它们的维度必须与训练时使用的协变量匹配。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,模型需要作为输入的未来已知协变量时间序列。它们的维度必须与训练时使用的协变量匹配。trainer (
Optional
[Trainer
,None
]) – 可选参数,用于执行预测的自定义 PyTorch-Lightning Trainer 对象。使用自定义trainer
将覆盖 Darts 的默认训练器。batch_size (
Optional
[int
,None
]) – 预测期间的批处理大小。默认为模型的训练batch_size
值。verbose (
Optional
[bool
,None
]) – 是否打印进度。如果 pl_trainer_kwargs 中存在 ProgressBar 回调,则忽略此参数。n_jobs (
int
) – 并行运行的作业数量。-1
表示使用所有处理器。默认为1
。roll_size (
Optional
[int
,None
]) – 对于自消耗预测,即n > output_chunk_length
,确定模型在每次将预测目标(以及可选的未来协变量)反馈给模型的迭代中,有多少输出被反馈给模型。如果未提供此参数,则默认为output_chunk_length
。num_samples (
int
) – 从概率模型中采样预测的次数。对于确定性模型必须是 1。dataloader_kwargs (
Optional
[dict
[str
,Any
],None
]) –可选参数,一个关键字参数字典,用于创建用于推断/预测数据集的 PyTorch DataLoader 实例。有关 DataLoader 的更多信息,请查阅此链接。默认情况下,Darts 配置参数(“batch_size”、“shuffle”、“drop_last”、“collate_fn”、“pin_memory”)以实现无缝预测。更改这些参数时应谨慎,以避免意外行为。
mc_dropout (
bool
) – 可选参数,为基于神经网络的模型启用蒙特卡罗 dropout 进行预测。这通过指定学习模型上的隐式先验来实现贝叶斯近似。predict_likelihood_parameters (
bool
) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有 likelihood、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:False
。show_warnings (
bool
) – 可选参数,控制是否显示警告。并非对所有模型都有效。
- 返回
一个或多个包含
series
预测的时间序列,如果未指定series
且模型在单个时间序列上进行了训练,则为训练时间序列的预测。- 返回类型
Union[TimeSeries, Sequence[TimeSeries]]
- predict_from_dataset(n, input_series_dataset, trainer=None, batch_size=None, verbose=None, n_jobs=1, roll_size=None, num_samples=1, dataloader_kwargs=None, mc_dropout=False, predict_likelihood_parameters=False)¶
此方法允许使用特定的
darts.utils.data.InferenceDataset
实例进行预测。这些数据集实现了 PyTorchDataset
,并指定目标和协变量如何进行推断切片。在大多数情况下,您会更倾向于调用predict()
,它会为您创建一个合适的InferenceDataset
。预测由 PyTorch Lightning Trainer 执行。它使用预设和模型创建时使用的
pl_trainer_kwargs
中的默认 Trainer 对象。您也可以使用可选参数trainer
使用自定义 Trainer。有关 PyTorch Lightning Trainers 的更多信息,请查阅此链接。- 参数
n (
int
) – 要生成预测的时间序列结束点之后的时间步长数量input_series_dataset (
InferenceDataset
) – 可选参数,一个或多个时间序列,表示要预测其未来的目标时间序列的历史。如果指定,方法返回这些时间序列的预测。否则,方法返回(单个)训练时间序列的预测。trainer (
Optional
[Trainer
,None
]) – 可选参数,用于执行预测的自定义 PyTorch-Lightning Trainer 对象。使用自定义trainer
将覆盖 Darts 的默认训练器。batch_size (
Optional
[int
,None
]) – 预测期间的批处理大小。默认为模型的batch_size
值。verbose (
Optional
[bool
,None
]) – 是否打印进度。如果 pl_trainer_kwargs 中存在 ProgressBar 回调,则忽略此参数。n_jobs (
int
) – 并行运行的作业数量。-1
表示使用所有处理器。默认为1
。roll_size (
Optional
[int
,None
]) – 对于自消耗预测,即n > output_chunk_length
,确定模型在每次将预测目标(以及可选的未来协变量)反馈给模型的迭代中,有多少输出被反馈给模型。如果未提供此参数,则默认为output_chunk_length
。num_samples (
int
) – 从概率模型中采样预测的次数。对于确定性模型必须是 1。dataloader_kwargs (
Optional
[dict
[str
,Any
],None
]) –可选参数,一个关键字参数字典,用于创建用于推断/预测数据集的 PyTorch DataLoader 实例。有关 DataLoader 的更多信息,请查阅此链接。默认情况下,Darts 配置参数(“batch_size”、“shuffle”、“drop_last”、“collate_fn”、“pin_memory”)以实现无缝预测。更改这些参数时应谨慎,以避免意外行为。
mc_dropout (
bool
) – 可选参数,为基于神经网络的模型启用蒙特卡罗 dropout 进行预测。这通过指定学习模型上的隐式先验来实现贝叶斯近似。predict_likelihood_parameters (
bool
) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有似然的概率模型,且 num_samples = 1 和 n<=output_chunk_length。默认值:False
- 返回
返回一个或多个时间序列预测。
- 返回类型
Sequence[TimeSeries]
- reset_model()¶
重置模型对象并移除所有存储的数据 - 模型、检查点、记录器和训练历史。
- residuals(series, past_covariates=None, future_covariates=None, historical_forecasts=None, forecast_horizon=1, num_samples=1, train_length=None, start=None, start_format='value', stride=1, retrain=True, overlap_end=False, last_points_only=True, metric=<function err>, verbose=False, show_warnings=True, predict_likelihood_parameters=False, enable_optimization=True, data_transformers=None, metric_kwargs=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None, values_only=False)¶
计算模型对(潜在多个)series 的历史预测产生的残差。
此函数计算 series 中的实际观测值与通过在 series 上训练模型获得的拟合值之间的差(或 Darts 的“每时间步”度量之一)(或使用 retrain=False 的预训练模型)。并非所有模型都支持拟合值,因此我们使用历史预测作为它们的近似。
此方法按顺序执行:
使用预计算的 historical_forecasts 或计算每个序列的历史预测(有关更多详细信息,请参阅
historical_forecasts()
)。历史预测的生成方式可以通过参数 num_samples、train_length、start、start_format、forecast_horizon、stride、retrain、last_points_only、fit_kwargs 和 predict_kwargs 进行配置。对历史预测和 series 的每个组件/列和时间步长使用“每时间步长”metric 计算回溯测试(有关更多详细信息,请参阅
backtest()
)。默认情况下,使用残差err()
(误差)作为 metric。创建并返回 TimeSeries(或仅使用 values_only=True 返回 np.ndarray),其中包含历史预测的时间索引以及每个组件和时间步长的度量值。
此方法适用于单个或多个单变量或多变量时间序列。它使用中位数预测(处理随机预测时)。
- 参数
series (
Union
[TimeSeries
,Sequence
[TimeSeries
]]) – 用于连续训练(如果 retrain 不是False
)和计算历史预测的一个(或多个)目标时序序列。past_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,对于 series 中的每个输入时序序列,提供一个(或多个)过去观测的协变量时序序列。这仅适用于模型支持过去协变量时。future_covariates (
Union
[TimeSeries
,Sequence
[TimeSeries
],None
]) – 可选参数,对于 series 中的每个输入时序序列,提供一个(或多个)未来已知的协变量时序序列。这仅适用于模型支持未来协变量时。historical_forecasts (
Union
[TimeSeries
,Sequence
[TimeSeries
],Sequence
[Sequence
[TimeSeries
]],None
]) – 可选项,要评估的历史预测时间序列(或序列的序列/序列的序列)。对应于historical_forecasts()
的输出。必须传递用于生成历史预测的相同的 series 和 last_points_only 值。如果提供此参数,将跳过历史预测过程,并忽略除 series、last_points_only、metric 和 reduction 之外的所有参数。forecast_horizon (
int
) – 预测的预测范围。num_samples (
int
) – 从概率模型中采样的预测次数。仅对概率模型使用>1
的值。train_length (
Optional
[int
,None
]) – 可选项,为每个构建的训练集(滚动窗口模式)使用固定长度/时间步数。仅当 retrain 不为False
时有效。默认为None
,在这种情况下,它将使用直到预测时间为止的所有时间步长(扩展窗口模式)。如果大于可用的时间步长数,则使用扩展模式。必须至少为 min_train_series_length。start (
Union
[Timestamp
,float
,int
,None
]) –可选项,计算第一个预测的时间点。此参数支持:
float
、int
、pandas.Timestamp
和None
。如果为float
,则表示时间序列中应位于第一个预测点之前的比例。如果为int
,则对于带有 pd.DatetimeIndex 的 series,它是第一个预测点的索引位置;对于带有 pd.RangeIndex 的 series,它是索引值。后者可以通过 start_format="position" 更改为索引位置。如果为pandas.Timestamp
,则表示第一个预测点的时间戳。如果为None
,第一个预测点将自动设置为:如果 retrain 为
False
,或 retrain 为可调用对象且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。如果 retrain 为
True
或int
(给定 train_length),或 retrain 为Callable
且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。否则设置为第一个可训练点(给定 train_length)。
- 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
是 stride 在 start 之后的一个整倍数。如果不存在有效的起始点,则引发 ValueError。
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也将
向未来偏移 output_chunk_shift 个点。
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
(使用
None
时的默认行为)并从第一个可训练/可预测点开始。
start_format (
Literal
[‘position’, ‘value’]) – 定义 start 的格式。如果设置为'position'
,start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为'value'
,start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:'value'
。stride (
int
) – 两个连续预测之间的时间步数。retrain (
Union
[bool
,int
,Callable
[…,bool
]]) –是否以及/或在何种条件下在预测前重新训练模型。此参数支持 3 种不同的类型:
bool
,(正)int
,和Callable
(返回bool
)。当为bool
时:在每一步重新训练模型(True),或从不重新训练模型(False)。当为int
时:模型每 retrain 次迭代重新训练。当为Callable
时:当可调用对象返回 True 时重新训练模型。可调用对象必须具有以下位置参数:counter (int):当前的 retrain 迭代次数。
pred_time (pd.Timestamp 或 int):预测时间的时间戳(训练序列的末尾)。
train_series (TimeSeries):直到 pred_time 的训练序列。
past_covariates (TimeSeries):直到 pred_time 的过去协变量序列。
future_covariates (TimeSeries):直到 min(pred_time + series.freq * forecast_horizon, series.end_time()) 的未来协变量序列。
注意:如果未将任何可选的 *_covariates 传递给 historical_forecast,则会将
None
传递给相应的 retrain 函数参数。注意:某些模型需要每次都重新训练,并且不支持 retrain=True 以外的任何值。注意:这也控制 data_transformers 的重新训练。overlap_end (
bool
) – 返回的预测是否可以超出序列的末尾。last_points_only (
bool
) – 是否仅返回每个历史预测的最后一个点。如果设置为True
,则方法(对于 series 中的每个时间序列)返回一个包含连续点预测的TimeSeries
。否则,返回历史TimeSeries
预测列表。metric (
Callable
[…,Union
[float
,list
[float
],ndarray
,list
[ndarray
]]]) –Darts 的“每时间步”度量之一(参见此处),或具有与 Darts 的“每时间步”度量相同签名的自定义度量,使用装饰器
multi_ts_support()
和multi_ts_support()
,并为每个时间步长返回一个值。verbose (
bool
) – 是否打印进度。show_warnings (
bool
) – 是否显示与历史预测优化或参数 start 和 train_length 相关的警告。predict_likelihood_parameters (
bool
) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有 likelihood、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:False
。enable_optimization (
bool
) – 当支持和可用时,是否使用 historical_forecasts 的优化版本。默认值:True
。data_transformers (
Optional
[dict
[str
,Union
[BaseDataTransformer
,Pipeline
]],None
]) –可选项,一个字典,包含要应用于相应序列(可能的键:”series”, “past_covariates”, “future_covariates”)的 BaseDataTransformer 或 Pipeline。如果提供,所有输入序列必须位于未转换的空间中。对于可拟合的转换器/管道:
如果 retrain=True,则数据转换器在每个历史预测步骤都会根据训练数据重新拟合。
如果 retrain=False,则数据转换器在所有预测之前仅对序列进行一次转换。
拟合后的转换器在训练和预测期间用于转换输入。如果转换是可逆的,则预测将被逆转换。仅当 historical_forecasts=None 时有效。
metric_kwargs (
Optional
[dict
[str
,Any
],None
]) – 传递给 metric() 的其他参数,例如用于并行化的 ‘n_jobs’,用于缩放度量的 ‘m’ 等。仅当参数存在于相应的度量签名中时才会传递。忽略缩减参数 “series_reduction”、“component_reduction”、“time_reduction”,以及缩放度量(例如 mase、rmsse 等)的参数 ‘insample’,因为它们在内部处理。fit_kwargs (
Optional
[dict
[str
,Any
],None
]) – 可选项,传递给模型 fit() 方法的一些额外参数。predict_kwargs (
Optional
[dict
[str
,Any
],None
]) – 可选项,传递给模型 predict() 方法的一些额外参数。sample_weight (
Union
[TimeSeries
,Sequence
[TimeSeries
],str
,None
]) – 可选项,应用于目标 series 标签进行训练的样本权重。仅当 retrain 不为False
时有效。它们按观测值、按标签(output_chunk_length 中的每个步骤)和按组件应用。如果是一个序列或序列的序列,则使用这些权重。如果权重序列只有一个组件/列,则权重将全局应用于 series 中的所有组件。否则,对于特定组件的权重,组件数必须与 series 的组件数匹配。如果是一个字符串,则权重使用内置的加权函数生成。可用选项是 "linear" 或 "exponential" 衰减 - 时间越久远,权重越低。权重是按时间 series 计算的。values_only (
bool
) – 是否将残差作为 np.ndarray 返回。如果为 False,则将残差作为 TimeSeries 返回。
- 返回类型
Union
[TimeSeries
,list
[TimeSeries
],list
[list
[TimeSeries
]]]- 返回
TimeSeries – 单个 series 和使用 last_points_only=True 生成的 historical_forecasts 的残差 TimeSeries。
List[TimeSeries] – 序列(列表)series 且 last_points_only=True 的残差 TimeSeries 列表。残差列表的长度为 len(series)。
List[List[TimeSeries]] – 序列 series 且 last_points_only=False 的残差 TimeSeries 列表的列表。外部残差列表的长度为 len(series)。内部列表包含所有可能的序列特定历史预测的残差。
- save(path=None, clean=False)¶
在给定路径下保存模型。
在
path
(模型对象)和path
.ckpt(检查点)下创建两个文件。注意:保存包含自定义类的模型时可能会出现 Pickle 错误。在这种情况下,请考虑使用 clean 标志来剥离保存的模型中与训练相关的属性。
保存和加载
RNNModel
的示例from darts.models import RNNModel model = RNNModel(input_chunk_length=4) model.save("my_model.pt") model_loaded = RNNModel.load("my_model.pt")
- 参数
path (
Optional
[str
,None
]) – 保存模型当前状态的路径。请避免以“last-”或“best-”开头的路径,以免与 Pytorch-Lightning 检查点冲突。如果未指定路径,模型将自动保存在"{ModelClass}_{YYYY-mm-dd_HH_MM_SS}.pt"
下。例如,"RNNModel_2020-01-01_12_00_00.pt"
。clean (
bool
) –是否存储模型的清理版本。如果为 True,则删除训练时间序列和协变量。此外,还会删除所有与 Lightning Trainer 相关的参数(模型创建时通过 pl_trainer_kwargs 传递)。
注意:加载使用 clean=True 存储的模型后,必须将 series 传递给 ‘predict()’、historical_forecasts() 和其他预测方法。
- 返回类型
None
- supports_future_covariates = False¶
- property supports_likelihood_parameter_prediction: bool¶
模型实例是否支持直接预测似然参数
- 返回类型
bool
- property supports_multivariate: bool¶
模型是否考虑时序中的多于一个变量。
- 返回类型
bool
- property supports_optimized_historical_forecasts: bool¶
模型是否支持优化过的历史预测
- 返回类型
bool
- property supports_past_covariates: bool¶
模型是否支持过去协变量
- 返回类型
bool
- property supports_probabilistic_prediction: bool¶
检查使用此配置的预测模型是否支持概率预测。
默认返回 False。需要支持概率预测的模型进行重写。
- 返回类型
bool
- property supports_sample_weight: bool¶
模型是否支持用于训练的样本权重。
- 返回类型
bool
- property supports_static_covariates: bool¶
模型是否支持静态协变量
- 返回类型
bool
- property supports_transferable_series_prediction: bool¶
模型是否支持对任何输入 series 进行预测。
- 返回类型
bool
- to_onnx(path=None, **kwargs)¶
将模型导出为 ONNX 格式以优化推断,它包装了 PyTorch Lightning 的
torch.onnx.export()
方法(官方文档)。注意:需要安装 onnx 库(可选依赖项)。
导出
DLinearModel
的示例from darts.datasets import AirPassengersDataset from darts.models import DLinearModel series = AirPassengersDataset().load() model = DLinearModel(input_chunk_length=4, output_chunk_length=1) model.fit(series, epochs=1) model.to_onnx("my_model.onnx")
- 参数
path (
Optional
[str
,None
]) – 保存模型当前状态的路径。如果未指定路径,模型将自动保存在"{ModelClass}_{YYYY-mm-dd_HH_MM_SS}.onnx"
下。**kwargs –
传递给 PyTorch 的
torch.onnx.export()
方法的其他 kwargs(参数file_path
、input_sample
、input_name
除外)。有关更多信息,请阅读官方文档。
- untrained_model()¶
返回使用相同参数创建的一个新的(未训练的)模型实例。
- property uses_future_covariates: bool¶
模型一旦拟合后是否使用未来协变量。
- 返回类型
bool
- property uses_past_covariates: bool¶
模型一旦拟合后是否使用过去协变量。
- 返回类型
bool
- property uses_static_covariates: bool¶
模型一旦拟合后是否使用静态协变量。
- 返回类型
bool