N-Linear¶
- class darts.models.forecasting.nlinear.NLinearModel(input_chunk_length, output_chunk_length, output_chunk_shift=0, shared_weights=False, const_init=True, normalize=False, use_static_covariates=True, **kwargs)[source]¶
- 基类: - MixedCovariatesTorchModel- NLinear 模型的实现,如 [1] 中所述。 - 此实现通过允许可选使用过去协变量(在预测时间前 input_chunk_length 点已知)、未来协变量(在预测时间后 output_chunk_length 点已知)和静态协变量以及支持概率预测而得到改进。 - 参数
- input_chunk_length ( - int) – 作为模型输入(每块)的过去时间步数。适用于目标序列以及过去和/或未来协变量(如果模型支持)。
- output_chunk_length ( - int) – 内部模型一次(每块)预测的时间步数。同时,也是将未来协变量的未来值用作模型输入(如果模型支持未来协变量)的数量。它与 predict() 中使用的预测范围 n 不同,后者是使用一次性或自回归预测生成的所需预测点数。设置 n <= output_chunk_length 可以阻止自回归。当协变量未能充分延伸到未来时,或者为了阻止模型使用过去和/或未来协变量的未来值进行预测时(取决于模型的协变量支持),这非常有用。
- output_chunk_shift ( - int) – 可选参数,输出块的起始点相对于输入块结束点向未来偏移的步数。这将导致输入和输出之间产生间隔。如果模型支持 future_covariates,则从偏移的输出块中提取未来值。预测将从目标 series 结束后的 output_chunk_shift 步开始。如果设置了 output_chunk_shift,模型无法生成自回归预测 (n > output_chunk_length)。
- shared_weights ( - bool) –- 是否对多元序列的所有分量使用共享权重。 - 警告 - 设置为 True 时,将忽略协变量,因为输入维度和输出维度之间需要一对一的映射。 - 默认值: False。 
- const_init ( - bool) – 是否将权重初始化为 1/in_len。如果为 False,则使用默认的 PyTorch 初始化(默认值='True')。
- normalize ( - bool) –- 是否应用论文中提出的简单“归一化”,即将输入序列的最后一个值从输入序列中减去。默认值:False。 - 注意 - 这不能应用于概率模型。 
- use_static_covariates ( - bool) – 模型是否应使用静态协变量信息,以防传递给- fit()的输入 series 包含静态协变量。如果为- True,并且在拟合时可用静态协变量,则将强制所有目标 series 在- fit()和- predict()中具有相同的静态协变量维度。
- **kwargs – 初始化 pytorch_lightning.Module、pytorch_lightning.Trainer 和 Darts 的 - TorchForecastingModel的可选参数。
- loss_fn – 用于训练的 PyTorch 损失函数。如果指定了 - likelihood参数,此参数对于概率模型将被忽略。默认值:- torch.nn.MSELoss()。
- likelihood – 用于概率预测的 Darts - Likelihood模型之一。默认值:- None。
- torch_metrics – 用于评估的 torch 评估指标或 - MetricCollection。可用评估指标的完整列表可在 https://torchmetrics.readthedocs.io/en/latest/ 找到。默认值:- None。
- optimizer_cls – 要使用的 PyTorch 优化器类。默认值: - torch.optim.Adam。
- optimizer_kwargs – 可选参数,PyTorch 优化器的一些关键字参数(例如, - {'lr': 1e-3}用于指定学习率)。否则,将使用所选- optimizer_cls的默认值。默认值:- None。
- lr_scheduler_cls – 可选参数,要使用的 PyTorch 学习率调度器类。指定 - None相当于使用恒定学习率。默认值:- None。
- lr_scheduler_kwargs – 可选参数,PyTorch 学习率调度器的一些关键字参数。默认值: - None。
- use_reversible_instance_norm – 是否使用可逆实例归一化 RINorm 来应对分布偏移,如 [2] 所示。它仅应用于目标序列的特征,而不应用于协变量。 
- batch_size – 每次训练迭代中使用的时序(输入和输出序列)数量。默认值: - 32。
- n_epochs – 模型训练的 epoch 数。默认值: - 100。
- model_name – 模型名称。用于创建检查点和保存 tensorboard 数据。如果未指定,则默认为以下字符串 - "YYYY-mm-dd_HH_MM_SS_torch_model_run_PID",其中名称的初始部分按本地日期和时间格式化,而 PID 是进程 ID(防止不同进程同时生成的模型共享相同的 model_name)。例如,- "2021-06-14_09_53_32_torch_model_run_44607"。
- work_dir – 工作目录路径,用于保存检查点和 Tensorboard 摘要。默认值:当前工作目录。 
- log_tensorboard – 如果设置,使用 Tensorboard 记录不同的参数。日志将位于: - "{work_dir}/darts_logs/{model_name}/logs/"。默认值:- False。
- nr_epochs_val_period – 在评估验证损失之前等待的 epoch 数(如果将验证 - TimeSeries传递给- fit()方法)。默认值:- 1。
- force_reset – 如果设置为 - True,任何先前存在的同名模型将被重置(所有检查点将被丢弃)。默认值:- False。
- save_checkpoints – 是否自动保存未经训练的模型和训练检查点。要从检查点加载模型,请调用 - MyModelClass.load_from_checkpoint(),其中- MyModelClass是使用的- TorchForecastingModel类(例如- TFTModel、- NBEATSModel等)。如果设置为- False,仍可以使用- save()手动保存模型,并使用- load()加载。默认值:- False。
- add_encoders – - 可以使用 add_encoders 自动生成大量的过去和未来协变量。这可以通过添加多个预定义的索引编码器和/或用作索引编码器的自定义用户创建函数来实现。此外,还可以添加一个转换器,例如 Darts 的 - Scaler来转换生成的协变量。所有这些都在一个地方完成,只需在模型创建时指定。阅读- SequentialEncoder以了解更多关于- add_encoders的信息。默认值:- None。一个展示- add_encoders部分功能的示例- def encode_year(idx): return (idx.year - 1950) / 50 add_encoders={ 'cyclic': {'future': ['month']}, 'datetime_attribute': {'future': ['hour', 'dayofweek']}, 'position': {'past': ['relative'], 'future': ['relative']}, 'custom': {'past': [encode_year]}, 'transformer': Scaler(), 'tz': 'CET' } 
- random_state – 控制权重初始化的随机性。查看此 链接 获取更多详情。默认值: - None。
- pl_trainer_kwargs – - 默认情况下, - TorchForecastingModel创建一个带有多个有用预设的 PyTorch Lightning Trainer,用于执行训练、验证和预测过程。这些预设包括自动检查点、tensorboard 日志记录、设置 torch 设备等。使用- pl_trainer_kwargs,您可以添加额外的 kwargs 来实例化 PyTorch Lightning trainer 对象。查看 PL Trainer 文档 以获取有关支持的 kwargs 的更多信息。默认值:- None。使用- pl_trainer_kwargs并指定键- "accelerator", "devices", and "auto_select_gpus"也可以在 GPU 上运行。在- pl_trainer_kwargs字典中设置设备的一些示例- {"accelerator": "cpu"}表示 CPU,
- {"accelerator": "gpu", "devices": [i]}表示仅使用 GPU- i(- i必须是整数),
- {"accelerator": "gpu", "devices": -1, "auto_select_gpus": True}表示使用所有可用的 GPU。
 - 更多信息请参阅:https://pytorch-lightning.readthedocs.io/en/stable/common/trainer.html#trainer-flags,以及 https://pytorch-lightning.readthedocs.io/en/stable/accelerators/gpu_basic.html#train-on-multiple-gpus - 使用参数 - "callbacks",您可以将自定义或 PyTorch-Lightning 内置的回调添加到 Darts 的- TorchForecastingModel。下面是向训练过程添加 EarlyStopping 的示例。如果验证损失 val_loss 没有超出指定范围改善,模型将提前停止训练。有关回调的更多信息,请访问:PyTorch Lightning Callbacks- from pytorch_lightning.callbacks.early_stopping import EarlyStopping # stop training when validation loss does not decrease more than 0.05 (`min_delta`) over # a period of 5 epochs (`patience`) my_stopper = EarlyStopping( monitor="val_loss", patience=5, min_delta=0.05, mode='min', ) pl_trainer_kwargs={"callbacks": [my_stopper]} - 请注意,您还可以使用可选参数 - trainer在- fit()和- predict()中使用自定义的 PyTorch Lightning Trainer 进行训练和预测。
- show_warnings – 是否显示 PyTorch Lightning 引发的警告。有助于检测预测用例的潜在问题。默认值: - False。
 
 - 参考文献 - 1
- Zeng, A., Chen, M., Zhang, L., & Xu, Q. (2022). Are Transformers Effective for Time Series Forecasting?. arXiv preprint arXiv:2205.13504. 
- 2
- T. Kim et al. “Reversible Instance Normalization for Accurate Time-Series Forecasting against Distribution Shift”, https://openreview.net/forum?id=cGDAkQo1C0p 
 - 示例 - >>> from darts.datasets import WeatherDataset >>> from darts.models import NLinearModel >>> series = WeatherDataset().load() >>> # predicting atmospheric pressure >>> target = series['p (mbar)'][:100] >>> # optionally, use past observed rainfall (pretending to be unknown beyond index 100) >>> past_cov = series['rain (mm)'][:100] >>> # optionally, use future temperatures (pretending this component is a forecast) >>> future_cov = series['T (degC)'][:106] >>> # predict 6 pressure values using the 12 past values of pressure and rainfall, as well as the 6 temperature >>> # values corresponding to the forecasted period >>> model = NLinearModel( >>> input_chunk_length=6, >>> output_chunk_length=6, >>> n_epochs=20, >>> ) >>> model.fit(target, past_covariates=past_cov, future_covariates=future_cov) >>> pred = model.predict(6) >>> pred.values() array([[429.56117169], [428.93264096], [428.35210616], [428.13154426], [427.98781641], [428.00325481]]) - 属性 - 模型是否考虑静态协变量(如果存在)。 - 一个 8 元组,按顺序包含:(最小目标滞后、最大目标滞后、最小过去协变量滞后、最大过去协变量滞后、最小未来协变量滞后、最大未来协变量滞后、输出偏移、最大目标训练滞后(仅适用于 RNNModel))。 - 返回模型用于概率预测的似然(如果存在)。 - 模型训练所需的最小样本数。 - 模型一次预测的时间步数,统计模型未定义此项。 - 输出/预测在输入结束之后开始的时间步数。 - 模型是否支持未来协变量 - 模型实例是否支持直接预测似然参数 - 模型是否考虑时间序列中的多个变量。 - 模型是否支持优化的历史预测 - 模型是否支持过去协变量 - 检查具有此配置的预测模型是否支持概率预测。 - 模型是否支持用于训练的样本权重。 - 模型是否支持静态协变量 - 模型是否支持对任何输入 series 进行预测。 - 模型在拟合后是否使用未来协变量。 - 模型在拟合后是否使用过去协变量。 - 模型在拟合后是否使用静态协变量。 - epochs_trained - input_chunk_length - model_created - model_params - 方法 - backtest(series[, past_covariates, ...])- 计算模型对(可能多个)series 执行历史预测时产生的误差值。 - fit(series[, past_covariates, ...])- 在单个或多个序列上拟合/训练模型。 - fit_from_dataset(train_dataset[, ...])- 使用特定的 - darts.utils.data.TrainingDataset实例训练模型。- generate_fit_encodings(series[, ...])- 生成用于拟合模型的协变量编码,并返回一个包含过去和未来协变量序列的元组,其中原始协变量和编码后的协变量堆叠在一起。 - generate_fit_predict_encodings(n, series[, ...])- 为训练和推理/预测生成协变量编码,并返回一个包含过去和未来协变量序列的元组,其中原始协变量和编码后的协变量堆叠在一起。 - generate_predict_encodings(n, series[, ...])- 为推理/预测集生成协变量编码,并返回一个包含过去和未来协变量序列的元组,其中原始协变量和编码后的协变量堆叠在一起。 - gridsearch(parameters, series[, ...])- 使用网格搜索在给定集合中找到最佳超参数。 - historical_forecasts(series[, ...])- 通过模拟在提供的(可能多个)series 历史中不同时间点的预测来生成历史预测。 - load(path[, pl_trainer_kwargs])- 从给定文件路径加载模型。 - load_from_checkpoint(model_name[, work_dir, ...])- 从 '{work_dir}/darts_logs/{model_name}/checkpoints/' 下自动保存的检查点加载模型。 - load_weights(path[, load_encoders, skip_checks])- 从手动保存的模型(使用 - save()保存)加载权重。- load_weights_from_checkpoint([model_name, ...])- 仅从 '{work_dir}/darts_logs/{model_name}/ checkpoints/' 下自动保存的检查点加载权重。 - lr_find(series[, past_covariates, ...])- 一个对 PyTorch Lightning 的 Tuner.lr_find() 的封装。 - predict(n[, series, past_covariates, ...])- 预测训练序列结束或指定 - series结束后的- n个时间步。- predict_from_dataset(n, input_series_dataset)- 此方法允许使用特定的 - darts.utils.data.InferenceDataset实例进行预测。- 重置模型对象并移除所有存储数据 - 模型、检查点、日志和训练历史。 - residuals(series[, past_covariates, ...])- 计算模型对(可能多个)series 执行历史预测时产生的残差。 - save([path, clean])- 将模型保存到给定路径下。 - to_cpu()- 更新 PyTorch Lightning Trainer 参数,以便下次调用 :fun:`fit()` 或 - predict()时将模型移动到 CPU。- to_onnx([path])- 将模型导出为 ONNX 格式以进行优化推理,是对 PyTorch Lightning 的 - torch.onnx.export()方法的封装(官方文档)。- 返回使用相同参数创建的新(未经训练的)模型实例。 - backtest(series, past_covariates=None, future_covariates=None, historical_forecasts=None, forecast_horizon=1, num_samples=1, train_length=None, start=None, start_format='value', stride=1, retrain=True, overlap_end=False, last_points_only=False, metric=<function mape>, reduction=<function mean>, verbose=False, show_warnings=True, predict_likelihood_parameters=False, enable_optimization=True, data_transformers=None, metric_kwargs=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None)¶
- 计算模型对(可能多个)series 执行历史预测时产生的误差值。 - 如果提供了 historical_forecasts,则直接对所有预测值和实际值评估度量(由 metric 函数给出)。必须传递用于生成历史预测的相同的 series 和 last_points_only 值。最后,此方法返回所有这些度量分数的可选 reduction(默认为均值)。 - 如果 historical_forecasts 为 - None,则它首先使用下面给出的参数生成历史预测(更多信息请参阅- ForecastingModel.historical_forecasts()),然后按上述方式评估。- 度量可以通过 metric_kwargs 进一步定制(例如,控制跨分量、时间步长、多个序列的聚合,以及其他必需参数,如分位数度量的 q 等)。 - 参数
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 用于连续训练(如果 retrain 不为- False)和计算历史预测的(序列)目标时间序列。
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选参数,每个输入时间序列 series 对应的(序列)过去观测协变量时间序列。这仅适用于模型支持过去协变量的情况。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选参数,每个输入时间序列 series 对应的(序列)未来已知协变量时间序列。这仅适用于模型支持未来协变量的情况。
- historical_forecasts ( - Union[- TimeSeries,- Sequence[- TimeSeries],- Sequence[- Sequence[- TimeSeries]],- None]) – 可选参数,要评估的(或序列/序列的序列)历史预测时间序列。对应于- historical_forecasts()的输出。必须传递用于生成历史预测的相同的 series 和 last_points_only 值。如果提供,将跳过历史预测并忽略除 series、last_points_only、metric 和 reduction 之外的所有参数。
- forecast_horizon ( - int) – 预测的预测范围。
- num_samples ( - int) – 从概率模型中采样预测的次数。仅对概率模型使用 >1 的值。
- train_length ( - Optional[- int,- None]) – 可选参数,对每个构建的训练集使用固定长度/时间步数(滚动窗口模式)。仅当 retrain 不为- False时有效。默认值为- None,此时它使用直到预测时间的所有时间步(扩展窗口模式)。如果大于可用时间步数,则使用扩展模式。需要至少为 min_train_series_length。
- start ( - Union[- Timestamp,- float,- int,- None]) –- 可选参数,计算第一个预测的时间点。此参数支持: - float、- int、- pandas.Timestamp和- None。如果为- float,则表示应在第一个预测点之前的时间序列比例。如果为- int,则表示具有 pd.DatetimeIndex 的 series 的第一个预测点的索引位置,或者具有 pd.RangeIndex 的 series 的索引值。后者可以使用 start_format=”position” 更改为索引位置。如果为- pandas.Timestamp,则表示第一个预测点的时间戳。如果为- None,则第一个预测点将自动设置为- 如果 retrain 为 - False,或者 retrain 是一个 Callable 且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。
- 如果 retrain 为 - True或- int(给定 train_length),或者 retrain 是一个- Callable且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。
- 否则设置为第一个可训练点(给定 train_length) 
 - 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
- 是 start 之前 stride 的整数倍。如果不存在有效的起始点,则引发 ValueError。 
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也会
- 向未来偏移 output_chunk_shift 点。 
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
- (使用 - None时的默认行为)并在第一个可训练/可预测点开始。
 
- start_format ( - Literal[‘position’, ‘value’]) – 定义 start 的格式。如果设置为- 'position',start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为- 'value',start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:- 'value'。
- stride ( - int) – 两个连续预测之间的时间步数。
- retrain ( - Union[- bool,- int,- Callable[…,- bool]]) –- 是否以及/或在什么条件下在预测前重新训练模型。此参数支持 3 种不同类型: - bool、(正)- int和- Callable(返回- bool)。如果为- bool:在每个步骤重新训练模型(True),或从不重新训练模型(False)。如果为- int:每 retrain 次迭代重新训练模型。如果为- Callable车:每当可调用对象返回 True 时重新训练模型。可调用对象必须具有以下位置参数- counter (int):当前 retrain 迭代次数 
- pred_time (pd.Timestamp 或 int):预测时间的时间戳(训练序列的结束) 
- train_series (TimeSeries):截至 pred_time 的训练序列 
- past_covariates (TimeSeries):截至 pred_time 的 past_covariates 序列 
- future_covariates (TimeSeries):截至 min(pred_time + series.freq * forecast_horizon, series.end_time()) 的 future_covariates 序列 
 - 注意:如果任何可选的 *_covariates 未传递给 historical_forecast,则 - None将传递给相应的 retrain 函数参数。注意:某些模型要求每次都重新训练,并且不支持 retrain=True 以外的任何值。注意:此参数也控制 data_transformers 的重新训练。
- overlap_end ( - bool) – 返回的预测是否可以超出序列的结束点。
- last_points_only ( - bool) – 是否仅返回每个历史预测的最后一个点。如果设置为- True,则方法返回一个包含连续点预测的单个- TimeSeries(对于 series 中的每个时间序列)。否则,返回历史- TimeSeries预测列表。
- metric ( - Union[- Callable[…,- Union[- float,- list[- float],- ndarray,- list[- ndarray]]],- list[- Callable[…,- Union[- float,- list[- float],- ndarray,- list[- ndarray]]]]]) – 一个度量函数或度量函数列表。每个度量必须是 Darts 度量(参阅 此处),或者是一个自定义度量,其签名与 Darts 的度量相同,使用装饰器- multi_ts_support()和- multi_ts_support(),并返回度量分数。
- reduction ( - Optional[- Callable[…,- float],- None]) – 当 last_points_only 设置为 False 时,用于组合获得的单个误差分数的函数。当提供多个度量函数时,该函数将接收参数 axis = 1,为每个度量函数获取单个值。如果明确设置为 None,该方法将返回单个误差分数的列表。默认为- np.mean。
- verbose ( - bool) – 是否打印进度。
- show_warnings ( - bool) – 是否显示与历史预测优化或参数 start 和 train_length 相关的警告。
- predict_likelihood_parameters ( - bool) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有似然、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:- False。
- enable_optimization ( - bool) – 当支持且可用时,是否使用 historical_forecasts 的优化版本。默认值:- True。
- data_transformers ( - Optional[- dict[- str,- Union[- BaseDataTransformer,- Pipeline]],- None]) –- 可选参数,一个字典,包含要应用于相应序列的 BaseDataTransformer 或 Pipeline(可能的键:“series”、“past_covariates”、“future_covariates”)。如果提供,所有输入序列必须在未转换的空间中。对于可拟合的转换器/Pipeline - 如果 retrain=True,数据转换器将在每个历史预测步骤在训练数据上重新拟合。 
- 如果 retrain=False,数据转换器将在所有预测之前对序列进行一次转换。 
 - 拟合后的转换器在训练和预测期间都用于转换输入。如果转换是可逆的,则预测将进行逆转换。仅在 historical_forecasts=None 时有效。 
- metric_kwargs ( - Union[- dict[- str,- Any],- list[- dict[- str,- Any]],- None]) – 传递给 metric() 的额外参数,例如用于并行化的 ‘n_jobs’,用于减少分量指标的 ‘component_reduction’,用于缩放指标(scaled metrics)的季节性 ‘m’ 等。参数将单独传递给每个指标,并且仅当它们存在于相应的指标签名中时才会传递。缩放指标(例如 mase, rmsse 等)的参数 ‘insample’ 将被忽略,因为它在内部处理。
- fit_kwargs ( - Optional[- dict[- str,- Any],- None]) – 可选,传递给模型 fit() 方法的一些额外参数。
- predict_kwargs ( - Optional[- dict[- str,- Any],- None]) – 可选,传递给模型 predict() 方法的一些额外参数。
- sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 可选,应用于目标 series 标签进行训练的样本权重。仅当 retrain 不是- False时有效。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series 或 series 序列,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。权重按时间 series 计算。
 
- 返回类型
- Union[- float,- ndarray,- list[- float],- list[- ndarray]]
- 返回值
- float – 对于单个单变量/多变量 series、单个 metric 函数以及使用 last_points_only=True 生成的 historical_forecasts,返回单个 backtest 分数。 - 使用 last_points_only=False 并使用 backtest reduction 生成的 historical_forecasts。 
- np.ndarray – 一个包含 backtest 分数的 numpy 数组。对于单个 series 以及以下情况: 
 
- 单个 metric 函数,使用 last_points_only=False 和 backtest reduction=None 生成的 historical_forecasts。输出形状为 (n forecasts, *)。 - 多个 metric 函数和使用 last_points_only=False 生成的 historical_forecasts。当使用 backtest reduction 时,输出形状为 (*, n metrics);当 reduction=None 时,输出形状为 (n forecasts, *, n metrics)。 
- 包括 series_reduction 和对于“每时间步指标”至少一个 component_reduction=None 或 time_reduction=None 的多个单变量/多变量 series。 
- List[float] – 与类型 float 相同,但适用于 series 序列。返回的指标列表长度为 len(series),包含每个输入 series 的 float 指标。 
 
- List[np.ndarray] – 与类型 np.ndarray 相同,但适用于 series 序列。返回的指标列表长度为 len(series),包含每个输入 series 的 np.ndarray 指标。 
- property considers_static_covariates: bool¶ 
 
 
 - bool
- 模型是否考虑静态协变量(如果存在)。 - 返回类型
- property epochs_trained: int¶
 
 - int
- 返回类型
- property extreme_lags: tuple[Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], int, Optional[int]]¶
 
 - 一个包含 8 个元素的元组,顺序为:(最小目标滞后,最大目标滞后,最小过去协变量滞后,最大过去协变量滞后,最小未来协变量滞后,最大未来协变量滞后,输出偏移,最大目标训练滞后 (仅适用于 RNNModel))。如果 0 是第一个预测的索引,则所有滞后都相对于此索引。
- 参见下面的示例。 - 如果模型未拟合以下内容: - 目标 (仅涉及 RegressionModels):则第一个元素应为 None。
- 过去协变量:则第三和第四个元素应为 None。 
- 未来协变量:则第五和第六个元素应为 None。 
- 使用过去或未来协变量的模型,以及/或具有可能不同于 -1 和 0 的最小目标滞后和最大目标滞后的模型,应重写此属性。 
 
 - 注意 - 最大目标滞后(第二个值)不能为 None 且总是大于或等于 0。 - tuple[- Optional[- int,- None],- Optional[- int,- None],- Optional[- int,- None],- Optional[- int,- None],- Optional[- int,- None],- Optional[- int,- None],- int,- Optional[- int,- None]]- 示例 - >>> model = LinearRegressionModel(lags=3, output_chunk_length=2) >>> model.fit(train_series) >>> model.extreme_lags (-3, 1, None, None, None, None, 0, None) >>> model = LinearRegressionModel(lags=3, output_chunk_length=2, output_chunk_shift=2) >>> model.fit(train_series) >>> model.extreme_lags (-3, 1, None, None, None, None, 2, None) >>> model = LinearRegressionModel(lags=[-3, -5], lags_past_covariates = 4, output_chunk_length=7) >>> model.fit(train_series, past_covariates=past_covariates) >>> model.extreme_lags (-5, 6, -4, -1, None, None, 0, None) >>> model = LinearRegressionModel(lags=[3, 5], lags_future_covariates = [4, 6], output_chunk_length=7) >>> model.fit(train_series, future_covariates=future_covariates) >>> model.extreme_lags (-5, 6, None, None, 4, 6, 0, None) >>> model = NBEATSModel(input_chunk_length=10, output_chunk_length=7) >>> model.fit(train_series) >>> model.extreme_lags (-10, 6, None, None, None, None, 0, None) >>> model = NBEATSModel(input_chunk_length=10, output_chunk_length=7, lags_future_covariates=[4, 6]) >>> model.fit(train_series, future_covariates) >>> model.extreme_lags (-10, 6, None, None, 4, 6, 0, None) - 返回类型
- fit(series, past_covariates=None, future_covariates=None, val_series=None, val_past_covariates=None, val_future_covariates=None, trainer=None, verbose=None, epochs=0, max_samples_per_ts=None, dataloader_kwargs=None, sample_weight=None, val_sample_weight=None)¶ 
 
 - 
此方法是对 fit_from_dataset()的封装,为该模型构建了一个默认训练数据集。如果您需要更精细地控制用于训练的 series 切片方式,请考虑调用fit_from_dataset()并传入自定义的darts.utils.data.TrainingDataset。
- 在单个或多个序列上拟合/训练模型。 - 训练是使用 PyTorch Lightning Trainer 执行的。它使用来自预设和模型创建时使用的 - pl_trainer_kwargs的默认 Trainer 对象。您也可以使用可选参数- trainer使用自定义 Trainer。有关 PyTorch Lightning Trainer 的更多信息,请参阅 此链接。- 此函数可以多次调用以进行额外的训练。如果指定了 - epochs,模型将额外训练- epochs个 epoch。- 下面记录了所有可能的参数,但并非所有模型都支持所有参数。例如,所有 - PastCovariatesTorchModel仅支持- past_covariates而不支持- future_covariates。如果您尝试使用错误的协变量参数拟合模型,Darts 将会报错。- 处理协变量时,Darts 将尝试使用目标和协变量的时间轴来确定正确的时间切片。因此,协变量可以比需要的长;只要时间轴正确,Darts 就会正确处理它们。如果它们的时间范围不足,Darts 也会报错。 - series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 用作目标(即模型将训练预测的内容)的一个或多个 series。- 参数
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,指定过去观测的协变量的一个或多个 series。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,指定未来已知的协变量的一个或多个 series。
- val_series ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,用于验证的一个或多个目标 series,将在训练过程中用于计算验证损失并跟踪表现最佳的模型。
- val_past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,与验证 series 对应的过去协变量(必须与- covariates匹配)。
- val_future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,与验证 series 对应的未来协变量(必须与- covariates匹配)。
- val_sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 与 sample_weight 相同,但用于评估数据集。
- trainer ( - Optional[- Trainer,- None]) – 可选,用于执行训练的自定义 PyTorch-Lightning Trainer 对象。使用自定义- trainer将覆盖 Darts 的默认 trainer。
- verbose ( - Optional[- bool,- None]) – 是否打印进度。如果 pl_trainer_kwargs 中有 ProgressBar 回调,则忽略此参数。
- epochs ( - int) – 如果指定,模型将训练- epochs个(额外的)epoch,无论提供给模型构造函数的- n_epochs是多少。
- max_samples_per_ts ( - Optional[- int,- None]) – 可选,每个时间 series 使用的最大样本数。模型以监督方式训练,通过构建 (输入, 输出) 示例的切片。对于长时间 series,这可能导致训练样本数量不必要地庞大。此参数为每个时间 series 的训练样本数设置上限(仅采用每个 series 中最近的样本)。设置为 None 不应用任何上限。
- dataloader_kwargs ( - Optional[- dict[- str,- Any],- None]) –
- 可选,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请参阅 此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”,“shuffle”,“drop_last”,“collate_fn”,“pin_memory”)。更改它们时应小心,以避免意外行为。 - sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 可选,应用于目标 series 标签的一些样本权重。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series 或 series 序列,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。权重根据 series 中最长 series 的长度全局计算。然后对于每个 series,权重从全局权重的末尾提取。这使得所有 series 具有共同的时间加权。
- val_sample_weight – 与 sample_weight 相同,但用于评估数据集。 
- 拟合后的模型。 
 
- 返回值
- self 
- 返回类型
- fit_from_dataset(train_dataset, val_dataset=None, trainer=None, verbose=None, epochs=0, dataloader_kwargs=None)¶ 
 
 - 
使用特定的 darts.utils.data.TrainingDataset实例训练模型。这些数据集实现了 PyTorchDataset,并指定了如何为训练对目标和协变量进行切片。如果您不确定使用哪个训练数据集,请考虑改为调用fit(),它将为此模型创建一个合适的默认训练数据集。
- 训练是使用 PyTorch Lightning Trainer 执行的。它使用来自预设和模型创建时使用的 - pl_trainer_kwargs的默认 Trainer 对象。您也可以使用可选参数- trainer使用自定义 Trainer。有关 PyTorch Lightning Trainer 的更多信息,请参阅 此链接。- train_dataset ( - TrainingDataset) – 一个训练数据集,其类型与此模型匹配(例如,- PastCovariatesTrainingDataset适用于- PastCovariatesTorchModel)。- 下面记录了所有可能的参数,但并非所有模型都支持所有参数。例如,所有 - PastCovariatesTorchModel仅支持- past_covariates而不支持- future_covariates。如果您尝试使用错误的协变量参数拟合模型,Darts 将会报错。- 参数
- val_dataset ( - Optional[- TrainingDataset,- None]) – 一个训练数据集,其类型与此模型匹配(例如,- PastCovariatesTrainingDataset适用于 :class:`PastCovariatesTorchModel`s),代表验证集(用于跟踪验证损失)。
- trainer ( - Optional[- Trainer,- None]) – 可选,用于执行预测的自定义 PyTorch-Lightning Trainer 对象。使用自定义 trainer 将覆盖 Darts 的默认 trainer。
- generate_fit_encodings(series, past_covariates=None, future_covariates=None)¶ 
- epochs ( - int) – 如果指定,模型将训练- epochs个(额外的)epoch,无论提供给模型构造函数的- n_epochs是多少。
- max_samples_per_ts ( - Optional[- int,- None]) – 可选,每个时间 series 使用的最大样本数。模型以监督方式训练,通过构建 (输入, 输出) 示例的切片。对于长时间 series,这可能导致训练样本数量不必要地庞大。此参数为每个时间 series 的训练样本数设置上限(仅采用每个 series 中最近的样本)。设置为 None 不应用任何上限。
- 可选,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请参阅 此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”,“shuffle”,“drop_last”,“collate_fn”,“pin_memory”)。更改它们时应小心,以避免意外行为。 - sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 可选,应用于目标 series 标签的一些样本权重。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series 或 series 序列,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。权重根据 series 中最长 series 的长度全局计算。然后对于每个 series,权重从全局权重的末尾提取。这使得所有 series 具有共同的时间加权。
 
- 返回值
- self 
- 返回类型
- fit_from_dataset(train_dataset, val_dataset=None, trainer=None, verbose=None, epochs=0, dataloader_kwargs=None)¶ 
 
 - 生成用于拟合模型的协变量编码,并返回过去协变量和未来协变量 series 的元组,其中包含原始协变量和编码后的协变量。编码由模型创建时使用参数 add_encoders 定义的编码器生成。传入与用于训练/拟合模型相同的 series、past_covariates 和 future_covariates。
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 用于拟合模型时带有目标值的一个或多个 series。- 参数
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,用于拟合模型时带有过去观测协变量的一个或多个 series。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,用于拟合模型时带有未来已知协变量的一个或多个 series。
- 一个包含 (过去协变量, 未来协变量) 的元组。每个协变量都包含原始协变量和编码后的协变量。 
 
- 返回值
- Tuple[Union[TimeSeries, Sequence[TimeSeries]], Union[TimeSeries, Sequence[TimeSeries]]] 
- 返回类型
- generate_fit_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶ 
 
 - 生成用于训练和推理/预测的协变量编码,并返回过去协变量和未来协变量 series 的元组,其中包含原始协变量和编码后的协变量。编码由模型创建时使用参数 add_encoders 定义的编码器生成。传入您打算用于训练和预测的相同 series、past_covariates 和 future_covariates。
- n ( - int) – 计划用于预测的、在 series 结束后的预测时间步数。- 参数
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 计划用于训练和预测的带有目标值的一个或多个 series。
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,计划用于训练和预测的过去观测协变量 series。维度必须与用于训练的协变量的维度匹配。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,计划用于预测的未来已知协变量 series。维度必须与用于训练的协变量的维度匹配。
- generate_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶ 
 
- 返回值
- Tuple[Union[TimeSeries, Sequence[TimeSeries]], Union[TimeSeries, Sequence[TimeSeries]]] 
- 返回类型
- generate_fit_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶ 
 
 - 为推理/预测集生成协变量编码,并返回过去协变量和未来协变量 series 的元组,其中包含原始协变量和编码后的协变量。编码由模型创建时使用参数 add_encoders 定义的编码器生成。传入您打算用于预测的相同 series、past_covariates 和 future_covariates。
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 计划用于预测的带有目标值的一个或多个 series。- 参数
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 计划用于训练和预测的带有目标值的一个或多个 series。
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,计划用于预测的过去观测协变量 series。维度必须与用于训练的协变量的维度匹配。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,计划用于预测的未来已知协变量 series。维度必须与用于训练的协变量的维度匹配。
- generate_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶ 
 
- 返回值
- Tuple[Union[TimeSeries, Sequence[TimeSeries]], Union[TimeSeries, Sequence[TimeSeries]]] 
- 返回类型
- generate_fit_predict_encodings(n, series, past_covariates=None, future_covariates=None)¶ 
 
 - classmethod gridsearch(parameters, series, past_covariates=None, future_covariates=None, forecast_horizon=None, stride=1, start=None, start_format='value', last_points_only=False, show_warnings=True, val_series=None, use_fitted_values=False, metric=<function mape>, reduction=<function mean>, verbose=False, n_jobs=1, n_random_samples=None, data_transformers=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None)¶
- 使用网格搜索在给定集合中找到最佳超参数。 - 此函数有 3 种操作模式:扩展窗口模式、分割模式和拟合值模式。这三种操作模式通过使用每个组合实例化 ForecastingModel 的 model_class 子类,并返回相对于 metric 函数表现最佳的模型,来评估 parameters 字典中提供的每个可能的超参数值组合。metric 函数预计返回一个误差值,因此将选择导致最小 metric 输出的模型。 - 训练数据和测试数据之间的关系取决于操作模式。 - 扩展窗口模式(当传入 forecast_horizon 时激活):对于每个超参数组合,模型会在 series 的不同分割上重复训练和评估。此过程通过使用 - backtest()函数作为子程序来生成从 start 开始的历史预测,并将其与 series 的真实值进行比较。请注意,模型会为每个单独的预测重新训练,因此此模式较慢。- 分割窗口模式(当传入 val_series 时激活):当传入 val_series 参数时将使用此模式。对于每个超参数组合,模型在 series 上训练并在 val_series 上评估。 - 拟合值模式(当 use_fitted_values 设置为 True 时激活):对于每个超参数组合,模型在 series 上训练并在生成的拟合值上评估。并非所有模型都有拟合值,如果模型没有 fitted_values 成员,此方法将引发错误。拟合值是模型在 series 上拟合的结果。与拟合值进行比较是评估模型的快速方法,但无法看出模型是否对 series 过拟合。 - 派生类必须确保单个模型实例不与其他实例共享参数,例如,将模型保存在同一路径下。否则,在并行运行多个模型时(当 - n_jobs != 1时)可能会出现意外行为。如果无法避免这种情况,则应重新定义 gridsearch,强制- n_jobs = 1。- 当前此方法仅支持确定性预测(即,当模型的预测只有 1 个样本时)。 - 参数
- model_class – 要针对 ‘series’ 进行调整的 ForecastingModel 子类。 
- parameters ( - dict) – 一个字典,键为超参数名称,值为相应超参数的值列表。
- series ( - TimeSeries) – 用作训练的输入和目标的系列。
- past_covariates ( - Optional[- TimeSeries,- None]) – 可选,一个过去观测的协变量系列。仅当模型支持过去协变量时适用。
- future_covariates ( - Optional[- TimeSeries,- None]) – 可选,一个未来已知的协变量系列。仅当模型支持未来协变量时适用。
- forecast_horizon ( - Optional[- int,- None]) – 预测范围的整数值。激活扩展窗口模式。
- stride ( - int) – 仅在扩展窗口模式下使用。两次连续预测之间的时间步数。
- start ( - Union[- Timestamp,- float,- int,- None]) –- 仅在扩展窗口模式下使用。可选,计算预测的第一个时间点。此参数支持: - float、- int、- pandas.Timestamp和- None。如果为- float,则是时间 series 中应在第一个预测点之前的部分比例。如果为- int,则对于带有 pd.DatetimeIndex 的 series,它是第一个预测点的索引位置;对于带有 pd.RangeIndex 的 series,它是索引值。后者可以使用 start_format=”position” 更改为索引位置。如果为- pandas.Timestamp,则是第一个预测点的时间戳。如果为- None,则第一个预测点将自动设置为- 如果 retrain 为 - False,或者 retrain 是一个 Callable 且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。
- 如果 retrain 为 - True或- int(给定 train_length),则为第一个可训练点;或者如果 retrain 是一个 Callable 且第一个可训练点早于第一个可预测点。
- 否则设置为第一个可训练点(给定 train_length) 
 - 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
- 是 start 之前 stride 的整数倍。如果不存在有效的起始点,则引发 ValueError。 
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也会
- 向未来偏移 output_chunk_shift 点。 
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
- (使用 - None时的默认行为)并在第一个可训练/可预测点开始。
 
- start_format ( - Literal[‘position’, ‘value’]) – 仅在扩展窗口模式下使用。定义 start 格式。仅当 start 为整数且 series 使用 pd.RangeIndex 索引时有效。如果设置为 ‘position’,start 对应于第一个预测点的索引位置,范围从 (-len(series), len(series) - 1)。如果设置为 ‘value’,start 对应于第一个预测点的时间索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:- 'value'
- last_points_only ( - bool) – 仅在扩展窗口模式下使用。是否使用整个预测或仅使用每个预测的最后一点来计算误差。
- show_warnings ( - bool) – 仅在扩展窗口模式下使用。是否显示与 start 参数相关的警告。
- val_series ( - Optional[- TimeSeries,- None]) – 在分割模式中用于验证的 TimeSeries 实例。如果提供,此 series 必须紧接在 series 结束之后开始;以便进行适当的预测比较。
- use_fitted_values ( - bool) – 如果为 True,则使用与拟合值的比较。如果- fitted_values不是 model_class 的属性,则引发错误。
- metric ( - Callable[[- TimeSeries,- TimeSeries],- float]) –- 一个指标函数,返回两个 TimeSeries 之间的误差,值为 float。必须是 Darts 的“随时间聚合”指标之一(参见 此处),或一个自定义指标,它以两个 TimeSeries 为输入并返回误差。 
- reduction ( - Callable[[- ndarray],- float]) – 一个归约函数(将数组映射到 float),描述如何在回测时聚合在不同验证 series 上获得的误差。默认情况下,它将计算误差的平均值。
- verbose – 是否打印进度。 
- n_jobs ( - int) – 并行运行的作业数。仅当需要评估两个或更多参数组合时才会创建并行作业。每个作业将实例化、训练和评估模型的不同实例。默认为 1(顺序执行)。将参数设置为 -1 表示使用所有可用的核心。
- n_random_samples ( - Union[- int,- float,- None]) – 从完整参数网格中选择的超参数组合的数量/比例。这将执行随机搜索而不是使用完整网格。如果为整数,n_random_samples 是从完整网格中选择的参数组合的数量,必须介于 0 和参数组合总数之间。如果为浮点数,n_random_samples 是从完整网格中选择的参数组合的比例,必须介于 0 和 1 之间。默认为 None,此时将忽略随机选择。
- data_transformers ( - Optional[- dict[- str,- Union[- BaseDataTransformer,- Pipeline]],- None]) –- 可选参数,一个字典,包含要应用于相应序列的 BaseDataTransformer 或 Pipeline(可能的键:“series”、“past_covariates”、“future_covariates”)。如果提供,所有输入序列必须在未转换的空间中。对于可拟合的转换器/Pipeline - 如果 retrain=True,数据转换器将在每个历史预测步骤在训练数据上重新拟合。 
- 如果 retrain=False,数据转换器将在所有预测之前对序列进行一次转换。 
 - 拟合后的转换器用于在训练和预测期间转换输入。如果转换是可逆的,则预测结果将进行逆转换。 
- fit_kwargs ( - Optional[- dict[- str,- Any],- None]) – 传递给模型 fit() 方法的额外参数。
- predict_kwargs ( - Optional[- dict[- str,- Any],- None]) – 传递给模型 predict() 方法的额外参数。
- sample_weight ( - Union[- TimeSeries,- str,- None]) – 可选,应用于目标 series 标签进行训练的一些样本权重。仅当 retrain 不是- False时有效。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。
 
- 返回值
- 一个元组,包含由表现最佳的超参数创建的未训练的 model_class 实例,以及一个包含这些最佳超参数的字典,以及最佳超参数的指标分数。 
- 返回类型
- ForecastingModel, Dict, float 
 
 - historical_forecasts(series, past_covariates=None, future_covariates=None, forecast_horizon=1, num_samples=1, train_length=None, start=None, start_format='value', stride=1, retrain=True, overlap_end=False, last_points_only=True, verbose=False, show_warnings=True, predict_likelihood_parameters=False, enable_optimization=True, data_transformers=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None)¶
- 通过模拟在提供的(可能是多个)series 历史中的各个时间点进行的预测,生成历史预测。此过程涉及回顾性地将模型应用于不同的时间步长,就像在那些特定时刻实时进行预测一样。这允许评估模型在整个 series 持续时间内的性能,提供对其预测准确性和跨不同历史时期的鲁棒性的见解。 - 此方法有两种主要模式 - 重新训练模式(默认,retrain=True):模型在模拟的每个步骤中重新训练,并使用更新后的模型生成预测。在有多个 series 的情况下,模型在每个 series 上独立重新训练(尚不支持全局训练)。 
- 预训练模式(retrain=False):在模拟的每个步骤中生成预测,无需重新训练。仅支持预训练的全局预测模型。此模式显著更快,因为它跳过了重新训练步骤。 
 - 通过选择适当的模式,您可以在计算效率和模型更新需求之间取得平衡。 - 重新训练模式: 此模式通过从 series 开头扩展或使用固定长度 train_length(起始点也可以通过 start 和 start_format 配置)反复构建训练集。然后,模型在此训练集上进行训练,并生成长度为 forecast_horizon 的预测。随后,训练集的结束点向前移动 stride 个时间步长,并重复此过程。 - 预训练模式: 此模式仅支持预训练的全局预测模型。它使用与重新训练模式相同的模拟步骤(忽略 train_length),但直接生成预测而无需重新训练。 - 默认情况下,使用 last_points_only=True 时,此方法返回一个由每个历史预测的最后一点组成的单个时间 series(或时间 series 序列)。因此,此时间 series 的频率将为 series.freq * stride。如果 last_points_only=False,它将 대신返回完整历史预测 series 的列表(或列表序列),每个 series 的频率为 series.freq。 - 参数
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 用于连续训练(如果 retrain 不为- False)和计算历史预测的(序列)目标时间序列。
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选参数,每个输入时间序列 series 对应的(序列)过去观测协变量时间序列。这仅适用于模型支持过去协变量的情况。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选参数,每个输入时间序列 series 对应的(序列)未来已知协变量时间序列。这仅适用于模型支持未来协变量的情况。
- forecast_horizon ( - int) – 预测的预测范围。
- num_samples ( - int) – 从概率模型中采样预测的次数。仅对概率模型使用 >1 的值。
- train_length ( - Optional[- int,- None]) – 可选参数,对每个构建的训练集使用固定长度/时间步数(滚动窗口模式)。仅当 retrain 不为- False时有效。默认值为- None,此时它使用直到预测时间的所有时间步(扩展窗口模式)。如果大于可用时间步数,则使用扩展模式。需要至少为 min_train_series_length。
- start ( - Union[- Timestamp,- float,- int,- None]) –- 可选参数,计算第一个预测的时间点。此参数支持: - float、- int、- pandas.Timestamp和- None。如果为- float,则表示应在第一个预测点之前的时间序列比例。如果为- int,则表示具有 pd.DatetimeIndex 的 series 的第一个预测点的索引位置,或者具有 pd.RangeIndex 的 series 的索引值。后者可以使用 start_format=”position” 更改为索引位置。如果为- pandas.Timestamp,则表示第一个预测点的时间戳。如果为- None,则第一个预测点将自动设置为- 如果 retrain 为 - False,或者 retrain 是一个 Callable 且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。
- 如果 retrain 为 - True或- int(给定 train_length),或者 retrain 是一个- Callable且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。
- 否则设置为第一个可训练点(给定 train_length) 
 - 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
- 是 start 之前 stride 的整数倍。如果不存在有效的起始点,则引发 ValueError。 
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也会
- 向未来偏移 output_chunk_shift 点。 
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
- (使用 - None时的默认行为)并在第一个可训练/可预测点开始。
 
- start_format ( - Literal[‘position’, ‘value’]) – 定义 start 的格式。如果设置为- 'position',start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为- 'value',start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:- 'value'。
- stride ( - int) – 两个连续预测之间的时间步数。
- retrain ( - Union[- bool,- int,- Callable[…,- bool]]) –- 是否以及/或在什么条件下在预测前重新训练模型。此参数支持 3 种不同类型: - bool、(正)- int和- Callable(返回- bool)。如果为- bool:在每个步骤重新训练模型(True),或从不重新训练模型(False)。如果为- int:每 retrain 次迭代重新训练模型。如果为- Callable车:每当可调用对象返回 True 时重新训练模型。可调用对象必须具有以下位置参数- counter (int):当前 retrain 迭代次数 
- pred_time (pd.Timestamp 或 int):预测时间的时间戳(训练序列的结束) 
- train_series (TimeSeries):截至 pred_time 的训练序列 
- past_covariates (TimeSeries):截至 pred_time 的 past_covariates 序列 
- future_covariates (TimeSeries):截至 min(pred_time + series.freq * forecast_horizon, series.end_time()) 的 future_covariates 序列 
 - 注意:如果任何可选的 *_covariates 未传递给 historical_forecast,则 - None将传递给相应的 retrain 函数参数。注意:某些模型要求每次都重新训练,并且不支持 retrain=True 以外的任何值。注意:此参数也控制 data_transformers 的重新训练。
- overlap_end ( - bool) – 返回的预测是否可以超出序列的结束点。
- last_points_only ( - bool) – 是否仅返回每个历史预测的最后一个点。如果设置为- True,则方法返回一个包含连续点预测的单个- TimeSeries(对于 series 中的每个时间序列)。否则,返回历史- TimeSeries预测列表。
- verbose ( - bool) – 是否打印进度。
- show_warnings ( - bool) – 是否显示与历史预测优化或参数 start 和 train_length 相关的警告。
- predict_likelihood_parameters ( - bool) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有似然、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:- False。
- enable_optimization ( - bool) – 当支持且可用时,是否使用 historical_forecasts 的优化版本。默认值:- True。
- data_transformers ( - Optional[- dict[- str,- Union[- BaseDataTransformer,- Pipeline]],- None]) –- 可选参数,一个字典,包含要应用于相应序列的 BaseDataTransformer 或 Pipeline(可能的键:“series”、“past_covariates”、“future_covariates”)。如果提供,所有输入序列必须在未转换的空间中。对于可拟合的转换器/Pipeline - 如果 retrain=True,数据转换器将在每个历史预测步骤在训练数据上重新拟合。 
- 如果 retrain=False,数据转换器将在所有预测之前对序列进行一次转换。 
 - 拟合后的转换器用于在训练和预测期间转换输入。如果转换是可逆的,则预测结果将进行逆转换。 
- fit_kwargs ( - Optional[- dict[- str,- Any],- None]) – 可选,传递给模型 fit() 方法的一些额外参数。
- predict_kwargs ( - Optional[- dict[- str,- Any],- None]) – 可选,传递给模型 predict() 方法的一些额外参数。
- sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 可选,应用于目标 series 标签进行训练的样本权重。仅当 retrain 不是- False时有效。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series 或 series 序列,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。权重按时间 series 计算。
 
- 返回类型
- Union[- TimeSeries,- list[- TimeSeries],- list[- list[- TimeSeries]]]
- 返回值
- TimeSeries – 对于单个 series 和 last_points_only=True 的单个历史预测:它仅包含所有历史预测中步骤 forecast_horizon 的预测。 
- List[TimeSeries] – 以下情况的历史预测列表: - 一个 series 序列 (列表) 和 last_points_only=True:对于每个 series,它仅包含所有历史预测中步骤 forecast_horizon 的预测。 
- 单个 series 和 last_points_only=False:对于每个历史预测,它包含整个范围 forecast_horizon。 
 
- List[List[TimeSeries]] – 对于一个 series 序列和 last_points_only=False 的历史预测列表。对于每个 series 和历史预测,它包含整个范围 forecast_horizon。外部列表对应于输入序列中提供的 series,内部列表包含每个 series 的历史预测。 
 
 
 - property input_chunk_length: int¶
- 返回类型
- property extreme_lags: tuple[Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], int, Optional[int]]¶
 
 - property likelihood: Optional[TorchLikelihood]¶
- 返回模型用于概率预测的似然(如果存在)。 - 返回类型
- Optional[- TorchLikelihood,- None]
 
 - static load(path, pl_trainer_kwargs=None, **kwargs)¶
- 从给定文件路径加载模型。 - 从 - RNNModel加载一般保存文件的示例- from darts.models import RNNModel model_loaded = RNNModel.load(path) - 加载一个在 CPU 上训练的 - RNNModel到 GPU 的示例- from darts.models import RNNModel model_loaded = RNNModel.load(path, pl_trainer_kwargs={"accelerator": "gpu"}) - 加载一个在 GPU 上保存的 - RNNModel到 CPU 的示例- from darts.models import RNNModel model_loaded = RNNModel.load(path, map_location="cpu", pl_trainer_kwargs={"accelerator": "gpu"}) - 参数
- path ( - str) – 加载模型的路径。如果在保存模型时未指定路径,则必须提供自动生成的以 “.pt” 结尾的路径。
- pl_trainer_kwargs ( - Optional[- dict,- None]) – 可选,用于创建新的 Lightning Trainer 的一组 kwargs,用于配置模型以执行下游任务(例如预测)。一些示例包括指定批量大小或将模型移动到 CPU/GPU。有关支持的 kwargs 的更多信息,请查阅 Lightning Trainer 文档。
- **kwargs – - PyTorch Lightning 的 - LightningModule.load_from_checkpoint()方法的额外 kwargs,例如- map_location,用于将模型加载到与保存时不同的设备上。有关更多信息,请阅读 官方文档。
 
- 返回类型
- TorchForecastingModel
 
 - static load_from_checkpoint(model_name, work_dir=None, file_name=None, best=True, **kwargs)¶
- 从自动保存在 ‘{work_dir}/darts_logs/{model_name}/checkpoints/’ 下的检查点加载模型。此方法用于创建时使用了 - save_checkpoints=True的模型。- 如果您手动保存了模型,请考虑使用 - load()。- 从检查点加载 - RNNModel的示例(- model_name是模型创建时使用的- model_name)- from darts.models import RNNModel model_loaded = RNNModel.load_from_checkpoint(model_name, best=True) - 如果给定了 - file_name,则返回保存在 ‘{work_dir}/darts_logs/{model_name}/checkpoints/{file_name}’ 下的模型。- 如果未给出 - file_name,将尝试从 ‘{work_dir}/darts_logs/{model_name}/checkpoints/’ 恢复最佳检查点(如果- best为- True)或最新检查点(如果- best为- False)。- 将 GPU 上保存的 - RNNModel检查点加载到 CPU 的示例- from darts.models import RNNModel model_loaded = RNNModel.load_from_checkpoint(model_name, best=True, map_location="cpu") model_loaded.to_cpu() - 参数
- model_name ( - str) – 模型的名称,用于检索检查点文件夹的名称。
- work_dir ( - Optional[- str,- None]) – 工作目录(包含 checkpoints 文件夹)。默认为当前工作目录。
- file_name ( - Optional[- str,- None]) – 检查点文件的名称。如果未指定,使用最新的。
- best ( - bool) – 如果设置,将检索最佳模型(根据验证损失)而不是最新模型。仅在给定- file_name时忽略。
- **kwargs – - PyTorch Lightning 的 - LightningModule.load_from_checkpoint()方法的额外 kwargs,例如- map_location,用于将模型加载到与保存时不同的设备上。有关更多信息,请阅读 官方文档。
 
- 返回值
- 相应的已训练 - TorchForecastingModel。
- 返回类型
- TorchForecastingModel 
 
 - load_weights(path, load_encoders=True, skip_checks=False, **kwargs)¶
- 从手动保存的模型(使用 - save()保存)加载权重。- 注意:此方法需要能够访问 darts 模型检查点 (.pt) 文件,以便加载编码器并对模型参数执行完整性检查。 - 参数
- path ( - str) – 加载模型权重的路径。如果在保存模型时未指定路径,则必须提供自动生成的以 “.pt” 结尾的路径。
- load_encoders ( - bool) – 如果设置,将从模型加载编码器以启用直接调用 fit() 或 predict()。默认值:- True。
- skip_checks ( - bool) – 如果设置,将禁用编码器加载和模型参数的完整性检查(不建议)。不能与 load_encoders=True 一起使用。默认值:- False。
- **kwargs – - PyTorch 的 - load()方法的额外 kwargs,例如- map_location,用于将模型加载到与保存时不同的设备上。有关更多信息,请阅读 官方文档。
 
 
 - load_weights_from_checkpoint(model_name=None, work_dir=None, file_name=None, best=True, strict=True, load_encoders=True, skip_checks=False, **kwargs)¶
- 仅从自动保存的检查点加载权重,检查点位于“{work_dir}/darts_logs/{model_name}/ checkpoints/”下。此方法适用于使用 - save_checkpoints=True创建的模型,并且需要使用不同的优化器或学习率调度器重新训练或微调。但是,它也可以用于加载权重进行推理。- 要恢复中断的训练,请考虑使用 - load_from_checkpoint(),它也会重新加载训练器、优化器和学习率调度器的状态。- 对于手动保存的模型,请考虑改用 - load()或- load_weights()。- 注意:此方法需要能够访问 darts 模型检查点 (.pt) 文件,以便加载编码器并对模型参数执行完整性检查。 - 参数
- model_name ( - Optional[- str,- None]) – 模型的名称,用于检索检查点文件夹的名称。默认值:- self.model_name。
- work_dir ( - Optional[- str,- None]) – 工作目录(包含 checkpoints 文件夹)。默认为当前工作目录。
- file_name ( - Optional[- str,- None]) – 检查点文件的名称。如果未指定,使用最新的。
- best ( - bool) – 如果设置,将检索最佳模型(根据验证损失),而不是最新的模型。仅在给出- file_name时忽略此设置。默认值:- True。
- strict ( - bool) –- 如果设置,则严格要求 state_dict 中的键与此模块的 state_dict() 返回的键匹配。默认值: - True。有关更多信息,请阅读 官方文档。
- load_encoders ( - bool) – 如果设置,将从模型加载编码器以启用直接调用 fit() 或 predict()。默认值:- True。
- skip_checks ( - bool) – 如果设置,将禁用编码器加载和模型参数的完整性检查(不建议)。不能与 load_encoders=True 一起使用。默认值:- False。
- **kwargs – - PyTorch 的 - load()方法的额外 kwargs,例如- map_location,用于将模型加载到与保存时不同的设备上。有关更多信息,请阅读 官方文档。
 
 
 - lr_find(series, past_covariates=None, future_covariates=None, val_series=None, val_past_covariates=None, val_future_covariates=None, sample_weight=None, val_sample_weight=None, trainer=None, verbose=None, epochs=0, max_samples_per_ts=None, dataloader_kwargs=None, min_lr=1e-08, max_lr=1, num_training=100, mode='exponential', early_stop_threshold=4.0)¶
- PyTorch Lightning 的 Tuner.lr_find() 的包装器。执行良好初始学习率的范围测试,以减少选择良好起始学习率的猜测工作。有关 PyTorch Lightning 的 Tuner 的更多信息,请查看 此链接。如果 Tuner 未给出令人满意的结果,建议增加 epochs 的数量。考虑使用建议的学习率创建一个新的模型对象,例如使用模型创建参数 optimizer_cls、optimizer_kwargs、lr_scheduler_cls 和 lr_scheduler_kwargs。 - 使用 - RNNModel的示例- import torch from darts.datasets import AirPassengersDataset from darts.models import NBEATSModel series = AirPassengersDataset().load() train, val = series[:-18], series[-18:] model = NBEATSModel(input_chunk_length=12, output_chunk_length=6, random_state=42) # run the learning rate tuner results = model.lr_find(series=train, val_series=val) # plot the results results.plot(suggest=True, show=True) # create a new model with the suggested learning rate model = NBEATSModel( input_chunk_length=12, output_chunk_length=6, random_state=42, optimizer_cls=torch.optim.Adam, optimizer_kwargs={"lr": results.suggestion()} ) - 参数
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,指定过去观测的协变量的一个或多个 series。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,指定未来已知的协变量的一个或多个 series。
- val_series ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,用于验证的一个或多个目标 series,将在训练过程中用于计算验证损失并跟踪表现最佳的模型。
- val_past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,与验证 series 对应的过去协变量(必须与- covariates匹配)。
- val_future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选,与验证 series 对应的未来协变量(必须与- covariates匹配)。
- val_sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 与 sample_weight 相同,但用于评估数据集。
- val_sample_weight – 与 sample_weight 相同,但用于评估数据集。 
- trainer ( - Optional[- Trainer,- None]) – 可选,用于执行训练的自定义 PyTorch-Lightning Trainer 对象。使用自定义- trainer将覆盖 Darts 的默认 trainer。
- verbose ( - Optional[- bool,- None]) – 是否打印进度。如果 pl_trainer_kwargs 中有 ProgressBar 回调,则忽略此参数。
- epochs ( - int) – 如果指定,模型将训练- epochs个(额外的)epoch,无论提供给模型构造函数的- n_epochs是多少。
- max_samples_per_ts ( - Optional[- int,- None]) – 可选,每个时间 series 使用的最大样本数。模型以监督方式训练,通过构建 (输入, 输出) 示例的切片。对于长时间 series,这可能导致训练样本数量不必要地庞大。此参数为每个时间 series 的训练样本数设置上限(仅采用每个 series 中最近的样本)。设置为 None 不应用任何上限。
- dataloader_kwargs ( - Optional[- dict[- str,- Any],- None]) –
- 可选,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请参阅 此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”,“shuffle”,“drop_last”,“collate_fn”,“pin_memory”)。更改它们时应小心,以避免意外行为。 - sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 可选,应用于目标 series 标签的一些样本权重。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series 或 series 序列,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。权重根据 series 中最长 series 的长度全局计算。然后对于每个 series,权重从全局权重的末尾提取。这使得所有 series 具有共同的时间加权。
- min_lr ( - float) – 要调查的最小学习率
- max_lr ( - float) – 要调查的最大学习率
- num_training ( - int) – 要测试的学习率数量
- mode ( - str) – 更新每个批次后学习率的搜索策略:'exponential':指数级增加学习率。'linear':线性增加学习率。
- early_stop_threshold ( - float) – 停止搜索的阈值。如果任何时候的损失大于 early_stop_threshold*best_loss,则停止搜索。要禁用,请设置为 None
 
- 返回值
- 包含 LR 扫描结果的 Lightning 的 _LRFinder 对象。 
- 返回类型
- lr_finder 
 
 - property min_train_samples: int¶
- 模型训练所需的最小样本数。 - 返回类型
- property extreme_lags: tuple[Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], int, Optional[int]]¶
 
 - property model_params: dict¶
- 返回类型
- dict
 
 - property output_chunk_length: int¶
- 模型一次预测的时间步数,统计模型未定义此项。 - 返回类型
- property extreme_lags: tuple[Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], int, Optional[int]]¶
 
 - property output_chunk_shift: int¶
- 输出/预测在输入结束之后开始的时间步数。 - 返回类型
- property extreme_lags: tuple[Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], Optional[int], int, Optional[int]]¶
 
 - predict(n, series=None, past_covariates=None, future_covariates=None, trainer=None, batch_size=None, verbose=None, n_jobs=1, roll_size=None, num_samples=1, dataloader_kwargs=None, mc_dropout=False, predict_likelihood_parameters=False, show_warnings=True)¶
- 预测训练序列结束或指定 - series结束后的- n个时间步。- 预测是使用 PyTorch Lightning Trainer 执行的。它使用预设和模型创建时使用的 - pl_trainer_kwargs中的默认 Trainer 对象。您也可以使用带有可选参数- trainer的自定义 Trainer。有关 PyTorch Lightning Trainer 的更多信息,请查看 此链接。- 下面列出了所有可能的参数,但并非所有模型都支持所有参数。例如,所有 - PastCovariatesTorchModel仅支持- past_covariates,而不支持- future_covariates。如果您尝试在模型上使用错误的协变量参数调用- predict(),Darts 将会报错。- 如果提供的协变量没有足够的时间跨度,Darts 也会报错。一般来说,并非所有模型都需要相同的协变量时间跨度 - 依赖于过去协变量的模型在预测时需要知道past_covariates的最后input_chunk_length点。对于视距值n > output_chunk_length,这些模型还需要已知至少接下来的n - output_chunk_length未来值。
- 依赖于未来协变量的模型需要已知接下来的n个值。此外(对于DualCovariatesTorchModel和MixedCovariatesTorchModel),它们还需要这些未来协变量的“历史”值(超过过去的input_chunk_length)。
 - series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 用作目标(即模型将训练预测的内容)的一个或多个 series。- 参数
- n ( - int) – 在训练时间序列结束之后预测的时间步数
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选地,一个时间序列或时间序列序列,表示要预测其未来的目标时间序列的历史。如果指定,该方法返回这些时间序列的预测。否则,该方法返回(单个)训练时间序列的预测。
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选地,模型输入所需的过去观测协变量时间序列。它们必须在维度上与训练时使用的协变量匹配。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选地,模型输入所需的未来已知协变量时间序列。它们必须在维度上与训练时使用的协变量匹配。
- trainer ( - Optional[- Trainer,- None]) – 可选地,一个自定义的 PyTorch-Lightning Trainer 对象来执行预测。使用自定义- trainer将覆盖 Darts 的默认 trainer。
- batch_size ( - Optional[- int,- None]) – 预测期间的批次大小。默认为模型的训练- batch_size值。
- epochs ( - int) – 如果指定,模型将训练- epochs个(额外的)epoch,无论提供给模型构造函数的- n_epochs是多少。
- n_jobs ( - int) – 并行运行的作业数。- -1表示使用所有处理器。默认为- 1。
- roll_size ( - Optional[- int,- None]) – 对于自消费预测,即- n > output_chunk_length,确定在每次将预测目标(以及可选的未来协变量)反馈给模型时,模型有多少输出被反馈。如果未提供此参数,默认将设置为- output_chunk_length。
- num_samples ( - int) – 从概率模型中采样的预测次数。确定性模型必须为 1。
- 可选,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请参阅 此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”,“shuffle”,“drop_last”,“collate_fn”,“pin_memory”)。更改它们时应小心,以避免意外行为。 - 可选地,一个关键字参数字典,用于创建 PyTorch DataLoader 实例用于推理/预测数据集。有关 DataLoader 的更多信息,请查看 此链接。默认情况下,Darts 配置参数(“batch_size”、“shuffle”、“drop_last”、“collate_fn”、“pin_memory”)以实现无缝预测。更改它们应谨慎,以避免意外行为。 
- mc_dropout ( - bool) – 可选地,为基于神经网络的模型启用 monte carlo dropout 进行预测。这通过指定学习模型上的隐式先验来实现贝叶斯近似。
- predict_likelihood_parameters ( - bool) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有似然、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:- False。
- show_warnings ( - bool) – 可选地,控制是否显示警告。并非对所有模型都有效。
 
- 返回值
- 包含 - series预测的一个或多个时间序列,或者如果未指定- series且模型在单个序列上训练,则返回训练序列的预测。
- 返回类型
- Union[TimeSeries, Sequence[TimeSeries]] 
 
 - predict_from_dataset(n, input_series_dataset, trainer=None, batch_size=None, verbose=None, n_jobs=1, roll_size=None, num_samples=1, dataloader_kwargs=None, mc_dropout=False, predict_likelihood_parameters=False)¶
- 此方法允许使用特定的 - darts.utils.data.InferenceDataset实例进行预测。这些数据集实现了 PyTorch- Dataset,并指定了如何对目标和协变量进行切片以进行推理。在大多数情况下,您会更倾向于调用- predict(),它会为您创建一个适当的- InferenceDataset。- 预测是使用 PyTorch Lightning Trainer 执行的。它使用预设和模型创建时使用的 - pl_trainer_kwargs中的默认 Trainer 对象。您也可以使用带有可选参数- trainer的自定义 Trainer。有关 PyTorch Lightning Trainer 的更多信息,请查看 此链接。- 参数
- n ( - int) – 在训练时间序列结束之后预测的时间步数
- input_series_dataset ( - InferenceDataset) – 可选地,一个时间序列或时间序列序列,表示要预测其未来的目标时间序列的历史。如果指定,该方法返回这些时间序列的预测。否则,该方法返回(单个)训练时间序列的预测。
- trainer ( - Optional[- Trainer,- None]) – 可选地,一个自定义的 PyTorch-Lightning Trainer 对象来执行预测。使用自定义- trainer将覆盖 Darts 的默认 trainer。
- batch_size ( - Optional[- int,- None]) – 预测期间的批次大小。默认为模型的- batch_size值。
- epochs ( - int) – 如果指定,模型将训练- epochs个(额外的)epoch,无论提供给模型构造函数的- n_epochs是多少。
- n_jobs ( - int) – 并行运行的作业数。- -1表示使用所有处理器。默认为- 1。
- roll_size ( - Optional[- int,- None]) – 对于自消费预测,即- n > output_chunk_length,确定在每次将预测目标(以及可选的未来协变量)反馈给模型时,模型有多少输出被反馈。如果未提供此参数,默认将设置为- output_chunk_length。
- num_samples ( - int) – 从概率模型中采样的预测次数。确定性模型必须为 1。
- 可选,一个字典,包含用于创建训练和验证数据集的 PyTorch DataLoader 实例的关键字参数。有关 DataLoader 的更多信息,请参阅 此链接。默认情况下,Darts 为无缝预测配置参数(“batch_size”,“shuffle”,“drop_last”,“collate_fn”,“pin_memory”)。更改它们时应小心,以避免意外行为。 - 可选地,一个关键字参数字典,用于创建 PyTorch DataLoader 实例用于推理/预测数据集。有关 DataLoader 的更多信息,请查看 此链接。默认情况下,Darts 配置参数(“batch_size”、“shuffle”、“drop_last”、“collate_fn”、“pin_memory”)以实现无缝预测。更改它们应谨慎,以避免意外行为。 
- mc_dropout ( - bool) – 可选地,为基于神经网络的模型启用 monte carlo dropout 进行预测。这通过指定学习模型上的隐式先验来实现贝叶斯近似。
- predict_likelihood_parameters ( - bool) – 如果设置为 True,模型预测其 likelihood 的参数而不是目标。仅支持具有 likelihood 的概率模型,且 num_samples = 1 且 n<=output_chunk_length。默认值:- False
 
- 返回值
- 返回一个或多个时间序列的预测。 
- 返回类型
- Sequence[TimeSeries] 
 
 - reset_model()¶
- 重置模型对象并移除所有存储数据 - 模型、检查点、日志和训练历史。 
 - residuals(series, past_covariates=None, future_covariates=None, historical_forecasts=None, forecast_horizon=1, num_samples=1, train_length=None, start=None, start_format='value', stride=1, retrain=True, overlap_end=False, last_points_only=True, metric=<function err>, verbose=False, show_warnings=True, predict_likelihood_parameters=False, enable_optimization=True, data_transformers=None, metric_kwargs=None, fit_kwargs=None, predict_kwargs=None, sample_weight=None, values_only=False)¶
- 计算模型对(可能多个)series 执行历史预测时产生的残差。 - 此函数计算 series 中的实际观测值与通过在 series 上训练模型(或使用 retrain=False 的预训练模型)获得的拟合值之间的差异(或 Darts 的“每时间步”指标之一)。并非所有模型都支持拟合值,因此我们使用历史预测作为它们的近似。 - 此方法按顺序执行: - 使用预计算的 historical_forecasts 或为每个时间序列计算历史预测(有关详细信息,请参阅 - historical_forecasts())。可以通过参数 num_samples、train_length、start、start_format、forecast_horizon、stride、retrain、last_points_only、fit_kwargs 和 predict_kwargs 配置历史预测的生成方式。
- 在每个分量/列和时间步的历史预测与 series 之间使用“每时间步”metric 计算回测(有关详细信息,请参阅 - backtest())。默认情况下,使用残差- err()(误差)作为 metric。
- 创建并返回 TimeSeries(或简单地返回带有 values_only=True 的 np.ndarray),其时间索引来自历史预测,值来自每个分量和时间步的指标。 
 - 此方法适用于单个或多个单变量或多变量时间序列。它使用中位数预测(处理随机预测时)。 - 参数
- series ( - Union[- TimeSeries,- Sequence[- TimeSeries]]) – 用于连续训练(如果 retrain 不为- False)和计算历史预测的(序列)目标时间序列。
- past_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选参数,每个输入时间序列 series 对应的(序列)过去观测协变量时间序列。这仅适用于模型支持过去协变量的情况。
- future_covariates ( - Union[- TimeSeries,- Sequence[- TimeSeries],- None]) – 可选参数,每个输入时间序列 series 对应的(序列)未来已知协变量时间序列。这仅适用于模型支持未来协变量的情况。
- historical_forecasts ( - Union[- TimeSeries,- Sequence[- TimeSeries],- Sequence[- Sequence[- TimeSeries]],- None]) – 可选参数,要评估的(或序列/序列的序列)历史预测时间序列。对应于- historical_forecasts()的输出。必须传递用于生成历史预测的相同的 series 和 last_points_only 值。如果提供,将跳过历史预测并忽略除 series、last_points_only、metric 和 reduction 之外的所有参数。
- forecast_horizon ( - int) – 预测的预测范围。
- num_samples ( - int) – 从概率模型中采样预测的次数。仅对概率模型使用 >1 的值。
- train_length ( - Optional[- int,- None]) – 可选参数,对每个构建的训练集使用固定长度/时间步数(滚动窗口模式)。仅当 retrain 不为- False时有效。默认值为- None,此时它使用直到预测时间的所有时间步(扩展窗口模式)。如果大于可用时间步数,则使用扩展模式。需要至少为 min_train_series_length。
- start ( - Union[- Timestamp,- float,- int,- None]) –- 可选参数,计算第一个预测的时间点。此参数支持: - float、- int、- pandas.Timestamp和- None。如果为- float,则表示应在第一个预测点之前的时间序列比例。如果为- int,则表示具有 pd.DatetimeIndex 的 series 的第一个预测点的索引位置,或者具有 pd.RangeIndex 的 series 的索引值。后者可以使用 start_format=”position” 更改为索引位置。如果为- pandas.Timestamp,则表示第一个预测点的时间戳。如果为- None,则第一个预测点将自动设置为- 如果 retrain 为 - False,或者 retrain 是一个 Callable 且第一个可预测点早于第一个可训练点,则设置为第一个可预测点。
- 如果 retrain 为 - True或- int(给定 train_length),或者 retrain 是一个- Callable且第一个可训练点早于第一个可预测点,则设置为第一个可训练点。
- 否则设置为第一个可训练点(给定 train_length) 
 - 注意:如果 start 不在可训练/可预测点范围内,则使用最接近的有效起始点,该点
- 是 start 之前 stride 的整数倍。如果不存在有效的起始点,则引发 ValueError。 
- 注意:如果模型使用偏移输出(output_chunk_shift > 0),则第一个预测点也会
- 向未来偏移 output_chunk_shift 点。 
- 注意:如果 start 超出可能的历史预测时间范围,将忽略该参数
- (使用 - None时的默认行为)并在第一个可训练/可预测点开始。
 
- start_format ( - Literal[‘position’, ‘value’]) – 定义 start 的格式。如果设置为- 'position',start 对应于第一个预测点的索引位置,范围为 (-len(series), len(series) - 1)。如果设置为- 'value',start 对应于第一个预测点的索引值/标签。如果该值不在 series 的索引中,将引发错误。默认值:- 'value'。
- stride ( - int) – 两个连续预测之间的时间步数。
- retrain ( - Union[- bool,- int,- Callable[…,- bool]]) –- 是否以及/或在什么条件下在预测前重新训练模型。此参数支持 3 种不同类型: - bool、(正)- int和- Callable(返回- bool)。如果为- bool:在每个步骤重新训练模型(True),或从不重新训练模型(False)。如果为- int:每 retrain 次迭代重新训练模型。如果为- Callable车:每当可调用对象返回 True 时重新训练模型。可调用对象必须具有以下位置参数- counter (int):当前 retrain 迭代次数 
- pred_time (pd.Timestamp 或 int):预测时间的时间戳(训练序列的结束) 
- train_series (TimeSeries):截至 pred_time 的训练序列 
- past_covariates (TimeSeries):截至 pred_time 的 past_covariates 序列 
- future_covariates (TimeSeries):截至 min(pred_time + series.freq * forecast_horizon, series.end_time()) 的 future_covariates 序列 
 - 注意:如果任何可选的 *_covariates 未传递给 historical_forecast,则 - None将传递给相应的 retrain 函数参数。注意:某些模型要求每次都重新训练,并且不支持 retrain=True 以外的任何值。注意:此参数也控制 data_transformers 的重新训练。
- overlap_end ( - bool) – 返回的预测是否可以超出序列的结束点。
- last_points_only ( - bool) – 是否仅返回每个历史预测的最后一个点。如果设置为- True,则方法返回一个包含连续点预测的单个- TimeSeries(对于 series 中的每个时间序列)。否则,返回历史- TimeSeries预测列表。
- metric ( - Callable[…,- Union[- float,- list[- float],- ndarray,- list[- ndarray]]]) –- 可以是 Darts 的“每时间步”指标之一(请参阅此处),也可以是与 Darts 的“每时间步”指标签名相同的自定义指标,使用装饰器 - multi_ts_support()和- multi_ts_support(),并为每个时间步返回一个值。
- verbose ( - bool) – 是否打印进度。
- show_warnings ( - bool) – 是否显示与历史预测优化或参数 start 和 train_length 相关的警告。
- predict_likelihood_parameters ( - bool) – 如果设置为 True,模型将预测其 likelihood 的参数而不是目标。仅支持具有似然、num_samples = 1 和 n<=output_chunk_length 的概率模型。默认值:- False。
- enable_optimization ( - bool) – 当支持且可用时,是否使用 historical_forecasts 的优化版本。默认值:- True。
- data_transformers ( - Optional[- dict[- str,- Union[- BaseDataTransformer,- Pipeline]],- None]) –- 可选参数,一个字典,包含要应用于相应序列的 BaseDataTransformer 或 Pipeline(可能的键:“series”、“past_covariates”、“future_covariates”)。如果提供,所有输入序列必须在未转换的空间中。对于可拟合的转换器/Pipeline - 如果 retrain=True,数据转换器将在每个历史预测步骤在训练数据上重新拟合。 
- 如果 retrain=False,数据转换器将在所有预测之前对序列进行一次转换。 
 - 拟合后的转换器在训练和预测期间都用于转换输入。如果转换是可逆的,则预测将进行逆转换。仅在 historical_forecasts=None 时有效。 
- metric_kwargs ( - Optional[- dict[- str,- Any],- None]) – 传递给 metric() 的额外参数,例如用于并行的 ‘n_jobs’,用于缩放指标的 ‘m’ 等。仅当参数存在于相应的指标签名中时才会传递。忽略缩减参数 “series_reduction”, “component_reduction”, “time_reduction”,以及用于缩放指标(例如 mase、rmsse 等)的参数 ‘insample’,因为它们在内部处理。
- fit_kwargs ( - Optional[- dict[- str,- Any],- None]) – 可选,传递给模型 fit() 方法的一些额外参数。
- predict_kwargs ( - Optional[- dict[- str,- Any],- None]) – 可选,传递给模型 predict() 方法的一些额外参数。
- sample_weight ( - Union[- TimeSeries,- Sequence[- TimeSeries],- str,- None]) – 可选,应用于目标 series 标签进行训练的样本权重。仅当 retrain 不是- False时有效。它们应用于每个观测、每个标签(output_chunk_length 中的每一步)和每个分量。如果是一个 series 或 series 序列,则使用这些权重。如果权重 series 只有一个分量/列,则权重全局应用于 series 中的所有分量。否则,对于分量特定的权重,分量数量必须与 series 的分量数量匹配。如果是一个字符串,则使用内置的加权函数生成权重。可用选项是 “linear” 或 “exponential” 衰减 - 过去越久,权重越低。权重按时间 series 计算。
- values_only ( - bool) – 是否将残差作为 np.ndarray 返回。如果为 False,则将残差作为 TimeSeries 返回。
 
- 返回类型
- Union[- TimeSeries,- list[- TimeSeries],- list[- list[- TimeSeries]]]
- 返回值
- TimeSeries – 对于单个 series 和使用 last_points_only=True 生成的 historical_forecasts 的残差 TimeSeries。 
- List[TimeSeries] – 对于带有 last_points_only=True 的 series 序列(列表)的残差 TimeSeries 列表。残差列表的长度为 len(series)。 
- List[List[TimeSeries]] – 对于带有 last_points_only=False 的 series 序列的残差 TimeSeries 的列表嵌套列表。外部残差列表的长度为 len(series)。内部列表包含来自所有可能的特定于序列的历史预测的残差。 
 
 
 - save(path=None, clean=False)¶
- 将模型保存到给定路径下。 - 在 - path(模型对象)和- path.ckpt(检查点)下创建两个文件。- 注意:保存带有自定义类的模型时可能会发生 Pickle 错误。在这种情况下,考虑使用 clean 标志从保存的模型中剥离与训练相关的属性。 - 保存和加载 - RNNModel的示例- from darts.models import RNNModel model = RNNModel(input_chunk_length=4) model.save("my_model.pt") model_loaded = RNNModel.load("my_model.pt") - 参数
- path ( - Optional[- str,- None]) – 保存当前状态模型的路径。请避免使用以“last-”或“best-”开头的路径,以免与 Pytorch-Lightning 检查点冲突。如果未指定路径,则模型会自动保存到- "{ModelClass}_{YYYY-mm-dd_HH_MM_SS}.pt"下。例如,- "RNNModel_2020-01-01_12_00_00.pt"。
- clean ( - bool) –- 是否存储模型的清理版本。如果为 True,则移除训练序列和协变量。此外,移除所有与 Lightning Trainer 相关的参数(在模型创建时通过 pl_trainer_kwargs 传递)。 - 注意:加载使用 clean=True 存储的模型后,必须将 series 传递给 ‘predict()’、historical_forecasts() 和其他预测方法。 
 
- 返回类型
- None
 
 - property supports_likelihood_parameter_prediction: bool¶
- 模型实例是否支持直接预测似然参数 - 返回类型
- property epochs_trained: int¶
 
 - property supports_optimized_historical_forecasts: bool¶
- 模型是否支持优化的历史预测 - 返回类型
- property epochs_trained: int¶
 
 - property supports_probabilistic_prediction: bool¶
- 检查具有此配置的预测模型是否支持概率预测。 - 默认返回 False。需要支持概率预测的模型进行重写。 - 返回类型
- property epochs_trained: int¶
 
 - property supports_transferable_series_prediction: bool¶
- 模型是否支持对任何输入 series 进行预测。 - 返回类型
- property epochs_trained: int¶
 
 - to_cpu()¶
- 更新 PyTorch Lightning Trainer 参数,以便下次调用 :fun:`fit()` 或 - predict()时将模型移动到 CPU。
 - to_onnx(path=None, **kwargs)¶
- 将模型导出为 ONNX 格式以进行优化推理,包装了 PyTorch Lightning 的 - torch.onnx.export()方法(官方文档)。- 注意:需要安装 onnx 库(可选依赖项)。 - 导出 - DLinearModel的示例- from darts.datasets import AirPassengersDataset from darts.models import DLinearModel series = AirPassengersDataset().load() model = DLinearModel(input_chunk_length=4, output_chunk_length=1) model.fit(series, epochs=1) model.to_onnx("my_model.onnx") - 参数
- path ( - Optional[- str,- None]) – 保存当前状态模型的路径。如果未指定路径,则模型会自动保存到- "{ModelClass}_{YYYY-mm-dd_HH_MM_SS}.onnx"下。
- **kwargs – - PyTorch 的 - torch.onnx.export()方法的额外关键字参数(除了参数- file_path、- input_sample、- input_name)。有关更多信息,请阅读 官方文档。
 
 
 - untrained_model()¶
- 返回使用相同参数创建的新(未经训练的)模型实例。