ДонНТУ> Портал магистров
Биография | Реферат | Библиотека | Ссылки | Отчет о поиске | Индивидуальное задание

Источник: http://www.xplore-stat.de/tutorials/xegbohtmlnode38.html
Составитель: ст. гр. ЭКИ-06(маг) Сирченко Е. Н.

Pavel Cízek, Wolfgang Härdle, Rafa Weron

Статистические инструменты для Финансирования и страхования


4.4 Прогнозирование при помощи модели ARIMA


4.4.1 Оптимальный прогноз

Предположим ряд $ y_1, y_2, \ldots, y_T$ соответствует общей модели $ ARIMA(p,d,q) $ которая может быть записана через настоящие и прошлые значения $ \varepsilon_t $:

$\displaystyle y_t = \frac{ \Theta(L)}{\Phi(L) \Delta^d} \, \varepsilon_t = \psi...
...fty}(L) \, \varepsilon_t = (1 + \psi_1 L + \psi_2 L^2 +\ldots) \, \varepsilon_t$ (4.32)

Наша цель - предсказать будущее значение $ y_{T+\ell}$ используя нашу информационную базу, которая состоит из прошлых значений$ Y_T = (y_T, y_{T-1},
\ldots)$. Будущее значение  $ y_{T+\ell}$ генерируемое моделью (4.32), выражается следующим образом:$\displaystyle y_{T+\ell} = \varepsilon_{T+\ell} + \psi_1 \varepsilon_{T+\ell-1} + \psi_2 \varepsilon_{T+\ell-2} + \ldots
$

Обозначим $ y_T(\ell)$  $ \ell$-шаг будущего прогноза$ y_{T+\ell}$ совершаемого на базе $ T$. Можно показать, что  при умеренно слабых условиях, оптимальный прогноз  $ y_{T+\ell}$ это  условное математическое ожидание$ y_{T+\ell}$ при заданной информационной базе, обозначаемое $ E[y_{T+\ell}\vert Y_T] $. Условие оптимальности употребляется в смысле минимизации среднеквадратической ошибки (СКО). Хотя условное ожидание не должно быть линейной функцией настоящих и прошедших значений$ y_t $, мы примем линейный прогноз потому что с ним довольно легко работать. Более того, если процесс нормальный, минимальная ошибка среднеквадратического прогноза линейная. Следовательно, оптимальный$ \ell$-шаг будущего прогноза выглядит следующим образом:
$\displaystyle y_T(\ell)$ $\displaystyle =$ $\displaystyle E[y_{T+\ell}\vert Y_T] =
E[\varepsilon_{T+\ell}+ \psi_1 \varepsilon_{T+\ell-1} +
\psi_2 \varepsilon_{T+\ell-2} + \ldots\vert Y_T]$  
  $\displaystyle =$ $\displaystyle \psi_{\ell} \varepsilon_T + \psi_{\ell+1} \varepsilon_{T-1} + \psi_{\ell+2} \varepsilon_{T-2} +
\ldots$  

поскольку прошлые значения $ \varepsilon_{T+j}$, для  $ j \leq0$, известны и будущие значения $ \varepsilon_{T+j}$, для  $ j > 0$, имеют нулевое ожидание.

 $ \ell$-шаг будущей прогнозной ошибки это линейная комбинация будущих шумов поступающих в систему после момента времени $ T$:

$\displaystyle e_T(\ell) = y_{T+\ell} - y_T(\ell) = \varepsilon_{T+\ell} + \psi_1 \varepsilon_{T+\ell-1} +
\ldots + \psi_{\ell-1} \varepsilon_{T+1}
$

Таким образом, $ E[e_T(\ell)\vert Y_T] = 0 $, прогноз $ y_T(\ell)$ является объективным по критерию MSE:

$\displaystyle MSE[y_T(\ell)] = V(e_T(\ell)) = \sigma^2_{\varepsilon} (1 + \psi_1^2 + \ldots + \psi_{\ell}^2)$ (4.33)

Учитывая эти результаты, если процесс - нормальный, то интервал прогнозирования$ (1-\alpha) $ это:

$\displaystyle \left[\; y_T(\ell) \pm N_{\alpha/2} \sqrt{V(e_T(\ell))}\; \right]$ (4.34)

Для $ \ell = 1$, ошибка одногошагового будущего прогноза это $ e_T(1) = y_{T+1} - y_T(1) = \varepsilon_{T+1}$, следовательно $ \sigma^2_{\varepsilon}$ может быть интерпретирована как дисперсия ошибки одношагового будущего предсказания.


4.4.2 Вычисление прогнозов

Рассмотрим снова общую модель$ ARIMA(p,d,q) $ которая может быть записана как:

$\displaystyle \Pi_{p+d}(L) y_t = (1 - \pi_1 L - \pi_2 L^2 - \ldots - \pi_{p+d} L^{p+d}) y_t = \Theta(L) \varepsilon_{t}$ (4.35)

где $ \Pi_{p+d}(L) = \Phi_p(L) (1 - L)^d$. Соответственно, будущее значение $ y_{T+\ell}$ генерируемое формулой (4.35) запишется так:

$\displaystyle y_{T+\ell} = \pi_1 y_{T+\ell-1} + \ldots + \pi_{p+d} y_{T+\ell-p-...
...} + \theta_1 \varepsilon_{T+\ell-1} + \ldots + \theta_q \varepsilon_{T+\ell-q}
$ а минимальная среднеквадратическая ошибка прогноза, полученная математическим ожиданием в условиях существующей информационной базы:


$\displaystyle y_T(\ell)$ $\displaystyle =$ $\displaystyle \textrm{E}\,[\;y_{T+\ell}\vert Y_T] =
\pi_1 E[y_{T+\ell-1}\vert Y_T] + \ldots +
\pi_{p+d} E[y_{T+\ell-p-d}\vert Y_T]$  
  $\displaystyle +$ $\displaystyle E[\varepsilon_{T+\ell}\vert Y_T]
+ \theta_1 E[\varepsilon_{T+\ell-1}\vert Y_T] + \ldots +
\theta_q E[\varepsilon_{T+\ell-q}\vert Y_T]$  

Прогноз $ y_T(\ell)$ вычисляется заменой прошлых математических ожиданий для известных значений и будущих ожиданий для предсказанных значений следующим образом:
$\displaystyle E[y_{T+j}\vert Y_T]$ $\displaystyle =$ $\displaystyle \left\{ \begin{array}{ll}
y_{T+j} & j \leq 0 \\
y_T(j) & j > 0
\end{array} \right.$  
$\displaystyle E[\varepsilon_{T+j}\vert Y_T]$ $\displaystyle =$ $\displaystyle \left\{ \begin{array}{rl}
\varepsilon_{T+j} & j \leq 0 \\
0 & j > 0
\end{array} \right.$  

В практике параметры модели $ ARIMA(p,d,q) $ могут оцениваться, но для удобства, мы примем их за данность.


4.4.3 Возможные прогнозные функции

С учетом результатов параграфа 4.4.2, если ряд $ y_t $ соответствует модели $ ARIMA(p,d,q) $  $ \ell$-шаг будущего прогноза  forecast осуществляющийся с некоторого$ T$ определяется из:

$\displaystyle y_T(\ell) = \pi_1 y_{T}(\ell-1) + \ldots + \pi_{p+d}\, y_{T}(\ell...
...+ \theta_1 \varepsilon_{T}(\ell-1) + \ldots + \theta_q \varepsilon_{T}(\ell-q)
$

Следовательно, когда горизонт прогноза $ \ell > q$:

$\displaystyle y_T(\ell) = \pi_1 \,y_{T}(\ell-1) + \pi_2\, y_{T}(\ell-2) + \ldots +
\pi_{p+d} \, y_{T}(\ell-p-d)
$

То есть, the $ \ell$-шаг будущего прогноза для $ \ell > q$ удовлетворяет однородному дифференциальному уравнению порядка $ (p+d)$:

$\displaystyle y_T(\ell) - \pi_1 \,y_{T}(\ell-1) - \pi_2\, y_{T}(\ell-2) - \ldots - \pi_{p+d} \, y_{T}(\ell-p-d) = 0$ (4.36)

Разложим на множители полином$ \Pi(L) $ способом разложения на множители при помощи корней как показано ниже:

$\displaystyle \Pi(L) = (1 - \pi_1 L - \pi_2 L^2 - \ldots - \pi_{p+d} L^{p+d}) =
\prod_{i=1}^{N}
(1 - R_i^{-1} L)^{n_i}
$

где $ \sum_{1}^{N} n_i = p+d$. Затем, общее решение однородного дифференциального уравнения представим в следующем виде (4.36):

$\displaystyle y_T(\ell) = \sum_{i=1}^{N} \left[ \sum_{j=0}^{n_i-1} k_{ij}^{T} \, \ell^j \right] (R^{-1}_i)^{\ell} \hskip 1cm \ell > q-p-d$ (4.37)

где $ k_{ij}^{T}$ это константы, которые зависят от момента времени $ T$, т.е., эти константы меняются, когда меняется база Т.

Выражение(4.37)называется конечной прогнозной функцией, потому, что она охватывает только для $ \ell > q-p-d$. Если $ q < p+d$, тогда конечная прогнозная функция охватывает все $ \ell >0$. Эта конечная прогнозная функция проходит через значения $ (p+d)$ полученные $ y_T(q),
y_T(q-1), \ldots, y_T(q-p-d+1)$.

4.4.3.0.1 Пример 1. Стационарный процесс

Рассмотрим $ ARIMA(1,0,1)$ процесс со средним отклонением $ \mu$:

$\displaystyle (1 - \phi L) (y_t - \mu) = (1 + \theta L) \varepsilon_t
\qquad \vert\phi\vert<1 $

Для$ \ell > q=1$, the прогнозная функция $ y_T(\ell)$ удовлетворяет дифференциальному уравнению:

$\displaystyle (1 - \phi L) (y_t - \mu) = 0
$

Следовательно, полученная конечная прогнозная функция будет иметь следующий вид:
$\displaystyle y_T(\ell) - \mu$ $\displaystyle =$ $\displaystyle k^{T} \phi^{\ell}$  
$\displaystyle y_T(\ell)$ $\displaystyle =$ $\displaystyle \mu + k^{T} \phi^{\ell} \hskip 1cm \ell > q-p-d
= 0$  

Рисунок 4.12: Прогноз модели$ AR(1)$
\includegraphics[width=0.8\defpicwidth]{ar1for.ps}

Возьмем пример прогноза процесса$ AR(1)$ с $ \delta=0.9$ and $ \phi=0.7$. Рисунок 4.12 показывает конечную прогнозную функцию представленной модели (пунктирная линия). Следует отметить, что эта функция возрастает с самого начала, пока не достигнет среднего значения.  Результат этого наблюдения можно представить следующим образом:

$\displaystyle \lim_{\ell \rightarrow \infty} y_T(\ell) = \mu
$

применяется ко всем стационарным процессам. Прерывистая линия показывает интервалы прогнозирования, которые в пределе стремятся к параллельным горизонтальным линиям. Это происходит благодаря тому факту, что для каждого стационарного процесса $ \lim_{\ell \rightarrow \infty}
V(e_T(\ell)) $ существует и равен $ V(y_t)$.

4.4.3.0.2 Пример 2 Интегрированные процессы первого порядка

Рассмотрим следующую модель $ ARIMA(0,1,1)$:

$\displaystyle (1 - L) y_t = (1 + \theta L) \varepsilon_t
$

Конечная прогнозная функция является решением дифференциального уравнения:

$\displaystyle (1 - L) y_t = 0 \hskip 1cm \ell > q=1
$

которое получено следующим образом:

$\displaystyle y_T(\ell) = k^{T} 1^{\ell} = k^{T} \hskip 1cm \ell > q-p-d=0
$

Эта конечная прогнозная функция пересекает одношаговый будущий прогноз $ y_T(1) $и остается там пока  $ \ell$ возрастает.

Если $ \theta =0$, мы имеем модель случайного блуждания (4.20) и конечная прогнозная функция принимает вид:

$\displaystyle y_T(\ell) = y_T \hskip 1cm \ell > 0
$

То есть, оптимальный прогноз - это просто текущее значение, не зависящее от горизонта прогноза. Если шумы возникают во время $ T$, эффект от них не исчезает по мере роста горизонта прогноза, потому что нет среднего значения, к которому процесс мог бы возвращаться  (см. график (a) на рисунке 4.13).

Конечная прогнозная модель случайного блуждания со смещением  (4.21) это решение следующего дифференциального уравнения:

$\displaystyle (1 - L) y_t = \delta
$

Таким образом:

$\displaystyle y_T(\ell) = k^{T} 1^{\ell} + \delta \ell = k^{T} + \delta \ell$ (4.38)

Следовательно конечная прогнозная функция - это прямая линия, в которой только внешние помехи зависят от базы прогноза   $ T$, через константы $ k^{T}$ (смотри график (b) на рисунке 4.13).

Figure 4.13: Forecast of $ I(1)$ models
\includegraphics[width=0.7\defpicwidth]{rwfor.ps} \includegraphics[width=0.7\defpicwidth]{rwpdfor.ps}

IСледует отметить, что на рисунке  4.13  пределы интервалов прогноза продолжительно возрастают по мере того, как горизонт прогноза   $ \ell$ становится больше. Следует принять во внимание, что для нестационарных процессов  предел $ \lim_{\ell \rightarrow \infty}
V(e_T(\ell)) $ does not exist.

4.4.3.0.3 Пример 3. Интеграционные процессы 2-го порядка

Рассмотрим модель$ ARIMA(0,2,2)$:

$\displaystyle (1 - L)^2 y_t = (1 + \theta_1 L + \theta_2 L^2) \varepsilon_t
$

Решив однородные дифференциальные уравнения  $ (1 - L)^2 y_t = 0 \hskip .5cm \ell > 2
\quad $ мы получим конечную прогнозную функцию вида:

$\displaystyle y_T(\ell) = k_1^{T} 1^{\ell} + k_2^{T} 1^{\ell} \ell = k_1^{T} +
k_2^{T} \ell
$

Таким образом, конечная прогнозная функция - это прямая линия, пересекающая прогноз $ y_T(1) $ и $ y_T(2)$. Хотя эта прогнозная функция показывает  такую же структуру, как уравнение (4.38), следует отметить, что и прерывистость и наклон конечной прогнозной функции   зависит от базы прогноза Т.

Источник: http://www.xplore-stat.de/tutorials/xegbohtmlnode38.html
Составитель: ст. гр. ЭКИ-06(маг) Сирченко Е. Н.

ДонНТУ> Портал магистров
Биография | Реферат | Библиотека | Ссылки | Отчет о поиске | Индивидуальное задание