2019/01/17
2020/04/14
1次ARモデルの特徴や統計量について
そのためにまず1次ARモデルの定常性について考えます。
その後、1次ARモデルの期待値、自己相関について説明します。
目次
1次ARモデルの定常性
まずは1次ARモデルの定常性について考えていきましょう。
そのために1次ARモデル式について確認します。以下の式で表されるのが1次ARモデルです。
\( y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t \)
\(\varepsilon_t \)は\( E(\varepsilon_t) = 0\) , \( V(\varepsilon_t) = \sigma^2 \)のホワイトノイズとする。
定常性を持つ1次ARモデル
モデルの定常性について考える前に、以下の式で表される1次ARモデルについて\( y_t \)の値を計算してみましょう。
\( y_t = 2 + 0.5y_{t-1} + \varepsilon_t \) … ①
\( \varepsilon_t \)の分散は\( 1 \)、\( y_0 = 3 , \varepsilon_1 = 1.3, \varepsilon_2 = 0.8, \varepsilon_3 = -1.6 , \varepsilon_4 = 0.3\)とする。
この時、\( y_1 , y_2, y_3, y_4\)がどのような値をとるか考えます。まず\( y_1 \)について計算してみましょう。
①式に\( y_0 = 3, \varepsilon_1 = 1.3 \)を代入すると、\( y_1 = 2 + 0.5\times3 + 1.3 = 4.8 \)と求めることができます。
同様に、\( y_2 = 5.2 \), \( y_3 = 3 \), \( y_4 = 3.8 \)と求まります。
実際に計算すると①式の\( y_t \)は発散しないであろうことが分かります。このような時、\( y_t \)は定常性を持ちます。
では1次ARモデルはいつも定常性を持つのでしょうか。①式を変形した以下の1次ARモデルについて見てみましょう。
発散する1次ARモデル
\( y_t = 2 + 2y_{t-1} + \varepsilon_t \) … ②
\( \varepsilon_t \)の分散は\( 1 \)、\( y_0 = 3 , \varepsilon_1 = 1.3, \varepsilon_2 = 0.8, \varepsilon_3 = -1.6 , \varepsilon_4 = 0.3\)とする。
②式では\( \phi_1 \)を\( 2 \)としました。この時\( y_1 , y_2, y_3, y_4\)がどのような値をとるか考えてみましょう。
計算すると、\( y_1 = 9.3 \),\( y_2 = 21.4 \), \( y_3 = 43.2 \), \( y_4 = 88.7 \)となります。
①式での\( y_t \)と異なり、②式の\( y_t \)はどんどん大きくなっていますね。②式の\( y_t \)は定常性を持つとは思えません。
ではなぜ1次ARモデルは定常性を持ったり持たなかったりするのでしょうか。これからは1次ARモデルが定常性を持つための条件を示します。
1次ARモデルの定常条件
\( | \phi_1 | \lt 1 \)の時、1次ARモデルは定常性を持つ。
\( | \phi_1 | \geq 1 \)の時、1次ARモデルの\( y_t \)は発散する。
1次ARモデルの統計量
今までは1次ARモデルの定常性について説明してきました。これからは1次ARモデルの期待値、自己相関について考えてみましょう。
以下の1次ARモデルについて期待値、自己相関を算出します。
\( y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t \) … ③
\( E(\varepsilon_t) = 0\) , \( V(\varepsilon_t) = \sigma^2 \)、\( | \phi_1 | \lt 1 \)とする。
1次ARモデルの期待値
まずは③式における\( y_t \)の期待値について考えます。\( | \phi_1 | \lt 1 \)であるため③式は定常性を持つと分かります。
定常であるとき、\( y_t \)は期待値、自己相関を持ちます。
それでは、\( y_t \)の期待値を計算していきましょう。\( y_t \)の期待値を求めるためにまず③式の両辺の期待値を取ります。
\( E[y_t] = E[\phi_0 + \phi_1y_{t-1} + \varepsilon_t] \)
\( = \phi_0 + \phi_1E[y_{t-1}] \)
定常のとき、\( E[y_t] = E[y_{t-1}] \)であることを考えると
\( E[y_t] =\displaystyle \frac{ \phi_0 }{ 1-\phi_1 } \)と求まります。
1次ARモデルの分散
期待値の次は分散について考えてみましょう。\( y_t \)の分散、\( V[y_t] \)を求めます。
そのために③式の両辺の分散を取ります。
\( V[y_t] = V[\phi_0 + \phi_1y_{t-1} + \varepsilon_t] \)
\( = V[\phi_1y_{t-1}] + V[\varepsilon_t] \)
\( V[\varepsilon_t] = \sigma^2 \)であるから
\( V[y_t] = \phi_1^2V[y_{t-1}] + \sigma^2 \)と変形することができます。
定常のとき、\( V[y_t] = V[y_{t-1}] \)であることを考えると
\( V[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } \)と求まります。
1次ARモデルの自己共分散
次に\( j \)次の自己共分散\( \gamma_j \)について考えていきましょう。
\( \gamma_j = Cov[ y_t , \ y_{t-j} ] \) … ④
\( y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t \)を④に代入すると
\( \gamma_j = Cov[\phi_0 + \phi_1y_{t-1} + \varepsilon_t , \ y_{t-j}] \)
\(Cov[y_{t-{t-j}} , \ \varepsilon_t] = 0 \)だから
\( \gamma_j = \phi_1Cov[y_{t-1} , \ y_{t-j}] = \phi_1\gamma_{j-1} \)と分かります。
\( \gamma_0 = Var[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } \)であることを考えると
\( \gamma_j = \phi_1\gamma_{j-1} = \phi_1^2\gamma_{j-2} = \cdots = \displaystyle\frac{ \sigma^2 }{ 1-\phi_1^2 } \phi_1^j \)と求まります。
1次ARモデルの自己相関
分散\( V[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } \)、自己共分散\( \gamma_j = \displaystyle \frac{\sigma^2 }{ 1-\phi_1^2 } \phi_1^j\)と求めることができました。
これらを用いて自己相関\( p_j \)と求めます。
\( p_j = \displaystyle \frac{ \gamma_j }{ \gamma_o } = \phi_1^j \)
と自己相関を求めることができます。\( j \)次自己相関を求めるために、\( j \)次自己共分散を\( 0 \)次自己共分散、つまり分散で割りました。
まとめ
今回は1次ARモデルの定常性、期待値、自己相関について考えてきました。
\( j \)次ARモデルの定常性、期待値、自己相関については次回の記事で紹介します。
Recommended