2019/02/12
2020/05/27
n次MAモデルの特徴や統計量について
前回の記事では\( 1 \)次MAモデルを用いてMAモデルについて説明しました。
今回は拡張して\( n \)次MAモデルの期待値、自己共分散、自己相関といった統計量について考えていきます。
\( n \)次MAモデルの自己共分散、自己相関の値について知りたい方は最後のまとめをご覧ください。
目次
\( n \)次MAモデルの概要
\( n \)次MAモデルの性質
\( n \)次MAモデルについて考える前に2つの性質を確認し、おおまかな\( n \)次MAモデルのイメージをつかみましょう。
1つ目は\( n \)次MAモデルがホワイトノイズの和で表されること。
ARモデルと異なる点は\( y_t \)を複数の時点に発生するホワイトノイズという乱数の和を用いて表現している点です。
2つ目は\( n \)次MAモデルが常に定常過程であるということ。
これは\( n \)次MAモデルが時点に関わらず一定の期待値、自己共分散を持つことを意味します。
\( n \)次MAモデル式
\( n \)次MAモデルは以下の式で表されます。
\( y_{t} = \theta_0 + \varepsilon_{t} + \theta_{1}\varepsilon_{t-1} + \cdots + \theta_{n}\varepsilon_{t-n} \ldots (1) \)
\( (1) \)式を見ると確かに\( n \)次MAモデルが定数項\( \ \theta_0 \)と\( n \)時点前までの過去のホワイトノイズの加重和によって表されることが分かります。
また、\( n \)次MAモデルは\( n \)次自己相関まで考えることができます。一方で\( 1 \)次MAモデルは\( 1 \)次自己相関しか表現できません。\( n \)次MAモデルが表現力に富んだモデルであるということが分かりますね。
\( n \)次MAモデルの期待値
\( n \)次MAモデルの\( y_{t} \)の期待値は\( (1) \)式の両辺の期待値をとることによって求めることができます。
\( y_{t} = \theta_0 + \varepsilon_{t} + \theta_{1}\varepsilon_{t-1} + \cdots + \theta_{n}\varepsilon_{t-n} \)
\( (1) \)式の両辺の期待値をとると…
\( \begin{eqnarray} E[y_{t}] &=& E[\theta_0] + E[\varepsilon_{t}] + \theta_{1}E[\varepsilon_{t-1}] + \cdots + \theta_{n}E[\varepsilon_{t-n}] \\ &=& \theta_0 \end{eqnarray} \)
ホワイトノイズの期待値が\(E[\varepsilon_t] = 0 \)であることを用いた。
上記から\( n \)次MAモデルの期待値は\( \theta_0 \)であると分かります。
\( n \)次MAモデルの自己共分散
\( n \)次MAモデルの\( j \)次自己共分散\( \ \gamma_j \)はいったいどのように表されるのでしょうか。
まずは最も単純な自己共分散\( \ \gamma_0 \)、分散\( V[y_t] \)について考えてみましょう。
\( n \)次MAモデルの\( y_{t} \)の分散は\( (1) \)式の両辺の分散をとることによって求めることができます。
\( \begin{eqnarray} V[y_{t}] &=& V[\theta_0] + V[\varepsilon_{t}] + V[\theta_{1}\varepsilon_{t-1}] + \cdots + V[\theta_{n}\varepsilon_{t-n}] \\ &=& V[\varepsilon_{t}] + \theta_1^2V[\varepsilon_{t-1}] + \cdots + \theta_{n}^2V[\varepsilon_{t-n}] \\ &=& (1 + \theta_1^2 + \cdots + \theta_{n}^2)\sigma^2 \end{eqnarray} \)
ホワイトノイズの分散が\(V[\varepsilon_t] = \sigma^2 \)であることを用いた。
次に\( j \)次自己共分散\( \ \gamma_j \)について考えてみましょう。
\( \begin{eqnarray} \gamma_j &=& Cov[y_t, y_{t – j}] \\ &=& Cov[\theta_0 + \varepsilon_{t} + \cdots + \theta_{n}\varepsilon_{t-n}, \ \theta_0 + \varepsilon_{t – j} + \cdots + \theta_{n}\varepsilon_{t- j -n} ] \end{eqnarray} \)
\( y_t, y_{t-j} \)について\( (1) \) 式を用いて変形した。
\( Cov[\theta_0 + \varepsilon_{t} + \cdots + \theta_{n}\varepsilon_{t-n}, \ \theta_0 + \varepsilon_{t – j} + \cdots + \theta_{n}\varepsilon_{t- j -n} ] \ \ldots \ (2) \)
\( (2) \)の共分散について場合分けを用いて考える。
\( 0 \leq j \leq n \) の場合
\( (2) \)式の中を展開すると\( \varepsilon_{t – j},\varepsilon_{t – j -1},\cdots, \varepsilon_{t – n} \)に関して、ホワイトノイズの分散\( V[\varepsilon_{t}] = \sigma^2 \)が表れる。
\( (2) \)式のその他の項に関しては、ホワイトノイズの自己共分散だから\( Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 \)となる。
これらを用いて\( (2) \)式を変形すると以下のように\( j \)次自己共分散\( \gamma_j \)が求まる。
\( \gamma_j = (\theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n – j})\sigma^2, \quad 0 \leq j \leq \ nの時 \)
\( n < j \)の場合
この時、\( y_t \)の最も古いホワイトノイズ, \( y_{t-j} \)の最も新しいホワイトノイズ、\( \varepsilon_{t-n}\)と\( \varepsilon_{t-j}\)の時点を比べた時に\( t – n > t – j \)となる。
ホワイトノイズの自己共分散について\( Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 \)が成立するから、\( (2) \)式を展開したすべての項が\( 0 \)となる。
よって、\( j \)次自己共分散\( \gamma_j \)が以下のように求まる。
\( \gamma_j = 0, \quad n < j \ の時 \)
よって\( j \)次自己共分散\( \ \gamma_j \)は以下のように表すことができる。
\( \begin{eqnarray} \gamma_j = \begin{cases} (\theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n – j})\sigma^2 & ( 0 < j \leq n ) \\ 0 & ( n < j ) \end{cases} \end{eqnarray} \)
\( n \)次MAモデルの自己相関
\( j \)次自己相関\( p_j \)を求めるため、\( j \)次自己共分散\( \gamma_j \)を分散\( V[y_t] \)、つまり自己共分散\( \gamma_0 \)で割る。
\( j \)次自己相関\( p_j \)も場合分けを用いて考える。
以下では、先ほど求めた\( j \)次自己共分散の値を用いて自己相関の値を求める。
\( 0 < j \leq n \) の場合
\( p_j = \displaystyle \frac{ \gamma_j }{ \gamma_0 } = \displaystyle \frac{ \theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n – j} }{ 1 + \theta_1^2 + \cdots + \theta_{n}^2 }, \quad 0 \leq j \leq \ nの時 \)
\( n < j \)の場合
\( p_j = \displaystyle \frac{ \gamma_j }{ \gamma_0 } = 0, \quad n < j \ の時 \)
よって\( j \)次自己相関\( \ p_j \)は以下のように表すことができる。
\( \begin{eqnarray} p_j = \begin{cases} \displaystyle \frac{ \theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n – j} }{ 1 + \theta_1^2 + \cdots + \theta_{n}^2 } & ( 0 < j \leq n ) \\ 0 & ( n < j ) \end{cases} \end{eqnarray} \)
まとめ
この記事では\( n \)次MAモデルの統計量について導出してきました。
最後に\( n \)次MAモデルの期待値、自己共分散、自己相関についてまとめます。以下の\( n \)次MAモデルについて考えます。
\( y_{t} = \theta_0 + \varepsilon_{t} + \theta_{1}\varepsilon_{t-1} + \cdots + \theta_{n}\varepsilon_{t-n} \)
期待値 : \( E[y_t] = \mu = \theta_0 \)
分散 : \( \gamma_0 = V[y_{t}] = (1 + \theta_1^2 + \cdots + \theta_{n}^2)\sigma^2 \)
自己共分散 : \( \begin{eqnarray} \gamma_j = \begin{cases} (\theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n – j})\sigma^2 & ( 0 < j \leq n ) \\ 0 & ( n < j ) \end{cases} \end{eqnarray} \)
自己相関 : \( \begin{eqnarray} p_j = \begin{cases} \displaystyle \frac{ \theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n – j} }{ 1 + \theta_1^2 + \cdots + \theta_{n}^2 } & ( 0 < j \leq n ) \\ 0 & ( n < j ) \end{cases} \end{eqnarray} \)
Recommended