2019/02/12
2020/05/27
時系列分析のMAモデルとは?
今回は時系列モデルの一つ、MAモデルについて説明していきます。
このMAモデルは移動平均モデルとも呼ばれています。MAモデルがMoving Average Modelの略であることを考えると移動平均モデルと呼ばれる理由が分かります。
MAモデルが実世界で用いられることは少ないですが、MAモデルとARモデルを組み合わせたARIMA,SARIMAモデルはビジネス分析などに用いられます。
\( 1 \)次MAモデル
MAモデルとはいったいどんなモデルなのでしょうか。移動平均という言葉からはどんなモデルか想像もつきません。
まずは\( 1 \)次MAモデルを例にとって、MAモデルがどんなモデルか考えていきましょう。
\( 1 \)次MAモデルは以下の式で表されます。
\( y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1} \)
ただし、ホワイトノイズ\(\varepsilon_t \) の分散は\( \sigma^2 \)とする。
上記の式を見てみると\( 1 \)次MAモデルが定数項\( \theta_0 \)と2つのホワイトノイズ\( \varepsilon_{t},\varepsilon_{t-1} \)によって構成されていることが分かります。このホワイトノイズは時間によって発生するランダムな数と想像するといいでしょう。
\( 1 \)次MAモデルでは\( 1 \)時点前までのホワイトノイズを用います。\( n \)次MAモデルであれば\( n \)時点前までのホワイトノイズを用います。
MAモデルは定数とホワイトノイズの加重和によって表されるモデルと考えるとよいでしょう。
次に具体的な\( 1 \)次MAモデル式、ホワイトノイズ\( \varepsilon_t \)の値を考えることで\( y_t \)がどんな値をとるのか観察してみます。
実験を通して、MAモデルの期待値、自己相関がどのような値をとるのかについて考えてみましょう。
以下の\( 1 \)次MAモデルについて考えます。
\( y_t = 1 + \varepsilon_t + 2\varepsilon_{t-1}\)
ホワイトノイズは以下の値をとる。
\( \varepsilon_0 = 1.2, \varepsilon_1 = -0.4 , \varepsilon_2 = -0.8, \varepsilon_3 = -0.3 , \varepsilon_4 = 1.3, \varepsilon_5 = 0.2 , \varepsilon_6 = -0.3 \)
この時\( y_1 , \ y_2\)は以下のようにして求まる。
\( \begin{eqnarray} y_1 &=& 1 + \varepsilon_1 + 2\varepsilon_0 \\[ 5pt ] &=& 1 – 0.4 + 2 \times 1.2 = 3 \end{eqnarray} \)
\( \begin{eqnarray} y_2 &=& 1 + \varepsilon_2 + 2\varepsilon_1 \\[ 5pt ] &=& 1 – 0.8 + 2 \times (-0.4) = -0.6 \end{eqnarray} \)
同様に\( y_3, \ y_4, \ y_5, \ y_6\)についても計算すると以下のように求まります。
\( y_3 = -0.6 , \ y_4 = -0.9, \ y_5 = -1.7, \ y_6 = 1.1 \)
実際に\( y_t \)の値を計算してみるとある程度の幅を持ちながら動いていると分かります。\( y_t \)が発散するようには見えません。
また\( y_1, \ y_2\)を例にとって考えると、どちらも式の中にホワイトノイズ\(\varepsilon_1 \)を持っていました。同じホワイトノイズを持っている\( y_1, \ y_2\)の間には相関があることが予想されます。
このように考えると\( 1 \)次MAモデルの\( y_t \)は期待値、自己相関を持つということが予想できます。
これからは\( 1 \)次MAモデルの期待値を計算してみましょう。
\( 1 \)次MAモデルの期待値
期待値を扱うにあたりARモデルでは定常性に注意する必要がありました。しかし、MAモデルでは定常性について考える必要はありません。
\( 1 \)次MAモデルの\( y_t \)の期待値を計算するにあたり、以下の\( 1 \)次MAモデル式について考えます。
\( y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}\)
上記の式の両辺の期待値をとります。
\( E[y_t] = E[\theta_0] + E[\varepsilon_t] + \theta_1E[\varepsilon_{t-1}] \)
ホワイトノイズの期待値はどんな\( t \)に対しても\(E[\varepsilon_t] = 0 \)であるから、以下のように求まります。
\( E[y_t] = \theta_0 \)
この結果から\( y_t \)の期待値は定数項\( \theta_0 \)であるということが分かります。
これを踏まえ、\( 1 \)次MAモデル式の定数項\( \theta_0 \)を期待値\( \mu \)と置き換えると以下のように表せます。
\( y_t = \mu + \varepsilon_t + \theta_1\varepsilon_{t-1}\)
\( 1 \)次MAモデルの自己共分散
次に\( 1 \)次MAモデルの自己共分散\( \gamma_t \)について考えます。
まずは\( y_t \)の分散がどのような値を取るかについて計算しましょう。そのあとに自己共分散\( \gamma_t \)について計算します。
では、以下の\( 1 \)次MAモデルについて分散\( V[y_t] \)を考えます。
\( y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}\)
上記の式の両辺の分散をとります。
\( \begin{eqnarray} V[y_t] &=& V[\theta_0] + V[\varepsilon_t] + V[\theta_1\varepsilon_{t-1}] \\ &=& V[\varepsilon_t] + \theta_1^2V[\varepsilon_{t-1}] \end{eqnarray} \)
ホワイトノイズの分散はどんな\( t \)に対しても\(V[\varepsilon_t] = \sigma^2 \)であるから、以下のように求まります。
\(V[y_t] = (1 + \theta_1^2)\sigma^2 \)
次に\( j \)次自己共分散\( \gamma_t \)について考えてみましょう。以下のように\( \gamma_t \)を表すことができます。
\( \begin{eqnarray} \gamma_t &=& Cov[y_t, y_{t-j}] \\ &=& Cov[\theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}, \ \theta_0 + \varepsilon_{t – j} + \theta_1\varepsilon_{t- j -1} ] \ \ldots (1) \ \end{eqnarray} \)
では、\( 1 \)次自己共分散\( \gamma_1 \)を求めてみます。\( (1) \)の式を用いて考えます。
\( \begin{eqnarray} \gamma_1 &=& Cov[y_t, \ y_{t-1}] \\ &=& Cov[\theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}, \ \theta_0 + \varepsilon_{t – 1} + \theta_1\varepsilon_{t- 2} ] \\ &=& Cov[\varepsilon_{t-1}, \ \theta_1\varepsilon_{t-1}] \\ &=& \theta_1V[\varepsilon_{t-1}] \\ &=& \theta_1\sigma^2 \end{eqnarray}\)
ホワイトノイズの自己共分散\( Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 \)であることを用いた。
\( 1 \)次の自己共分散について求めることができました。
では、\( 2 \)次以上の自己共分散はどうなるのでしょうか。
実は\( 1 \)次MAモデルには\( 2 \)次以上の自己共分散は存在しません。計算を通して確認してみましょう。
\( \begin{eqnarray} \gamma_j &=& Cov[y_t, y_{t-j}] \\ &=& Cov[\theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}, \theta_0 + \varepsilon_{t – j} + \theta_1\varepsilon_{t- j – 1} ] \\ &=& Cov[\varepsilon_t, \ \varepsilon_{t – j} + \theta_1\varepsilon_{t- j – 1}] + Cov[\theta_1\varepsilon_{t-1}, \ \varepsilon_{t – j} + \theta_1\varepsilon_{t- j – 1}] \\ &=& 0 \end{eqnarray}\)
ホワイトノイズの自己共分散\( Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 \)であることを用いた。
確かに\( 2 \)次以上の自己共分散は\( \gamma_t = 0\)と計算できました。このことから\( 1 \)次MAモデルに\( 2 \)次以上の自己共分散が存在しないことが分かります。
\( 1 \)次MAモデルの自己相関
最後に\( 1 \)次MAモデルの自己相関\( p_t \)についても考えてみましょう。
\( 1 \)次MAモデルに\( 2 \)次以上の自己共分散が存在しないことを考えると、\( 1 \)次の自己相関\( p_1 \)のみ存在します。
\( p_1 = \displaystyle \frac{ \gamma_1 }{ \gamma_0 } = \displaystyle \frac{ \theta_1 }{ 1 + \theta_1^2 } \)
\( \gamma_0 \)は分散\( V[y_t] \)であることを用いた。
この計算結果から\( \theta_1 \)の値によって自己相関\( p_1 \)の強さが決まると解釈できます。
また\( 1 \)次MAモデルは\( 1 \)次までの自己相関を持つデータを表現できると分かります。
まとめ
今回はMAモデルについて\( 1 \)次MAモデルを用いて考えました。ARモデルと異なり、MAモデルでは定常性について考える必要がありませんでした。\( n \)次MAモデルについては次回の記事で触れようと思います。
最後に\( 1 \)次MAモデルの統計量についてまとめます。以下の\( 1 \)次MAモデルについて
\( y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1} \)
期待値 : \( E[y_t] = \mu = \theta_0 \)
分散 : \( V[y_t] = \gamma_0 = (1 + \theta_1^2)\sigma^2 \)
1次自己共分散 : \( \gamma_1 = \theta_1\sigma^2\)
自己相関 : \( p_1 = \displaystyle \frac{ \theta_1 }{ 1 + \theta_1^2 } \)
Recommended