時系列分析におけるMAモデル(移動平均モデル)とは

更新日

MAモデルとは

MAモデル(Moving Average model)移動平均モデルとも呼ばれています。

MAモデルが実際に用いられることは少ないですが、MAモデルとARモデルを組み合わせたARIMAモデルSARIMAモデルはビジネス分析などに用いられます。

1次MAモデル

1次MAモデルは以下の式で表されます。

yt=θ0+εt+θ1εt1 y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}

ただし、ホワイトノイズεt\varepsilon_t  の分散はσ2 \sigma^2 とする。

上記の式を見てみると1次MAモデルが定数項θ0 \theta_0 と2つのホワイトノイズεt,εt1 \varepsilon_{t},\varepsilon_{t-1} によって構成されていることが分かります。

このホワイトノイズは時間によって発生するランダムな数と考えましょう。

1次MAモデルでは1時点前までのホワイトノイズを用います。n n 次MAモデルであればn n 時点前までのホワイトノイズを用います。

MAモデルは定数とホワイトノイズの加重和によって表されるモデルと言えます。

1次MAモデルの統計量

期待値

期待値を扱うにあたり、ARモデルでは定常性に注意する必要がありましたが、MAモデルでは定常性について考える必要はありません。

1次MAモデルのyt y_t の期待値を計算するにあたり、以下の1 1 次MAモデル式について考えます。

 yt=θ0+εt+θ1εt1 y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}

上記の式の両辺の期待値をとります。

E[yt]=E[θ0]+E[εt]+θ1E[εt1] E[y_t] = E[\theta_0] + E[\varepsilon_t] + \theta_1E[\varepsilon_{t-1}]

ホワイトノイズの期待値はどんなt t に対してもE[εt]=0E[\varepsilon_t] = 0 であるから、以下のように求めることができます。

E[yt]=θ0 E[y_t] = \theta_0

この結果からyt y_t の期待値は定数項θ0 \theta_0 であるということが分かります。

これを踏まえ、1次MAモデル式の定数項θ0 \theta_0 を期待値μ \mu と置き換えると以下のように表せます。

 yt=μ+εt+θ1εt1 y_t = \mu + \varepsilon_t + \theta_1\varepsilon_{t-1}

自己共分散

1次MAモデルの自己共分散 γt \gamma_t について考えます。

まずはyt y_t の分散がどのような値を取るかについて計算し、そのあとに自己共分散 γt \gamma_t について計算します。

では、以下の1次MAモデルについて分散V[yt]  V[y_t] を考えます。

yt=θ0+εt+θ1εt1 y_t = \theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}

上記の式の両辺の分散をとります。

V[yt]=V[θ0]+V[εt]+V[θ1εt1] = V[εt]+ θ12V[εt1] \begin{equation*}\begin{split} V[y_t] &= V[\theta_0] + V[\varepsilon_t] + V[\theta_1\varepsilon_{t-1}] \\ &= V[\varepsilon_t] + \theta_1^2V[\varepsilon_{t-1}] \end{split}\end{equation*}

ホワイトノイズの分散はどんなt t に対してもV[εt]=σ2V[\varepsilon_t] = \sigma^2 であるから、以下のように求めることができます。

V[yt]=(1+θ12)σ2V[y_t] = (1 + \theta_1^2)\sigma^2

次にj j 次自己共分散 γt \gamma_t について考えます。

以下のように γt \gamma_t を表すことができます。

 γt=Cov[yt,ytj]=Cov[θ0+εt+θ1εt1, θ0+εtj+θ1εtj1] (1)  \begin{equation*}\begin{split} \gamma_t &= Cov[y_t, y_{t-j}] \\ &= Cov[\theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}, \ \theta_0 + \varepsilon_{t - j} + \theta_1\varepsilon_{t- j -1} ] \ \ldots (1) \ \end{split}\end{equation*}  

では、1次自己共分散 γ1 \gamma_1 を求めてみます。(1) (1) の式を用いて考えます。

  γ1=Cov[yt, yt1]=Cov[θ0+εt+θ1εt1, θ0+εt1+θ1εt2]=Cov[εt1, θ1εt1] = θ1V[εt1]= θ1σ2  \begin{equation*}\begin{split} \gamma_1 &= Cov[y_t, \ y_{t-1}] \\ &= Cov[\theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}, \ \theta_0 + \varepsilon_{t - 1} + \theta_1\varepsilon_{t- 2} ] \\ &= Cov[\varepsilon_{t-1}, \ \theta_1\varepsilon_{t-1}] \\ &= \theta_1V[\varepsilon_{t-1}] \\ &= \theta_1\sigma^2  \end{split}\end{equation*}

ホワイトノイズの自己共分散Cov[εt,εtj] =0 Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 であることを用いた。

実は1次MAモデルには2次以上の自己共分散は存在しません。

 γj=Cov[yt,ytj]=Cov[θ0+εt+θ1εt1,θ0+εtj+θ1εtj1]= Cov[εt, εtj+θ1εtj1]+Cov[θ1εt1, εtj+θ1εtj1] =0 \begin{equation*}\begin{split} \gamma_j &= Cov[y_t, y_{t-j}] \\ &= Cov[\theta_0 + \varepsilon_t + \theta_1\varepsilon_{t-1}, \theta_0 + \varepsilon_{t - j} + \theta_1\varepsilon_{t- j - 1} ] \\ &= Cov[\varepsilon_t, \ \varepsilon_{t - j} + \theta_1\varepsilon_{t- j - 1}] + Cov[\theta_1\varepsilon_{t-1}, \ \varepsilon_{t - j} + \theta_1\varepsilon_{t- j - 1}] \\ &= 0 \end{split}\end{equation*}

ホワイトノイズの自己共分散Cov[εt,εtj] =0 Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 であることを用いた。

 2次以上の自己共分散は γt=0 \gamma_t = 0と計算できました。このことから1次MAモデルに2次以上の自己共分散が存在しないことが分かります。

自己相関

1次MAモデルの自己相関pt p_t についても考えてみましょう。

1次MAモデルに2次以上の自己共分散が存在しないことを考えると、1次の自己相関p1 p_1 のみ存在します。

p1=  γ1γ0=  θ11+θ12 p_1 = \displaystyle \frac{ \gamma_1 }{ \gamma_0 } = \displaystyle \frac{ \theta_1 }{ 1 + \theta_1^2 }

γ0 \gamma_0 は分散V[yt]  V[y_t] であることを用いました。

 

この計算結果からθ1 \theta_1 の値によって自己相関p1 p_1 の強さが決まると解釈できます。

また1 1 次MAモデルは1 1 次までの自己相関を持つデータを表現できると分かります。

関連記事

n次MAモデルの特徴や統計量について

カテゴリ: 時系列分析

関連サービス

講座一覧ページ

記事一覧はこちら

無料で統計学を学ぶ