n次ARモデルの特徴や統計量について

更新日

n次ARモデルとは

nn次ARモデルは次のように表されます。ある時点のデータyt y_{t}に対してnn時点前までのデータytn y_{t-n}がモデルに用いられていることが分かります。

yt=ϕ0+ϕ1yt1+ϕ2yt2++ϕnytn+ϵt y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} ... ①

ただしϵt \epsilon_{t} は分散σ2 \sigma^2 のホワイトノイズとする。

nn次ARモデルを考えることで、nn時点前までのデータを用いた分析が可能になります。

n次ARモデルの統計量

n次ARモデルの期待値

定常性を持つnn次ARモデルは期待値、自己共分散を持ちます。そのため以下では定常なnn次ARモデルについて考えます。

yt=ϕ0+ϕ1yt1+ϕ2yt2++ϕnytn+ϵt y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t}

上記のnn次ARモデルの両辺に対して期待値をとると以下のように表すことができます。

E[yt]=E[ϕ0]+E[ϕ1yt1]+E[ϕ2yt2]++E[ϕnytn]+E[ϵt] E[y_{t}] = E[\phi_{0}] + E[\phi_{1}y_{t-1}] + E[\phi_{2}y_{t-2}] + \cdots + E[\phi_{n}y_{t-n}] + E[\epsilon_{t}]

モデルが定常であるとき、どんなt t に対してE[yt]= μ  E[y_{t}] =  \mu  、また E[ϵt]=0 E[\epsilon_{t}] = 0 であることを用いると、期待値E[yt] E[y_{t}] は次のようになります。

E[yt] =ϕ0+ϕ1E[yt]+ϕ2E[yt]++ϕnE[yt] =  ϕ01 ϕ1 ϕ2 ϕn  \begin{equation*}\begin{split} E[y_{t}] &= \phi_{0} + \phi_{1}E[y_{t}] + \phi_{2}E[y_{t}] + \cdots + \phi_{n}E[y_{t}] \\  &=  \displaystyle \frac{ \phi_{0} }{ 1 - \phi_{1} - \phi_{2}  - \cdots - \phi_{n} } \end{split}\end{equation*}

nn次ARモデルの自己共分散

まずnn次ARモデルの分散V[yt] V[y_{t}] を求めてみましょう。期待値と同じようにnn次ARモデルの式①から分散V[yt] V[y_{t}] を考えます。

 yt=ϕ0+ϕ1yt1+ϕ2yt2++ϕnytn+ϵt y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t}

上記の式の両辺の分散をとります。

 V[yt] =V[ϕ1yt1]+V[ϕ2yt2]++V[ϕnytn]+V[ϵt] =ϕ12V[yt1]+ ϕ22V[yt2]+ + ϕn2V[ytn] +σ2  \begin{equation*}\begin{split} V[y_{t}] &= V[\phi_{1}y_{t-1}] + V[\phi_{2}y_{t-2}] + \cdots + V[\phi_{n}y_{t-n}] + V[\epsilon_{t}] \\ &= \phi_{1}^2V[y_{t-1}] + \phi_{2}^2V[y_{t-2}] + \cdots + \phi_{n}^2V[y_{t-n}]  + \sigma^2 \end{split}\end{equation*}

定常であるとき、どんなt t に対してもV[yt]= γ0 V[y_{t}] = \gamma_0 であるから、分散は以下のようになります。

V[yt]=σ2 1 ϕ12ϕ22  ϕn2  V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 - \phi_{2}^2 - \cdots - \phi_{n}^2 }  ... ②

次にj j 次自己共分散γj \gamma_j を求めます。

γj=Cov[yt,ytj] =Cov[ ϕ0+ϕ1yt1+ϕ2yt2++ϕnytn+ϵt , ytj] =ϕ1Cov[yt1,ytj]+ϕ2Cov[yt2,ytj]++ϕnCov[ytn,ytj]=ϕ1γj1+ϕ2γj2++ϕnγjn  \begin{equation*}\begin{split} \gamma_j = Cov[y_{t}, y_{t - j}] &= Cov[ \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} ,  y_{t - j}] \\  &= \phi_{1}Cov[y_{t-1},y_{t-j}] + \phi_{2}Cov[y_{t-2},y_{t-j}] + \cdots + \phi_{n}Cov[y_{t-n},y_{t-j}] \\ &= \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \end{split}\end{equation*}

nn次ARモデルの自己相関

j j 次自己相関を求めてみましょう。

 γj= ϕ1γj1+ϕ2γj2++ϕnγjn \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n}

 両辺をyt y_{t} の分散γ0 \gamma_0 で割ると

pj= ϕ1pj1+ϕ2pj2++ϕnpjn p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} + \cdots + \phi_{n}p_{j-n}

関連記事

1次ARモデルの特徴や統計量について

カテゴリ: 時系列分析

関連サービス

講座一覧ページ

記事一覧はこちら

無料で統計学を学ぶ