2019/01/17
2020/05/27
n次ARモデルの特徴や統計量について
前回の記事では\(1\)次ARモデルの期待値や自己共分散といった統計量について説明しました。
今回はまず一般的な\(n\)次ARモデルの統計量について考えます。\(n\)次ARモデルを考えることで、\(n\)時点前までのデータを用いた分析が可能になります。
その後、具体的に\(2\)次ARモデルの統計量がどうなっているかについて考えていきましょう。
目次
\(n\)次ARモデルの統計量
\(n\)次ARモデルとは
\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} \) … (1)
ただし\( \epsilon_{t} \)は分散\( \sigma^2 \)のホワイトノイズとする。
\(n\)次ARモデルは(1)の形で表されます。ある時点のデータ\( y_{t}\)に対して\(n\)時点前までのデータ\( y_{t-n}\)がモデルに用いられていることが分かります。
\(n\)次ARモデルの期待値
定常性を持つ\(n\)次ARモデルは期待値、自己共分散を持ちます。そのため以下では定常な\(n\)次ARモデルについて考えます。
まず\(n\)次ARモデルの期待値\( E[y_{t}] \)を求めてみましょう。そのために\(n\)次ARモデル式(1)を見てみましょう。
\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} \)
上記の\(n\)次ARモデルの両辺に対して期待値をとると以下のように表すことができます。
\( E[y_{t}] = E[\phi_{0}] + E[\phi_{1}y_{t-1}] + E[\phi_{2}y_{t-2}] + \cdots + E[\phi_{n}y_{t-n}] + E[\epsilon_{t}] \)
モデルが定常であるとき、どんな\( t \) に対して\( E[y_{t}] = \mu \)、また\( E[\epsilon_{t}] = 0 \)であることを用いると
\( \begin{eqnarray} E[y_{t}] &=& \phi_{0} + \phi_{1}E[y_{t}] + \phi_{2}E[y_{t}] + \cdots + \phi_{n}E[y_{t}] \\ &=& \displaystyle \frac{ \phi_{0} }{ 1 – \phi_{1} – \phi_{2} – \cdots – \phi_{n} } \end{eqnarray} \)
よって\(n\)次ARモデルの期待値\( E[y_{t}] \)を求めることができました。
\(n\)次ARモデルの自己共分散
それでは、まず\(n\)次ARモデルの分散\( V[y_{t}] \)を求めてみましょう。期待値と同じように\(n\)次ARモデルの式(1)から分散\( V[y_{t}] \)を考えます。
\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} \)
上記の式の両辺の分散をとります。
\( \begin{eqnarray} V[y_{t}] &=& V[\phi_{1}y_{t-1}] + V[\phi_{2}y_{t-2}] + \cdots + V[\phi_{n}y_{t-n}] + V[\epsilon_{t}] \\ &=& \phi_{1}^2V[y_{t-1}] + \phi_{2}^2V[y_{t-2}] + \cdots + \phi_{n}^2V[y_{t-n}] + \sigma^2 \end{eqnarray} \)
定常であるとき、どんな\( t \)に対しても\( V[y_{t}] = \gamma_0 \)であるから、
\( V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 – \phi_{2}^2 – \cdots – \phi_{n}^2 } \) … ②
よって分散\( V[y_{t}] \)を求めることができました。
次に\( j \)次自己共分散\( \gamma_j \)を求めます。
\( \begin{eqnarray} \gamma_j = Cov[y_{t}, y_{t – j}] &=& Cov[ \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} , y_{t – j}] \\ &=& \phi_{1}Cov[y_{t-1},y_{t-j}] + \phi_{2}Cov[y_{t-2},y_{t-j}] + \cdots + \phi_{n}Cov[y_{t-n},y_{t-j}] \\ &=& \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \end{eqnarray} \)
これは1次ARモデルの自己共分散と同じ求め方ですね。
\(n\)次ARモデルの自己相関
次は\( j \)次自己相関を求めてみましょう。
\( \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \)
両辺を\( y_{t} \)の分散\( \gamma_0 \)で割ると
\( p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} + \cdots + \phi_{n}p_{j-n} \)
確かに\( j \)次自己相関を求めることができました。
\(2\)次ARモデルの統計量
\(2\)次ARモデルの期待値、分散、自己共分散
今までは\(n\)次ARモデルの統計量について考えてきました。ここではより具体的に\(2\)次ARモデルの統計量について考えてみましょう。
以下の式で表される\(2\)次ARモデルについて考えてみましょう。
\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \epsilon_{t} \)
ただし\( \epsilon_{t} \)は分散\( \sigma^2 \)のホワイトノイズとする。また、定常とする。
\(n\)次ARモデルの期待値、分散、自己共分散、自己相関はそれぞれ以下の式で表される。
\( E[y_{t}] = \displaystyle \frac{ \phi_{0} }{ 1 – \phi_{1} – \phi_{2} – \cdots – \phi_{n} } \)
\( V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 – \phi_{2}^2 – \cdots – \phi_{n}^2 } \)
\( \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \)
\( p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} + \cdots + \phi_{n}p_{j-n} \)
これを用いて、\(2\)次ARモデルの期待値、分散、自己共分散、自己相関について考えると以下のように求まります。
\( E[y_{t}] = \displaystyle \frac{ \phi_{0} }{ 1 – \phi_{1} – \phi_{2} } \)
\( V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 – \phi_{2}^2 } \)
\( \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} \)
\( p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} \)
まとめ
この記事ではまず\(n\)次ARモデルの統計量について考えました。その後、具体例として\(2\)次ARモデルの統計量について考えてみました。
ARモデルの統計量を求めるために定常であるという仮定をおいたことを忘れないようにしましょう。
モデルが定常であるからこそ期待値、自己共分散といった統計量を求めることができるのです。
最新投稿記事
-
AIプロジェクトの企画と失敗しない進め方を解説 2021年1月19日
-
AVILEN人材育成コース受講体験談:山田裕之さん「E資格の”その先”を目指して」 2021年1月8日
-
AI導入とは?RPAとの関係、プロセス、事例、メリット、費用を詳細に解説 2020年12月7日
-
注目のAI開発企業11社!支援領域や提供方法など検証! 2020年10月28日
-
AI人材を育成できる研修プログラムを一挙紹介! 2020年10月20日
-
【2021年版】期待のAI資格11選!就職・転職にも使える! 2020年10月18日
-
JDLAとは?G検定、E資格の認定プログラム、合格者の会など紹介! 2020年10月14日
-
G検定(2020#3)受験申し込み開始、11月7日(土)実施-JDLA 2020年10月1日
-
【独占】コロナ禍で人材登録急増、アノテーション単月売上高は4倍超-パソナJOB HUB 2020年10月1日
-
E資格を転職に活用!評判とデータを徹底調査! 2020年9月29日
週間ランキング
【2021年版】コスパ重視のG検定対策!おすすめの本・講座・教材を一挙紹介! 2020年6月6日
【2021年版】期待のAI資格11選!就職・転職にも使える! 2020年10月18日
G検定に短期間・独学で合格した勉強法を解説! 2020年8月3日
G検定は難しい?難易度・合格ライン・問題を徹底解説! 2020年6月19日
注目のAI開発企業11社!支援領域や提供方法など検証! 2020年10月28日
G検定に落ちた人、合格した人。勉強法の違いはどこにある? 2020年6月25日
最弱オセロを初めて攻略した天才オセロ高校生。負け方を解説! 2020年7月31日
【2021年版】E資格とは?大注目のディープラーニングの資格を解説! 2020年9月29日
E資格の難易度を、合格率と問題から徹底分析! 2020年8月11日
評判上昇中のG検定を取得するメリットを解説! 2020年7月10日
