2019/02/12
2020/04/14
見せかけの回帰について分かりやすく解説!!
今回は時系列分析を行う上で気をつけなくてはならない「見せかけの回帰」について説明します。
この「見せかけの回帰」は経済・金融データを扱うときなどに生じる不都合な問題です。
この記事では「見せかけの回帰」がどのような現象か、またどのように回避するばいいのかについて考えていきます。
見せかけの回帰
見せかけの回帰とは
「見せかけの回帰」とは2つの無関係な時系列データに関して回帰分析を行うと有意な相関が表れてしまう問題です。
もちろん、いつも「見せかけの回帰」が起きるわけではありません。
この「見せかけの回帰」は回帰分析に用いる2つの時系列データがどちらも単位根過程に従うときに現れます。
単位根過程とはどんな確率過程であったでしょうか。単位根過程とは差分系列\( {\Delta}y_t \)が定常分布に従う過程を指すのでしたね。
今回は単位根過程の一つであるランダムウォークを用いてこの「見せかけの回帰」について考えていきましょう。
見せかけの回帰の実例
「見せかけの回帰」という現象を理解するために以下の2つのランダムウォーク\( x_{t},y_{t} \)を用います。
\( x_{t} = 1 + x_{t-1} + \varepsilon_t \)
\( y_{t} = 1 + y_{t-1} + \zeta_t \)
\( \varepsilon_t ~ iid(0, 1)、\zeta_t ~ iid(0,1)\)に従う。
まずは以下のグラフを見て2つのランダムウォーク、\( x_{t}, y_t \)の振る舞いを見てみましょう。
黒線が\( x_{t} \)、赤線が\(y_t \)を表しています。
上記のグラフを見ると\( x_{t},y_{t} \)どちらもランダムに動いているように見えます。
この\( x_{t},y_{t} \)2つの間に有意な関係があるようには見えません。
実際に回帰分析をして確認してみましょう。以下が回帰分析の結果です。
xのt値が17.27であることを考えると\( x_{t},y_{t} \)の間に有意な関係が表れていると分かります。
確かに無関係であるはずの2つのランダムウォークに有意な関係が現れました。これが「見せかけの回帰」という現象です。
見せかけの回帰の対策
では「見せかけの回帰」を防ぐためにはどのようにすればいいのでしょうか。
「見せかけの回帰」を回避する方法は主に2つあります。
一つは\( x_{t},y_{t} \)それぞれの差分系列\( \Delta x_t \)、\( \Delta y_t \)を用いて回帰分析することです。
2つのランダムウォーク、\( x_{t},y_{t} \)の差分系列\( \Delta x_t \)、\( \Delta y_t \)は定常過程に従います。
以下の式変形を見ると\( \Delta x_t \)、\( \Delta y_t \)が定常過程に従うことが分かります。
\( \Delta x_t = x_{t} – x_{t-1} = 1 + \varepsilon_t \) \( \Delta y_t = y_{t} – y_{t-1} = 1 + \zeta_t \)
\( \Delta x_t \)、\( \Delta y_t \)はどちらも単位根過程ではないので、回帰分析をしても「見せかけの回帰」は起きません。
では実際に差分系列\( \Delta x_t \)、\( \Delta y_t \)に対して回帰分析をしてみましょう。
まずは\( \Delta x_t \)、\( \Delta y_t \)をプロットしたグラフを観察してみましょう。
黒線が\( \Delta x_t \)、赤線が\( \Delta y_t \)です。確かにどちらも定常過程に従うように見えます。
では\( \Delta y_t = a + b\Delta x_t \)の回帰分析の結果も見てみましょう。
x_diffに対するPr値を見てみると0.05以上であるため、\( \Delta x_t \)、\( \Delta y_t \)の間に有意な関係がないと分かります。
確かに単位根過程に従う\( x_{t},y_{t} \)の差分系列を用いた回帰分析で「見せかけの回帰」を防ぐことができました。
「見せかけの回帰」を避けるもう一つの方法があります。
回帰式の説明変数にラグ変数、時差のある変数を追加することで「見せかけの回帰」を防ぐことができます。
例えば、\( y_t \)に対し\( x_t \)だけでなく\( x_{t-1} \)を説明変数に用いて回帰分析するということです。
実際にラグ変数を加えて回帰分析を行うとどうなるかその結果を確認してみましょう。
以下の回帰式にあてはめることを考えます。
\( y_t = a + b_1x_t + b_2x_{t-1} \)
では実際の回帰結果を確認してみましょう。
\( x_t , x_{t-1} \)それぞれのPr値を見ると0.05以上であるため、\( x_t \)と\( y_t \)の間に有意な関係がないことが分かります。
確かに\( x_t \)のラグ変数を追加することで無関係な2つの変数間に有意性を見出す「見せかけの回帰」を回避することができました。
まとめ
この記事では「見せかけの回帰」がどのような問題であるか、またどのように防ぐかについて説明してきました。
時系列データを用いるときは「見せかけの回帰」が起きていないか、特に用いる時系列データが単位根過程に従っていないか注意しましょう。
沖本さんの「経済・ファイナンスデータの計量時系列分析」を参考にしました。
最新投稿記事
-
AIプロジェクトの企画と失敗しない進め方を解説 2021年1月19日
-
AVILEN人材育成コース受講体験談:山田裕之さん「E資格の”その先”を目指して」 2021年1月8日
-
AI導入とは?RPAとの関係、プロセス、事例、メリット、費用を詳細に解説 2020年12月7日
-
注目のAI開発企業11社!支援領域や提供方法など検証! 2020年10月28日
-
AI人材を育成できる研修プログラムを一挙紹介! 2020年10月20日
-
【2021年版】期待のAI資格11選!就職・転職にも使える! 2020年10月18日
-
JDLAとは?G検定、E資格の認定プログラム、合格者の会など紹介! 2020年10月14日
-
G検定(2020#3)受験申し込み開始、11月7日(土)実施-JDLA 2020年10月1日
-
【独占】コロナ禍で人材登録急増、アノテーション単月売上高は4倍超-パソナJOB HUB 2020年10月1日
-
E資格を転職に活用!評判とデータを徹底調査! 2020年9月29日
週間ランキング
【2021年版】コスパ重視のG検定対策!おすすめの本・講座・教材を一挙紹介! 2020年6月6日
G検定に短期間・独学で合格した勉強法を解説! 2020年8月3日
【2021年版】期待のAI資格11選!就職・転職にも使える! 2020年10月18日
G検定は難しい?難易度・合格ライン・問題を徹底解説! 2020年6月19日
注目のAI開発企業11社!支援領域や提供方法など検証! 2020年10月28日
G検定に落ちた人、合格した人。勉強法の違いはどこにある? 2020年6月25日
最弱オセロを初めて攻略した天才オセロ高校生。負け方を解説! 2020年7月31日
【2021年版】E資格とは?大注目のディープラーニングの資格を解説! 2020年9月29日
E資格の難易度を、合格率と問題から徹底分析! 2020年8月11日
MLOpsとは|定義、メリット、課題、ツール、ワークフローを分かりやすく解説 2020年9月18日
