5.1 本章の概要

二変数間の関係を捉える分析手法として 第3.7節では相関係数を紹介した。相関係数は二変数間の線形関係を表す -1から 1 の値を取る指標である。 しかしながら、相関係数は線形関係の強さ(どれだけデータが直線上に近く分布しているか)を表しているものの、示されている直線の切片や傾きといった線形関数の特徴は捉えられない。本章では、ビジネス領域で最も広く用いられる手法の一つである回帰分析を紹介する。回帰分析は、理論や産業的知識から導出された仮説を検証したり、変数間の関係について予測を行うために用いられる方法である。回帰分析の最も基本的な構造は以下のように線形関数の形で変数間の関係を捉えるモデルを定式化するものである:

\[ y_i=\alpha+\beta x_i+u_i \] このとき、\(y_i\) は被説明変数(従属変数)、\(x_i\) は説明変数(独立変数)、\(u_i\) は誤差項と呼ぶ。\(\alpha\)\(\beta\) はそれぞれ切片と傾きを表す係数である。経営学・マーケティング領域の研究では、これらの係数について推定・検定することが主たる目的になる事が多い。また、回帰分析では複数の説明変数を含むモデルの定式化も可能である。 本章では、Rを用いた分析手法および、分析結果の解釈について紹介する。回帰分析の原則や解釈上の注意については、別途テキストを参照してほしい。ここでは特に重要な注意点として簡単に以下の三つを紹介する。第一に回帰分析では、切片と傾きパラメータを用いた線形関数で被説明変数と説明変数の関係を示しているが、これはこれらの変数間の平均的な関係を捉えたものである。より具体的には、ある \(x\) の値が与えられたときの \(y\) の「平均値(期待値)」と \(x\) の間には線形の関係があることを示している。第二に、ソフトウェアで回帰分析を実行すると、回帰係数に対する検定を行ってくれるが、このような検定では、「係数がゼロか否か」を検定している。そのため、係数の検定結果(統計的に有意か否か)をもとに、\(x\)\(y\) に与える影響の強さや程度について議論することはできないという点に注意が必要である。第三に、重回帰モデルにおける係数解釈とその重要性について強調する。重回帰モデルにおける説明変数の係数は、同モデル内の他の変数の影響をコントロールしたうえでの説明変数が被説明変数へ与える影響を表現している。これは、説明変数が持つ変動のうち他の説明変数とは無関係な変動だけを抽出し、被説明変数との関係を分析する構造になっているためである。この特性は分析におけるコントロール変数の採用や、より信頼性の高い効果検証を目的として広く活用されている。