\[ \begin{align}\begin{aligned}\require{color}
\newcommand{\alert}[1]{{\color{RedOrange} #1}}
\newcommand{\notation}[2]{\underset{\color{MidnightBlue}\text{#2}}{#1}}
\newcommand{\simbolo}[2]{\underset{\color{MidnightBlue}#2}{#1}}
\newcommand{\notationbrace}[2]{{\underbrace{#1}_{\color{MidnightBlue}\text{#2}}}}
\DeclareMathOperator{\dd}{\,d\!}
\DeclareMathOperator{\E}{\mathbb{E}{}}
\DeclareMathOperator{\Var}{Var{}}
\DeclareMathOperator{\Cov}{Cov{}}
\DeclareMathOperator{\Lag}{L{}}
\DeclareMathOperator*{\argmin}{argmin}
\DeclareMathOperator*{\argmax}{argmax}
\DeclareMathOperator{\Prob}{\mathbb{P}}
\newcommand{\marginal}[2]{\frac{\partial #1}{\partial #2}}
\newcommand{\MAT}[1]{\begin{bmatrix} #1 \end{bmatrix}}
\newcommand{\mat}[1]{\left[\begin{smallmatrix} #1 \end{smallmatrix}\right]}\\\begin{split}\DeclareMathOperator{\R}{\mathbb{R}}
\DeclareMathOperator{\X}{\mathbf{x}}
\DeclareMathOperator{\y}{\mathbf{y}}
\DeclareMathOperator{\h}{\mathbf{h}}
\newcommand{\stackEq}[1]{\MAT{#1_1 \\ #1_2 \\ \vdots \\ #1_M}}
\newcommand{\e}{\mathbf{\epsilon}}
\newcommand{\Y}{\mathbf{Y}}
\newcommand{\estimator}[2]{{\hat{#1}^{\text{#2}}}}
\newcommand{\estimate}[2]{\underset{(#2)}{#1}}
\DeclareMathOperator{\plim}{plim}
\newcommand{\PLIM}[2]{#1\xrightarrow{p} #2}\end{split}\end{aligned}\end{align} \]
7.2. El modelo SUR
Basado en \textcite[capítulo 10]{Greene:2012}
Introducción
Hay modelos uniecuacionales que aplican a un grupo de variables relacionadas.
Ejemplos:
Como los errores \(\epsilon_{it}\) de las distintas ecuaciones pueden estar correlacionados, es preferible considerar los modelos de manera conjunta.
Modelo de regresiones aparentemente no relacionadas (SUR)
En este modelo se presentan un grupo de variables dependientes, pero NO simultáneas.
Cada ecuación puede tener sus propias variables explicativas o éstas pueden ser las mismas para todas las ecuaciones.
Las ecuaciones del sistema son
\[\begin{equation*}
\left\{
\begin{aligned}
\y_1 &= \X_1\beta_1 + \e_1 \\
\y_2 &= \X_2\beta_2 + \e_2 \\
&\qquad\vdots \\
\y_M &= \X_M\beta_M + \e_M
\end{aligned}
\right.
\end{equation*}\]
que se pueden expresar como
\[\begin{equation*}
\simbolo{\stackEq{\y}}{\Y} =
\simbolo{\MAT{\X_1 & 0 & \dots & 0 \\
0 & \X_2 & \dots & 0 \\
& & \ddots \\
0 & 0 & \dots & \X_M} }{\X}
\simbolo{\stackEq{\beta}}{\beta} +
\simbolo{\stackEq{\e}}{\e}
\end{equation*}\]
El modelo SUR: errores correlacionados
Se asume que perturbaciones de distintas observaciones no están correlacionadas, aunque las perturbaciones de distintas ecuaciones sí pueden estar correlacionados:
\[\begin{equation*}
\E\left[\e_i\e'_j | \X \right] = \sigma_{ij}I
\end{equation*}\]
o bien
\[\begin{equation*}
\simbolo{\E\left[\e \e' | \X\right]}{\Omega} =
\simbolo{\MAT{\sigma_{11}I & \sigma_{12}I & \dots & \sigma_{1M}I \\
\sigma_{21}I & \sigma_{22}I & \dots & \sigma_{2M}I \\
& & \ddots \\
\sigma_{M1}I & \sigma_{M2}I & \dots & \sigma_{MM}I} }{\Sigma \otimes I}
\end{equation*}\]
$\otimes$: el producto kronecker
Estimación de un modelo SUR
El modelo SUR
\[\begin{equation*}
\left.
\begin{aligned}
\Y&= \X\beta + \e \\
\E\left[\e | \X \right] &=0 \\
\Var\left[\e | \X \right] &=\Omega = \Sigma \otimes I
\end{aligned}
\right\}
\alert{\text{supuestos del modelo generalizado de regresión lineal!}}
\end{equation*}\]
puede ser estimado por FGLS:
\[\begin{align*}
\estimator{\beta}{GLS} &= \left[\X'\Omega^{-1}\X\right]^{-1}\X'\Omega^{-1}\Y \\
&= \left[\X'(\Sigma \otimes I)^{-1}\X\right]^{-1}\X'(\Sigma \otimes I)^{-1}\Y
\end{align*}\]
Caso especial del modelo SUR
Si todas las regresiones tienen los mismos regresores, estimar el sistema SUR por GLS es equivalente a estimar ecuación por ecuación con OLS.
En el caso especial \(\X_1 =\dots = \X_M = \mathbb{X}\) tenemos
\[\begin{equation*}
\X =
\MAT{\X_1 & 0 & \dots & 0 \\
0 & \X_2 & \dots & 0 \\
& & \ddots \\
0 & 0 & \dots & \X_M}
=
\MAT{\mathbb{X} & 0 & \dots & 0 \\
0 & \mathbb{X} & \dots & 0 \\
& & \ddots \\
0 & 0 & \dots & \mathbb{X}}
= I \otimes \mathbb{X}
\end{equation*}\]
y el estimador GLS es
\[\begin{align*}
\estimator{\beta}{GLS} &=\left[\X'(\Sigma \otimes I)^{-1}\X\right]^{-1}\X'(\Sigma \otimes I)^{-1}\Y \\
&= \left[(I \otimes \mathbb{X})'(\Sigma \otimes I)^{-1}(I \otimes \mathbb{X})\right]^{-1}(I \otimes \mathbb{X})'(\Sigma \otimes I)^{-1}\Y \\
&= \left[(I \otimes \mathbb{X}')(\Sigma^{-1} \otimes I)(I \otimes \mathbb{X})\right]^{-1}(I \otimes \mathbb{X}')(\Sigma^{-1} \otimes I)\Y \\
&= \left[\Sigma^{-1} \otimes (\mathbb{X'X})\right]^{-1}\left[\Sigma^{-1} \otimes \mathbb{X}'\right]\Y \\
&= \left[\Sigma \otimes (\mathbb{X'X})^{-1}\right]\left[\Sigma^{-1} \otimes \mathbb{X}'\right]\Y \\
&= \left[I \otimes (\mathbb{X'X})^{-1}\mathbb{X}'\right]\Y \\
&= \left[I \otimes (\mathbb{X'X})^{-1}\mathbb{X}'\right]\Y \\
&= \MAT{(\mathbb{X'X})^{-1}\mathbb{X}' & 0 & \dots & 0 \\
0 & (\mathbb{X'X})^{-1}\mathbb{X}' & \dots & 0 \\
& & \ddots \\
0 & 0 & \dots & (\mathbb{X'X})^{-1}\mathbb{X}'} \stackEq{\y} \\
&= \stackEq{(\mathbb{X'X})^{-1}\mathbb{X}'\y} = \stackEq{\estimator{\beta}{OLS}}
\end{align*}\]
\[\begin{align*}
\estimator{\beta}{GLS}
&= \left[I \otimes (\mathbb{X'X})^{-1}\mathbb{X}'\right]\Y \\
&= \MAT{(\mathbb{X'X})^{-1}\mathbb{X}' & 0 & \dots & 0 \\
0 & (\mathbb{X'X})^{-1}\mathbb{X}' & \dots & 0 \\
& & \ddots \\
0 & 0 & \dots & (\mathbb{X'X})^{-1}\mathbb{X}'} \stackEq{\y} \\
&= \stackEq{(\mathbb{X'X})^{-1}\mathbb{X}'\y} = \stackEq{\estimator{\beta}{OLS}}
\end{align*}\]
Tip
Este resultado justifica que un VAR sin restricciones se estima ecuación por ecuación con OLS.