Fundamentos de Econometría: Supuestos, Estimadores MCO y Pruebas de Hipótesis

Supuestos de Normalidad y Estimadores MELI

Cuando se incorpora el supuesto de normalidad de los errores poblacionales, los estimadores MCO (Mínimos Cuadrados Ordinarios) son MELI (Mejor Estimador Lineal Insesgado).

V: Al incorporar el supuesto de normalidad de los errores ($u_i$), los estimadores MCO son los mejores estimadores insesgados, pudiendo ser lineales o no.

El Término de Error y la Naturaleza de la Regresión

El término de error muestral en un modelo econométrico surge por la discrepancia entre la variable endógena observada y la variable endógena estimada.

V: $u_i = Y – \hat{Y}$

La normalidad de los errores permite probar hipótesis acerca de los coeficientes del modelo econométrico.

V: Si el error es normal, también lo será la distribución de la variable endógena y, con ello, la de los coeficientes.

El análisis de regresión entre las variables $X$ e $Y$ implica que $X$ causa a $Y$.

F: El Análisis de Regresión no implica causalidad de las variables, ni de $X$ sobre $Y$, ni de $Y$ sobre $X$.

El análisis de regresión me permite determinar con cierta precisión los valores individuales de la variable dependiente a partir de los valores de la variable independiente.

F: El análisis de regresión permite establecer la relación entre las variables dependientes $X$ sobre el valor promedio de la variable $Y$.

Inferencia Estadística y Significancia Global

En un modelo de regresión múltiple, la significancia global considera como hipótesis nula que todos los parámetros son simultáneamente iguales a 0.

F: Solo considera como hipótesis que los parámetros de la variable explicativa son iguales a 0, no así el intercepto.

La inferencia estadística se invalida si las variables explicativas presentan una fuerte asociación lineal entre ellas.

F: La fuerte asociación lineal de las $X$ aumenta la varianza de los $\beta$ estimados, lo que aumenta los intervalos de confianza de los parámetros de hipótesis, haciendo más probable el no rechazo de $H_0$, pero no invalida la inferencia misma.

Autocorrelación y Eficiencia de los Estimadores

Cuando hay presencia de autocorrelación, los estimadores MCO son sesgados, lo mismo que ineficientes.

F: En presencia de autocorrelación, los estimadores MCO siguen siendo insesgados, pero ya no tienen varianza mínima; ya no son MELI, es decir, ya no son eficientes.

La transformación de primera diferencia para eliminar la autocorrelación supone que el coeficiente de autocorrelación $\rho$ es -1.

F: Para eliminar la autocorrelación, se supone que el coeficiente de autocorrelación es $\rho = +1$, es decir, que las perturbaciones están correlacionadas positivamente.

En presencia de autocorrelación, las varianzas calculadas convencionalmente y los errores estándar de los valores pronosticados son ineficientes.

V: Las varianzas ya no son mínimas; es decir, dejan de ser MELI y, por lo tanto, dejan de ser eficientes.

Bondad de Ajuste y Coeficiente de Determinación ($R^2$)

Un coeficiente de determinación ajustado permite corregir las varianzas estimadas y por ello ayuda a la inferencia estadística.

F: El $R^2$ ajustado solo corrige el coeficiente de determinación de regresión múltiple, considerando el número de variables explicativas vía el ajuste de grados de libertad.

Obtener un $R^2$ alto es muy bueno en una estimación, ya que facilita la interpretación de los parámetros estimados.

F: Indica que un mayor porcentaje de variación de $Y$ es explicada por las $X$, pero no dice nada de los $\hat{\beta}$.

La bondad de ajuste de una regresión será mejor en la medida que mayor sea la sumatoria de los errores estimados al cuadrado.

F: La bondad de ajuste es más deficiente.

El coeficiente de determinación en un modelo de regresión múltiple mide la asociación lineal entre la variable explicativa y la variable explicada.

F: El coeficiente de determinación mide el porcentaje de la variación de la variable $Y$ explicada por el conjunto de las variables explicativas.

Los valores $R^2$ de dos modelos, de los cuales uno corresponde a una regresión en forma de primera diferencia y otra en forma de nivel, no son directamente comparables.

V: Para que los $R^2$ sean comparables, las variables dependientes deben ser las mismas y, en este caso, no lo son, debido a que al tomar las primeras diferencias estamos estudiando esencialmente el comportamiento de variables alrededor de sus valores de tendencia.

Pruebas de Hipótesis y Especificación del Modelo

El test de Fisher es útil para realizar pruebas de hipótesis en modelos de regresión múltiple, ya que considera los sesgos de especificación.

F: El test $F$ permite realizar pruebas de hipótesis en modelos de regresión múltiple y no considera el tema de sesgos de especificación de una estimación. Para testear los sesgos de especificación se puede realizar el test RESET.

Evaluación de Enunciados Específicos

  • A) Mientras más débil sea la colinealidad de las variables explicativas, más significativos serán los parámetros individuales de una regresión: V. A menor colinealidad de las $X$, más bajas serán las varianzas estimadas de los $\hat{\beta}$. Esto lleva a un mayor estadístico $t$, con lo que los parámetros estimados son más significativos.
  • B) La autocorrelación es un problema en econometría ya que impide determinar un parámetro de forma precisa: F. La autocorrelación es un problema dado que los $\hat{\beta}$ MCO dejan de ser MELI debido a que pierden la propiedad de mínima varianza, invalidando la inferencia estadística.
  • C) La fuerte correlación de las variables explicativas en un modelo de regresión múltiple impide determinar la significancia estadística de los parámetros poblacionales: F. La fuerte correlación hace que la estimación de $\beta$ poblacional sea imprecisa, llevando a estadísticos $t$ bajos, pero los estimadores siguen siendo MELI.
  • D) Fisher es útil para pruebas de hipótesis en modelos de regresión múltiple ya que considera los sesgos de especificación del modelo econométrico: F. Permite realizar distintas inferencias estadísticas de los $\beta$ poblacionales y no tiene relación con el sesgo de especificación de un modelo econométrico.
  • E) Si existe autocorrelación en los errores, se puede estimar el modelo econométrico sin problema: F. Los estimadores dejan de ser MELI.
  • F) Un cambio estructural en un modelo solo se puede probar aplicando variables cualitativas: F. También se puede comprobar a través del test de Chow.
  • G) Jarque-Bera permite determinar si las pruebas de hipótesis son concretas: F. Mide la normalidad de los errores poblacionales a partir de los errores estimados.
  • H) Para realizar inferencia estadística de los parámetros poblacionales en un modelo de regresión múltiple se necesita conocer los estadísticos $t$ para los parámetros estimados: Incompleto. Dependiendo del test de hipótesis, para significancia individual se usa la t de Student, pero para otros se necesita la F de Fisher.
  • I) El término error poblacional se debe incorporar a una regresión para asegurarse que el modelo sea estocástico y no determinístico para poder realizar hipótesis de los parámetros poblacionales: F. Se incorpora para recoger factores que no están explícitos en la regresión y que afectan al valor promedio de la variable $Y$.
  • J) ¿Cuando se incorpora el supuesto de normalidad de los errores poblacionales los estimadores MCO son MELI?: V. Al incorporar el supuesto de normalidad de los errores, los estimadores MCO son los mejores estimadores insesgados, pudiendo ser lineales o no.
  • K) Un $R^2$ alto es muy bueno en una estimación ya que facilita la interpretación de los parámetros estimados: F. Un $R^2$ alto indica que un mayor porcentaje de la variación de $Y$ es explicada por las $X$, pero no dice nada de los $\beta$ estimados.
  • L) Los test $t$ son importantes para descartar que los parámetros estimados sean cero: F. Los test $t$ ayudan a medir la significancia estadística de los $\beta$ poblacionales y no de los estimados.
  • M) Los test $F$ son válidos en la medida que no exista una fuerte asociación lineal entre las variables explicativas y el estadístico Jarque-Bera sea cero (JB): V. El testeo de hipótesis descansa en la normalidad de los errores; con un JB igual a cero hay evidencia de normalidad. Por otro lado, la asociación lineal entre las $X$ afecta a los estadísticos $t$ sin llegar a invalidarlos, pero no afecta directamente a los test $F$.
  • N) Las variables dummy son usadas básicamente para evaluar cómo la presencia de un atributo afecta el intercepto de una regresión: F. Se usan para evaluar cambios tanto en el intercepto como en la pendiente asociados a la presencia de un atributo; esto se valida con la prueba $t$.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.