Supuestos de Normalidad y Estimadores MELI
Cuando se incorpora el supuesto de normalidad de los errores poblacionales, los estimadores MCO (Mínimos Cuadrados Ordinarios) son MELI (Mejor Estimador Lineal Insesgado).
V: Al incorporar el supuesto de normalidad de los errores ($u_i$), los estimadores MCO son los mejores estimadores insesgados, pudiendo ser lineales o no.
El Término de Error y la Naturaleza de la Regresión
El término de error muestral en un modelo econométrico surge por la discrepancia entre la variable endógena observada y la variable endógena estimada.
V: $u_i = Y – \hat{Y}$
La normalidad de los errores permite probar hipótesis acerca de los coeficientes del modelo econométrico.
V: Si el error es normal, también lo será la distribución de la variable endógena y, con ello, la de los coeficientes.
El análisis de regresión entre las variables $X$ e $Y$ implica que $X$ causa a $Y$.
F: El Análisis de Regresión no implica causalidad de las variables, ni de $X$ sobre $Y$, ni de $Y$ sobre $X$.
El análisis de regresión me permite determinar con cierta precisión los valores individuales de la variable dependiente a partir de los valores de la variable independiente.
F: El análisis de regresión permite establecer la relación entre las variables dependientes $X$ sobre el valor promedio de la variable $Y$.
Inferencia Estadística y Significancia Global
En un modelo de regresión múltiple, la significancia global considera como hipótesis nula que todos los parámetros son simultáneamente iguales a 0.
F: Solo considera como hipótesis que los parámetros de la variable explicativa son iguales a 0, no así el intercepto.
La inferencia estadística se invalida si las variables explicativas presentan una fuerte asociación lineal entre ellas.
F: La fuerte asociación lineal de las $X$ aumenta la varianza de los $\beta$ estimados, lo que aumenta los intervalos de confianza de los parámetros de hipótesis, haciendo más probable el no rechazo de $H_0$, pero no invalida la inferencia misma.
Autocorrelación y Eficiencia de los Estimadores
Cuando hay presencia de autocorrelación, los estimadores MCO son sesgados, lo mismo que ineficientes.
F: En presencia de autocorrelación, los estimadores MCO siguen siendo insesgados, pero ya no tienen varianza mínima; ya no son MELI, es decir, ya no son eficientes.
La transformación de primera diferencia para eliminar la autocorrelación supone que el coeficiente de autocorrelación $\rho$ es -1.
F: Para eliminar la autocorrelación, se supone que el coeficiente de autocorrelación es $\rho = +1$, es decir, que las perturbaciones están correlacionadas positivamente.
En presencia de autocorrelación, las varianzas calculadas convencionalmente y los errores estándar de los valores pronosticados son ineficientes.
V: Las varianzas ya no son mínimas; es decir, dejan de ser MELI y, por lo tanto, dejan de ser eficientes.
Bondad de Ajuste y Coeficiente de Determinación ($R^2$)
Un coeficiente de determinación ajustado permite corregir las varianzas estimadas y por ello ayuda a la inferencia estadística.
F: El $R^2$ ajustado solo corrige el coeficiente de determinación de regresión múltiple, considerando el número de variables explicativas vía el ajuste de grados de libertad.
Obtener un $R^2$ alto es muy bueno en una estimación, ya que facilita la interpretación de los parámetros estimados.
F: Indica que un mayor porcentaje de variación de $Y$ es explicada por las $X$, pero no dice nada de los $\hat{\beta}$.
La bondad de ajuste de una regresión será mejor en la medida que mayor sea la sumatoria de los errores estimados al cuadrado.
F: La bondad de ajuste es más deficiente.
El coeficiente de determinación en un modelo de regresión múltiple mide la asociación lineal entre la variable explicativa y la variable explicada.
F: El coeficiente de determinación mide el porcentaje de la variación de la variable $Y$ explicada por el conjunto de las variables explicativas.
Los valores $R^2$ de dos modelos, de los cuales uno corresponde a una regresión en forma de primera diferencia y otra en forma de nivel, no son directamente comparables.
V: Para que los $R^2$ sean comparables, las variables dependientes deben ser las mismas y, en este caso, no lo son, debido a que al tomar las primeras diferencias estamos estudiando esencialmente el comportamiento de variables alrededor de sus valores de tendencia.
Pruebas de Hipótesis y Especificación del Modelo
El test de Fisher es útil para realizar pruebas de hipótesis en modelos de regresión múltiple, ya que considera los sesgos de especificación.
F: El test $F$ permite realizar pruebas de hipótesis en modelos de regresión múltiple y no considera el tema de sesgos de especificación de una estimación. Para testear los sesgos de especificación se puede realizar el test RESET.
Evaluación de Enunciados Específicos
- A) Mientras más débil sea la colinealidad de las variables explicativas, más significativos serán los parámetros individuales de una regresión: V. A menor colinealidad de las $X$, más bajas serán las varianzas estimadas de los $\hat{\beta}$. Esto lleva a un mayor estadístico $t$, con lo que los parámetros estimados son más significativos.
- B) La autocorrelación es un problema en econometría ya que impide determinar un parámetro de forma precisa: F. La autocorrelación es un problema dado que los $\hat{\beta}$ MCO dejan de ser MELI debido a que pierden la propiedad de mínima varianza, invalidando la inferencia estadística.
- C) La fuerte correlación de las variables explicativas en un modelo de regresión múltiple impide determinar la significancia estadística de los parámetros poblacionales: F. La fuerte correlación hace que la estimación de $\beta$ poblacional sea imprecisa, llevando a estadísticos $t$ bajos, pero los estimadores siguen siendo MELI.
- D) Fisher es útil para pruebas de hipótesis en modelos de regresión múltiple ya que considera los sesgos de especificación del modelo econométrico: F. Permite realizar distintas inferencias estadísticas de los $\beta$ poblacionales y no tiene relación con el sesgo de especificación de un modelo econométrico.
- E) Si existe autocorrelación en los errores, se puede estimar el modelo econométrico sin problema: F. Los estimadores dejan de ser MELI.
- F) Un cambio estructural en un modelo solo se puede probar aplicando variables cualitativas: F. También se puede comprobar a través del test de Chow.
- G) Jarque-Bera permite determinar si las pruebas de hipótesis son concretas: F. Mide la normalidad de los errores poblacionales a partir de los errores estimados.
- H) Para realizar inferencia estadística de los parámetros poblacionales en un modelo de regresión múltiple se necesita conocer los estadísticos $t$ para los parámetros estimados: Incompleto. Dependiendo del test de hipótesis, para significancia individual se usa la t de Student, pero para otros se necesita la F de Fisher.
- I) El término error poblacional se debe incorporar a una regresión para asegurarse que el modelo sea estocástico y no determinístico para poder realizar hipótesis de los parámetros poblacionales: F. Se incorpora para recoger factores que no están explícitos en la regresión y que afectan al valor promedio de la variable $Y$.
- J) ¿Cuando se incorpora el supuesto de normalidad de los errores poblacionales los estimadores MCO son MELI?: V. Al incorporar el supuesto de normalidad de los errores, los estimadores MCO son los mejores estimadores insesgados, pudiendo ser lineales o no.
- K) Un $R^2$ alto es muy bueno en una estimación ya que facilita la interpretación de los parámetros estimados: F. Un $R^2$ alto indica que un mayor porcentaje de la variación de $Y$ es explicada por las $X$, pero no dice nada de los $\beta$ estimados.
- L) Los test $t$ son importantes para descartar que los parámetros estimados sean cero: F. Los test $t$ ayudan a medir la significancia estadística de los $\beta$ poblacionales y no de los estimados.
- M) Los test $F$ son válidos en la medida que no exista una fuerte asociación lineal entre las variables explicativas y el estadístico Jarque-Bera sea cero (JB): V. El testeo de hipótesis descansa en la normalidad de los errores; con un JB igual a cero hay evidencia de normalidad. Por otro lado, la asociación lineal entre las $X$ afecta a los estadísticos $t$ sin llegar a invalidarlos, pero no afecta directamente a los test $F$.
- N) Las variables dummy son usadas básicamente para evaluar cómo la presencia de un atributo afecta el intercepto de una regresión: F. Se usan para evaluar cambios tanto en el intercepto como en la pendiente asociados a la presencia de un atributo; esto se valida con la prueba $t$.
