Validación y Supuestos Clave en Modelos de Regresión

Conceptos Clave en Modelos de Regresión

Autocorrelación

En presencia de autocorrelación, las varianzas calculadas convencionalmente y los errores estándar de los valores pronosticados son ineficientes.

V: Las varianzas ya no son mínimas, es decir, dejan de ser MELI (Mejores Estimadores Lineales Insesgados) y, por lo tanto, dejan de ser eficientes.

Coeficiente de Determinación (R²)

Un coeficiente de determinación ajustado permite corregir las varianzas estimadas y, por ello, ayuda a la inferencia estadística.

F: El R² ajustado solo corrige el coeficiente de determinación de regresión múltiple, considerando el número de variables explicativas, vía el ajuste de grados de libertad.

Obtener un R² alto es muy bueno en una estimación, ya que facilita la interpretación de los parámetros estimados.

F: Dice que un mayor % de variación de Y es explicada por las X’s, pero no dice nada de los β̂ (parámetros estimados).

El coeficiente de determinación en un modelo de regresión múltiple mide la asociación lineal entre la variable explicativa y la variable explicada.

F: El coeficiente de determinación mide el % de la variación de la variable Y explicada por el conjunto de las variables explicativas.

Bondad de Ajuste

La bondad de ajuste de una regresión será mejor en la medida que mayor sea la sumatoria de los errores estimados al cuadrado.

F: La bondad de ajuste es peor.

Comparación de Modelos

Los valores R² de dos modelos, de los cuales uno corresponde a una regresión en forma de primera diferencia y otra en forma de nivel, no son directamente comparables.

V: Para que los R² sean comparables, las variables dependientes deben ser las mismas y en este caso no lo son, debido a que al tomar las primeras diferencias estamos estudiando esencialmente el comportamiento de variables alrededor de sus valores de tendencia.

Tests de Hipótesis (F y t)

El test de Fisher es útil para realizar pruebas de hipótesis en modelos de regresión múltiple, ya que considera los sesgos de especificación.

F: El test F permite realizar tests de hipótesis en modelos de regresión múltiple y no considera el tema de sesgos de especificación de una estimación. Para testear los sesgos de especificación se puede realizar el Test RESET.

Los tests t son importantes para descartar que los parámetros estimados sean cero.

F: Los tests t ayudan a medir la significancia de los β poblacionales y no de los β estimados.

Los tests F son válidos en la medida de que no exista una fuerte asociación lineal entre las variables explicativas y el estadístico JB = 0.

V: El testeo de hipótesis descansa en la normalidad de los errores. Con un JB ≈ 0, hay evidencia de normalidad. La asociación lineal entre las X’s afecta a los tests t sin llegar a invalidarlos, pero no a los tests F.

En el modelo de regresión múltiple, la contribución de una variable adicional más se mide con un test t.

F: El test t permite evaluar la significancia individual. Para conocer la contribución de una variable adicional se usa el test F.

Test RESET

¿Para qué sirve y en qué consiste el Test RESET?

Sirve para testear sesgos de especificación y consiste en construir un test F basado en la regresión base.

Variables Dummy

¿Por qué no se pueden incluir todas las categorías de una variable dummy en un modelo de regresión?

Porque generaría perfecta multicolinealidad, imposibilitando estimar los parámetros.

Heterocedasticidad

Si hay heterocedasticidad, las pruebas convencionales T y F son inválidas.

F: Solo pierden eficiencia y certeza en la prueba de hipótesis.

¿Cuál es el problema de enfrentar heterocedasticidad en un modelo de regresión? ¿Cómo se puede resolver cuando existe evidencia de su presencia?

El problema es que los estimadores no son MELI, lo que lleva a que las pruebas de hipótesis puedan ser inválidas. Si se conoce o supone algún patrón de heterocedasticidad, se pueden aplicar los MCG (Mínimos Cuadrados Generalizados).

Mínimos Cuadrados Generalizados (MCG)

¿Para qué sirve la estimación de MCG en presencia de heterocedasticidad? ¿Bajo qué condición se podría aplicar?

Sirve para encontrar estimadores poblacionales que cumplan con la propiedad MELI y se puede aplicar solo cuando se conoce el patrón de heterocedasticidad.

Tests de Heterocedasticidad (White y BPG)

Para determinar heterocedasticidad, el test de White es más usado que el test de BPG, ya que incorpora más variables explicativas de la heterocedasticidad y sirve para muestras pequeñas.

I: El test de White es más usado porque no exige normalidad de los errores poblacionales; sin embargo, tanto el test de White como el BPG son tests asintóticos, es decir, que solo sirven para muestras grandes (de más de 100 datos).

Multicolinealidad

Con multicolinealidad severa, la estimación que se realice de los parámetros poblacionales será imprecisa y los tests t no permitirán realizar el testeo de significancia.

Con multicolinealidad severa, los estimadores serán más imprecisos y los estadísticos t tenderán a ser más pequeños, ya que las desviaciones estándar tienden a aumentar fuertemente para las variables explicativas colineales. Se puede realizar el testeo de significancia, pero puede ser engañoso en algunos casos.

Tanto la prueba F para significancia global del modelo como la prueba de White para evaluar la presencia de heterocedasticidad, no consideran el término constante del modelo.

V: Ya que la prueba F estima la significancia global del modelo y la prueba de White evalúa si las variables explicativas generan o no cambios en la varianza del error.

Prueba de Durbin-Watson

La prueba D de Durbin-Watson supone que la varianza del término de error uᵢ es homocedástica.

V: Uno de los supuestos de la prueba de Durbin-Watson es que las X son fijas o no estocásticas en muestreo repetido, por lo tanto, la varianza es constante a lo largo de la recta de regresión.

Una d de Durbin-Watson significativa no necesariamente significa que hay autocorrelación de primer orden.

F: Uno de los supuestos de la prueba d de Durbin-Watson es que es solamente válida para detectar autocorrelación que hubiese sido ganada por procesos AR(1).

La exclusión de una o varias variables importantes de un modelo de regresión pueden producir un valor d significativo.

V: Cuando se excluyen variables que son relevantes en el modelo, estas pasan a formar parte del término de perturbación, y como el estadístico d mide la autocorrelación de primer orden en los residuos, un valor d significativo puede indicar la exclusión de variables relevantes, ya que sus efectos pasan al término de error, generando autocorrelación.

Regresión en Primeras Diferencias

En la regresión de la primera diferencia de Y sobre las primeras diferencias de X, si hay un término constante y un término de tendencia lineal, significa que en el modelo original hay un término de tendencia lineal y uno de tendencia cuadrática.

F: Se supone que si en la primera diferencia de Y sobre las primeras diferencias de X existe un término constante y un término de tendencia lineal, el modelo original no tendrá un término de tendencia cuadrática.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.