Variables Aleatorias y Distribuciones de Probabilidad en Estadística

Variable Aleatoria Discreta

Función de distribución → función escalonada creciente en donde la magnitud del salto en cada escalón es Pi.

Función de variable real que nos indica cómo se reparte la probabilidad de los valores que toma dicha variable. [F(r) = P(x=r)] ∀r∈R

Propiedades:

  • 0 ≤ F(r) ≤ 1
  • lím F(r) = 1, lím F(r) = 0
  • F(r) es creciente, es decir, r1 < r2 ∀r1, r2∈R
  • lím F(r) = F(a)
  • P(a < x ≤ b) = F(b) – F(a)

Función de densidad → la función asigna a cada valor i su probabilidad pi(X=xi), se llama función de probabilidad de la variable X.

P(ri) = F(X=xi)

P(r) = 0 si r ≠ ri

Variable Aleatoria Continua

Función de distribución → una variable aleatoria X es continua si su función de distribución es continua, es decir, su función de densidad es 0 en el intervalo.

Una variable aleatoria es continua si existe una función f(t) tal que:

F(r) = P(x ≤ r) = ∫-∞r f(t)dt

Función de densidad → f'(t) es función de densidad de probabilidad de la variable aleatoria X

f(r) = F'(r)

Propiedades:

  • f(r) > 0
  • ∫ f(r)dr = 1
  • Si f(r) es continua, F'(r) = f(r)
  • P(a < x ≤ b) = ∫ab f(t)dt

Definiciones

ESTADÍSTICO: función real cuyo argumento es una muestra aleatoria. Es una variable aleatoria: T(x1, x2…, xn) para calcular los parámetros: media, mediana y moda.

*Estimador: cuando el estadístico se utiliza con el fin de estimar el parámetro de una población.

  • Estimador insesgado si su esperanza matemática es igual al valor del parámetro que se estima. Ej: media de μ.
  • Estimador sesgado: (no insesgado) ej: s² de σ²

Intervalo de confianza: rango de valores obtenidos de tal manera que se puede asegurar, a priori, la probabilidad de que vaya a contener al parámetro que se estima es igual a p.

Hipótesis estadística: cualquier propiedad que enunciemos o postulemos acerca de una población.

Hipótesis nula: (Ho) hipótesis estadística que va a ser objeto de análisis debiendo decidir, mediante un criterio basado en el muestreo, si se acepta o se rechaza. Es la hipótesis correcta, a no ser que se encuentren fuertes evidencias de lo contrario.

Hipótesis alternativa: (Ha) hipótesis discrepante con la nula, que debemos aceptar al rechazar aquello.

Estadístico de contraste: Variable muestral en que nos apoyamos para establecer el criterio de decisión.

Contraste de hipótesis: procedimiento por el que se considera si la hipótesis nula es correcta.

Error de tipo I: se comete al rechazar la hipótesis nula siendo cierta. Su probabilidad se llama significación (α)

Error de tipo II: cometido al aceptar una hipótesis siendo falsa. Su probabilidad es β.

Potencia: el contraste a la probabilidad de rechazar la hipótesis nula siendo falsa es igual a: 1-P(E)= 1- β.

Región crítica: valores que llevan a rechazar Ho.

Región de aceptación: valores que llevan a aceptar Ho.

*Media aritmética: de un conjunto de datos es igual a la suma de todos ellos dividido entre el número de datos:

Media: Σ xifi / n

*Mediana: dada una lista ordenada de observaciones, es el valor que ocupa el lugar central.

*Moda: es el valor de la variable más frecuente

*Cuartil: son valores de la variable que dividen la distribución en 4 partes, cada una de las cuales engloba el 25% de los datos. Se denota: Q1 Q2(Me) Q3, Q4.

*Decil: son los valores de la variable que divide a la distribución en 10 partes iguales, D1, D2…

*Centil o percentil: son los valores que dividen a la distribución en 100 partes iguales, 99 percentiles, P1, P2…

*Rango o recorrido de una distribución: es la diferencia entre el mayor y el menor valor de la variable estadística: R = Xn – X1

*Desviación media: es la media aritmética de los valores absolutos de las desviaciones, de los valores de la variable con respecto de la media.

DM = Σ |xi – (media)|fi / n

*Varianza: es la media aritmética de los cuadrados de las desviaciones de los valores de la variable con respecto de la media de la distribución: V = s² = Σ (xi – (media))²fi / n

*Desviación típica: es la raíz cuadrada positiva de la varianza.

*Probabilidad: se calcula la probabilidad de un suceso aleatorio A, según la regla de Laplace, como el cociente entre el número de casos favorables A, y el de todos los posibles resultados del experimento.

P(A) = nº favorables A / nº casos posibles

≥ ≤

χ² Pearson

La suma de los cuadrados n, variables aleatorias normales, independientes y tipificadas conllevan a una nueva variable aleatoria llamada χ² de Pearson. Y las variables independientes n, representan el nº de grados de libertad

χ² = Σ zi²

El cálculo del nº de grados de libertad es la suma de todas las variables independientes que se atribuyen a χ², menos las restricciones.

Propiedades:

  • Está definida por el intervalo (0, ∞)
  • No es simétrica
  • Es continua en todo su dominio excepto en x=0 si n=1 o 2
  • Tiene un máximo si n >= 2
  • Solo depende del nº de grados de libertad.

Media = n, desviación = √2n.

A medida que aumenta el nº grados de libertad tiene asintóticamente a una normal.

Aplicaciones:

  • Contraste de distribuciones de frecuencias observadas
  • Cálculo del intervalo de confianza para la variable de la población normal
  • Contraste de hipótesis para la varianza.

T-student

Como ya sabemos por el teorema central del límite, dado una variable x de media u y desviación típica σ, si tomamos muestras de tamaño n la variable: (media – u) / (σ / √n) = N(0,1)

En muchas ocasiones no conocemos la desviación típica de la distribución de partida x, debiendo estimarse con la desviación muestral.

La variable (media – u) / (S / √n) presenta mayor variabilidad si se remplaza la constante por la variable S muestral.

Si Z e Y son dos variables aleatorias independientes de modo que Z sigue la distribución N(0,1) Y sigue una distribución chi² con n grados de libertad el cociente: tn = t / √(y / n)

Propiedades:

  • Dominio de definición: (-∞, ∞)
  • Solo depende del nº grados libertad
  • Es simétrica y de forma campaniforme
  • Media: 0, mediana: 0, moda: 0
  • Al aumentar los grados de libertad tiene asintóticamente a la curva normal.

Aplicaciones:

  • Cálculo de Ic para la media de una distribución normal
  • Contraste hipótesis para la media de una distribución normal, varianza desconocida.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.