top of page

Métodos Estadísticos

Diversidad de métodos y pruebas para hacer inferencias

Agrupación de métodos estadísticos

Agrupación de métodos estadísticos

Es posible decir que el sentído de la estadística radica en el estudio de los datos para el análisis de problemas y toma de deciciones. En este sentído existen diversas metodologías con las cuales un profesional puede valerse para proceder a trabajar con los datos. Así estas metodologías se agrupan u ordenan en grupos para facilitar su comprensión. Veamos una forma posible de ordenar y agrupar estos métodos, a continuación.


1. Estimación de Parámetros

La estimación de parámetros se centra en obtener valores que describan características de la población (como media, proporción o varianza) basándose en una muestra.


Métodos principales:

  1. Estimación puntual: Calcula un único valor como mejor estimador del parámetro poblacional.

    Ejemplo: Media muestral para la media poblacional.
    Proporción muestral para la proporción poblacional.

  2. Estimación por intervalo: Calcula un intervalo de confianza que contiene el parámetro poblacional con un cierto nivel de confianza.

    Ejemplo:Intervalo de confianza para la media o la diferencia de proporciones.

  3. Métodos basados en bootstrap: Utilizan remuestreo con reemplazo para generar una distribución empírica de un estimador y calcular intervalos de confianza.
    Ventajas: No depende de supuestos paramétricos fuertes.
    Ejemplo: Estimar el intervalo de confianza para la mediana o diferencias entre grupos.

Otras técnicas complementarias:

  • Estimación bayesiana: Usa información previa y datos muestrales para actualizar estimaciones.

  • Métodos de máxima verosimilitud: Encuentran el parámetro que maximiza la probabilidad de observar los datos.


2. Pruebas de Hipótesis

Las pruebas de hipótesis son procedimientos para evaluar si una afirmación sobre un parámetro poblacional o relación es consistente con los datos muestrales.

Métodos paramétricos (requieren supuestos como normalidad):

  1. Pruebas para una muestra: Prueba t de Student (media poblacional).
    Prueba z (proporciones o medias en muestras grandes).

  2. Pruebas para dos muestras: Prueba t para muestras independientes o relacionadas.
    Prueba z para proporciones.

  3. Pruebas para más de dos grupos: ANOVA (Análisis de Varianza): Compara medias entre múltiples grupos.
    Pruebas F: Comparación de varianzas.

  4. Pruebas de bondad de ajuste e independencia: Prueba de Chi-cuadrado para bondad de ajuste e independencia.
    Kolmogorov-Smirnov o Shapiro-Wilk: Verifican normalidad.

Métodos no paramétricos (no requieren supuestos fuertes):

  1. Prueba de Mann-Whitney: Compara rangos entre dos grupos.

  2. Prueba de Wilcoxon: Para datos pareados.

  3. Prueba de Kruskal-Wallis: Comparación entre más de dos grupos.

  4. Prueba de rachas: Para evaluar aleatoriedad.

Métodos basados en permutaciones:

  • Calculo de una distribución nula de forma empírica, útil para comparar estadísticas como medias, medianas o correlaciones.

    • Ejemplo: Comparar medias entre dos grupos cuando las suposiciones paramétricas no se cumplen.

Pruebas basadas en bootstrap:

  • Calcula valores p o intervalos de confianza para pruebas como la diferencia de medias, sin depender de distribuciones teóricas.


3. Análisis de Regresión

El análisis de regresión se utiliza para modelar relaciones entre una variable dependiente y una o más variables independientes.

Técnicas principales:

  1. Regresión lineal simple:Modela la relación entre una variable dependiente continua y una independiente.

  2. Regresión lineal múltiple:Extiende la regresión simple para incluir múltiples predictores.

  3. Regresión no lineal:Modela relaciones no lineales mediante funciones polinómicas o modelos específicos.

  4. Regresión logística:Modela una variable dependiente binaria.

Métodos de validación y mejora:

  • Bootstrap: Utilizado para validar los coeficientes estimados al remuestrear los datos.

  • Métodos de permutación: Verifican la significancia de coeficientes específicos al generar una distribución nula.


4. Análisis de Correlación

El análisis de correlación evalúa la fuerza y dirección de la relación entre dos variables.

Métodos principales:

  1. Correlación paramétrica:Coeficiente de Pearson: Evalúa relaciones lineales entre variables continuas.

  2. Correlación no paramétrica:Coeficiente de Spearman: Para relaciones monótonas (ordinales o no lineales).
    Coeficiente de Kendall: Evalúa relaciones entre rangos.

  3. Análisis de correlación basado en permutaciones: Permuta los valores de una variable para construir una distribución nula del coeficiente de correlación.
    Aplicable cuando las suposiciones de Pearson o Spearman no se cumplen.


5. Análisis de series de tiempo

  • Modelos ARIMA, SARIMA


6. Estadística Bayesiana

  • Modelos inferenciales que usan distribuciones previas y posteriores.

bottom of page