RIESGO EN LA TOMA DE DECISIONES AL USAR LA METODOLOGIA DE PRUEBA DE HIPOTESIS
RIESGO EN LA TOMA DE DECISIONES AL USAR LA METODOLOGÍA DE PRUEBA DE HIPÓTESIS
CHERWIN CHIRINOS
LOS PROBLEMAS DE LOS MÉTODOS CLÁSICOS
Revisemos los principales problemas de los métodos para métricos clásicos para entender su importancia.
- Los datos reales suelen ser multimodales, asimétricos y con largas colas en su distribución de valores, por lo que raramente son normales.
- La igualdad de varianza poblacional (i.e. homogeneidad de varianza u homocedasticidad) suele no cumplirse, debido a la naturaleza de los diseños experimentales y de las muestras.
- . Variabilidad inherente a los datos. Los grupos definidos por un factor pre-existente pueden tener varianzas diferentes. Por ejemplo, la respuesta a un test cognitivo es más variable en personas mayores que en los jóvenes. También puede ocurrir que una variable experimental cause diferencias en la variabilidad entre grupos. Por ejemplo, la respuesta de los sujetos ante un nuevo fármaco pueden generar gran variabilidad en el grupo experimental, mientras que el grupo control tendrá una respuesta bastante homogénea; aún cuando en el pre-test los grupos fueran homogéneos en su respuesta.
El incumplimiento de la normalidad y homogeneidad de varianza puede tener gran influencia en los resultados de las pruebas paramétricas clásicas, en particular en las probabilidades de error tipo I y tipo II.
- El error tipo I ocurre cuando falsamente se rechaza la hipótesis nula (i.e. concluimos que existe un efecto cuando realmente no ocurre). El nivel de confianza (1-alfa) es la probabilidad de no cometer el error tipo I.
- El error tipo II ocurre cuando la hipótesis nula no es rechazada aún cuando a pesar de que es falsa (i.e. concluimos falsamente que no existe efecto). La potencia (1-beta) de una prueba es la probabilidad de que el error tipo II no ocurra.
6 ERRORES QUE COMETEN LOS INVESTIGADORES AL USAR LA PRUEBA DE HIPÓTESIS
1. Falta de corroboración de los supuestos clásicos. Por olvido o por desconocimiento. Además, softwares como el SPSS no son muy útiles para ello. Por ejemplo, cuando los tamaños muestrales son pequeños, el test de Levene para la homogeneidad de varianza, puede dar resultados engañosos pero no es fácil encontrar alternativas en SPSS. También, las pruebas para corroborar los supuestos tienen sus propios supuestos. Las pruebas de normalidad asumen homocedasticidad, y las pruebas de homocedasticidad asumen normalidad.
No se debemos utilizar solamente pruebas estadísticas para corroborar los supuestos, tendremos que ayudarnos con gráficos para determinar qué ocurre con nuestros datos.
2. Argumento erróneo sobre la resistencia. Se suele decir que las pruebas paramétricas clásicas son resistentes a las variaciones en los supuestos de normalidad y homocedasticidad, negando así la necesidad de utilizar procedimientos alternativos. Sin embargo, esta afirmación se basa en estudios que solo analizan el impacto de pequeñas desviaciones de la normalidad y homocedasticidad, no en grandes desviaciones que son las más frecuentes en los datos reales. Incluso estos estudios suelen analizar dichos supuestos de manera aislada cuando en la práctica los dos supuestos se incumplen al mismo tiempo.
Las pruebas paramétricas clásicas son resistentes solo en un número limitado de circunstancias, no para la mayoría de ellas. Además, aún si un investigador insiste en que las pruebas clásicas son resistentes, debemos recordarle que las pruebas robustas son más potentes.
3. Incorrecta utilización de las transformaciones. Algunos investigadores suelen optar por transformar sus datos para cumplir los supuestos clásicos. Sin embargo, las transformaciones son problemáticas: i) a menudo fallan en conseguir la normalidad y homocedasticidad, ii) no se ocupan de los outliers, iii) pueden reducir la potencia, iv) dificultan la interpretación de los resultados ya que los hallazgos se basan en la transformación, no en los datos originales. Recomendamos utilizar los métodos robustos en lugar de utilizar los métodos clásicos con datos transformados.
4. Utilización errónea de las pruebas no-paramétricas clásicas. Estas pruebas no son robustas ante la hetorocedasticidad, y solo son útiles para análisis simples (a no ser que se incluyan técnicas de remuestreo o bootstrap).
5. Conceptos erróneos acerca de la disponibilidad los métodos modernos robustos. Como no están disponibles de manera sencilla en los softwares más comerciales (SPSS, SAS, etc.) no los uso. ¡Error! Ya existen complementos en estos programas y además están disponibles en softwares gratuitos y avanzados como R.
6. . Vale, entiendo que sea contraintuitivo que las pruebas más precisas sean aquellas que eliminan información (outliers). Por ello hay que ser cuidadosos en evaluar primero a qué se debe la presencia de casos atípicos, pero si su presencia no se explica por otras variables no consideradas, tiene sentido aplicar técnicas robustas para disminuir su influencia en nuestros resultados.
POSIBLES SOLUCIONES
- la transformación de los datos, de tal manera de que sigan una distribución normal y/o homocedástica.
- Esta opción no siempre es útil ya que, por ejemplo, la nueva variable transformada puede no ser sencilla de interpretar; además, no solucionan los problemas de outliers, pueden reducir la potencia estadística, etc..
- utilizar pruebas no paramétricas
- Esta es una buena alternativa ya que las pruebas no paramétricas no se basan en ninguna suposición en cuanto la distribucón de los datos (normalidad; pero sí sigue asumiendo homocedasticidad).
- utilizar pruebas robustas.
- Son similares a las paramétricas pero resistentes a la presencia de datos extremos, y son estables respecto a pequeñas desviaciones del modelo paramédico asumido (desviaciones de la normalidad y homocedásticidad).
Una de las formas más sencillas de darle un uso incorrecto a la estadística:
ResponderBorrarSe refiere a la conclusión científica final que se obtiene cuando el analista no rechaza la hipótesis nula H0. Se intenta aclarar lo que significan la hipótesis nula y la alternativa, y también enfatizamos que, en general, la hipótesis alternativa es mucho más importante. A modo de ejemplo, si un ingeniero trata de comparar dos calibradores utilizando una prueba t de dos muestras, y H0 afirma que “los calibradores son equivalentes”, mientras que H1 afirma que “los calibradores no son equivalentes”, no rechazar H0 no lo lleva a concluir que los calibradores son equivalentes. De hecho, !se puede dar el caso de que nunca se escriba o se diga “acepto H0 ”! El hecho de no rechazar H0 sólo implica que no existe evidencia suficiente. Según la naturaleza de la hipótesis, no se descartan aún muchas posibilidades.
En la prueba de hipótesis es riesgoso reemplazar σ con s para n < 30. Si n ≥ 30 y la distribución no es normal pero se acerca hasta cierto punto a la normal, se requiere el teorema del límite central y se confía en el hecho de que con n ≥ 30, s ≈ σ. Desde luego, cualquier prueba t va acompañada por la suposición concomitante de normalidad. Como en el caso de los intervalos de confianza, la prueba t es relativamente robusta para la normalidad. Sin embargo, cuando la muestra no es demasiado pequeña es necesario utilizar gráficas de probabilidad normal, pruebas de bondad de ajuste u otros procedimientos gráficos.
Muy buen aporte. Igualmente quisiera agregar algo más al tema. ¿Para qué sirve conocer los tipos de errores?. La información recopilada sólo nos proporciona evidencia suficiente para aceptar o rechazar una hipótesis en base a la información que proporciona una muestra, pero siempre existe una probabilidad de error. Entonces es importante destacar que en una prueba de hipótesis (HP) NO es posible tener un 100% de seguridad. Por eso mismo, debe quedar claro el porcentaje de error tipo 1 o nivel de significancia al momento de concluir.
ResponderBorrar