Pruebas no paramétricas

Las pruebas estadísticas no paramétricas pueden ser útiles cuando se trata de muestras pequeñas o cuando no se puede cumplir o asumir el requisito de una población distribuida normalmente. Estas pruebas son simples de calcular, pero tradicionalmente son menos poderosas y el investigador necesita evaluar el riesgo de un error de Tipo II. A menudo denominadas estadísticas sin distribución, las pruebas estadísticas no paramétricas no hacen suposiciones sobre la distribución de la población. No es necesario cumplir los requisitos de normalidad u homogeneidad de la varianza asociados con los procedimientos paramétricos (prueba z, pruebas t, pruebas F, correlación y regresión). Las pruebas de chi cuadrado a menudo se citan como sin distribución y se han tratado en un módulo anterior.

Estas pruebas sin distribución han tardado en ganar el favor de la comunidad farmacéutica, pero actualmente se ven con mayor frecuencia en la literatura, a menudo en paralelo con sus contrapartes paramétricas. Esto se ve en el siguiente ejemplo de un protocolo de ensayo clínico de 1989:

Si las variables a analizar son normalmente distribuidas y homogéneas con respecto a la varianza, se aplicará un análisis paramétrico de varianza que modele el diseño cruzado. Si no se cumplen estos criterios, se utilizarán pruebas no paramétricas adecuadas.

Las pruebas no paramétricas son relativamente sencillas de calcular. Su velocidad y conveniencia ofrece una clara ventaja sobre las alternativas paramétricas discutidas en los módulos anteriores. Por lo tanto, como investigadores, podemos utilizar estos procedimientos como un método rápido para evaluar los datos.

 

Uso de pruebas no paramétricas

Las pruebas no paramétricas generalmente implican clasificar o categorizar los datos y, al hacerlo, disminuimos la precisión de nuestra información (cambiando de los datos sin procesar a una clasificación relativa). Podemos ocultar las verdaderas diferencias y dificultar la identificación de diferencias significativas. En otras palabras, las pruebas no paramétricas requieren que las diferencias sean mayores si se desea que sean significativas. Aumentamos el riesgo de que aceptemos una hipótesis nula falsa (error de tipo II). Puede ser una ventaja para el investigador tolerar dudas menores acerca de la normalidad y homogeneidad asociadas con una prueba paramétrica determinada, en lugar de arriesgarse al mayor error posible con un procedimiento no paramétrico, incluso cuando la población subyacente puede no ser normal. Se sabe que algunas de las pruebas paramétricas discutidas anteriormente (en particular las pruebas t) son robustas frente al supuesto de normalidad, especialmente si hay tamaños de muestra grandes. Sin embargo, otros autores (por ejemplo, Conover, 1999) argumentan que las pruebas no paramétricas son preferibles e incluso más poderosas que las paramétricas si los supuestos (normalidad y homogeneidad) son falsos. Por lo tanto, los resultados que muestren variaciones extremadamente diferentes deben probarse utilizando el procedimiento no paramétrico apropiado. Por otra parte, las unidades en una escala ordinal pueden no ser equidistantes y violar los supuestos requeridos para los procedimientos paramétricos. Por ejemplo, considere la siguiente escala de uso común para que los investigadores evalúen el funcionamiento cognitivo de los pacientes con Alzheimer:

Descripción de la escala de rendimiento cognitivo

Puntaje

Evaluación

0

Intacto

1

Intacto en el límite

2

Deterioro leve

3

Deterioro moderado

4

Deterioro moderado a severo

5

Deterioro severo

6

Deterioro muy severo

 

¿La diferencia entre discapacidad leve y moderada a grave es el doble de la diferencia entre discapacidad leve y moderada? La respuesta es probablemente no.

Por lo tanto, la conversión de la escala ordinal inicial al posicionamiento relativo de una escala de orden de rango sería la prueba estadística más apropiada.

Las pruebas no paramétricas son particularmente útiles cuando existen valores atípicos potenciales (que se analizarán en el módulo 23). Debido a la clasificación involucrada, una observación extremadamente grande o pequeña recibirá el rango de 1 o N. Por ejemplo, suponga los siguientes números: 2, 3, 3, 4, 4, 5, 6, 7 y 15. En este el caso 15 parecería diferente de las otras ocho observaciones. Sin embargo, al clasificar los datos, el valor 15 se convertiría en el rango 9 y se minimizaría su diferencia con las otras observaciones. ¿Y si el último valor fuera 150 o incluso 15.000? Se le asignará el mismo rango de 9. Por lo tanto, las estadísticas no paramétricas generalmente no se ven afectadas por un solo valor atípico.

Este módulo explorará algunas de las pruebas no paramétricas más comúnmente utilizadas que se pueden usar en lugar de los métodos discutidos anteriormente (es decir, pruebas t, pruebas F, correlación). En muchas estadísticas no paramétricas, se usa la mediana en lugar de la media como medida de tendencia central. Las pruebas no paramétricas para crear intervalos de confianza alrededor de la mediana o comparar datos de muestra con una población hipotética incluyen: 1) prueba de signo de una muestra y 2) prueba de rangos con signo de Wilcoxon. Para analizar las diferencias entre dos niveles discretos de la variable independiente, las pruebas incluyen:

1) U de Mann-Whitney y 2) pruebas de mediana. Para comparar cómo se relacionan los grupos emparejados de datos entre sí, las pruebas apropiadas incluyen: 1) prueba de pares emparejados de Wilcoxon y 2) prueba de signos. Los análisis de modelos de varianza se pueden evaluar mediante: 1) la prueba de Kruskal-Wallis o 2) el análisis de varianza bidireccional de Friedman. Por último, para problemas de correlación, se puede sustituir la prueba rho de Spearman. Estos procedimientos no paramétricos son extremadamente valiosos y, en muchos casos, más apropiados cuando se analizan muestras de pequeño tamaño.

 

Referencia: Basic Statistics and Pharmaceutical Statistical Applications, Third Edition. James E. De Muth (2014).

Dejar un comentario

Por favor tenga en cuenta que los comentarios deben ser aprobados antes de ser publicados