Las pruebas estadísticas

Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o de Gauss.

Pero en muchas ocasiones esta suposición no resulta válida, y en otras la sospecha de que no sea adecuada no resulta fácil de comprobar, por tratarse de muestras pequeñas.

En estos casos disponemos de dos posibles mecanismos:

  • Los datos se pueden transformar de tal manera que sigan una distribución normal.
  • O bien se puede acudir a pruebas estadísticas que no se basan en ninguna suposición en cuanto a la distribución de probabilidad a partir de la que fueron obtenidos los datos, y por ello se denominan pruebas no paramétricas (distribución free), mientras que las pruebas que suponen una distribución de probabilidad determinada para los datos se denominan pruebas paramétricas.

1) PRUEBAS NO PARAMÉTRICAS:

Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas suposiciones, no parten de la base de que los datos analizados adoptan una distribución normal.

Técnica estadística que no presupone ninguna distribución de probabilidad teórica de la distribución de nuestros datos.

Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos, por ello se conocen también como de distribución libre (distribución free).

En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento, por lo que su base lógica es de fácil comprensión.

Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal.

En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima.

Las pruebas no paramétricas no requieren asumir normalidad de la población y en su mayoría se basan en el ordenamiento de los datos, la población tiene que ser continua.

El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media.

Son técnicas estadísticas que no presuponen ningún modelo probabilístico teórico.

Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden aplicar más fácilmente.

2) PRUEBAS PARAMÉTRICAS:
Las pruebas estadísticas paramétricas, como la de la “t” de Student o el análisis de la varianza (ANOVA), se basan en que se supone una forma determinada de la distribución de valores, generalmente la distribución normal, en la población de la que se obtiene la muestra experimental.

En contraposición de la técnicas no paramétricas, las técnicas paramétricas si presuponen una distribución teórica de probabilidad subyacente para la distribución de los datos.

Son más potentes que las no paramétricas.

Dentro de las pruebas paramétricas, las más habituales se basan en la distribución de probabilidad normal, y al estimar los parámetros del modelo se supone que los datos constituyen una muestra aleatoria de esa distribución, por lo que la elección del estimador y el cálculo de la precisión de la estimación, elementos básicos para construir intervalos de confianza y contrastar hipótesis, dependen del modelo probabilístico supuesto.

Cuando un procedimiento estadístico es poco sensible a alteraciones en el modelo probabilístico supuesto, es decir que los resultados obtenidos son aproximadamente válidos cuando éste varía, se dice que es un procedimiento robusto.

3) ANÁLISIS DE LA VARIANZA (ANOVA)

ANOVA son siglas para el análisis de la Variación (ANalysis Of VAriance).

Un ANOVA segrega diversas fuentes de la variación vistas en resultados experimentales.

Conjunto de técnicas estadísticas para conocer el modo en que el valor medio de una variable es afectado por diferentes tipos de clasificaciones de los datos.

Con el análisis de la varianza se pueden ajustar las estimaciones del efecto de un tratamiento según otros factores como sexo, edad, gravedad, etc.

Es una técnica estadística que sirve para decidir/determinar si las diferencias que existen entre las medias de tres o más grupos (niveles de clasificación) son estadísticamente significativas.

Las técnicas de ANOVA se basan en la partición de la varianza para establecer si la varianza explicada por los grupos formados es suficientemente mayor que la varianza residual o no explicada.

El análisis de la varianza (ANOVA) es una técnica estadística de contraste de hipótesis.

Tradicionalmente estas técnicas, conjuntamente con las técnicas de regresión lineal múltiple, de las que prácticamente son una extensión natural, marcan el comienzo de las técnicas multivariantes.

Con estas técnicas se manejan simultáneamente más de dos variables, y la complejidad del aparato matemático se incrementa proporcionalmente con el número de variables en juego.

El análisis de la varianza de un factor es el modelo más simple: una única variable nominal independiente, con tres o más niveles, explica una variable dependiente continua.

Otra alternativa, que aparentemente es más lógica e intuitiva, consiste en comparar, en todas las posibles combinaciones de dos en dos, las medias de todos los subgrupos formados.

En el ANOVA se comparan medias, no varianzas: medias de los subgrupos o estratos originados por los factores de clasificación estudiados.

Un ANOVA entonces prueba si la variación asociada a una fuente explicada es grande concerniente a la variación inexplicada.

Si ese cociente (la estadística de F) es tan grande que la probabilidad que ocurrió por casualidad es baja (por ejemplo, P<=0.05), podemos concluir (en ese nivel de la probabilidad) que esa fuente de la variación tenía un efecto significativo.

CONDICIONES GENERALES DE APLICACIÔN.

A- INDEPENDENCIA DE LOS ERRORES I

Los errores experimentales han de ser independientes Se consigue si los sujetos son asignados aleatoriamente. Es decir, se consigue esta condición si los elementos de los diversos grupos han sido elegidos por muestreo aleatorio

B- NORMALIDAD

Se supone que los errores experimentales se distribuyen normalmente. Lo que supone que cada una de las puntuaciones yi.i se distribuirá normalmente.

Para comprobarlo se puede aplicar un test de ajuste a la distribución normal como et de Kolmogov-Smirnov.

C- HOMOGENEIDAD DE VARIANZAS (HOMOSCEDASTICIDAD).

La varianza de los subgrupos ha de ser homogénea σ21 = σ22 = …..= σ2k ya que están debidas al error. Se comprobarán mediante los test de: Razón de varianzas (máx. /min), C de Cochran, Barlett-Box…

 4) ANÁLISIS DE LA COVARIANZA (ANCOVA)

Método de análisis estadístico que es una extensión del análisis de la varianza, que permite ajustar los estimadores del efecto de un tratamiento según posibles covariables y factores.

Es una técnica estadística que combina ANOVA (pues compara medias entre grupos) y análisis de regresión (ajusta las comparaciones de las medias entres los grupos por variables continuas o covariables)

 5) ANÁLISIS DE REGRESIÓN

En un conjunto de datos sobre la variable dependiente y sobre una o más variables independientes,pruebas-estadisticas-ensayos-clinicos_clip_image002 , consiste en determinar el modelo matemático más ajustado que describa y como una función de las x o para predecir y a partir de las x.

Los tipos más corrientes son el modelo lineal y el modelo logístico.

 6) ANÁLISIS POR PROTOCOLO

En un ensayo clínico, análisis de los datos según el tratamiento tomado, en contraposición al análisis por intención de tratar, que se realiza según el tratamiento asignado en el proceso de asignación aleatoria. El análisis por protocolo tiende a medir la eficacia de la intervención, para cuya evaluación conviene incluir sólo a los pacientes que han estado realmente expuestos a los tratamientos planificados.