La variabilidad se refiere a la extensión o dispersión de un grupo de puntuaciones. Las medidas de variabilidad (a veces llamadas medidas de dispersión) proporcionan información descriptiva sobre la dispersión de las puntuaciones dentro de los datos. De esta manera, las medidas de variabilidad proporcionan estadísticas resumidas para comprender la variedad de puntuaciones en relación con el punto medio de los datos. Las medidas comunes de variabilidad incluyen rango, varianza y desviación estándar.

Medidas de variabilidad

La variabilidad se refiere a qué tan separados están los puntajes de la distribución o cuánto varían los puntajes entre sí. Hay cuatro medidas principales de variabilidad, incluido el rango, el rango intercuartílico, la varianza y la desviación estándar. El rango representa la diferencia entre la puntuación más alta y la más baja de una distribución. Rara vez se usa porque considera solo los dos puntajes extremos. El rango intercuartílico, por otro lado, mide la diferencia entre los puntajes más externos en solo el cincuenta por ciento medio de los puntajes. En otras palabras, para determinar el rango intercuartílico, la puntuación en el percentil 25 se resta de la puntuación en el percentil 75, que representa el rango del 50 por ciento medio de las puntuaciones.

La varianza es el promedio de las diferencias al cuadrado de cada puntuación con respecto a la media. Para calcular la varianza, la diferencia entre cada puntuación y la media se eleva al cuadrado y luego se suma. Esta suma luego se divide por el número de puntajes menos uno. Cuando se toma la raíz cuadrada de la varianza, llamamos a esta nueva estadística la desviación estándar. Dado que la varianza representa las diferencias al cuadrado, la desviación estándar representa las diferencias reales y, por lo tanto, es más fácil de interpretar y de uso mucho más común. Sin embargo, dado que la desviación estándar se basa en la media de la distribución, también se ve afectada por puntuaciones extremas en una distribución asimétrica.

Antecedentes

Durante la última década, ha habido un fuerte aumento en el número de metaanálisis de estudios de diagnóstico publicados y los métodos para realizar tal metaanálisis han evolucionado rápidamente. Analizar la variabilidad en los resultados de los estudios primarios es un desafío en cualquier tipo de revisión sistemática. Pero es aún más difícil en las revisiones sistemáticas de estudios de diagnóstico. Esto se debe a que el interés suele estar en dos estimaciones correlacionadas del mismo estudio: pares de sensibilidad y especificidad. La mejor forma de evaluar la variabilidad en los resultados de los estudios de diagnóstico exige mayor atención.

Es probable que las estimaciones de la precisión de la prueba difieran entre los estudios en un metanálisis. Esto se conoce como variabilidad o heterogeneidad (en el sentido amplio de la palabra). Se puede esperar cierta variabilidad en las estimaciones simplemente debido al azar como resultado de un error de muestreo. Incluso si los estudios son metodológicamente idénticos y se llevan a cabo en la misma población, sus resultados pueden diferir porque cada estudio solo observa una muestra de toda la población teórica.

Cuando hay más variabilidad de la esperada debido únicamente al azar, esto se denomina heterogeneidad estadística, y algunos se refieren a ella como “verdadera heterogeneidad” o simplemente como heterogeneidad [4-6]. Cuando hay heterogeneidad estadística, indica que la precisión de una prueba difiere entre los estudios (esto a veces se denomina diferencia en los “efectos reales”). Se puede alentar a los revisores a buscar posibles explicaciones para estas diferencias, ya que pueden tener importantes implicaciones clínicas. Cuanto mayor sea la variabilidad más allá del azar, más difícil será llegar a conclusiones sólidas sobre las implicaciones clínicas de los resultados del metanálisis.

 La Prueba Q de Cochran

Cuando hay una sola medida de efecto (univariante), la prueba Q de Cochran se usa a menudo para probar la variabilidad más allá del azar y I2 se usa para cuantificar esta variabilidad. A diferencia de las revisiones de intervenciones que se centran en una sola medida de efecto (p. Ej., Una razón de riesgo o razón de probabilidades), las revisiones de los estudios de diagnóstico a menudo metanálisis de dos resultados correlacionados, a saber, la sensibilidad y la especificidad (las proporciones de enfermos y no enfermos que son correctamente identificado).

La sensibilidad y la especificidad varían inversamente con el umbral en el que los pacientes se consideran enfermos, lo que lleva a una correlación negativa entre estas estimaciones conocida como efecto umbral. Los umbrales pueden ser explícitos, como los valores específicos utilizados en las pruebas de laboratorio, o implícitos, como las diferencias en la forma en que se interpretan las pruebas de imagen entre los estudios.

En un metanálisis de pruebas de diagnóstico, los umbrales explícitos o implícitos de la prueba en estudio pueden diferir entre los estudios, lo que lleva a estimaciones variables de sensibilidad y especificidad. Es clínicamente relevante conocer la variabilidad que existe más allá de lo que podría atribuirse al azar o al efecto umbral. En lugar de realizar dos análisis univariados separados de sensibilidad y especificidad en los que es imposible calcular la cantidad de variabilidad que se debe al efecto umbral, otro enfoque es centrarse en un solo parámetro, como la razón de probabilidades de diagnóstico (DOR), precisión general, o el índice de Youden.

La Curva de Moses – Littenberg

La curva característica de funcionamiento del receptor resumido de Moses-Littenberg (SROC) adopta este enfoque modelando la relación entre la precisión y un parámetro relacionado con el umbral, a saber, la proporción con resultados de prueba positivos. Más recientemente, sin embargo, se ha demostrado que los modelos de efectos aleatorios bivariados jerárquicos son más apropiados y más intuitivos, como el modelo de efectos aleatorios bivariados propuesto por Reitsma et al., que se enfoca en estimar un punto de resumen y la región de confianza correspondiente o el modelo jerárquico.

El Modelo SROC (HSROC)

Se centra en ajustar una curva de característica operativa del receptor resumido (SROC). Estos modelos son modelos de efectos aleatorios que asumen que los efectos reales varían con una distribución dada alrededor de un valor medio y estiman esa distribución, a diferencia de los modelos de efectos fijos que asumen que todos los estudios comparten el mismo efecto común.

El HSROC y el modelo bivariado son idénticos cuando no se incluyen covariables y los parámetros de un modelo se pueden usar para calcular los del otro. El análisis de efectos aleatorios bivariados estima la cantidad de correlación entre las dos medidas de resultado, lo que permite el cálculo de las varianzas condicionales entre estudios (es decir, la varianza en la especificidad a un valor fijo de sensibilidad y viceversa) que son menores que entre – Estudie las variaciones de dos análisis univariados separados de sensibilidad y especificidad en caso de que haya una correlación (negativa) entre las dos medidas de resultado.

Variabilidad de las estimaciones en encuestas

Los encuestadores suelen hablar de precisión en términos del “margen de error” (MOE), que describe cuánto se espera que reboten las estimaciones de la encuesta si se repitiera la encuesta muchas veces de manera idéntica. Para las encuestas basadas en la probabilidad, el margen de error se basa generalmente en las propiedades matemáticas inherentes de las muestras aleatorias. Para las muestras opcionales, esto no es posible.

En cambio, el MOE debe basarse en suposiciones de modelado sobre cómo se verían otras muestras hipotéticas si el mismo proceso de muestreo se repitiera muchas veces. Aunque la interpretación es en gran medida la misma que para las muestras basadas en la probabilidad, lo llamamos margen de error “modelado” para reconocer explícitamente la confianza en estos supuestos.

Precisión de las Encuestas

Este tipo de error se suma a cualquier sesgo sistemático causado por la falta de cobertura, la falta de respuesta o la autoselección. Por ejemplo, una estimación con un MOE de ± 3 puntos porcentuales y sin sesgo normalmente estaría dentro de los 3 puntos de la verdad. Si el sesgo fuera de +10 puntos, el mismo margen de error significaría que las estimaciones normalmente caerían de 7 a 13 puntos por encima de la verdad, distribuidas de la misma manera pero centradas en el valor incorrecto.

Si bien el tamaño de la muestra generalmente se considera el factor más importante para determinar el MOE, la precisión de la encuesta también se ve afectada por la ponderación. La inclusión de más variables en el ajuste generalmente conduce a un MOE más grande, al igual que el desecho de observaciones al realizar la comparación.

Para ver cómo los diferentes procedimientos influyen en la variabilidad, calculamos el MOE modelado para cada una de las 81 estimaciones de las 24 variables de referencia y tomamos el promedio.23 Sin ponderar, el margen de error promedio en las referencias fue de ± 1,3 puntos porcentuales para un tamaño de muestra de n = 2.000. A medida que aumentó el tamaño de la muestra, el MOE promedio se redujo a un mínimo de ± 0,4 puntos en n = 8.000.

El margen de error modelado aumenta solo ligeramente con la adición de variables políticas

Un hallazgo claro es que el uso de variables políticas además de la demografía básica tiene un efecto mínimo sobre el margen de error. Para los 14 métodos y para todos los tamaños de muestra, la adición de variables políticas al procedimiento de ajuste nunca aumentó el MOE promedio en más de 0,2 puntos porcentuales. En la mayoría de los casos, la diferencia fue aún menor y, en algunos casos, el MOE promedio fue en realidad menor con las variables políticas que sin ellas.24 Dado este patrón consistente, el resto de esta sección se enfocará solo en los procedimientos que se ajustan tanto en los aspectos demográficos como variables políticas.

Nuestros especialistas esperan por ti para que los contactes a través del formulario de cotización o del chat directo. También contamos con canales de comunicación confidenciales como WhatsApp y Messenger. Y si quieres estar al tanto de nuestros novedosos servicios y las diferentes ventajas de contratarnos, síguenos en Facebook, Instagram o Twitter.

Si este artículo fue de tu agrado, no olvides compartirlo por tus redes sociales.

Referencias Bibliográficas

Pocock SJ, Hughes MD, Lee RJ. Statistical problems in the reporting of clinical trials – a survey of three medical journals. N Engl J Med. 1987;317:426–32.

García-Berthou E, Alcaraz C. Incongruence between test statistics and P values in medical papers. BMC Med Res Methodol. 2004;4:13–7.

Cooper RJ, Schriger DL, Close RJ. Graphical literacy: The quality of graphs in a large-circulation journal. Ann Emerg Med. 2002;40:317–22.

Goodman SN, Altman DG, George SL. Statistical reviewing policies of medical journals. J Gen Intern Med. 1998;13:753–6.

También te podría interesar: Transferibilidad en la Investigación Cuantitativa

La Variabilidad y sus medidas

La Variabilidad y sus medidas

 

 

Abrir chat
1
Escanea el código
Bienvenido(a) a Online Tesis
Nuestros expertos estarán encantados de ayudarte con tu investigación ¡Contáctanos!