La autocorrelación se refiere al grado de correlación entre los valores de las mismas variables en diferentes observaciones de los datos. El concepto de autocorrelación se discute más a menudo en el contexto de los datos de series temporales en los que las observaciones se producen en diferentes puntos del tiempo. Por ejemplo, cabe esperar que la temperatura del aire del primer día del mes sea más similar a la del segundo día que a la del último día del mes anterior. Si los valores de temperatura que ocurrieron más cerca en el tiempo son, de hecho, más similares que los valores de temperatura que ocurrieron más lejos en el tiempo, los datos estarían autocorrelacionados.
Sin embargo, la autocorrelación también puede darse en los datos transversales cuando las observaciones están relacionadas de alguna otra manera. En una encuesta, se podría esperar que las personas de ubicaciones geográficas cercanas proporcionen respuestas más similares entre sí que las personas que están más alejadas geográficamente. Del mismo modo, los estudiantes de la misma clase pueden tener un rendimiento más similar entre sí que los estudiantes de clases diferentes.
En un análisis de regresión, la autocorrelación de los residuos de regresión también puede producirse si el modelo está mal especificado. Por ejemplo, si se intenta modelar una relación lineal simple pero la relación observada no es lineal (es decir, sigue una función curva o en forma de U), los residuos estarán autocorrelacionados.
Cómo detectar la autocorrelación
Un método común para comprobar la autocorrelación es la prueba de Durbin-Watson. Los software estadísticos, como el SPSS, pueden incluir la opción de ejecutar la prueba de Durbin-Watson al realizar un análisis de regresión. La prueba de Durbin-Watson produce un estadístico de prueba que oscila entre 0 y 4. Los valores cercanos a 2 (el centro del rango) sugieren menos autocorrelación y los valores más cercanos a 0 o 4 indican una mayor autocorrelación positiva o negativa, respectivamente.
La aleatoriedad es uno de los supuestos clave para determinar si un proceso estadístico univariante está bajo control. Si los supuestos de localización y escala constantes, aleatoriedad y distribución fija son razonables, entonces el proceso univariante puede modelarse como:
Yi=A0+Ei
Donde Ei es un término de error.
Si el supuesto de aleatoriedad no es válido, habrá que utilizar un modelo diferente. Por lo general, será un modelo de series temporales o un modelo no lineal (con el tiempo como variable independiente).
Cuándo utilizar la función de autocorrelación
La función de autocorrelación puede utilizarse para responder a las siguientes preguntas:
¿Este conjunto de datos de muestra se generó a partir de un proceso aleatorio?
¿Sería un modelo no lineal o de series temporales más apropiado para estos datos que un modelo simple de constante más error?
De esta manera, la función de autocorrelación puede utilizarse con los dos fines siguientes:
Para detectar la no aleatoriedad de los datos.
Para identificar un modelo de serie temporal apropiado si los datos no son aleatorios.
Cuando la autocorrelación se utiliza para detectar la no aleatoriedad, normalmente sólo interesa la primera autocorrelación. Cuando la autocorrelación se utiliza para identificar un modelo de serie temporal adecuado, las autocorrelaciones suelen representarse para muchos rezagos.
Pruebas de autocorrelación
El método más común para probar la autocorrelación es la prueba de Durbin-Watson. La prueba de Durbin-Watson es una estadística que detecta la autocorrelación de un análisis de regresión.
La prueba de Durbin-Watson siempre produce un rango de números de prueba de 0 a 4. Los valores más cercanos a 0 indican un mayor grado de correlación positiva. Los valores más cercanos a 4 indican un mayor grado de autocorrelación negativa, mientras que los valores más cercanos al medio sugieren menos autocorrelación.
La autocorrelación puede aplicarse para analizar a fondo los movimientos históricos de los precios, que los inversores pueden utilizar para predecir los movimientos futuros de los precios. Así, la autocorrelación puede utilizarse para determinar si una estrategia de trading de impulso tiene sentido.
Ejemplos de autocorrelación
Ejemplo 1: Análisis de regresión
Un ejemplo destacado de cómo se utiliza habitualmente la autocorrelación es el análisis de regresión con datos de series temporales. En este caso, los profesionales suelen utilizar un modelo autorregresivo estándar, un modelo de media móvil o una combinación que se denomina modelo de media móvil integrado autorregresivo (Autoregressive Integrated Moving Averagem, ARIMA).
Ejemplo 2: Aplicaciones científicas de la autocorrelación
La autocorrelación también se utiliza con bastante frecuencia en lo que respecta a la espectroscopia de correlación de fluorescencia, que es una parte fundamental para comprender la difusión a nivel molecular y las reacciones químicas en determinados entornos científicos.
Ejemplo 3: Sistemas de posicionamiento global
La autocorrelación es también una de las principales técnicas matemáticas que se encuentran en el corazón del chip GPS integrado en los teléfonos inteligentes. En este caso, la autocorrelación se utiliza para corregir el retardo de propagación. Es decir, el desplazamiento de tiempo que se produce cuando se transmite una señal portadora y antes de que la reciba finalmente el dispositivo GPS en cuestión. Así es como el GPS siempre sabe exactamente dónde estás y te dice cuándo y dónde tienes que girar justo antes de llegar a ese lugar preciso.
Ejemplo 4: Procesamiento de la señal
La autocorrelación también es una técnica muy importante en el procesamiento de señales, que es una parte de la ingeniería eléctrica que se centra en comprender mejor señales como el sonido, las imágenes y las mediciones científicas. En este contexto, la autocorrelación puede ayudar a entender mejor los eventos que se repiten, como los compases musicales, lo que a su vez es importante para determinar el tempo adecuado de una canción. También se utiliza para estimar un tono muy específico en un tono musical.
Ejemplo 5: Astrofísica
La astrofísica es la rama de la astronomía que toma nuestros principios conocidos de la física y la química y los aplica de manera que nos ayude a comprender mejor la naturaleza de los objetos del espacio exterior, en lugar de conformarnos con conocer su posición relativa o cómo se mueven. Ayuda a los profesionales a estudiar la distribución espacial entre los cuerpos celestes del universo, como las galaxias. También puede ser útil cuando se realizan observaciones en varias longitudes de ondas binarias de rayos X de baja masa.
Ejemplo 6: Rendimiento de Acciones
Supongamos que se quiere determinar si los rendimientos de una acción en una cartera presentan autocorrelación. Es decir, si los rendimientos de la acción están relacionados con los rendimientos de las sesiones anteriores.
Si los rendimientos muestran autocorrelación, se podría caracterizarlo como un valor de impulso ya que los rendimientos pasados parecen influir en los rendimientos futuros. Se realiza una regresión con la rentabilidad de la sesión anterior como variable independiente y la rentabilidad actual como variable dependiente. Los resultados indican que la rentabilidad de un día antes tiene una autocorrelación positiva de 0,8.
Dado que 0,8 se aproxima a +1, los rendimientos pasados parecen ser un muy buen predictor positivo de los rendimientos futuros de esta acción en particular.
Por lo tanto, se puede ajustar la cartera para aprovechar la autocorrelación, continuando con su posición o acumulando más acciones.
Por qué es importante la autocorrelación
A menudo, uno de los primeros pasos en cualquier análisis de datos es realizar un análisis de regresión. Sin embargo, uno de los supuestos del análisis de regresión es que los datos no tienen autocorrelación. Esto puede ser frustrante ya que si se intenta realizar un análisis de regresión sobre datos con autocorrelación, el análisis será engañoso.
Además, algunos métodos de previsión de series temporales se basan en el supuesto de que no hay autocorrelación en los residuos. A menudo se utilizan los residuos para evaluar si el modelo se ajusta bien, ignorando el supuesto de que los residuos no tienen autocorrelación. Este error puede inducir a la gente a creer que su modelo es un buen ajuste cuando en realidad no lo es.
Por último, quizás el aspecto más convincente del análisis de autocorrelación es cómo puede ayudarnos a descubrir patrones ocultos en nuestros datos y a seleccionar los métodos de previsión correctos. En concreto, podemos utilizarlo para ayudar a identificar la estacionalidad y la tendencia en nuestros datos de series temporales.
Las implicaciones de la autocorrelación
Cuando se detecta autocorrelación en los residuos de un modelo, esto sugiere que el modelo está mal especificado. Una de las causas es que faltan en el modelo una o varias variables clave. Si los datos se han recogido a lo largo del espacio o del tiempo y el modelo no lo tiene en cuenta explícitamente, es probable que haya autocorrelación. Por ejemplo, si un modelo meteorológico es erróneo en un barrio, es probable que también lo sea en un barrio vecino. La solución es incluir las variables que faltan o modelizar explícitamente la autocorrelación (por ejemplo, utilizando un modelo ARIMA).
Nuestros especialistas esperan por ti para que los contactes a través del formulario de cotización o del chat directo. También contamos con canales de comunicación confidenciales como WhatsApp y Messenger. Y si quieres estar al tanto de nuestros novedosos servicios y las diferentes ventajas de contratarnos, síguenos en Facebook, Instagram o Twitter.
Si este artículo fue de tu agrado, no olvides compartirlo por tus redes sociales.