Propiedad de Márkov

En teoría de probabilidad y estadística, la propiedad de Markov se refiere a la propiedad de ciertos procesos estocásticos por la cual "carecen de memoria", lo que significa que la distribución de probabilidad del valor futuro de una variable aleatoria depende únicamente de su valor presente, siendo independiente de la historia de dicha variable. A los procesos que satisfacen esta condición se les conoce como procesos de Márkov.[2]

Demostración matemática

Una cadena de Márkov se puede caracterizar por la probabilidad de ir al estado n+1 condicionada a que antes estábamos en el estado n:

Que es la probabilidad de transición del proceso. La propiedad de las cadenas de Márkov es que las transiciones entre los estados, sólo puede producirse entre estados vecinos. Sólo se puede llegar al estado i desde el estado i-1 ó bien de i+1.

Este tipo de estadística se suele encontrar en la distribución exponencial, cuya función de densidad de probabilidad se expresa así:

Vamos a comprobar que un proceso definido por esta función de densidad de probabilidad no tiene memoria. La probabilidad de que haya una transición entre 0 y un tiempo t cualquiera es:

Integrando obtenemos:

Ahora vamos a calcular la probabilidad para el mismo intervalo t, pero con instante de inicio diferente t0. Calcularemos la probabilidad de tener una transición en el intervalo t, (de t0 hasta t0+t) condicionado a que antes de t0 no ha habido ninguna transición:

Sustituyendo por las fdp y operando obtenemos:

Con lo que queda demostrado que la probabilidad de tener una transición en un estado, no depende del tiempo anterior.

Other Languages