fbpx
Wikipedia

Propiedad de Márkov

En teoría de probabilidad y estadística, la propiedad de Markov se refiere a la propiedad de ciertos procesos estocásticos por la cual "carecen de memoria", lo que significa que la distribución de probabilidad del valor futuro de una variable aleatoria depende únicamente de su valor presente, siendo independiente de la historia de dicha variable.[1]​ A los procesos que satisfacen esta condición se les conoce como procesos de Márkov[2]​ Debe su nombre al matemático ruso Andréi Márkov, quien desarrolló la teoría de las cadenas de Márkov.[3]

Demostración matemática

Una cadena de Márkov se puede caracterizar por la probabilidad de ir al estado n+1 condicionada a que antes estábamos en el estado n:

 

Que es la probabilidad de transición del proceso. La propiedad de las cadenas de Márkov es que las transiciones entre los estados, solo puede producirse entre estados vecinos. Solo se puede llegar al estado i desde el estado i-1 o bien de i+1.

Este tipo de estadística se suele encontrar en la distribución exponencial, cuya función de densidad de probabilidad se expresa así:

 

Vamos a comprobar que un proceso definido por esta función de densidad de probabilidad no tiene memoria. La probabilidad de que haya una transición entre 0 y un tiempo t cualquiera es:

 

Integrando obtenemos:

 

Ahora vamos a calcular la probabilidad para el mismo intervalo t, pero con instante de inicio diferente t0. Calcularemos la probabilidad de tener una transición en el intervalo t, (de t0 hasta t0+t) condicionado a que antes de t0 no ha habido ninguna transición:

 

Sustituyendo por las fdp y operando obtenemos:

 

Con lo que queda demostrado que la probabilidad de tener una transición en un estado, no depende del tiempo anterior.

Referencias

  1. Outerelo Domínguez, Enrique; Margalef Roig, Juan; Miret Artés, Salvador (2014). Probabilidad y economía 3. Editorial Sanz y Torres, S.L. p. 38. ISBN 9788415550716. 
  2. Norris, James R. (1998). Markov chains. Cambridge University Press. 
  3. Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). «The Life and Work of A. A. Markov». Linear Algebra and its Applications (en inglés) 386: 3-26. Consultado el 31 de marzo de 2010. 
  •   Datos: Q176695

propiedad, márkov, teoría, probabilidad, estadística, propiedad, markov, refiere, propiedad, ciertos, procesos, estocásticos, cual, carecen, memoria, significa, distribución, probabilidad, valor, futuro, variable, aleatoria, depende, únicamente, valor, present. En teoria de probabilidad y estadistica la propiedad de Markov se refiere a la propiedad de ciertos procesos estocasticos por la cual carecen de memoria lo que significa que la distribucion de probabilidad del valor futuro de una variable aleatoria depende unicamente de su valor presente siendo independiente de la historia de dicha variable 1 A los procesos que satisfacen esta condicion se les conoce como procesos de Markov 2 Debe su nombre al matematico ruso Andrei Markov quien desarrollo la teoria de las cadenas de Markov 3 Demostracion matematica EditarUna cadena de Markov se puede caracterizar por la probabilidad de ir al estado n 1 condicionada a que antes estabamos en el estado n P X n 1 X n displaystyle P X n 1 X n Que es la probabilidad de transicion del proceso La propiedad de las cadenas de Markov es que las transiciones entre los estados solo puede producirse entre estados vecinos Solo se puede llegar al estado i desde el estado i 1 o bien de i 1 Este tipo de estadistica se suele encontrar en la distribucion exponencial cuya funcion de densidad de probabilidad se expresa asi f t t l e l t t gt 0 displaystyle f tau t lambda e lambda t quad t gt 0 Vamos a comprobar que un proceso definido por esta funcion de densidad de probabilidad no tiene memoria La probabilidad de que haya una transicion entre 0 y un tiempo t cualquiera es P 0 lt t lt t P t lt t 0 t l e l t d t displaystyle P 0 lt tau lt t P tau lt t int 0 t lambda e lambda tau d tau Integrando obtenemos P t lt t e l 0 e l t 1 e l t displaystyle P tau lt t e lambda cdot 0 e lambda t 1 e lambda t Ahora vamos a calcular la probabilidad para el mismo intervalo t pero con instante de inicio diferente t0 Calcularemos la probabilidad de tener una transicion en el intervalo t de t0 hasta t0 t condicionado a que antes de t0 no ha habido ninguna transicion P t 0 lt t lt t 0 t t gt t 0 p t 0 lt t lt t 0 t p t gt t 0 displaystyle P t 0 lt tau lt t 0 t tau gt t 0 frac p t 0 lt tau lt t 0 t p tau gt t 0 Sustituyendo por las fdp y operando obtenemos P t 0 lt t lt t 0 t t gt t 0 t 0 t 0 t l e l t d t t 0 l e l t d t e l t 0 e l t 0 t e l t 0 e l e l t 0 1 e l t e l t 0 0 1 e l t displaystyle P t 0 lt tau lt t 0 t tau gt t 0 frac int t 0 t 0 t lambda e lambda tau d tau int t 0 infty lambda e lambda tau d tau frac e lambda t 0 e lambda t 0 t e lambda t 0 e lambda cdot infty frac e lambda t 0 1 e lambda t e lambda t 0 0 1 e lambda t Con lo que queda demostrado que la probabilidad de tener una transicion en un estado no depende del tiempo anterior Referencias Editar Outerelo Dominguez Enrique Margalef Roig Juan Miret Artes Salvador 2014 Probabilidad y economia 3 Editorial Sanz y Torres S L p 38 ISBN 9788415550716 Norris James R 1998 Markov chains Cambridge University Press Basharin Gely P Langville Amy N Naumov Valeriy A 2004 The Life and Work of A A Markov Linear Algebra and its Applications en ingles 386 3 26 Consultado el 31 de marzo de 2010 Datos Q176695 Obtenido de https es wikipedia org w index php title Propiedad de Markov amp oldid 133227658, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos