fbpx
Wikipedia

Cadena de Márkov

En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de falta de memoria recibe el nombre de propiedad de Markov.

Cadena simple biestable de Markov

Recibe su nombre del matemático ruso Andréi Márkov (1856-1922), que lo introdujo en 1906.[1]

Estos modelos estadísticos cuentan con un gran número de aplicaciones reales.

Definición

En matemáticas, una Cadena de Markov es un proceso estocástico a tiempo discreto   con espacio de estados discreto   que para cualquier entero   y para cualesquiera   satisface

 

a esta propiedad se le conoce como propiedad de Markov.

Características

Cadenas homogéneas y no homogéneas

Se dice que una Cadena de Markov es homogénea si la probabilidad de ir del estado   al estado   en un paso no depende del tiempo en el que se encuentra la cadena, esto es:

 

para todo   y para cualquier  .

Si para alguna pareja de estados y para algún tiempo   la propiedad antes mencionada no se cumple entonces diremos que la Cadena de Markov es no homogénea.

Probabilidades de Transición

Sean   y   dos estados de una Cadena de Markov. La probabilidad de ir del estado   en el tiempo   al estado   en el tiempo   se denota por

 .

Cuando la cadena es homogénea, esta probabilidad se denota por

 ,

que representa la probabilidad de pasar del estado   al estado   en una unidad de tiempo.

Matriz de Probabilidades de Transición

Teniendo las probabilidades de transición en un paso , , si variamos los índices   sobre el espacio de estados   obtenemos la matriz   llamada matriz de probabilidades de transición en un paso, es decir:

 

donde la entrada   representa la probabilidad de pasar del estado   al estado   en un paso.

La matriz   es una matriz estocástica pues satisfcae

  •  
  •  

Similarmente se define la matriz de probabilidades de transición en   pasos, esta se denota por   y está dada por

 

donde la entrada   representa la probabilidad de pasar del estado   al estado   en   pasos.

Ecuación de Chapman-Kolmogorov

Para cualesquiera   tales que   y para cualesquiera estados   se cumple

 

Como consecuencia de este resultado, la probabilidad de transición en   pasos,  , está dada por la entrada   de la  -ésima potencia de la matriz de probabilidades de transición en un paso, es decir

 

Con lo anterior, el problema de calcular las probabilidades de transición en   pasos se convierte en halla la  -ésima potencia de la matriz de probabilidades de transición en un paso, esto es

 

Clases de comunicación

Para dos estados   y   en el espacio de estados  , diremos que el estado   es accesible desde el estado   y escribiremos   si   tal que

 

si   y   entonces diremos que el estado   se comunica con el estado   y escribiremos  .

La propiedad " " es una relación de equivalencia. Esta relación induce una partición del espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.

Dado un estado  , denotaremos a su clase de comunicación como  , por lo que   si y sólo si  .

Si   entonces se dice que la cadena es irreducible.

Periodicidad

El periodo de un estado   se define como:

 

donde   denota el máximo común divisor.

  • Si   diremos que   es un estado aperiódico.
  • Si   diremos que   tiene periodo  .

Una cadena de Márkov se dice aperiódica si todos sus estados son aperiódicos, es decir, si  .

Tiempos de Primera Visita

Si  , definimos el tiempo de primera visita a   como la variable aleatoria

 

esto es,   denota la primera vez que la cadena entra al conjunto de estados  .

Probabilidad de Primera Visita

Se define

 

como la probabilidad de que una cadena que inicia en el estado   llegue al estado   por primera vez en   pasos, donde  .

En particular, cuando  ,   denota la probabilidad de regresar por primera vez al estado   en   pasos.

Y se definen

 

como la probabilidad de una eventual visita a partir del estado   al estado   y

 

como la probabilidad de partir del estado   y regresar a él mismo en un tiempo finito.

Recurrencia

En una cadena de Markov con espacio de estados  , diremos que:

  •   es un estado recurrente si  .
  •   es transitorio si  .

o utilizando las probabilidades de transición en   pasos:

  •   es recurrente si  
  •   es transitorio si  

La recurrencia es una propiedad de clase pues

  • Si   es recurrente e   entonces   es recurrente.
  • Si   es transitorio e   entonces   es transitorio.

Tiempo Medio de Recurrencia

Se define como el tiempo medio de recurrencia de un estado recurrente   a partir del estado   como la esperanza de

 

y se denota por  

 ,

Esta esperanza representa el número de pasos promedio que a la cadena le toma regresar al estado recurrente  .

En particular, cuando   escribimos   en lugar de  .

Se dice que un estado recurrente   es

  • recurrente nulo si  .
  • recurrente positivo si  .

La recurrencia positiva es una propiedad de clase pues

  • Si   es recurrente positivo e   entonces   es recurrente positivo.
  • Si   es recurrente nulo e   entonces   es recurrente nulo.

Distribuciones Estacionarias

Se dice que el vector   es una distribución de probabilidad si

  •  
  •  

Se dice que una distribución de probabilidad   es estacionaria para una Cadena de Markov con matriz de probabilidades de transición   si

 

En forma matrícula lo anterior es equivalente a   y significa que si una variable aleatoria inicial   tiene una distribución   entonces la distribución de   también es  , es decir, esta distribución no cambia con el paso del tiempo.

Para encontrar una posible distribución estacionaria de una cadena con matriz  , un método consiste en resolver el sistema de ecuaciones

 

La distribución estacionaria puede no ser única o incluso no existir.

Existencia y Unicidad

Si una Cadena de Markov es irreducible y recurrente positiva entonces tiene una única distribución estacionaria y esta está dada por

 

donde   es el tiempo medio de recurrencia del estado  .

Convergencia a la distribución estacionaria

Si una cadena de Markov es

  • Irreducible
  • Aperiódica
  • Con distribución estacionaria  

entonces para cualesquiera  

 

Convergencia para Cadenas de Markov

Si una cadena de Markov es

  • Irreducible
  • Recurrente positiva
  • Aperiódica

entonces las probabilidades límite

 

existen, están dadas por

 

y constituyen la única solución al sistema de ecuaciones

 

Tipos de Cadenas de Markov

Cadenas irreducibles

Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre sí):

  1. Desde cualquier estado de   se puede acceder a cualquier otro.
  2. Todos los estados se comunican entre sí.
  3.   para algún  .
  4.   para todo  .
  5. El único conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Márkov irreducibles.

Cadenas Recurrentes Positivas

Una cadena de Markov se dice recurrente positiva si todos sus estados son recurrentes positivos. Si la cadena es además irreducible es posible demostrar que existe un único vector de probabilidad invariante y está dado por:

 

Cadenas Regulares

Una cadena de Márkov se dice regular (también primitiva o ergódica) si existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.

Cuando el espacio de estados   es finito, si   denota la matriz de transición de la cadena se tiene que:

 

donde   es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, este vector invariante es único.

Cadenas Absorbentes

Una cadena de Márkov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes:

  1. La cadena tiene al menos un estado absorbente.
  2. De cualquier estado no absorbente se accede a algún estado absorbente.

Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados:

  • Su matriz de transición siempre se puede llevar a una de la forma
 

donde la submatriz Q corresponde a los estados del conjunto  ,   es la matriz identidad,   es la matriz nula y   alguna submatriz.

  •  , esto es, no importa en donde se encuentre la cadena, eventualmente terminará en un estado absorbente.

Cadenas de Markov a tiempo continuo

Si en lugar de considerar una secuencia discreta   con   indexado en el conjunto   de números naturales, se consideran las variables aleatorias   con   que varía en un intervalo continuo del conjunto   de números reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa de la siguiente manera:

  tal que  

Para una cadena de Márkov continua con un número finito de estados puede definirse una matriz estocástica dada por:

 

La cadena se denomina homogénea si  . Para una cadena de Márkov en tiempo continuo homogénea y con un número finito de estados puede definirse el llamado generador infinitesimal como:[2]

 

Y puede demostrarse que la matriz estocástica viene dada por:

 

Aplicaciones

Meteorología

Si consideramos el tiempo atmosférico de una región a través de distintos días, es posible asumir que el estado actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelos climatológicos básicos. Por ejemplo, se han desarrollado modelos de recurrencia de las lluvias basados en cadenas de Markov.[3]


Modelos epidemiológicos

Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-Watson. Este es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).

Internet

El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a través de una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su peso en la distribución estacionaria de la cadena.

Simulación

Las cadenas de Márkov son utilizadas para proveer una solución analítica a ciertos problemas de simulación, por ejemplo en teoría de colas el Modelo M/M/1[4]​ es de hecho un modelo de cadenas de Markov.

Juegos de azar

Son muchos los juegos de azar que se pueden modelar a través de una cadena de Márkov. El modelo de la ruina del jugador, (Gambler's ruin), que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Márkov en este rubro.

Economía y finanzas

Las cadenas de Márkov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de los precios. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Genética

Se emplean cadenas de Márkov en teoría de genética de poblaciones, para describir el cambio de frecuencias génicas en una población pequeña con generaciones discretas, sometida a deriva genética. Ha sido empleada en la construcción del modelo de difusión de Motō Kimura.

Música

Diversos algoritmos de composición musical usan cadenas de Márkov, por ejemplo el software Csound o Max. Uno de los compositores que usó esta técnica en sus composiciones fue Iannis Xenakis con su obra Analoguique A et B (1958–59).

Operaciones

Se emplean cadenas de Márkov en inventarios, mantenimiento y flujo de proceso.

Redes neuronales

Se utilizan en las máquinas de Boltzmann.

Referencias

  1. Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). «The Life and Work of A. A. Markov». Linear Algebra and its Applications (en inglés) 386: 3-26. Consultado el 31 de marzo de 2010. 
  2. Masaki Kijima, 1997, p. 175
  3. R. Gabriel & J. Neumann (2006): A Markov chain model for daily rainfall occurrence at Tel Aviv
  4. Masaki Kijima, 1997, pp. 287-290.

Bibliografía

  • A.A. Márkov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp. 135–156, 1906.
  • A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591–600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
  • J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. en línea: . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. en línea:
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st edición). Nueva York: John Wiley and Sons, Inc. Library of Congress Card Catalog Number 67-25924.  Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Mirkil, Hazleton; Snell, J. Laurie; Thompson, Gerald L. (1959). Finite Mathematical Structures (1st edición). Englewood Cliffs, N.J.: Prentice-Hall, Inc. Library of Congress Card Catalog Number 59-12841.  Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
  • Kijima, Masaaki (1997). Markov Processes for Stochastic Modeling (1st edición). Cambridge: Chapman & Hall. ISBN 0 412 60660 7. 
  • E. Nummelin. "General irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X

Enlaces externos

  • Cadenas de Markov en tiempo discreto
  • Ejemplo de una Cadena de Markov en timpo discreto
  • Techniques to Understand Computer Simulations: Markov Chain Analysis (en inglés)
  • Una explicación visual por Victor Powell
  •   Datos: Q176645
  •   Multimedia: Markov chains

cadena, márkov, teoría, probabilidad, conoce, como, cadena, márkov, modelo, márkov, tipo, especial, proceso, estocástico, discreto, probabilidad, ocurra, evento, depende, solamente, evento, inmediatamente, anterior, esta, característica, falta, memoria, recibe. En la teoria de la probabilidad se conoce como cadena de Markov o modelo de Markov a un tipo especial de proceso estocastico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior Esta caracteristica de falta de memoria recibe el nombre de propiedad de Markov Cadena simple biestable de Markov Recibe su nombre del matematico ruso Andrei Markov 1856 1922 que lo introdujo en 1906 1 Estos modelos estadisticos cuentan con un gran numero de aplicaciones reales Indice 1 Definicion 2 Caracteristicas 2 1 Cadenas homogeneas y no homogeneas 2 2 Probabilidades de Transicion 2 3 Matriz de Probabilidades de Transicion 2 4 Ecuacion de Chapman Kolmogorov 2 5 Clases de comunicacion 2 6 Periodicidad 2 7 Tiempos de Primera Visita 2 7 1 Probabilidad de Primera Visita 2 8 Recurrencia 2 9 Tiempo Medio de Recurrencia 2 10 Distribuciones Estacionarias 2 10 1 Existencia y Unicidad 2 10 2 Convergencia a la distribucion estacionaria 2 10 3 Convergencia para Cadenas de Markov 3 Tipos de Cadenas de Markov 3 1 Cadenas irreducibles 3 2 Cadenas Recurrentes Positivas 3 3 Cadenas Regulares 3 4 Cadenas Absorbentes 3 5 Cadenas de Markov a tiempo continuo 4 Aplicaciones 4 1 Meteorologia 4 2 Modelos epidemiologicos 4 3 Internet 4 4 Simulacion 4 5 Juegos de azar 4 6 Economia y finanzas 4 7 Genetica 4 8 Musica 4 9 Operaciones 4 10 Redes neuronales 5 Referencias 6 Bibliografia 7 Enlaces externosDefinicion EditarEn matematicas una Cadena de Markov es un proceso estocastico a tiempo discreto X n n 0 1 2 displaystyle X n n 0 1 2 dots con espacio de estados discreto S displaystyle S que para cualquier entero n 0 displaystyle n geq 0 y para cualesquiera x 0 x 1 x n 1 S displaystyle x 0 x 1 dots x n 1 in S satisface P X n 1 x n 1 X 0 x 0 X 1 x 1 X n x n P X n 1 x n 1 X n x n displaystyle P X n 1 x n 1 X 0 x 0 X 1 x 1 dots X n x n P X n 1 x n 1 X n x n a esta propiedad se le conoce como propiedad de Markov Caracteristicas EditarCadenas homogeneas y no homogeneas Editar Se dice que una Cadena de Markov es homogenea si la probabilidad de ir del estado i displaystyle i al estado j displaystyle j en un paso no depende del tiempo en el que se encuentra la cadena esto es P X n 1 j X n i P X 1 j X 0 i displaystyle P X n 1 j X n i P X 1 j X 0 i para todo n 0 displaystyle n geq 0 y para cualquier i j S displaystyle i j in S Si para alguna pareja de estados y para algun tiempo n displaystyle n la propiedad antes mencionada no se cumple entonces diremos que la Cadena de Markov es no homogenea Probabilidades de Transicion Editar Sean i displaystyle i y j displaystyle j dos estados de una Cadena de Markov La probabilidad de ir del estado i displaystyle i en el tiempo n displaystyle n al estado j displaystyle j en el tiempo n 1 displaystyle n 1 se denota por p i j n n 1 P X n 1 j X n i displaystyle p ij n n 1 operatorname P X n 1 j X n i Cuando la cadena es homogenea esta probabilidad se denota por p i j P X n 1 j X n i displaystyle p ij operatorname P X n 1 j X n i que representa la probabilidad de pasar del estado i displaystyle i al estado j displaystyle j en una unidad de tiempo Matriz de Probabilidades de Transicion Editar Teniendo las probabilidades de transicion en un paso p i j displaystyle p ij si variamos los indices i j displaystyle i j sobre el espacio de estados S 0 1 2 displaystyle S 0 1 2 dots obtenemos la matriz P displaystyle P llamada matriz de probabilidades de transicion en un paso es decir P p 00 p 01 p 02 p 10 p 11 p 12 p 20 p 21 p 22 displaystyle P begin bmatrix p 00 amp p 01 amp p 02 amp cdots p 10 amp p 11 amp p 12 amp cdots p 20 amp p 21 amp p 22 amp cdots vdots amp vdots amp vdots end bmatrix donde la entrada i j displaystyle i j representa la probabilidad de pasar del estado i displaystyle i al estado j displaystyle j en un paso La matriz P displaystyle P es una matriz estocastica pues satisfcae p i j 0 displaystyle p ij geq 0 j S p i j 1 displaystyle sum j in S p ij 1 Similarmente se define la matriz de probabilidades de transicion en n displaystyle n pasos esta se denota por P n displaystyle P n y esta dada por P n p 00 n p 01 n p 02 n p 10 n p 11 n p 12 n p 20 n p 21 n p 22 n displaystyle P n begin bmatrix p 00 n amp p 01 n amp p 02 n amp cdots p 10 n amp p 11 n amp p 12 n amp cdots p 20 n amp p 21 n amp p 22 n amp cdots vdots amp vdots amp vdots end bmatrix donde la entrada i j displaystyle i j representa la probabilidad de pasar del estado i displaystyle i al estado j displaystyle j en n displaystyle n pasos Ecuacion de Chapman Kolmogorov Editar Para cualesquiera r n Z displaystyle r n in mathbb Z tales que 0 r n displaystyle 0 leq r leq n y para cualesquiera estados i j S displaystyle i j in S se cumple p i j n k S p i k r p k j n r displaystyle p ij n sum k in S p ik r p kj n r Como consecuencia de este resultado la probabilidad de transicion en n displaystyle n pasos p i j n displaystyle p ij n esta dada por la entrada i j displaystyle i j de la n displaystyle n esima potencia de la matriz de probabilidades de transicion en un paso es decir p i j n P n i j displaystyle p ij n P n ij Con lo anterior el problema de calcular las probabilidades de transicion en n displaystyle n pasos se convierte en halla la n displaystyle n esima potencia de la matriz de probabilidades de transicion en un paso esto es P n p 00 n p 01 n p 10 n p 11 n p 00 p 01 p 10 p 11 n P n displaystyle begin aligned P n amp begin bmatrix p 00 n amp p 01 n amp cdots p 10 n amp p 11 n amp cdots vdots amp vdots end bmatrix amp begin bmatrix p 00 amp p 01 amp cdots p 10 amp p 11 amp cdots vdots amp vdots end bmatrix n amp P n end aligned Clases de comunicacion Editar Para dos estados i displaystyle i y j displaystyle j en el espacio de estados S displaystyle S diremos que el estado j displaystyle j es accesible desde el estado i displaystyle i y escribiremos i j displaystyle i rightarrow j si n Z displaystyle exists n in mathbb Z tal que p i j n gt 0 displaystyle p ij n gt 0 si i j displaystyle i rightarrow j y j i displaystyle j rightarrow i entonces diremos que el estado i displaystyle i se comunica con el estado j displaystyle j y escribiremos i j displaystyle i longleftrightarrow j La propiedad displaystyle longleftrightarrow es una relacion de equivalencia Esta relacion induce una particion del espacio de estados A estas clases de equivalencia las llamaremos clases de comunicacion Dado un estado i S displaystyle i in S denotaremos a su clase de comunicacion como C i displaystyle C i por lo que i j displaystyle i longleftrightarrow j si y solo si C i C j displaystyle C i C j Si C i S displaystyle C i S entonces se dice que la cadena es irreducible Periodicidad Editar El periodo de un estado i S displaystyle i in S se define como d i m c d n 1 p i i n gt 0 displaystyle d i rm mcd n geq 1 p ii n gt 0 donde m c d displaystyle rm mcd denota el maximo comun divisor Si d i 1 displaystyle d i 1 diremos que i displaystyle i es un estado aperiodico Si d i k 2 displaystyle d i k geq 2 diremos que i displaystyle i tiene periodo k displaystyle k Una cadena de Markov se dice aperiodica si todos sus estados son aperiodicos es decir si d i 1 i S displaystyle d i 1 quad forall i in S Tiempos de Primera Visita Editar Si C S displaystyle C subset S definimos el tiempo de primera visita a C displaystyle C como la variable aleatoria t C min n gt 0 X n C si n gt 0 X n C 1 si n gt 0 X n C displaystyle tau C begin cases min n gt 0 X n in C amp mbox si n gt 0 X n in C neq emptyset 1 amp mbox si n gt 0 X n in C emptyset end cases esto es t C displaystyle tau C denota la primera vez que la cadena entra al conjunto de estados C displaystyle C Probabilidad de Primera Visita Editar Se define f i j n P X n j X n 1 j X 1 j X 0 i displaystyle f ij n operatorname P X n j X n 1 neq j dots X 1 neq j X 0 i como la probabilidad de que una cadena que inicia en el estado i displaystyle i llegue al estado j displaystyle j por primera vez en n displaystyle n pasos donde f i j 0 0 displaystyle f ij 0 0 En particular cuando i j displaystyle i j f i i n displaystyle f ii n denota la probabilidad de regresar por primera vez al estado i displaystyle i en n displaystyle n pasos Y se definen f i j n 1 f i j n displaystyle f ij sum n 1 infty f ij n como la probabilidad de una eventual visita a partir del estado i displaystyle i al estado j displaystyle j y f i i n 1 f i i n displaystyle f ii sum n 1 infty f ii n como la probabilidad de partir del estado i displaystyle i y regresar a el mismo en un tiempo finito Recurrencia Editar En una cadena de Markov con espacio de estados S displaystyle S diremos que i displaystyle i es un estado recurrente si f i i 1 displaystyle f ii 1 i displaystyle i es transitorio si f i i lt 1 displaystyle f ii lt 1 o utilizando las probabilidades de transicion en n displaystyle n pasos i displaystyle i es recurrente si n 1 p i i n displaystyle sum n 1 infty p ii n infty i displaystyle i es transitorio si n 1 p i i n lt displaystyle sum n 1 infty p ii n lt infty La recurrencia es una propiedad de clase pues Si i displaystyle i es recurrente e i j displaystyle i longleftrightarrow j entonces j displaystyle j es recurrente Si i displaystyle i es transitorio e i j displaystyle i longleftrightarrow j entonces j displaystyle j es transitorio Tiempo Medio de Recurrencia Editar Se define como el tiempo medio de recurrencia de un estado recurrente j displaystyle j a partir del estado i displaystyle i como la esperanza de t i j min n 1 X n j X 0 i displaystyle tau ij min n geq 1 X n j X 0 i y se denota por m i j displaystyle mu ij m i j E t i j n 1 n f i j n displaystyle mu ij operatorname E tau ij sum n 1 infty nf ij n Esta esperanza representa el numero de pasos promedio que a la cadena le toma regresar al estado recurrente j displaystyle j En particular cuando i j displaystyle i j escribimos m i displaystyle mu i en lugar de m i i displaystyle mu ii Se dice que un estado recurrente i displaystyle i es recurrente nulo si m i displaystyle mu i infty recurrente positivo si m i lt displaystyle mu i lt infty La recurrencia positiva es una propiedad de clase pues Si i displaystyle i es recurrente positivo e i j displaystyle i longleftrightarrow j entonces j displaystyle j es recurrente positivo Si i displaystyle i es recurrente nulo e i j displaystyle i longleftrightarrow j entonces j displaystyle j es recurrente nulo Distribuciones Estacionarias Editar Se dice que el vector p p 0 p 1 displaystyle pi pi 0 pi 1 dots es una distribucion de probabilidad si p i 0 displaystyle pi i geq 0 i p i 1 displaystyle sum i pi i 1 Se dice que una distribucion de probabilidad p p 0 p 1 displaystyle pi pi 0 pi 1 dots es estacionaria para una Cadena de Markov con matriz de probabilidades de transicion P p i j displaystyle P p ij si p j i S p i p i j displaystyle pi j sum i in S pi i p ij En forma matricula lo anterior es equivalente a p p P displaystyle pi pi P y significa que si una variable aleatoria inicial X 0 displaystyle X 0 tiene una distribucion p displaystyle pi entonces la distribucion de X n displaystyle X n tambien es p displaystyle pi es decir esta distribucion no cambia con el paso del tiempo Para encontrar una posible distribucion estacionaria de una cadena con matriz P displaystyle P un metodo consiste en resolver el sistema de ecuaciones p p P Sujeto a j S p j 1 p j 0 displaystyle left begin array cc pi pi P text Sujeto a amp sum j in S pi j 1 amp pi j geq 0 end array right La distribucion estacionaria puede no ser unica o incluso no existir Existencia y Unicidad Editar Si una Cadena de Markov es irreducible y recurrente positiva entonces tiene una unica distribucion estacionaria y esta esta dada por p j 1 m j displaystyle pi j frac 1 mu j donde m j displaystyle mu j es el tiempo medio de recurrencia del estado j displaystyle j Convergencia a la distribucion estacionaria Editar Si una cadena de Markov es Irreducible Aperiodica Con distribucion estacionaria p displaystyle pi entonces para cualesquiera i j S displaystyle i j in S lim n p i j n p j displaystyle lim n to infty p ij n pi j Convergencia para Cadenas de Markov Editar Si una cadena de Markov es Irreducible Recurrente positiva Aperiodicaentonces las probabilidades limite p j lim n p i j n displaystyle pi j lim n to infty p ij n existen estan dadas por p j 1 m j displaystyle pi j frac 1 mu j y constituyen la unica solucion al sistema de ecuaciones p p P Sujeto a j S p j 1 p j 0 displaystyle left begin array cc pi pi P text Sujeto a amp sum j in S pi j 1 amp pi j geq 0 end array right Tipos de Cadenas de Markov EditarCadenas irreducibles Editar Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones equivalentes entre si Desde cualquier estado de S displaystyle S se puede acceder a cualquier otro Todos los estados se comunican entre si C i S displaystyle C i S para algun i S displaystyle i in S C i S displaystyle C i S para todo i S displaystyle i in S El unico conjunto cerrado es el total La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Markov irreducibles Cadenas Recurrentes Positivas Editar Una cadena de Markov se dice recurrente positiva si todos sus estados son recurrentes positivos Si la cadena es ademas irreducible es posible demostrar que existe un unico vector de probabilidad invariante y esta dado por p j 1 m j displaystyle pi j frac 1 mu j Cadenas Regulares Editar Una cadena de Markov se dice regular tambien primitiva o ergodica si existe alguna potencia positiva de la matriz de transicion cuyas entradas sean todas estrictamente mayores que cero Cuando el espacio de estados S displaystyle S es finito si P displaystyle P denota la matriz de transicion de la cadena se tiene que lim n 1 P n W displaystyle lim n to mathcal 1 P n W donde W displaystyle W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w que resulta ser el vector de probabilidad invariante de la cadena En el caso de cadenas regulares este vector invariante es unico Cadenas Absorbentes Editar Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes La cadena tiene al menos un estado absorbente De cualquier estado no absorbente se accede a algun estado absorbente Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D tenemos los siguientes resultados Su matriz de transicion siempre se puede llevar a una de la formaP Q R 0 I displaystyle P begin pmatrix Q amp R 0 amp I end pmatrix donde la submatriz Q corresponde a los estados del conjunto D displaystyle D I displaystyle I es la matriz identidad 0 displaystyle 0 es la matriz nula y R displaystyle R alguna submatriz P x T A lt 1 1 displaystyle P x T A lt mathcal 1 1 esto es no importa en donde se encuentre la cadena eventualmente terminara en un estado absorbente Cadenas de Markov a tiempo continuo Editar Si en lugar de considerar una secuencia discreta X 1 X 2 X i displaystyle X 1 X 2 dots X i dots con i displaystyle i indexado en el conjunto N displaystyle mathbb N de numeros naturales se consideran las variables aleatorias X t displaystyle X t con t displaystyle t que varia en un intervalo continuo del conjunto R displaystyle mathbb R de numeros reales tendremos una cadena en tiempo continuo Para este tipo de cadenas en tiempo continuo la propiedad de Markov se expresa de la siguiente manera P X t n 1 x n 1 X t n x n X t 1 x 1 P X t n 1 x n 1 X t n x n displaystyle P X t n 1 x n 1 X t n x n ldots X t 1 x 1 P X t n 1 x n 1 X t n x n tal que t n 1 gt t n gt t n 1 gt gt t 1 displaystyle t n 1 gt t n gt t n 1 gt dots gt t 1 Para una cadena de Markov continua con un numero finito de estados puede definirse una matriz estocastica dada por P t 1 t 2 p i j t 1 t 2 i j 1 N p i j t 1 t 2 P X t 2 j X t 1 i 0 t 1 lt t 2 displaystyle mathbf P t 1 t 2 p ij t 1 t 2 i j 1 dots N qquad p ij t 1 t 2 P X t 2 j X t 1 i 0 geq t 1 lt t 2 La cadena se denomina homogenea si P t 1 t 2 P t 2 t 1 displaystyle mathbf P t 1 t 2 mathbf P t 2 t 1 Para una cadena de Markov en tiempo continuo homogenea y con un numero finito de estados puede definirse el llamado generador infinitesimal como 2 Q lim h 0 P h I h displaystyle mathbf Q lim h to 0 frac mathbf P h mathbf I h Y puede demostrarse que la matriz estocastica viene dada por P t e Q t n 0 Q n t n n displaystyle mathbf P t e mathbf Q t sum n 0 infty frac mathbf Q n t n n Aplicaciones EditarMeteorologia Editar Si consideramos el tiempo atmosferico de una region a traves de distintos dias es posible asumir que el estado actual solo depende del ultimo estado y no de toda la historia en si de modo que se pueden usar cadenas de Markov para formular modelos climatologicos basicos Por ejemplo se han desarrollado modelos de recurrencia de las lluvias basados en cadenas de Markov 3 Modelos epidemiologicos Editar Una importante aplicacion de las cadenas de Markov se encuentra en el proceso Galton Watson Este es un proceso de ramificacion que se puede usar entre otras cosas para modelar el desarrollo de una epidemia vease modelaje matematico de epidemias Internet Editar El pagerank de una pagina web usado por Google en sus motores de busqueda se define a traves de una cadena de Markov donde la posicion que tendra una pagina en el buscador sera determinada por su peso en la distribucion estacionaria de la cadena Simulacion Editar Las cadenas de Markov son utilizadas para proveer una solucion analitica a ciertos problemas de simulacion por ejemplo en teoria de colas el Modelo M M 1 4 es de hecho un modelo de cadenas de Markov Juegos de azar Editar Son muchos los juegos de azar que se pueden modelar a traves de una cadena de Markov El modelo de la ruina del jugador Gambler s ruin que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero es una de las aplicaciones de las cadenas de Markov en este rubro Economia y finanzas Editar Las cadenas de Markov se pueden utilizar en modelos simples de valuacion de opciones para determinar cuando existe oportunidad de arbitraje asi como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de los precios En los negocios las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos para planear las necesidades de personal y para analizar el reemplazo de equipo Genetica Editar Se emplean cadenas de Markov en teoria de genetica de poblaciones para describir el cambio de frecuencias genicas en una poblacion pequena con generaciones discretas sometida a deriva genetica Ha sido empleada en la construccion del modelo de difusion de Motō Kimura Musica Editar Diversos algoritmos de composicion musical usan cadenas de Markov por ejemplo el software Csound o Max Uno de los compositores que uso esta tecnica en sus composiciones fue Iannis Xenakis con su obra Analoguique A et B 1958 59 Operaciones Editar Se emplean cadenas de Markov en inventarios mantenimiento y flujo de proceso Redes neuronales Editar Se utilizan en las maquinas de Boltzmann Referencias Editar Basharin Gely P Langville Amy N Naumov Valeriy A 2004 The Life and Work of A A Markov Linear Algebra and its Applications en ingles 386 3 26 Consultado el 31 de marzo de 2010 Masaki Kijima 1997 p 175 R Gabriel amp J Neumann 2006 A Markov chain model for daily rainfall occurrence at Tel Aviv Masaki Kijima 1997 pp 287 290 Bibliografia EditarA A Markov Rasprostranenie zakona bol shih chisel na velichiny zavisyaschie drug ot druga Izvestiya Fiziko matematicheskogo obschestva pri Kazanskom universitete 2 ya seriya tom 15 pp 135 156 1906 A A Markov Extension of the limit theorems of probability theory to a sum of variables connected in a chain reprinted in Appendix B of R Howard Dynamic Probabilistic Systems volume 1 Markov Chains John Wiley and Sons 1971 Classical Text in Translation A A Markov An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains trans David Link Science in Context 19 4 2006 591 600 Online http journals cambridge org production action cjoGetFulltext fulltextid 637500 Leo Breiman Probability Original edition published by Addison Wesley 1968 reprinted by Society for Industrial and Applied Mathematics 1992 ISBN 0 89871 296 3 See Chapter 7 J L Doob Stochastic Processes New York John Wiley and Sons 1953 ISBN 0 471 52369 0 S P Meyn and R L Tweedie Markov Chains and Stochastic Stability London Springer Verlag 1993 ISBN 0 387 19832 6 en linea 1 Second edition to appear Cambridge University Press 2009 S P Meyn Control Techniques for Complex Networks Cambridge University Press 2007 ISBN 978 0 521 88441 9 Appendix contains abridged Meyn amp Tweedie en linea https web archive org web 20100619011046 https netfiles uiuc edu meyn www spm files CTCN CTCN html Booth Taylor L 1967 Sequential Machines and Automata Theory 1st edicion Nueva York John Wiley and Sons Inc Library of Congress Card Catalog Number 67 25924 Extensive wide ranging book meant for specialists written for both theoretical computer scientists as well as electrical engineers With detailed explanations of state minimization techniques FSMs Turing machines Markov processes and undecidability Excellent treatment of Markov processes pp 449ff Discusses Z transforms D transforms in their context Kemeny John G Mirkil Hazleton Snell J Laurie Thompson Gerald L 1959 Finite Mathematical Structures 1st edicion Englewood Cliffs N J Prentice Hall Inc Library of Congress Card Catalog Number 59 12841 Classical text cf Chapter 6 Finite Markov Chains pp 384ff Kijima Masaaki 1997 Markov Processes for Stochastic Modeling 1st edicion Cambridge Chapman amp Hall ISBN 0 412 60660 7 E Nummelin General irreducible Markov chains and non negative operators Cambridge University Press 1984 2004 ISBN 0 521 60494 XEnlaces externos EditarCadenas de Markov en tiempo discreto Ejemplo de una Cadena de Markov en timpo discreto Techniques to Understand Computer Simulations Markov Chain Analysis en ingles Desambiguacion mediante Cadenas de Markov Una explicacion visual por Victor Powell Datos Q176645 Multimedia Markov chains Obtenido de https es wikipedia org w index php title Cadena de Markov amp oldid 138851446, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos