fbpx
Wikipedia

Campo aleatorio de Markov

En el ámbito de la física y la probabilidad, un Campo aleatorio de Markov (abreviado MRF por sus siglas en inglés), Red Markov o modelo gráfico no dirigido es un conjunto de variables aleatorias que poseen la propiedad de Markov descrito por un grafo no dirigido. Un MRF es similar a una red bayesiana en su representación de las dependencias entre variables aleatorias; la diferencia radica en que las redes bayesianas son dirigidas y acíclicas, mientras que en los MRF las redes son no dirigidas y pueden ser cíclicas. De esta manera, un MRF puede representar determinadas dependencias que una red bayesiana no puede (como dependencias cíclicas); por otro lado, existen dependencias que no puede representar (como dependencias inducidas). El grafo subyacente de un MRF puede ser finito o infinito.

Cuando la función de distribución conjunta de las variables aleatorias es estrictamente positiva, se le llama también campo aleatorio de Gibbs, porque, según el teorema Hammersley–Clifford, puede ser representado por una medida de Gibbs para un función de energía apropiada (localmente definida). El prototipico MRF es el modelo de Ising; de hecho, el MRF fue introducido como el entorno general para el modelo de Ising.[1]​ En el ámbito de la inteligencia artificial, un MRF suele usarse para modelar varias faces de algoritmos de procesamiento de imagen y visión por computadora.[2]

Definición

Dado un grafo no dirigido  , un conjunto de variables aleatorias   indexadas por   constituyen un MRF con respecto a   si satisfacen las propiedades de Markov locales:

Propiedad de Markov dos a dos: dos variables no adyacentes cualesquiera son condicionalmente independientes dadas todas las demás variables:
 
Propiedad local de Markov: una variable es condicionalmente independiente de todas las otras variables dadas sus vecinos:
 
donde   es el conjunto de los vecinos  , y   es la vecindad cerrada de  .
Propiedad global de Markov: dos subconjuntos de variables cualesquiera son condicionalmente independientes dado un subconjunto que las separa:
 
donde todo camino de un nodo en   a un nodo en   pasa a través de  .

Las tres propiedades anteriores no son equivalentes: la primera es más débil que la segunda y esta es más débil que la tercera.

Factorización de un clique

Como las propiedades de Markov de una distribución de probabilidad arbitraria pueden ser difícil de establecer, una clase comúnmente usada de campos aleatorios de Markov son aquellos que pueden ser factorizados de acuerdo con el clique de la gráfica.

Dado un conjunto de variables aleatorias  , sea   la probabilidad de una configuración de campo en particular   en  . Es decir,   es la probabilidad de encontrar que las variables aleatorias   asuman el valor particular de  . Porque   es un conjunto, la probabilidad de   deben tomarse con respecto a una distribución conjunta de  .

Si esta densidad conjunta se puede factorizar sobre el clique de  :

 

entonces   forma un campo aleatorio de Markov con respecto a  .   es el conjunto de cliques de  . La definición es equivalente si solo se utiliza el máximo de los cliques. Las funciones φC a veces se conocen como factores potenciales potencial del clique. La palabra potencial se aplica a menudo al logaritmo de φC. Esto se debe a que, en la estadística mecánica log(φC) tiene una interpretación directa como la energía potencial de la configuración  .

A pesar de que algunos MRFs no factoricen (un ejemplo sencillo puede ser construido con un ciclo de 4 nodos), en algunos casos puede ser mostrado que son equivalentes bajo ciertas condiciones:[3]

  • Si la densidad es positiva (por el teorema Hammersley–Clifford),
  • Si el grafo es cordal (por equivalencia con una red bayesiana).

Cuándo tal factorización existe, es posible de construir un grafo de factores para la red.

Modelo logístico

Cualquier MRF (con una densidad estrictamente positiva) puede ser reescrito como un modelo logístico con funciones de características   tal que la distribución de probabilidad conjunta puede ser escrita:

 

donde la notación

 

Es sencillamente un producto escalar sobre las configuraciones del campo, y Z es la función de partición:

 

Aquí,   denota el conjunto de todas las posible asignaciones de los valores de todas las variables aleatorias de la red. Usualmente, las funciones de características   son definidas de forma que sean indicadoras de la configuración del clique, i.e.   if   corresponde a la i-ésima configuración posible del k-ésimo clique, o 0 en otro caso. Este modelo es equivalente al modelo descrito anterioremente (con factorización respecto a los cliques), si   es la cardinalidad del clique, y el peso correspondiente a una función   se corresponde con el logaritmo del potencial del clique correspondiente, i.e.  , donde   la i-ésima configuración posible del k-ésimo clique, i.e. el i-ésimo valor en el dominio del clique  .

Como las propiedades de Markov de una distribución de probabilidad arbitraria pueden ser difíciles de establecer, una clase generalmente utilizada de MRF son los que pueden ser factorizados según los cliques del grafo.

La probabilidad P es llamada a menuda la medida de Gibbs. Esta representación de un MRF como un modelo logístico sólo es posible si todos los factores de un clique son no nulos, i.e. si a ninguno de los elementos de   le está asignado una probabilidad de 0. Esto permite que se puedan aplicar técnicas del álgebra matricial.

La importancia de la función de partición Z es que muchos conceptos de la estadística mecánica, como la entropía, se pueden generalizar directamente al caso de redes de Markov, obteniendo de esta manera una comprensión intuitiva. Además, la función de partición permite la aplicación de métodos variacionales para la solución del problema: se puede aplicar una fuerza de a una o más variables aleatorias, y estudiar la forma en que cambia la red en respuesta a esta perturbación. Así, por ejemplo, uno puede añadir un término Jv, a cada vértice v del grafo, obteniéndose:

 

Formalmente diferenciando con respecto a Jv se obtiene el valor esperado de la variable aleatoria Xv asociada al vértice v:

 

Las funciones de correlación se calculan de la mima manera; la correlación de dos puntos es:

 

Los modelos logísticos son especialmente convenientes debido a su interpretación. Un modelo logístico provee una forma mucho más compacta de representar muchas distribuciones, especialmente cuando las variables tienen dominios muy grandes. También son convenientes porque su función de verosimilitud es convexa. Desafortunadamente, aunque la verosimilitud de la logística de una red de Markov es convexa, la evaluación de la verosimilitud o su gradiente para un modelo requiere del cálculo de inferencia en el modelo, lo cual es, generalmente, impracticable computacionalmente.

Ejemplos

MRF Gausiano

Una distribución normal multivariante forma un MRF con respecto a un grafo   si las aristas faltantes se corresponden con ceros en la matriz de precisión (la inversa de la matriz de covarianza):

 

Tal que:

 [4]

Modelo Oculto de Markov

 
Los nodos X representan estados mientras que los nodos Y representan observaciones sobre esos estados

En el modelo oculto de Markov, el estado no es visible directamente, pero la observación, que depende del estado, es visible. Cada estado tiene una distribución de probabilidad sobre los posibles tokens de salida. Por lo tanto, la secuencia de tokens generada por un HMM proporciona información sobre la secuencia de estados.

Inferencia

Como en una red bayesiana se puede obtener la distribución condicional de un conjunto de nodos   dado otro conjunto de nodos   en el MRF, sumando sobre todas las posibles asignaciones de los  ; esto se llama inferencia exacta. Sin embargo esto es un problema NP-completo, y por tanto computacionalmente costoso para el caso general. Técnicas de aproximación como Monte Carlo sobre cadenas de Markov y propagación de creencias son más factibles en la práctica. Existen casos particulares de MRFs, como los árboles, que poseen algoritmos de inferencia polinomiales; encontrar estos casos particulares es un campo de investigación activo en la actualidad. Existen también subconjuntos de MRFs que permiten la inferencia del MAP o la asignación más verosímil, de manera eficiente; ejemplos de estos son las redes asociativas.[5][6]​ Otro subconjunto interesante es el de los modelos descomponibles (cuando el grafo es cordal): existiendo en este caso una forma cerrada para MLE, es posible descubrir una estructura consistente para cientos de variables.[7]

Referencias

  1. Markov Campos aleatorios y Sus Aplicaciones (PDF).
  2. Markov @Modeling de Campo aleatorio en Análisis de Imagen.
  3. "Gibbs Y Markov sistemas aleatorios con constreñimientos".
  4. Gaussiano Markov campos aleatorios: teoría y aplicaciones.
  5. Proceedings del Veinte-primera
  6. Utilizando Combinatorial Optimización dentro Max-Propagación de Creencia del Producto
  7. Scaling Registro-análisis lineal a dato alto dimensional (PDF).
  •   Datos: Q176827

campo, aleatorio, markov, ámbito, física, probabilidad, abreviado, siglas, inglés, markov, modelo, gráfico, dirigido, conjunto, variables, aleatorias, poseen, propiedad, markov, descrito, grafo, dirigido, similar, bayesiana, representación, dependencias, entre. En el ambito de la fisica y la probabilidad un Campo aleatorio de Markov abreviado MRF por sus siglas en ingles Red Markov o modelo grafico no dirigido es un conjunto de variables aleatorias que poseen la propiedad de Markov descrito por un grafo no dirigido Un MRF es similar a una red bayesiana en su representacion de las dependencias entre variables aleatorias la diferencia radica en que las redes bayesianas son dirigidas y aciclicas mientras que en los MRF las redes son no dirigidas y pueden ser ciclicas De esta manera un MRF puede representar determinadas dependencias que una red bayesiana no puede como dependencias ciclicas por otro lado existen dependencias que no puede representar como dependencias inducidas El grafo subyacente de un MRF puede ser finito o infinito Cuando la funcion de distribucion conjunta de las variables aleatorias es estrictamente positiva se le llama tambien campo aleatorio de Gibbs porque segun el teorema Hammersley Clifford puede ser representado por una medida de Gibbs para un funcion de energia apropiada localmente definida El prototipico MRF es el modelo de Ising de hecho el MRF fue introducido como el entorno general para el modelo de Ising 1 En el ambito de la inteligencia artificial un MRF suele usarse para modelar varias faces de algoritmos de procesamiento de imagen y vision por computadora 2 Indice 1 Definicion 2 Factorizacion de un clique 3 Modelo logistico 4 Ejemplos 4 1 MRF Gausiano 4 2 Modelo Oculto de Markov 5 Inferencia 6 ReferenciasDefinicion EditarDado un grafo no dirigido G V E displaystyle G V E un conjunto de variables aleatorias X X v v V displaystyle X X v v in V indexadas por V displaystyle V constituyen un MRF con respecto a G displaystyle G si satisfacen las propiedades de Markov locales Propiedad de Markov dos a dos dos variables no adyacentes cualesquiera son condicionalmente independientes dadas todas las demas variables X u X v X V u v if u v E displaystyle X u perp perp X v mid X V setminus u v quad text if u v notin E dd Propiedad local de Markov una variable es condicionalmente independiente de todas las otras variables dadas sus vecinos X v X V cl v X ne v displaystyle X v perp perp X V setminus operatorname cl v mid X operatorname ne v dd donde ne v textstyle operatorname ne v es el conjunto de los vecinos v displaystyle v y cl v v ne v displaystyle operatorname cl v v cup operatorname ne v es la vecindad cerrada de v displaystyle v Propiedad global de Markov dos subconjuntos de variables cualesquiera son condicionalmente independientes dado un subconjunto que las separa X A X B X S displaystyle X A perp perp X B mid X S dd donde todo camino de un nodo en A displaystyle A a un nodo en B displaystyle B pasa a traves de S displaystyle S Las tres propiedades anteriores no son equivalentes la primera es mas debil que la segunda y esta es mas debil que la tercera Factorizacion de un clique EditarComo las propiedades de Markov de una distribucion de probabilidad arbitraria pueden ser dificil de establecer una clase comunmente usada de campos aleatorios de Markov son aquellos que pueden ser factorizados de acuerdo con el clique de la grafica Dado un conjunto de variables aleatorias X X v v V displaystyle X X v v in V sea P X x displaystyle P X x la probabilidad de una configuracion de campo en particular x displaystyle x en X displaystyle X Es decir P X x displaystyle P X x es la probabilidad de encontrar que las variables aleatorias X displaystyle X asuman el valor particular de x displaystyle x Porque X displaystyle X es un conjunto la probabilidad de x displaystyle x deben tomarse con respecto a una distribucion conjunta de X v displaystyle X v Si esta densidad conjunta se puede factorizar sobre el clique de G displaystyle G P X x C cl G ϕ C x C displaystyle P X x prod C in operatorname cl G phi C x C entonces X displaystyle X forma un campo aleatorio de Markov con respecto a G displaystyle G cl G displaystyle operatorname cl G es el conjunto de cliques de G displaystyle G La definicion es equivalente si solo se utiliza el maximo de los cliques Las funciones fC a veces se conocen como factores potenciales potencial del clique La palabra potencial se aplica a menudo al logaritmo de fC Esto se debe a que en la estadistica mecanica log fC tiene una interpretacion directa como la energia potencial de la configuracion x C displaystyle x C A pesar de que algunos MRFs no factoricen un ejemplo sencillo puede ser construido con un ciclo de 4 nodos en algunos casos puede ser mostrado que son equivalentes bajo ciertas condiciones 3 Si la densidad es positiva por el teorema Hammersley Clifford Si el grafo es cordal por equivalencia con una red bayesiana Cuando tal factorizacion existe es posible de construir un grafo de factores para la red Modelo logistico EditarCualquier MRF con una densidad estrictamente positiva puede ser reescrito como un modelo logistico con funciones de caracteristicas f k displaystyle f k tal que la distribucion de probabilidad conjunta puede ser escrita P X x 1 Z exp k w k f k x k displaystyle P X x frac 1 Z exp left sum k w k top f k x k right donde la notacion w k f k x k i 1 N k w k i f k i x k displaystyle w k top f k x k sum i 1 N k w k i cdot f k i x k Es sencillamente un producto escalar sobre las configuraciones del campo y Z es la funcion de particion Z x X exp k w k f k x k displaystyle Z sum x in mathcal X exp left sum k w k top f k x k right Aqui X displaystyle mathcal X denota el conjunto de todas las posible asignaciones de los valores de todas las variables aleatorias de la red Usualmente las funciones de caracteristicas f k i displaystyle f k i son definidas de forma que sean indicadoras de la configuracion del clique i e f k i x k 1 displaystyle f k i x k 1 if x k displaystyle x k corresponde a la i esima configuracion posible del k esimo clique o 0 en otro caso Este modelo es equivalente al modelo descrito anterioremente con factorizacion respecto a los cliques si N k dom C k displaystyle N k operatorname dom C k es la cardinalidad del clique y el peso correspondiente a una funcion f k i displaystyle f k i se corresponde con el logaritmo del potencial del clique correspondiente i e w k i log ϕ c k i displaystyle w k i log phi c k i donde c k i displaystyle c k i la i esima configuracion posible del k esimo clique i e el i esimo valor en el dominio del clique C k displaystyle C k Como las propiedades de Markov de una distribucion de probabilidad arbitraria pueden ser dificiles de establecer una clase generalmente utilizada de MRF son los que pueden ser factorizados segun los cliques del grafo La probabilidad P es llamada a menuda la medida de Gibbs Esta representacion de un MRF como un modelo logistico solo es posible si todos los factores de un clique son no nulos i e si a ninguno de los elementos de X displaystyle mathcal X le esta asignado una probabilidad de 0 Esto permite que se puedan aplicar tecnicas del algebra matricial La importancia de la funcion de particion Z es que muchos conceptos de la estadistica mecanica como la entropia se pueden generalizar directamente al caso de redes de Markov obteniendo de esta manera una comprension intuitiva Ademas la funcion de particion permite la aplicacion de metodos variacionales para la solucion del problema se puede aplicar una fuerza de a una o mas variables aleatorias y estudiar la forma en que cambia la red en respuesta a esta perturbacion Asi por ejemplo uno puede anadir un termino Jv a cada vertice v del grafo obteniendose Z J x X exp k w k f k x k v J v x v displaystyle Z J sum x in mathcal X exp left sum k w k top f k x k sum v J v x v right Formalmente diferenciando con respecto a Jv se obtiene el valor esperado de la variable aleatoria Xv asociada al vertice v E X v 1 Z Z J J v J v 0 displaystyle E X v frac 1 Z left frac partial Z J partial J v right J v 0 Las funciones de correlacion se calculan de la mima manera la correlacion de dos puntos es C X u X v 1 Z 2 Z J J u J v J u 0 J v 0 displaystyle C X u X v frac 1 Z left frac partial 2 Z J partial J u partial J v right J u 0 J v 0 Los modelos logisticos son especialmente convenientes debido a su interpretacion Un modelo logistico provee una forma mucho mas compacta de representar muchas distribuciones especialmente cuando las variables tienen dominios muy grandes Tambien son convenientes porque su funcion de verosimilitud es convexa Desafortunadamente aunque la verosimilitud de la logistica de una red de Markov es convexa la evaluacion de la verosimilitud o su gradiente para un modelo requiere del calculo de inferencia en el modelo lo cual es generalmente impracticable computacionalmente Ejemplos EditarMRF Gausiano Editar Una distribucion normal multivariante forma un MRF con respecto a un grafo G V E displaystyle G V E si las aristas faltantes se corresponden con ceros en la matriz de precision la inversa de la matriz de covarianza X X v v V N m S displaystyle X X v v in V sim mathcal N boldsymbol mu Sigma Tal que S 1 u v 0 if u v E displaystyle Sigma 1 uv 0 quad text if quad u v notin E 4 Modelo Oculto de Markov Editar Los nodos X representan estados mientras que los nodos Y representan observaciones sobre esos estados En el modelo oculto de Markov el estado no es visible directamente pero la observacion que depende del estado es visible Cada estado tiene una distribucion de probabilidad sobre los posibles tokens de salida Por lo tanto la secuencia de tokens generada por un HMM proporciona informacion sobre la secuencia de estados Inferencia EditarComo en una red bayesiana se puede obtener la distribucion condicional de un conjunto de nodos V v 1 v i displaystyle V v 1 ldots v i dado otro conjunto de nodos W w 1 w j displaystyle W w 1 ldots w j en el MRF sumando sobre todas las posibles asignaciones de los u V W displaystyle u notin V W esto se llama inferencia exacta Sin embargo esto es un problema NP completo y por tanto computacionalmente costoso para el caso general Tecnicas de aproximacion como Monte Carlo sobre cadenas de Markov y propagacion de creencias son mas factibles en la practica Existen casos particulares de MRFs como los arboles que poseen algoritmos de inferencia polinomiales encontrar estos casos particulares es un campo de investigacion activo en la actualidad Existen tambien subconjuntos de MRFs que permiten la inferencia del MAP o la asignacion mas verosimil de manera eficiente ejemplos de estos son las redes asociativas 5 6 Otro subconjunto interesante es el de los modelos descomponibles cuando el grafo es cordal existiendo en este caso una forma cerrada para MLE es posible descubrir una estructura consistente para cientos de variables 7 Referencias Editar Markov Campos aleatorios y Sus Aplicaciones PDF Markov Modeling de Campo aleatorio en Analisis de Imagen Gibbs Y Markov sistemas aleatorios con constrenimientos Gaussiano Markov campos aleatorios teoria y aplicaciones Proceedings del Veinte primera Utilizando Combinatorial Optimizacion dentro Max Propagacion de Creencia del Producto Scaling Registro analisis lineal a dato alto dimensional PDF Datos Q176827Obtenido de https es wikipedia org w index php title Campo aleatorio de Markov amp oldid 130803330, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos