fbpx
Wikipedia

Algoritmo de Baum-Welch

Introducción

Uno de los problemas relacionados con los Modelos Ocultos de Márkov (MOM) es el de encontrar un modelo   que maximice la probabilidad de una secuencia de observaciones  , es decir, determinar el modelo que mejor explica tal secuencia. El problema es que no es posible encontrar tal modelo analíticamente y por ello es necesario un algoritmo iterativo como el de Baum y Welch, que permite estimar los parámetros de un modelo que hacen máxima la probabilidad de una secuencia de observables.

El algoritmo de Baum y Welch

Dada una secuencia de observaciones  , el algoritmo de Baum y Welch permite estimar los parámetros   de un Modelo oculto de Márkov (MOM) que maximizan la probabilidad de dicha secuencia, es decir,  .

Valores esperados

Antes de describir el proceso de estimación, necesitamos conocer:

  • el número esperado de transiciones desde el estado   en   y
  • el número esperado de transiciones desde el estado   al estado   en  

Para ello definimos previamente   como la probabilidad de estar en el estado   en el instante   y en el estado   en el instante  , dado una observación   y el modelo  .

 

 

 

donde los valores   y   se pueden calcular eficientemente con el algoritmo de avance-retroceso.

 

 

La figura muestra un esquema parcial de los elementos necesarios para el cálculo de  .

 


Definimos también   como la probabilidad de estar en el estado   en el instante  ,

 


Sumando cada   en cada instante de tiempo, obtenemos:

  • el número esperado de transiciones desde el estado   en la observación  

 

y haciendo lo mismo con cada  , obtenemos:

  • el número esperado de transiciones desde el estado   al estado   en la observación  

 

Reestimación

El funcionamiento del procedimiento iterativo es básicamente el siguiente:

  1. Se parte de un modelo inicial que se puede seleccionar aleatoriamente.
  2. Se realiza el cálculo de las transiciones y símbolos de emisión que son más probables según el modelo inicial escogido.
  3. Se construye un nuevo modelo en el que se incrementa la probabilidad de las transiciones y símbolos determinados en el paso anterior. Para la secuencia de observables en cuestión, el modelo tendrá ahora una probabilidad mayor que el modelo anterior.

Este proceso de entrenamiento se repite varias veces hasta que no exista mejora entre un modelo y el siguiente revisado.

Probabilidad de estar en el estado   en el instante de tiempo  :

 

 


Reestimación de las probabilidades de transición. El numerador representa el número esperado de transiciones de   a  , y el denominador representa el número esperado de transiciones desde  :

 

 ,  


Reestimación de las probabilidades de emisión. El numerador representa el número esperado de veces que se pasa por el estado   y se observa  , y el denominador representa el número esperado de veces que se pasa por el estado  :

 

 ,  

Otras preguntas fundamentales

Otros dos problemas que es importante saber resolver para utilizar los MOM son:

  1. ¿Cuál es la secuencia óptima   de estados, dada una secuencia de observaciones  ? (algoritmo de Viterbi)
  2. ¿Cuál es la probabilidad de una secuencia de observaciones   dado un modelo  ? Es decir, ¿cómo podemos calcular de forma eficiente  ? (cálculo hacia adelante y hacia atrás).

Véase también

  •   Datos: Q811478

algoritmo, baum, welch, Índice, introducción, algoritmo, baum, welch, valores, esperados, reestimación, otras, preguntas, fundamentales, véase, tambiénintroducción, editaruno, problemas, relacionados, modelos, ocultos, márkov, encontrar, modelo, displaystyle, . Indice 1 Introduccion 2 El algoritmo de Baum y Welch 2 1 Valores esperados 2 2 Reestimacion 3 Otras preguntas fundamentales 4 Vease tambienIntroduccion EditarUno de los problemas relacionados con los Modelos Ocultos de Markov MOM es el de encontrar un modelo m displaystyle mu que maximice la probabilidad de una secuencia de observaciones O o 1 o 2 o T displaystyle O o 1 o 2 ldots o T es decir determinar el modelo que mejor explica tal secuencia El problema es que no es posible encontrar tal modelo analiticamente y por ello es necesario un algoritmo iterativo como el de Baum y Welch que permite estimar los parametros de un modelo que hacen maxima la probabilidad de una secuencia de observables El algoritmo de Baum y Welch EditarDada una secuencia de observaciones O o 1 o 2 o T displaystyle O o 1 o 2 ldots o T el algoritmo de Baum y Welch permite estimar los parametros m displaystyle mu de un Modelo oculto de Markov MOM que maximizan la probabilidad de dicha secuencia es decir P O m displaystyle P O mu Valores esperados Editar Antes de describir el proceso de estimacion necesitamos conocer el numero esperado de transiciones desde el estado i displaystyle i en O displaystyle O y el numero esperado de transiciones desde el estado i displaystyle i al estado j displaystyle j en O displaystyle O Para ello definimos previamente 3 t i j displaystyle xi t i j como la probabilidad de estar en el estado i displaystyle i en el instante t displaystyle t y en el estado j displaystyle j en el instante t 1 displaystyle t 1 dado una observacion O displaystyle O y el modelo m displaystyle mu 3 t i j P q t i q t 1 j O m displaystyle xi t i j P q t i q t 1 j O mu 3 t i j P q t i q t 1 j O m P O m a t i a i j b j o t 1 b t 1 j P O m displaystyle xi t i j frac P q t i q t 1 j O mu P O mu frac alpha t i a ij b j o t 1 beta t 1 j P O mu 3 t i j a t i a i j b j o t 1 b t 1 j k 1 N l 1 N a t k a k l b l o t 1 b t 1 l displaystyle xi t i j frac alpha t i a ij b j o t 1 beta t 1 j displaystyle sum k 1 N displaystyle sum l 1 N alpha t k a kl b l o t 1 beta t 1 l donde los valores a t i displaystyle alpha t i y b t i displaystyle beta t i se pueden calcular eficientemente con el algoritmo de avance retroceso a t i P o 1 o 2 o t q t i m displaystyle alpha t i P o 1 o 2 ldots o t q t i mu b t i P o t 1 o t 2 o T q t i m displaystyle beta t i P o t 1 o t 2 ldots o T q t i mu La figura muestra un esquema parcial de los elementos necesarios para el calculo de 3 i j displaystyle xi i j Definimos tambien g t i displaystyle gamma t i como la probabilidad de estar en el estado i displaystyle i en el instante t displaystyle t g t i j 1 N 3 t i j displaystyle gamma t i displaystyle sum j 1 N xi t i j Sumando cada g t i displaystyle gamma t i en cada instante de tiempo obtenemos el numero esperado de transiciones desde el estado i displaystyle i en la observacion O displaystyle O t 1 T 1 g t i displaystyle displaystyle sum t 1 T 1 gamma t i y haciendo lo mismo con cada 3 t i j displaystyle xi t i j obtenemos el numero esperado de transiciones desde el estado i displaystyle i al estado j displaystyle j en la observacion O displaystyle O t 1 T 1 3 t i j displaystyle displaystyle sum t 1 T 1 xi t i j Reestimacion Editar El funcionamiento del procedimiento iterativo es basicamente el siguiente Se parte de un modelo inicial que se puede seleccionar aleatoriamente Se realiza el calculo de las transiciones y simbolos de emision que son mas probables segun el modelo inicial escogido Se construye un nuevo modelo en el que se incrementa la probabilidad de las transiciones y simbolos determinados en el paso anterior Para la secuencia de observables en cuestion el modelo tendra ahora una probabilidad mayor que el modelo anterior Este proceso de entrenamiento se repite varias veces hasta que no exista mejora entre un modelo y el siguiente revisado Probabilidad de estar en el estado i displaystyle i en el instante de tiempo t 1 displaystyle t 1 p i g 1 i displaystyle bar pi i gamma 1 i 1 i N displaystyle 1 leq i leq N Reestimacion de las probabilidades de transicion El numerador representa el numero esperado de transiciones de i displaystyle i a j displaystyle j y el denominador representa el numero esperado de transiciones desde i displaystyle i a i j t 1 T 1 3 t i j t 1 T 1 g t i displaystyle bar a ij frac displaystyle sum t 1 T 1 xi t i j displaystyle sum t 1 T 1 gamma t i 1 i N displaystyle 1 leq i leq N 1 j N displaystyle 1 leq j leq N Reestimacion de las probabilidades de emision El numerador representa el numero esperado de veces que se pasa por el estado j displaystyle j y se observa o k displaystyle o k y el denominador representa el numero esperado de veces que se pasa por el estado j displaystyle j b j o k t 1 o t o k T g t j t 1 T g t j displaystyle bar b j o k frac displaystyle sum t 1 o t o k T gamma t j displaystyle sum t 1 T gamma t j 1 j N displaystyle 1 leq j leq N 1 k N displaystyle 1 leq k leq N Otras preguntas fundamentales EditarOtros dos problemas que es importante saber resolver para utilizar los MOM son Cual es la secuencia optima S displaystyle S de estados dada una secuencia de observaciones O displaystyle O algoritmo de Viterbi Cual es la probabilidad de una secuencia de observaciones O o 1 o 2 o T displaystyle O o 1 o 2 ldots o T dado un modelo m p A B displaystyle mu pi A B Es decir como podemos calcular de forma eficiente P O m displaystyle P O mu calculo hacia adelante y hacia atras Vease tambien EditarModelos Ocultos de Markov Algoritmo de Viterbi Algoritmo de avance retroceso Datos Q811478 Obtenido de https es wikipedia org w index php title Algoritmo de Baum Welch amp oldid 128334796, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos