fbpx
Wikipedia

Perplejidad

La perplejidad es una medida de cómo de bien una distribución de probabilidad o modelo de probabilidad predice una muestra. Se puede usar para comparar modelos de probabilidad. Una baja perplejidad indica que la distribución de probabilidad es buena para predecir la muestra. La perplejidad es una medida utilizada en la teoría de la información. Se define como 2 elevado a la entropía, o más a menudo como 2 elevado a la entropía cruzada. La última definición es usada frecuentemente en la comparación empírica de modelos probabilísticos.

Perplejidad de una distribución de probabilidad

La perplejidad de una distribución de probabilidad discreta p se define como

 

donde H(p) es la entropía de la distribución y x varía entre los distintos eventos.

Asimismo se puede definir la perplejidad de una variable aleatoria X como la perplejidad de la distribución para todos los posibles valores de x.

Perplejidad de un modelo probabilístico

A menudo se intenta extraer un modelo de una distribución de probabilidad desconocida p, basándose en un conjunto de entrenamiento generado por p. Dado un modelo probabilístico propuesto q, se puede evaluar q preguntando cómo predice éste otro conjunto separado de prueba x1, x2,..., xN generado también por p. La perplejidad del modelo q se define como

 

Los buenos modelos q de la distribución desconocida p tienden a asignar altas probabilidades q(xi) a los eventos de prueba. De esta manera, tendrán una menor perplejidad: se "sorprenden" menos por el conjunto de prueba.

El exponente de la anterior fórmula puede considerarse como el número medio de bits necesarios para representar un evento de prueba xi usando una codificación óptima basada en q. Los modelos con baja perplejidad pueden comprimir mejor el conjunto de prueba, debido a que se necesitan pocos bits de media por cada elemento ya que q(xi) tiende a ser alto.

El exponente puede considerarse también como la entropía cruzada,

 

donde   denota la distribución empírica del conjunto de prueba (i.e.,   si x aparece n veces en un conjunto de prueba de tamaño N).

Perplejidad por palabra

En procesamiento del lenguaje natural, la perplejidad es usada frecuentemente a la hora de evaluar modelos de lenguaje. Un modelo de lenguaje es una distribución de probabilidad sobre un conjunto de textos.

Usando la definición anterior, se puede encontrar que una frase xi en el conjunto de prueba puede ser codificada de media mediante 190 bits (p.e, si las frases de prueba tienen una media de probabilidad logarítmica de -190). Este valor nos daría un valor enorme de perplejidad de 2190 por frase. Sin embargo, es más común normalizar por la longitud de la frase y considerar sólo el número de bits por palabra. De esta manera, si las frases de un conjunto de entrenamiento constan de un total de 1,000 palabras, y éstas se codifican mediante 7,950 bits, se da la perplejidad del modelo como 27.95 = 247 por palabra. En otras palabras, el modelo se confunde en el conjunto de prueba como si tuviese que elegir uniforme e independientemente entre 247 posibilidades por cada palabra.

La menor perplejidad que se ha publicado del Brown Corpus (1 millón de palabras de inglés americano de distintos temas y géneros) es de 247 por palabra, una entropía cruzada de log2247 = 7.95 bits por palabra o 1.75 por letra.[1]​ Es posible conseguir una menor perplejidad en corpus de textos más especializados, ya que éstos son más predecibles.

Referencias

  1. Brown, Peter E.; et al (marzo de 1992). . Computational Linguistics 18 (1). Archivado desde el original el 26 de febrero de 2007. Consultado el 7 de febrero de 2007. 


  •   Datos: Q372193

perplejidad, perplejidad, medida, cómo, bien, distribución, probabilidad, modelo, probabilidad, predice, muestra, puede, usar, para, comparar, modelos, probabilidad, baja, perplejidad, indica, distribución, probabilidad, buena, para, predecir, muestra, perplej. La perplejidad es una medida de como de bien una distribucion de probabilidad o modelo de probabilidad predice una muestra Se puede usar para comparar modelos de probabilidad Una baja perplejidad indica que la distribucion de probabilidad es buena para predecir la muestra La perplejidad es una medida utilizada en la teoria de la informacion Se define como 2 elevado a la entropia o mas a menudo como 2 elevado a la entropia cruzada La ultima definicion es usada frecuentemente en la comparacion empirica de modelos probabilisticos Indice 1 Perplejidad de una distribucion de probabilidad 2 Perplejidad de un modelo probabilistico 3 Perplejidad por palabra 4 ReferenciasPerplejidad de una distribucion de probabilidad EditarLa perplejidad de una distribucion de probabilidad discreta p se define como 2 H p 2 x p x log 2 p x displaystyle 2 H p 2 sum x p x log 2 p x donde H p es la entropia de la distribucion y x varia entre los distintos eventos Asimismo se puede definir la perplejidad de una variable aleatoria X como la perplejidad de la distribucion para todos los posibles valores de x Perplejidad de un modelo probabilistico EditarA menudo se intenta extraer un modelo de una distribucion de probabilidad desconocida p basandose en un conjunto de entrenamiento generado por p Dado un modelo probabilistico propuesto q se puede evaluar q preguntando como predice este otro conjunto separado de prueba x1 x2 xN generado tambien por p La perplejidad del modelo q se define como 2 i 1 N 1 N log 2 q x i displaystyle 2 sum i 1 N frac 1 N log 2 q x i Los buenos modelos q de la distribucion desconocida p tienden a asignar altas probabilidades q xi a los eventos de prueba De esta manera tendran una menor perplejidad se sorprenden menos por el conjunto de prueba El exponente de la anterior formula puede considerarse como el numero medio de bits necesarios para representar un evento de prueba xi usando una codificacion optima basada en q Los modelos con baja perplejidad pueden comprimir mejor el conjunto de prueba debido a que se necesitan pocos bits de media por cada elemento ya que q xi tiende a ser alto El exponente puede considerarse tambien como la entropia cruzada H p q x p x log 2 q x displaystyle H tilde p q sum x tilde p x log 2 q x donde p displaystyle tilde p denota la distribucion empirica del conjunto de prueba i e p x n N displaystyle tilde p x n N si x aparece n veces en un conjunto de prueba de tamano N Perplejidad por palabra EditarEn procesamiento del lenguaje natural la perplejidad es usada frecuentemente a la hora de evaluar modelos de lenguaje Un modelo de lenguaje es una distribucion de probabilidad sobre un conjunto de textos Usando la definicion anterior se puede encontrar que una frase xi en el conjunto de prueba puede ser codificada de media mediante 190 bits p e si las frases de prueba tienen una media de probabilidad logaritmica de 190 Este valor nos daria un valor enorme de perplejidad de 2190 por frase Sin embargo es mas comun normalizar por la longitud de la frase y considerar solo el numero de bits por palabra De esta manera si las frases de un conjunto de entrenamiento constan de un total de 1 000 palabras y estas se codifican mediante 7 950 bits se da la perplejidad del modelo como 27 95 247 por palabra En otras palabras el modelo se confunde en el conjunto de prueba como si tuviese que elegir uniforme e independientemente entre 247 posibilidades por cada palabra La menor perplejidad que se ha publicado del Brown Corpus 1 millon de palabras de ingles americano de distintos temas y generos es de 247 por palabra una entropia cruzada de log2247 7 95 bits por palabra o 1 75 por letra 1 Es posible conseguir una menor perplejidad en corpus de textos mas especializados ya que estos son mas predecibles Referencias Editar Brown Peter E et al marzo de 1992 An Estimate of an Upper Bound for the Entropy of English Computational Linguistics 18 1 Archivado desde el original el 26 de febrero de 2007 Consultado el 7 de febrero de 2007 Datos Q372193Obtenido de https es wikipedia org w index php title Perplejidad amp oldid 134532256, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos