fbpx
Wikipedia

Clasificador bayesiano ingenuo

En teoría de la probabilidad y minería de datos, un clasificador Naive Bayes es un clasificador probabilístico fundamentado en el teorema de Bayes y algunas hipótesis simplificadoras adicionales. Es a causa de estas simplificaciones, que se suelen resumir en la hipótesis de independencia entre las variables predictoras, que recibe el apelativo de naive, es decir, ingenuo.

Introducción editar

En términos simples, un clasificador de Naive Bayes asume que la presencia o ausencia de una característica particular no está relacionada con la presencia o ausencia de cualquier otra característica, dada la clase variable. Por ejemplo, una fruta puede ser considerada como una manzana si es roja, redonda y de alrededor de 7 cm de diámetro. Un clasificador de Naive Bayes considera que cada una de estas características contribuye de manera independiente a la probabilidad de que esta fruta sea una manzana, independientemente de la presencia o ausencia de las otras características.

Para otros modelos de probabilidad, los clasificadores de Naive Bayes se pueden entrenar de manera muy eficiente en un entorno de aprendizaje supervisado. En muchas aplicaciones prácticas, la estimación de parámetros para los modelos Naive Bayes utiliza el método de máxima verosimilitud, en otras palabras, se puede trabajar con el modelo de Naive Bayes sin aceptar probabilidad bayesiana o cualquiera de los métodos bayesianos.

Una ventaja del clasificador de Naive Bayes es que solo se requiere una pequeña cantidad de datos de entrenamiento para estimar los parámetros (las medias y las varianzas de las variables) necesarias para la clasificación. Como las variables independientes se asumen, solo es necesario determinar las varianzas de las variables de cada clase y no toda la matriz de covarianza.

Concepto Probabilístico editar

En abstracto, el modelo de probabilidad para un clasificador es

 

sobre una variable dependiente  , con un pequeño número de resultados (o clases). Esta variable está condicionada por varias variables independientes desde   a  . El problema es que si el número   de variables independientes es grande (o cuando éstas pueden tomar muchos valores), entonces basar este modelo en tablas de probabilidad se vuelve imposible. Por lo tanto el modelo se reformula para hacerlo más manejable:

Usando el teorema de Bayes se escribe:

 

Lo anterior podría reescribirse en lenguaje común como:

 

En la práctica solo importa el numerador, ya que el denominador no depende de   y los valores de   son datos, por lo que el denominador es, en la práctica, constante.

El numerador es equivalente a una probabilidad compuesta:

 

que puede ser reescrita como sigue, aplicando repetidamente la definición de probabilidad condicional:

 
 
 
 
 


... y así sucesivamente. Ahora es cuando el supuesto "naïve" de independencia condicional entra en juego: se asume que cada   es independiente de cualquier otra   para   cuando están condicionadas a  . Esto significa que

 

por lo que la probabilidad compuesta puede expresarse como

 
 

Esto significa que haciendo estos supuestos, la distribución condicional de   sobre las variables clasificatorias puede expresarse de la siguiente manera:

 

donde   es un factor que depende solo de  , es decir, constante si los valores de   son conocidos.

Estimación de parámetros y modelo de eventos editar

Todos los parámetros del modelo (por ejemplo, clases prioris y características de las distribuciones de probabilidad) se puede aproximar con frecuencias relativas del conjunto de entrenamiento. Estas son las estimaciones de máxima verosimilitud de las probabilidades. Una clase priori se puede calcular asumiendo clases equiprobables (es decir, priori = 1/ (número de clases)), o mediante el cálculo de una estimación de la probabilidad de clase del conjunto de entrenamiento (es decir, (el priori de una clase dada) = (número de muestras en la clase) / (número total de muestras)). Para la estimación de los parámetros de la distribución de una característica, se debe asumir una distribución o generar modelos de estadística no paramétrica de las características del conjunto de entrenamiento.

Las hipótesis sobre las distribuciones de características son llamadas el modelo de eventos del Clasificador Naive Bayes. La distribución multinomial y la distribución de Bernoulli son populares para características discretas como las encontradas en la clasificación de documentos (incluyendo el filtrado de spam). Estas hipótesis conducen a dos modelos distintos, que a menudo se confunden. Cuando se trata con los datos continuos, una hipótesis típica es que los valores continuos asociados con cada clase se distribuyen según una Distribución normal.

Por ejemplo, supongamos que los datos de entrenamiento contienen un atributo continuo,  . En primer lugar, segmentar los datos por la clase, y a continuación, calcular la media y la varianza de   en cada clase. Donde   es la media de   asociado a la clase c, y   es la varianza de   asociado a la clase c. Entonces, la densidad de probabilidad de un cierto valor dada una clase,  , se puede calcular agregando   en la ecuación de una distribución Normal con parámetros   y  . Es decir:

 

Otra técnica común para la manipulación de valores continuos es usar binning para discretizar los valores de las características, obteniendo un nuevo conjunto de características de la distribución de Bernoulli. En general, el método de distribución es una mejor opción si hay pocos datos de entrenamiento, o si se conoce la distribución precisa de los datos. El método de discretización tiende a ser mejor si hay una gran cantidad de datos de entrenamiento, ya que va a aprender para adaptarse a la distribución de los datos. Naive Bayes se utiliza normalmente cuando hay disponible una gran cantidad de datos (los modelos computacionales más caros pueden lograr una mayor precisión), se prefiere generalmente el método de discretización que el método de distribución.

Corrección de muestras editar

Si el valor de la clase y de la función dada no ocurren juntas en los datos de entrenamiento, entonces la estimación basada en la probabilidad de frecuencia será cero. Esto es un problema, ya que acabará con toda la información de las otras probabilidades cuando se multiplican. Por lo tanto a menudo es necesario incorporar una pequeña corrección de muestreo, llamada pseudocontador con toda la probabilidad estimada, de tal manera que no hay probabilidad alguna para que dé exactamente cero.

Construcción de un clasificador del modelo de probabilidad editar

Hasta ahora la discusión ha derivado del modelo de características independientes, es decir, el modelo de probabilidad de Naive Bayes. El clasificador Naive Bayes combina este modelo con una regla de decisión. La primera regla en común, es para recoger la hipótesis del más probable, también conocido como el máximo a posteriori o MAP. El clasificador Bayer (la función  ) se define como:

 

Discusión editar

A pesar del hecho de que los clasificadores con mayor alcance son a menudo exactos, el clasificador de Naive Bayes tiene varias propiedades que lo hacen sorprendentemente útil en la práctica. En particular, el desacoplamiento de la clase de distribuciones condicionales significa que cada distribución se puede estimar de forma independiente como una distribución dimensional. Esto ayuda a aliviar los problemas derivados de la Maldición de la dimensión, tales como la necesidad de conjuntos de datos que se escalan exponencialmente con el número de características. Mientras Naive Bayes a menudo falla a la hora de producir una buena estimación de las probabilidades de clase, puede no ser un requisito para muchas otras aplicaciones. Por ejemplo, el Naive Bayes realiza correctamente la regla de clasificación del MAP de decisión tanto como mayor sea la probabilidad de la clase correcta respecto a las demás clases. Esto es cierto independientemente de si la estimación de la probabilidad es ligeramente, o incluso completamente inexacta. De esta manera, el clasificador general puede ser lo suficientemente robusto como para ignorar deficiencias graves en su modelo de probabilidad ingenua subyacente como el Cano.

Ejemplo editar

Clasificación de sexo editar

Problema: Clasificar una persona en hombre o mujer basándonos en las características de sus medidas: peso, altura y número de pie.

Entrenamiento editar

Entrenamiento previo.

sexo altura (pies) peso (lbs) talla del pie (inches)
hombre 6 180 12
hombre 5.92 (5'11") 190 11
hombre 5.58 (5'7") 170 12
hombre 5.92 (5'11") 165 10
mujer 5 100 6
mujer 5.5 (5'6") 150 8
mujer 5.42 (5'5") 130 7
mujer 5.75 (5'9") 150 9

Haciendo una distribución Gaussiana extraemos los datos y obtenemos la media y la varianza de cada característica.

sexo media (altura) varianza (altura) media (peso) varianza (peso) media (talla del pie) varianza (talla del pie)
hombre 5.855 0.035033 176.25 122.92000 11.25 0.91667
mujer 5.4175 0.097225 132.5 558.33000 7.5 1.66670

En este caso nos encontramos en una distribución equiprobable, es decir que tienen la misma probabilidad. P(hombre)=0.5 y P(mujer)=0.5.

Testing editar

Ahora recibimos unos datos para ser clasificado como hombre o mujer

sex altura (pies) peso (lbs) número de pie(inches)
muestra 6 130 8

Ahora nos interesa saber la probabilidad a posteriori de los dos casos, según es hombre o mujer.

hombre

 

mujer

 

La evidencia (también denominada constante de normalización) se puede calcular:


 
 


En este caso nos encontramos en una distribución equiprobable, es decir que tienen la misma probabilidad. P(hombre)=0.5 y P(mujer)=0.5.

 
 ,


donde   y   son los parámetros de la distribución normal que han sido determinados previamente en el entrenamiento .


 
 


 


 
 
 
 


 


En este caso el numerador a posteriori más grande es el de la mujer, por eso determinamos que los datos son de mujer.

Véase también editar

Referencias editar

  • Traducción de:. «Naive Bayes classifier» |url= incorrecta con autorreferencia (ayuda) (en inglés). Consultado el 23 de noviembre de 2013. 

Enlaces externos editar

  • Book Chapter: Naive Bayes text classification, Introduction to Information Retrieval
  • Naive Bayes for Text Classification with Unbalanced Classes
  • Uso incorrecto de la plantilla enlace roto (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
  • Hierarchical Naive Bayes Classifiers for uncertain data (an extension of the Naive Bayes classifier).
  •   Datos: Q812530

clasificador, bayesiano, ingenuo, teoría, probabilidad, minería, datos, clasificador, naive, bayes, clasificador, probabilístico, fundamentado, teorema, bayes, algunas, hipótesis, simplificadoras, adicionales, causa, estas, simplificaciones, suelen, resumir, h. En teoria de la probabilidad y mineria de datos un clasificador Naive Bayes es un clasificador probabilistico fundamentado en el teorema de Bayes y algunas hipotesis simplificadoras adicionales Es a causa de estas simplificaciones que se suelen resumir en la hipotesis de independencia entre las variables predictoras que recibe el apelativo de naive es decir ingenuo Indice 1 Introduccion 2 Concepto Probabilistico 3 Estimacion de parametros y modelo de eventos 4 Correccion de muestras 5 Construccion de un clasificador del modelo de probabilidad 6 Discusion 7 Ejemplo 7 1 Clasificacion de sexo 7 1 1 Entrenamiento 7 1 2 Testing 8 Vease tambien 9 Referencias 10 Enlaces externosIntroduccion editarEn terminos simples un clasificador de Naive Bayes asume que la presencia o ausencia de una caracteristica particular no esta relacionada con la presencia o ausencia de cualquier otra caracteristica dada la clase variable Por ejemplo una fruta puede ser considerada como una manzana si es roja redonda y de alrededor de 7 cm de diametro Un clasificador de Naive Bayes considera que cada una de estas caracteristicas contribuye de manera independiente a la probabilidad de que esta fruta sea una manzana independientemente de la presencia o ausencia de las otras caracteristicas Para otros modelos de probabilidad los clasificadores de Naive Bayes se pueden entrenar de manera muy eficiente en un entorno de aprendizaje supervisado En muchas aplicaciones practicas la estimacion de parametros para los modelos Naive Bayes utiliza el metodo de maxima verosimilitud en otras palabras se puede trabajar con el modelo de Naive Bayes sin aceptar probabilidad bayesiana o cualquiera de los metodos bayesianos Una ventaja del clasificador de Naive Bayes es que solo se requiere una pequena cantidad de datos de entrenamiento para estimar los parametros las medias y las varianzas de las variables necesarias para la clasificacion Como las variables independientes se asumen solo es necesario determinar las varianzas de las variables de cada clase y no toda la matriz de covarianza Concepto Probabilistico editarEn abstracto el modelo de probabilidad para un clasificador es p C F 1 F n displaystyle p C vert F 1 dots F n nbsp sobre una variable dependiente C displaystyle C nbsp con un pequeno numero de resultados o clases Esta variable esta condicionada por varias variables independientes desde F 1 displaystyle F 1 nbsp a F n displaystyle F n nbsp El problema es que si el numero n displaystyle n nbsp de variables independientes es grande o cuando estas pueden tomar muchos valores entonces basar este modelo en tablas de probabilidad se vuelve imposible Por lo tanto el modelo se reformula para hacerlo mas manejable Usando el teorema de Bayes se escribe p C F 1 F n p C p F 1 F n C p F 1 F n displaystyle p C vert F 1 dots F n frac p C p F 1 dots F n vert C p F 1 dots F n nbsp Lo anterior podria reescribirse en lenguaje comun como P o s t e r i o r A n t e r i o r P r o b a b i l i d a d E v i d e n c i a displaystyle mathrm Posterior frac mathrm Anterior times mathrm Probabilidad mathrm Evidencia nbsp En la practica solo importa el numerador ya que el denominador no depende de C displaystyle C nbsp y los valores de F i displaystyle F i nbsp son datos por lo que el denominador es en la practica constante El numerador es equivalente a una probabilidad compuesta p C F 1 F n displaystyle p C F 1 dots F n nbsp que puede ser reescrita como sigue aplicando repetidamente la definicion de probabilidad condicional p C F 1 F n displaystyle p C F 1 dots F n nbsp p C p F 1 F n C displaystyle p C p F 1 dots F n vert C nbsp dd p C p F 1 C p F 2 F n C F 1 displaystyle p C p F 1 vert C p F 2 dots F n vert C F 1 nbsp dd p C p F 1 C p F 2 C F 1 p F 3 F n C F 1 F 2 displaystyle p C p F 1 vert C p F 2 vert C F 1 p F 3 dots F n vert C F 1 F 2 nbsp dd p C p F 1 C p F 2 C F 1 p F 3 C F 1 F 2 p F 4 F n C F 1 F 2 F 3 displaystyle p C p F 1 vert C p F 2 vert C F 1 p F 3 vert C F 1 F 2 p F 4 dots F n vert C F 1 F 2 F 3 nbsp dd y asi sucesivamente Ahora es cuando el supuesto naive de independencia condicional entra en juego se asume que cada F i displaystyle F i nbsp es independiente de cualquier otra F j displaystyle F j nbsp para j i displaystyle j neq i nbsp cuando estan condicionadas a C displaystyle C nbsp Esto significa que p F i C F j p F i C displaystyle p F i vert C F j p F i vert C nbsp por lo que la probabilidad compuesta puede expresarse como p C F 1 F n p C p F 1 C p F 2 C p F 3 C displaystyle p C F 1 dots F n p C p F 1 vert C p F 2 vert C p F 3 vert C cdots nbsp p C i 1 n p F i C displaystyle p C prod i 1 n p F i vert C nbsp Esto significa que haciendo estos supuestos la distribucion condicional de C displaystyle C nbsp sobre las variables clasificatorias puede expresarse de la siguiente manera p C F 1 F n 1 Z p C i 1 n p F i C displaystyle p C vert F 1 dots F n frac 1 Z p C prod i 1 n p F i vert C nbsp donde Z displaystyle Z nbsp es un factor que depende solo de F 1 F n displaystyle F 1 dots F n nbsp es decir constante si los valores de F i displaystyle F i nbsp son conocidos Estimacion de parametros y modelo de eventos editarTodos los parametros del modelo por ejemplo clases prioris y caracteristicas de las distribuciones de probabilidad se puede aproximar con frecuencias relativas del conjunto de entrenamiento Estas son las estimaciones de maxima verosimilitud de las probabilidades Una clase priori se puede calcular asumiendo clases equiprobables es decir priori 1 numero de clases o mediante el calculo de una estimacion de la probabilidad de clase del conjunto de entrenamiento es decir el priori de una clase dada numero de muestras en la clase numero total de muestras Para la estimacion de los parametros de la distribucion de una caracteristica se debe asumir una distribucion o generar modelos de estadistica no parametrica de las caracteristicas del conjunto de entrenamiento Las hipotesis sobre las distribuciones de caracteristicas son llamadas el modelo de eventos del Clasificador Naive Bayes La distribucion multinomial y la distribucion de Bernoulli son populares para caracteristicas discretas como las encontradas en la clasificacion de documentos incluyendo el filtrado de spam Estas hipotesis conducen a dos modelos distintos que a menudo se confunden Cuando se trata con los datos continuos una hipotesis tipica es que los valores continuos asociados con cada clase se distribuyen segun una Distribucion normal Por ejemplo supongamos que los datos de entrenamiento contienen un atributo continuo x displaystyle x nbsp En primer lugar segmentar los datos por la clase y a continuacion calcular la media y la varianza de x displaystyle x nbsp en cada clase Donde m c displaystyle mu c nbsp es la media de x displaystyle x nbsp asociado a la clase c y s c 2 displaystyle sigma c 2 nbsp es la varianza de x displaystyle x nbsp asociado a la clase c Entonces la densidad de probabilidad de un cierto valor dada una clase P x v c displaystyle P x v c nbsp se puede calcular agregando v displaystyle v nbsp en la ecuacion de una distribucion Normal con parametros m c displaystyle mu c nbsp y s c 2 displaystyle sigma c 2 nbsp Es decir P x v c 1 2 p s c 2 e v m c 2 2 s c 2 displaystyle P x v c tfrac 1 sqrt 2 pi sigma c 2 e frac v mu c 2 2 sigma c 2 nbsp Otra tecnica comun para la manipulacion de valores continuos es usar binning para discretizar los valores de las caracteristicas obteniendo un nuevo conjunto de caracteristicas de la distribucion de Bernoulli En general el metodo de distribucion es una mejor opcion si hay pocos datos de entrenamiento o si se conoce la distribucion precisa de los datos El metodo de discretizacion tiende a ser mejor si hay una gran cantidad de datos de entrenamiento ya que va a aprender para adaptarse a la distribucion de los datos Naive Bayes se utiliza normalmente cuando hay disponible una gran cantidad de datos los modelos computacionales mas caros pueden lograr una mayor precision se prefiere generalmente el metodo de discretizacion que el metodo de distribucion Correccion de muestras editarSi el valor de la clase y de la funcion dada no ocurren juntas en los datos de entrenamiento entonces la estimacion basada en la probabilidad de frecuencia sera cero Esto es un problema ya que acabara con toda la informacion de las otras probabilidades cuando se multiplican Por lo tanto a menudo es necesario incorporar una pequena correccion de muestreo llamada pseudocontador con toda la probabilidad estimada de tal manera que no hay probabilidad alguna para que de exactamente cero Construccion de un clasificador del modelo de probabilidad editarHasta ahora la discusion ha derivado del modelo de caracteristicas independientes es decir el modelo de probabilidad de Naive Bayes El clasificador Naive Bayes combina este modelo con una regla de decision La primera regla en comun es para recoger la hipotesis del mas probable tambien conocido como el maximo a posteriori o MAP El clasificador Bayer la funcion c l a s s i f y displaystyle mathrm classify nbsp se define como c l a s s i f y f 1 f n argmax c p C c i 1 n p F i f i C c displaystyle mathrm classify f 1 dots f n underset c operatorname argmax p C c displaystyle prod i 1 n p F i f i vert C c nbsp Discusion editarA pesar del hecho de que los clasificadores con mayor alcance son a menudo exactos el clasificador de Naive Bayes tiene varias propiedades que lo hacen sorprendentemente util en la practica En particular el desacoplamiento de la clase de distribuciones condicionales significa que cada distribucion se puede estimar de forma independiente como una distribucion dimensional Esto ayuda a aliviar los problemas derivados de la Maldicion de la dimension tales como la necesidad de conjuntos de datos que se escalan exponencialmente con el numero de caracteristicas Mientras Naive Bayes a menudo falla a la hora de producir una buena estimacion de las probabilidades de clase puede no ser un requisito para muchas otras aplicaciones Por ejemplo el Naive Bayes realiza correctamente la regla de clasificacion del MAP de decision tanto como mayor sea la probabilidad de la clase correcta respecto a las demas clases Esto es cierto independientemente de si la estimacion de la probabilidad es ligeramente o incluso completamente inexacta De esta manera el clasificador general puede ser lo suficientemente robusto como para ignorar deficiencias graves en su modelo de probabilidad ingenua subyacente como el Cano Ejemplo editarClasificacion de sexo editar Problema Clasificar una persona en hombre o mujer basandonos en las caracteristicas de sus medidas peso altura y numero de pie Entrenamiento editar Entrenamiento previo sexo altura pies peso lbs talla del pie inches hombre 6 180 12hombre 5 92 5 11 190 11hombre 5 58 5 7 170 12hombre 5 92 5 11 165 10mujer 5 100 6mujer 5 5 5 6 150 8mujer 5 42 5 5 130 7mujer 5 75 5 9 150 9Haciendo una distribucion Gaussiana extraemos los datos y obtenemos la media y la varianza de cada caracteristica sexo media altura varianza altura media peso varianza peso media talla del pie varianza talla del pie hombre 5 855 0 035033 176 25 122 92000 11 25 0 91667mujer 5 4175 0 097225 132 5 558 33000 7 5 1 66670En este caso nos encontramos en una distribucion equiprobable es decir que tienen la misma probabilidad P hombre 0 5 y P mujer 0 5 Testing editar Ahora recibimos unos datos para ser clasificado como hombre o mujer sex altura pies peso lbs numero de pie inches muestra 6 130 8Ahora nos interesa saber la probabilidad a posteriori de los dos casos segun es hombre o mujer hombre p o s t e r i o r i h o m b r e P h o m b r e p a l t u r a h o m b r e p p e s o h o m b r e p n u m e r o d e p i e h o m b r e E v i d e n c i a displaystyle posteriori hombre frac P hombre p altura hombre p peso hombre p numerodepie hombre Evidencia nbsp mujer p o s t e r i o r i m u j e r P m u j e r p a l t u r a m u j e r p p e s o m u j e r p n u m e r o d e p i e m u j e r E v i d e n c i a displaystyle posteriori mujer frac P mujer p altura mujer p peso mujer p numerodepie mujer Evidencia nbsp La evidencia tambien denominada constante de normalizacion se puede calcular e v i d e n c i a P h o m b r e p a l t u r a h o m b r e p p e s o h o m b r e p n u m e r o d e p i e h o m b r e displaystyle evidencia P hombre p altura hombre p peso hombre p numerodepie hombre nbsp P m u j e r p a l t u r a m u j e r p p e s o m u j e r p n u m e r o d e p i e m u j e r displaystyle P mujer p altura mujer p peso mujer p numerodepie mujer nbsp En este caso nos encontramos en una distribucion equiprobable es decir que tienen la misma probabilidad P hombre 0 5 y P mujer 0 5 P hombre 0 5 displaystyle P mbox hombre 0 5 nbsp p altura hombre 1 2 p s 2 exp 6 m 2 2 s 2 1 5789 displaystyle p mbox altura mbox hombre frac 1 sqrt 2 pi sigma 2 exp left frac 6 mu 2 2 sigma 2 right approx 1 5789 nbsp donde m 5 855 displaystyle mu 5 855 nbsp y s 2 0 035033 displaystyle sigma 2 0 035033 nbsp son los parametros de la distribucion normal que han sido determinados previamente en el entrenamiento p peso hombre 5 9881 e 06 displaystyle p mbox peso mbox hombre 5 9881e 06 nbsp p NumeroDePie hombre 1 3112 e 3 displaystyle p mbox NumeroDePie mbox hombre 1 3112e 3 nbsp posteriori hombre el producto 6 1984 e 09 displaystyle mbox posteriori hombre mbox el producto 6 1984e 09 nbsp P mujer 0 5 displaystyle P mbox mujer 0 5 nbsp p altura mujer 2 2346 e 1 displaystyle p mbox altura mbox mujer 2 2346e 1 nbsp p peso mujer 1 6789 e 2 displaystyle p mbox peso mbox mujer 1 6789e 2 nbsp p numero de pie mujer 2 8669 e 1 displaystyle p mbox numero de pie mbox mujer 2 8669e 1 nbsp posteriori mujer el producto 5 3778 e 04 displaystyle mbox posteriori mujer mbox el producto 5 3778e 04 nbsp En este caso el numerador a posteriori mas grande es el de la mujer por eso determinamos que los datos son de mujer Vease tambien editarClasificador Knn Clasificador lineal Red bayesiana Teorema de Bayes Probabilidad a posteriori Probabilidad a prioriReferencias editarTraduccion de Naive Bayes classifier url incorrecta con autorreferencia ayuda en ingles Consultado el 23 de noviembre de 2013 Enlaces externos editarBook Chapter Naive Bayes text classification Introduction to Information Retrieval Naive Bayes for Text Classification with Unbalanced Classes Uso incorrecto de la plantilla enlace roto enlace roto disponible en Internet Archive vease el historial la primera version y la ultima Hierarchical Naive Bayes Classifiers for uncertain data an extension of the Naive Bayes classifier Document Classification Using Naive Bayes Classifier with Perl nbsp Datos Q812530 Obtenido de https es wikipedia org w index php title Clasificador bayesiano ingenuo amp oldid 154106305, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos