fbpx
Wikipedia

Clasificador lineal

En el campo del aprendizaje automático, el objetivo del aprendizaje supervisado es usar las características de un objeto para identificar a qué clase (o grupo) pertenece. Un clasificador lineal logra esto tomando una decisión de clasificación basada en el valor de una combinación lineal de sus características. Las características de un objeto son típicamente presentadas en un vector llamado vector de características.

Definición

Si la entrada del clasificador es un vector de características reales  , entonces el resultado de salida es

 

donde   es un vector real de pesos y f es una función que convierte el producto punto a punto de los dos vectores en la salida deseada. El vector de pesos   aprende de un conjunto de muestras de entrenamiento. A menudo f es una función simple que mapea todos los valores por encima de un cierto umbral a la primera clase y el resto a la segunda clase. Una f más compleja puede dar la probabilidad de que una muestra pertenezca a cierta clase.

Para un problema de dos clases, se puede visualizar la operación de un clasificador lineal como una partición del espacion de alta dimensionalidad de entrada con un hiperplano: todos los puntos a un lado del hiperplano son clasificados como "sí", mientras que los demás son clasificados como "no".

Los clasificadores lineales se suelen usar en situaciones donde la velocidad de la clasificación es importante, ya que a menudo es el clasificador más rápido, especialmente cuando   es disperso. Sin embargo, los árboles de decisión pueden ser más rápidos. Además, los clasificadores lineales con frecuencia funcionan muy bien cuando el número de dimensiones de   es grande, como en clasificación de documentos, donde típicamente cada elemento en   es el número de apariciones de una palabra en un documento. En tales casos, el clasificador debe estar bien regularizado.

Modelo generativo vs. modelo discriminativo

Hay dos tipos de clases de métodos para determinar los parámetros de un clasificador lineal  .[1][2]​ Métodos de la primera clase conditional density functions  . Ejemplos de tales algoritmos

  • Análisis discriminante lineal (o discriminante lineal de Fisher) (Linear Discriminant Analysis, LDA): asume los modelos gaussianos de densidad condicional.
  • Clasificador Bayes ingenuo: asume modelos de densidad condicional binomiales independientes.

El segundo conjunto de métodos incluye modelos discriminatorios, que intentan maximizar la calidad de los resultados de un conjunto de capacitación. Términos adicionales en la función de costo de capacitación pueden fácilmente realizar la regularización del modelo final. Ejemplos de entrenamiento discriminatorio de clasificadores lineales incluyen

  • Regresión logística - estimación de la probabilidad máxima de   asumiendo que el conjunto de entrenamiento observado fue generado por un modelo binomial que depende de la salida del clasificador.
  • Perceptrón: un algoritmo que intenta corregir todos los errores encontrados en el equipo de entrenamiento.
  • Máquina vectorial de soporte (Support vector machine, SVM): un algoritmo que maximiza el margen entre el hiperplano de decisión y los ejemplos del conjunto de entrenamiento.

Nota: A pesar de su nombre, LDA no pertenece a la clase de modelos discriminatorios en esta taxonomía. Sin embargo, su nombre tiene sentido cuando comparamos LDA con el otro algoritmo principal de reducción de la dimensionalidad lineal: Análisis de Componentes Principales (Principal Components Analysis, PCA). LDA es un algoritmo de aprendizaje supervisado que utiliza las etiquetas de los datos, mientras que PCA es un algoritmo de aprendizaje no supervisado que ignora las etiquetas. Para resumir, el nombre es un artefacto histórico (ver, [3]​ p.117).

El entrenamiento discriminativo a menudo produce mayor precisión que el modelado de las funciones de densidad condicional. Sin embargo, el manejo de los datos faltantes es a menudo más fácil con los modelos de densidad condicional.

Todos los algoritmos del clasificador lineal listados arriba pueden ser convertidos en algoritmos no lineales operando en un espacio de entrada diferente  , usando el truco del kernel (kernel trick).

Notas

  1. T. Mitchell, Generative and Discriminative Classifiers: Naive Bayes and Logistic Regression. Draft Version, 2005 download
  2. A. Y. Ng and M. I. Jordan. On Discriminative vs. Generative Classifiers: A comparison of logistic regression and Naive Bayes. in NIPS 14, 2002. download
  3. R.O. Duda, P.E. Hart, D.G. Stork, "Pattern Classification", Wiley, (2001). ISBN 0-471-05669-3

See also:

  1. Y. Yang, X. Liu, "A re-examination of text categorization", Proc. ACM SIGIR Conference, pgs. 42-49, (1999). paper @ citeseer
  2. R. Herbrich, "Learning Kernel Classifiers: Theory and Algorithms," MIT Press, (2001). ISBN 0-262-08306-X
  •   Datos: Q2679259

clasificador, lineal, campo, aprendizaje, automático, objetivo, aprendizaje, supervisado, usar, características, objeto, para, identificar, qué, clase, grupo, pertenece, clasificador, lineal, logra, esto, tomando, decisión, clasificación, basada, valor, combin. En el campo del aprendizaje automatico el objetivo del aprendizaje supervisado es usar las caracteristicas de un objeto para identificar a que clase o grupo pertenece Un clasificador lineal logra esto tomando una decision de clasificacion basada en el valor de una combinacion lineal de sus caracteristicas Las caracteristicas de un objeto son tipicamente presentadas en un vector llamado vector de caracteristicas Definicion EditarSi la entrada del clasificador es un vector de caracteristicas reales x displaystyle vec x entonces el resultado de salida es y f w x f j w j x j displaystyle y f vec w cdot vec x f left sum j w j x j right donde w displaystyle vec w es un vector real de pesos y f es una funcion que convierte el producto punto a punto de los dos vectores en la salida deseada El vector de pesos w displaystyle vec w aprende de un conjunto de muestras de entrenamiento A menudo f es una funcion simple que mapea todos los valores por encima de un cierto umbral a la primera clase y el resto a la segunda clase Una f mas compleja puede dar la probabilidad de que una muestra pertenezca a cierta clase Para un problema de dos clases se puede visualizar la operacion de un clasificador lineal como una particion del espacion de alta dimensionalidad de entrada con un hiperplano todos los puntos a un lado del hiperplano son clasificados como si mientras que los demas son clasificados como no Los clasificadores lineales se suelen usar en situaciones donde la velocidad de la clasificacion es importante ya que a menudo es el clasificador mas rapido especialmente cuando x displaystyle vec x es disperso Sin embargo los arboles de decision pueden ser mas rapidos Ademas los clasificadores lineales con frecuencia funcionan muy bien cuando el numero de dimensiones de x displaystyle vec x es grande como en clasificacion de documentos donde tipicamente cada elemento en x displaystyle vec x es el numero de apariciones de una palabra en un documento En tales casos el clasificador debe estar bien regularizado Modelo generativo vs modelo discriminativo Editar El texto que sigue es una traduccion defectuosa Si quieres colaborar con Wikipedia busca el articulo original y mejora esta traduccion Copia y pega el siguiente codigo en la pagina de discusion del autor de este articulo subst Aviso mal traducido Clasificador lineal Hay dos tipos de clases de metodos para determinar los parametros de un clasificador lineal w displaystyle vec w 1 2 Metodos de la primera clase conditional density functions P x c l a s s displaystyle P vec x rm class Ejemplos de tales algoritmos Analisis discriminante lineal o discriminante lineal de Fisher Linear Discriminant Analysis LDA asume los modelos gaussianos de densidad condicional Clasificador Bayes ingenuo asume modelos de densidad condicional binomiales independientes El segundo conjunto de metodos incluye modelos discriminatorios que intentan maximizar la calidad de los resultados de un conjunto de capacitacion Terminos adicionales en la funcion de costo de capacitacion pueden facilmente realizar la regularizacion del modelo final Ejemplos de entrenamiento discriminatorio de clasificadores lineales incluyen Regresion logistica estimacion de la probabilidad maxima de w displaystyle vec w asumiendo que el conjunto de entrenamiento observado fue generado por un modelo binomial que depende de la salida del clasificador Perceptron un algoritmo que intenta corregir todos los errores encontrados en el equipo de entrenamiento Maquina vectorial de soporte Support vector machine SVM un algoritmo que maximiza el margen entre el hiperplano de decision y los ejemplos del conjunto de entrenamiento Nota A pesar de su nombre LDA no pertenece a la clase de modelos discriminatorios en esta taxonomia Sin embargo su nombre tiene sentido cuando comparamos LDA con el otro algoritmo principal de reduccion de la dimensionalidad lineal Analisis de Componentes Principales Principal Components Analysis PCA LDA es un algoritmo de aprendizaje supervisado que utiliza las etiquetas de los datos mientras que PCA es un algoritmo de aprendizaje no supervisado que ignora las etiquetas Para resumir el nombre es un artefacto historico ver 3 p 117 El entrenamiento discriminativo a menudo produce mayor precision que el modelado de las funciones de densidad condicional Sin embargo el manejo de los datos faltantes es a menudo mas facil con los modelos de densidad condicional Todos los algoritmos del clasificador lineal listados arriba pueden ser convertidos en algoritmos no lineales operando en un espacio de entrada diferente f x displaystyle varphi vec x usando el truco del kernel kernel trick Notas Editar T Mitchell Generative and Discriminative Classifiers Naive Bayes and Logistic Regression Draft Version 2005 download A Y Ng and M I Jordan On Discriminative vs Generative Classifiers A comparison of logistic regression and Naive Bayes in NIPS 14 2002 download R O Duda P E Hart D G Stork Pattern Classification Wiley 2001 ISBN 0 471 05669 3 See also Y Yang X Liu A re examination of text categorization Proc ACM SIGIR Conference pgs 42 49 1999 paper citeseer R Herbrich Learning Kernel Classifiers Theory and Algorithms MIT Press 2001 ISBN 0 262 08306 X Datos Q2679259 Obtenido de https es wikipedia org w index php title Clasificador lineal amp oldid 118706165, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos