fbpx
Wikipedia

Redes neuronales probabilísticas

Una red neuronal probabilíista (PNN) es un red neuronal unidireccional, la cual se deriva de la red bayesiana[1]​ y un algoritmo estadístico llamado Kernel Fisher discriminant analysis.[2]​ Fue introducido por D.F. Specht en los principios de 1990s.[3]​ En un PNN, las operaciones están organizadas en una red unidireccional multicapa con cuatro capas:

  • Capa de entrada
  • Capa escondida
  • Capa de patrón/Capa de suma
  • Capa de salida

Arquitectura de PNN

Arquitectura de PNN[1]

Capas de PNN

PNN es a menudo utilizado en problemas de clasificación.[4]​ Cuándo una entrada está presente, la primera capa computa la distancia del vector de entrada a los vectores de entrada del entrenamiento. Esto produce un vector donde sus elementos indican cuan cercanos esta la entrada de la entrada de entrenamiento. La segunda capa suma la contribución para cada clase de entradas y da su salida como un vector de probabilidades. Finalmente, una función de transferencia competitiva en la salida de la segunda capa elige el máximo de estas probabilidades, y produce un 1 (identificación positiva) para esta clase y un 0 (identificación negativa) para las clases no identificadas clases.

Capa de entrada

Cada neurona en la capa de entrada representa un predictor de variable. En variables categóricas, N-1 neuronas son utilizadas cuándo hay N número de categorías. Estandariza el rango de los valores restando la mediana y dividiendo por el Rango intercuartílico. Entonces las neuronas de entrada alimentan los valores a cada una de las neuronas en la capa oculta.

Capa de patrón

Esta capa contiene una neurona para cada caso en el conjunto de datos de entrenamiento. Almacena los valores del predictor de variables para el caso junto con el valor objetivo. Una neurona escondida calcula la distancia Euclidiana del caso de prueba del punto de centro de la neurona y entonces aplica el RBF kernel la función que utiliza el sigma valores.

Capa de suma

Para las redes PNN hay una neurona de patrón para cada categoría de la variable objetivo. La verdadera categoría objetivo de cada caso de prueba está almacenada con cada neurona escondida; el valor de peso que sale de una neurona escondida está alimentado sólo con la neurona patrón que corresponde a la categoría de la neurona escondida. Las neuronas patrón añaden los valores para la clase que representan.

Capa de salida

La capa de salida compara el peso de votos para cada categoría objetivo acumulada en la capa patrón y utiliza el voto más grande para pronosticar la categoría objetivo.

Ventajas

Hay varias ventajas y desventajas utilizando PNN en vez de Perceptrón multicapa[5]

  • PNNs son mucho más rápido que las redes perceptrones multicapas.
  • PNNs puede ser más preciso que redes perceptrones multicapas.
  • Las redes PNN son relativamente insensibles a valores con ruido.
  • Las redes PNN generan resultados de la función objetivo acertados.
  • PNNs aprovecha la clasificación óptima de Bayes.

Desventajas

  • PNN es más lento que las redes perceptron multicapas en clasificar casos nuevos.
  • PNN requiere más espacio de memoria para almacenar el modelo.

Aplicaciones basadas en PNN

  • Redes neuronales probabilistas en la modelización deterioro estructural de tubos de aguas pluviales.[6]
  • Método de redes neuronal probabilista para le diagnóstico gástrico de pruebas de endoscopio basada en FTIR espectroscopia.[7]
  • Redes Neuronales probabilistas para solucionar Problemas de Clasificación de Patrones diferentes.[8]
  • Aplicación de redes neuronales probabilistas a población farmacocinética.[9]
  • Redes Neuronales probabilistas en la Predicción de Clases de Leucemia y Tumor embrionario del Sistema Nervioso Central.[10]
  • Identificación de barcos.[11]
  • Configuración de sensor en una red ad hoc inalámbrica.[12]
  • Reconocimiento de caracteres.
  • Clasificación de imagines por Teledetección.[13]

Referencias

  1. . Archivado desde el original el 18 de diciembre de 2010. Consultado el 22 de marzo de 2012. 
  2. . Archivado desde el original el 31 de enero de 2012. Consultado el 22 de marzo de 2012. 
  3. Specht, D. F. (1990). «Probabilistic neural networks». Neural Networks 3: 109-118. doi:10.1016/0893-6080(90)90049-Q. 
  4. http://www.mathworks.in/help/toolbox/nnet/ug/bss38ji-1.html (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
  5. . Archivado desde el original el 2 de marzo de 2012. Consultado el 22 de marzo de 2012. 
  6. http://vuir.vu.edu.au/583/1/UrbanWater-Dung.pdf
  7. http://www.ncbi.nlm.nih.gov/pubmed/19810529
  8. http://www.idosi.org/wasj/wasj4(6)/3.pdf
  9. http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1223983
  10. http://dl.acm.org/citation.cfm?id=1011984
  11. http://www.iaeng.org/publication/IMECS2009/IMECS2009_pp1291-1294.pdf
  12. . Archivado desde el original el 14 de junio de 2010. Consultado el 4 de noviembre de 2015. 
  13. Zhang, Y. (2009). «Remote-sensing Image Classification Based on an Improved Probabilistic Neural Network». Sensors 9 (9): 7516-7539. 
  •   Datos: Q7246859

redes, neuronales, probabilísticas, neuronal, probabilíista, neuronal, unidireccional, cual, deriva, bayesiana, algoritmo, estadístico, llamado, kernel, fisher, discriminant, analysis, introducido, specht, principios, 1990s, operaciones, están, organizadas, un. Una red neuronal probabiliista PNN es un red neuronal unidireccional la cual se deriva de la red bayesiana 1 y un algoritmo estadistico llamado Kernel Fisher discriminant analysis 2 Fue introducido por D F Specht en los principios de 1990s 3 En un PNN las operaciones estan organizadas en una red unidireccional multicapa con cuatro capas Capa de entrada Capa escondida Capa de patron Capa de suma Capa de salidaIndice 1 Arquitectura de PNN 2 Capas de PNN 2 1 Capa de entrada 2 2 Capa de patron 2 3 Capa de suma 2 4 Capa de salida 3 Ventajas 4 Desventajas 5 Aplicaciones basadas en PNN 6 ReferenciasArquitectura de PNN EditarArquitectura de PNN 1 Capas de PNN EditarPNN es a menudo utilizado en problemas de clasificacion 4 Cuando una entrada esta presente la primera capa computa la distancia del vector de entrada a los vectores de entrada del entrenamiento Esto produce un vector donde sus elementos indican cuan cercanos esta la entrada de la entrada de entrenamiento La segunda capa suma la contribucion para cada clase de entradas y da su salida como un vector de probabilidades Finalmente una funcion de transferencia competitiva en la salida de la segunda capa elige el maximo de estas probabilidades y produce un 1 identificacion positiva para esta clase y un 0 identificacion negativa para las clases no identificadas clases Capa de entrada Editar Cada neurona en la capa de entrada representa un predictor de variable En variables categoricas N 1 neuronas son utilizadas cuando hay N numero de categorias Estandariza el rango de los valores restando la mediana y dividiendo por el Rango intercuartilico Entonces las neuronas de entrada alimentan los valores a cada una de las neuronas en la capa oculta Capa de patron Editar Esta capa contiene una neurona para cada caso en el conjunto de datos de entrenamiento Almacena los valores del predictor de variables para el caso junto con el valor objetivo Una neurona escondida calcula la distancia Euclidiana del caso de prueba del punto de centro de la neurona y entonces aplica el RBF kernel la funcion que utiliza el sigma valores Capa de suma Editar Para las redes PNN hay una neurona de patron para cada categoria de la variable objetivo La verdadera categoria objetivo de cada caso de prueba esta almacenada con cada neurona escondida el valor de peso que sale de una neurona escondida esta alimentado solo con la neurona patron que corresponde a la categoria de la neurona escondida Las neuronas patron anaden los valores para la clase que representan Capa de salida Editar La capa de salida compara el peso de votos para cada categoria objetivo acumulada en la capa patron y utiliza el voto mas grande para pronosticar la categoria objetivo Ventajas EditarHay varias ventajas y desventajas utilizando PNN en vez de Perceptron multicapa 5 PNNs son mucho mas rapido que las redes perceptrones multicapas PNNs puede ser mas preciso que redes perceptrones multicapas Las redes PNN son relativamente insensibles a valores con ruido Las redes PNN generan resultados de la funcion objetivo acertados PNNs aprovecha la clasificacion optima de Bayes Desventajas EditarPNN es mas lento que las redes perceptron multicapas en clasificar casos nuevos PNN requiere mas espacio de memoria para almacenar el modelo Aplicaciones basadas en PNN EditarRedes neuronales probabilistas en la modelizacion deterioro estructural de tubos de aguas pluviales 6 Metodo de redes neuronal probabilista para le diagnostico gastrico de pruebas de endoscopio basada en FTIR espectroscopia 7 Redes Neuronales probabilistas para solucionar Problemas de Clasificacion de Patrones diferentes 8 Aplicacion de redes neuronales probabilistas a poblacion farmacocinetica 9 Redes Neuronales probabilistas en la Prediccion de Clases de Leucemia y Tumor embrionario del Sistema Nervioso Central 10 Identificacion de barcos 11 Configuracion de sensor en una red ad hoc inalambrica 12 Reconocimiento de caracteres Clasificacion de imagines por Teledeteccion 13 Referencias Editar Copia archivada Archivado desde el original el 18 de diciembre de 2010 Consultado el 22 de marzo de 2012 Copia archivada Archivado desde el original el 31 de enero de 2012 Consultado el 22 de marzo de 2012 Specht D F 1990 Probabilistic neural networks Neural Networks 3 109 118 doi 10 1016 0893 6080 90 90049 Q http www mathworks in help toolbox nnet ug bss38ji 1 html enlace roto disponible en Internet Archive vease el historial la primera version y la ultima Copia archivada Archivado desde el original el 2 de marzo de 2012 Consultado el 22 de marzo de 2012 http vuir vu edu au 583 1 UrbanWater Dung pdf http www ncbi nlm nih gov pubmed 19810529 http www idosi org wasj wasj4 6 3 pdf http ieeexplore ieee org xpl freeabs all jsp arnumber 1223983 http dl acm org citation cfm id 1011984 http www iaeng org publication IMECS2009 IMECS2009 pp1291 1294 pdf http www ll mit edu asap asap 04 DAY2 27 PA STEVENS Archivado desde el original el 14 de junio de 2010 Consultado el 4 de noviembre de 2015 Zhang Y 2009 Remote sensing Image Classification Based on an Improved Probabilistic Neural Network Sensors 9 9 7516 7539 Datos Q7246859Obtenido de https es wikipedia org w index php title Redes neuronales probabilisticas amp oldid 118715590, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos