fbpx
Wikipedia

Adaline

El adaline (de ADAptative LINear Element) es un tipo de red neuronal artificial desarrollada por el profesor Bernard Widrow y su alumno Ted Hoff en la Universidad de Stanford en 1960.[1]​ El modelo está basado en la Neurona de McCulloch-Pitts.

Definición

Generalmente se compone de una sola capa de n neuronas ( por tanto n valores de salida ) con m entradas con las siguientes características:

  • Las m entradas representan un vector   de entrada que pertenece al espacio  .
  • Por cada neurona, existe un vector   de pesos sinápticos que indican la fuerza de conexión entre los valores de entrada y la neurona. En la práctica representan la ponderación de cada entrada sobre la neurona.
  • Una constante  .
  • La salida   de la neurona se representa por la función de activación, que se define como  

Aprendizaje

A diferencia del perceptrón, a la hora de modificar los pesos durante el entrenamiento, el Adaline tiene en cuenta el grado de corrección de la salida estimada respecto a la deseada.[2]​ Esto se consigue mediante la aplicación de la regla Delta, y que se define, para un patrón de entrada   con una salida estimada   y una salida deseada  , como  .

Dado que el objetivo del Adaline es poder estimar de la manera más exacta la salida (conseguir una salida exacta es prácticamente imposible en la mayoría de los casos), se busca minimizar la desviación de la red para todos los patrones de entrada, eligiendo una medida del error global. Normalmente se utiliza el error cuadrático medio.

 

La manera de reducir este error global es ir modificando los valores de los pesos al procesar cada entrada, de forma iterativa, mediante la regla del descenso del gradiente. Suponiendo que tenemos una constante de aprendizaje  :

 

Si operamos con la derivada, queda:

 

Que será la expresión que utilizaremos por cada entrada para modificar los pesos.

Ventajas

Con respecto al perceptrón el Adaline posee la ventaja de que su gráfica de error es un hiperparaboloide que posee o bien un único mínimo global, o bien una recta de infinitos mínimos, todos ellos globales. Esto evita la gran cantidad de problemas que da el perceptrón a la hora del entrenamiento debido a que su función de error (también llamada de coste) posee numerosos mínimos locales.

Aplicaciones

  • Asociación de patrones: se puede aplicar a este tipo de problemas siempre que los patrones sean linealmente separables.

En el campo del procesamiento de señales:

  • Filtros de ruido: Limpiar ruido de señales transmisoras de información.
  • Filtros adaptativos: Un adaline es capaz de predecir el valor de una señal en el instante t+1 si se conoce el valor de la misma en los p instantes anteriores (p es >0 y su valor depende del problema). El error de la predicción será mayor o menor según qué señal queramos predecir. Si la señal se corresponde a una serie temporal el Adaline, pasado un tiempo, será capaz de dar predicciones exactas.

Se pueden combinar múltiples Adalines formando lo que se denomina el Madaline.

Referencias

  1. Perceptrón simple y Adaline el 21 de diciembre de 2012 en Wayback Machine., Redes de Neuronas Artificiales, UC3M, RAI 2012.
  2. Adaline (Adaptive Linear)
  •   Datos: Q348261

adaline, adaline, adaptative, linear, element, tipo, neuronal, artificial, desarrollada, profesor, bernard, widrow, alumno, hoff, universidad, stanford, 1960, modelo, está, basado, neurona, mcculloch, pitts, Índice, definición, aprendizaje, ventajas, aplicacio. El adaline de ADAptative LINear Element es un tipo de red neuronal artificial desarrollada por el profesor Bernard Widrow y su alumno Ted Hoff en la Universidad de Stanford en 1960 1 El modelo esta basado en la Neurona de McCulloch Pitts Indice 1 Definicion 2 Aprendizaje 3 Ventajas 4 Aplicaciones 5 ReferenciasDefinicion EditarGeneralmente se compone de una sola capa de n neuronas por tanto n valores de salida con m entradas con las siguientes caracteristicas Las m entradas representan un vector x displaystyle x de entrada que pertenece al espacio R m displaystyle R m Por cada neurona existe un vector w displaystyle w de pesos sinapticos que indican la fuerza de conexion entre los valores de entrada y la neurona En la practica representan la ponderacion de cada entrada sobre la neurona Una constante 8 displaystyle theta La salida y displaystyle y de la neurona se representa por la funcion de activacion que se define como y i 1 n x i w i 8 displaystyle y sum i 1 n x i w i theta Aprendizaje EditarA diferencia del perceptron a la hora de modificar los pesos durante el entrenamiento el Adaline tiene en cuenta el grado de correccion de la salida estimada respecto a la deseada 2 Esto se consigue mediante la aplicacion de la regla Delta y que se define para un patron de entrada x p displaystyle x p con una salida estimada y p displaystyle y p y una salida deseada d p displaystyle d p como d p y p displaystyle d p y p Dado que el objetivo del Adaline es poder estimar de la manera mas exacta la salida conseguir una salida exacta es practicamente imposible en la mayoria de los casos se busca minimizar la desviacion de la red para todos los patrones de entrada eligiendo una medida del error global Normalmente se utiliza el error cuadratico medio E 1 2 p 1 m d p y p 2 displaystyle E frac 1 2 sum p 1 m d p y p 2 La manera de reducir este error global es ir modificando los valores de los pesos al procesar cada entrada de forma iterativa mediante la regla del descenso del gradiente Suponiendo que tenemos una constante de aprendizaje a displaystyle alpha D p w j a E p w j displaystyle Delta p w j alpha frac partial E p partial w j Si operamos con la derivada queda D p w j a d p y p x j displaystyle Delta p w j alpha d p y p cdot x j Que sera la expresion que utilizaremos por cada entrada para modificar los pesos Ventajas EditarCon respecto al perceptron el Adaline posee la ventaja de que su grafica de error es un hiperparaboloide que posee o bien un unico minimo global o bien una recta de infinitos minimos todos ellos globales Esto evita la gran cantidad de problemas que da el perceptron a la hora del entrenamiento debido a que su funcion de error tambien llamada de coste posee numerosos minimos locales Aplicaciones EditarAsociacion de patrones se puede aplicar a este tipo de problemas siempre que los patrones sean linealmente separables En el campo del procesamiento de senales Filtros de ruido Limpiar ruido de senales transmisoras de informacion Filtros adaptativos Un adaline es capaz de predecir el valor de una senal en el instante t 1 si se conoce el valor de la misma en los p instantes anteriores p es gt 0 y su valor depende del problema El error de la prediccion sera mayor o menor segun que senal queramos predecir Si la senal se corresponde a una serie temporal el Adaline pasado un tiempo sera capaz de dar predicciones exactas Se pueden combinar multiples Adalines formando lo que se denomina el Madaline Referencias Editar Perceptron simple y Adaline Archivado el 21 de diciembre de 2012 en Wayback Machine Redes de Neuronas Artificiales UC3M RAI 2012 Adaline Adaptive Linear Datos Q348261 Obtenido de https es wikipedia org w index php title Adaline amp oldid 133274401, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos