fbpx
Wikipedia

Función de activación

En redes computacionales, la función de activación de un nodo define la salida de un nodo dada una entrada o un conjunto de entradas. Se podría decir que un circuito estándar de computador se comporta como una red digital de funciones de activación al activarse como "ON" (1) u "OFF" (0), dependiendo de la entrada. Esto es similar al funcionamiento de un perceptrón en una red neuronal artificial.

Funciones

En las redes neuronales inspiradas sobre la biología, la función de activación es usualmente una abstracción representando una tasa de potencial de activación gatillándose en la celda. En su forma simplificada, esta función es binaria, esto es, se activa la neurona o no. La función se ve como  , donde   es la función escalón. En este caso, un gran número de neuronas deben ser usadas en computación más allá de la separación lineal de las categorías.

Una función rampa también puede ser usada para reflejar el incremento del potencial de activación que ocurre cuando la entrada se incrementa. La función podría ser de la forma  , donde   es la pendiente. Esta función de activación es lineal, y por consiguiente tiene los mismos problemas que la función binaria. En adición, las redes neuronales construidas usando este modelo tienen convergencia inestable porque a la larga, las entradas a la neurona tienden a incrementarse sin límite, esta función no es normalizable.

Los problemas mencionados anteriormente, pueden ser manejados usando una función de activación sigmoidal. Un modelo realista permanece en cero hasta que una entrada es recibida, en este punto la frecuencia de activación se incrementa rápidamente, pero gradualmente llega a ser asíntota cuando la frecuencia es 100%. Matemáticamente, esto se ve como  , donde la función de tangente hiperbólica puede también ser cualquier función sigmoidal. Esta conducta es realísticamente reflejada en la neurona, ya que las neuronas no pueden físicamente activarse más rápido que una cierta tasa.

El modelo final que es usado en perceptrones multicapa es el modelo de activación sigmoidal en la forma de tangente hiperbólica. Dos formas de esta función son comúnmente usados:   cuyos rangos son normalizados desde -1 hasta 1, y   es verticalmente normalizado desde 0 a 1. El último modelo es frecuentemente considerado más biológicamente realista, pero tiene dificultades teóricas y experimentales en ciertos tipos de problemas computacionales.

Estructuras alternativas

Una clase especial de funciones de activación conocidas como funciones de base radial (RBFs) son usadas en redes de neuronas de base radial, las cuales son extremadamente eficientes como funciones universales de aproximación. Esas funciones de activación pueden tomar cualquier forma, pero usualmente se encuentran una de estas tres:

  • Gausiana:  
  • Multicuadráticas:  
  • Multicuadráticas Inversas:  

donde   es el vector representando la función central y   y   son parámetros affectando la magnitud del radio.

Máquinas de vectores de soporte (SVMs) pueden efectivamente utilizar una clase de funciones de activación que incluyen funciones sigmoidales y funciones de base radial. En este caso, el vector de entrada es transformado para reflejar un límite de decisión hiplerplano basado en unas pocas entradas de entrenamiento llamadas vectores de soporte  . La función de activación para las capas ocultas de esas máquinas son referidas como producto del núcleo interno,  . Los vectores de soporte son representados como los centros en RBFs con el núcleo igual a la función de activación, pero toman una forma única en el perceptrón como : , donde   y   deben satisfacer ciertas condiciones de convergencia. Esas máquinas también pueden aceptar funciones de polinomios de orden arbitrario donde: .[1]

Referencias

  1. Haykin, Simon (1998). Neural Networks: A Comprehensive Foundation (2 edición). Prentice Hall. ISBN 0132733501. 
  •   Datos: Q4677469

función, activación, redes, computacionales, función, activación, nodo, define, salida, nodo, dada, entrada, conjunto, entradas, podría, decir, circuito, estándar, computador, comporta, como, digital, funciones, activación, activarse, como, dependiendo, entrad. En redes computacionales la funcion de activacion de un nodo define la salida de un nodo dada una entrada o un conjunto de entradas Se podria decir que un circuito estandar de computador se comporta como una red digital de funciones de activacion al activarse como ON 1 u OFF 0 dependiendo de la entrada Esto es similar al funcionamiento de un perceptron en una red neuronal artificial Funciones EditarEn las redes neuronales inspiradas sobre la biologia la funcion de activacion es usualmente una abstraccion representando una tasa de potencial de activacion gatillandose en la celda En su forma simplificada esta funcion es binaria esto es se activa la neurona o no La funcion se ve como ϕ v i U v i displaystyle phi v i U v i donde U displaystyle U es la funcion escalon En este caso un gran numero de neuronas deben ser usadas en computacion mas alla de la separacion lineal de las categorias Una funcion rampa tambien puede ser usada para reflejar el incremento del potencial de activacion que ocurre cuando la entrada se incrementa La funcion podria ser de la forma ϕ v i m v i displaystyle phi v i mu v i donde m displaystyle mu es la pendiente Esta funcion de activacion es lineal y por consiguiente tiene los mismos problemas que la funcion binaria En adicion las redes neuronales construidas usando este modelo tienen convergencia inestable porque a la larga las entradas a la neurona tienden a incrementarse sin limite esta funcion no es normalizable Los problemas mencionados anteriormente pueden ser manejados usando una funcion de activacion sigmoidal Un modelo realista permanece en cero hasta que una entrada es recibida en este punto la frecuencia de activacion se incrementa rapidamente pero gradualmente llega a ser asintota cuando la frecuencia es 100 Matematicamente esto se ve como ϕ v i U v i tanh v i displaystyle phi v i U v i tanh v i donde la funcion de tangente hiperbolica puede tambien ser cualquier funcion sigmoidal Esta conducta es realisticamente reflejada en la neurona ya que las neuronas no pueden fisicamente activarse mas rapido que una cierta tasa El modelo final que es usado en perceptrones multicapa es el modelo de activacion sigmoidal en la forma de tangente hiperbolica Dos formas de esta funcion son comunmente usados ϕ v i tanh v i displaystyle phi v i tanh v i cuyos rangos son normalizados desde 1 hasta 1 y ϕ v i 1 exp v i 1 displaystyle phi v i 1 exp v i 1 es verticalmente normalizado desde 0 a 1 El ultimo modelo es frecuentemente considerado mas biologicamente realista pero tiene dificultades teoricas y experimentales en ciertos tipos de problemas computacionales Estructuras alternativas Editar Una clase especial de funciones de activacion conocidas como funciones de base radial RBFs son usadas en redes de neuronas de base radial las cuales son extremadamente eficientes como funciones universales de aproximacion Esas funciones de activacion pueden tomar cualquier forma pero usualmente se encuentran una de estas tres Gausiana ϕ v i exp v i c i 2 2 s 2 displaystyle phi v i exp left frac v i c i 2 2 sigma 2 right Multicuadraticas ϕ v i v i c i 2 a 2 displaystyle phi v i sqrt v i c i 2 a 2 Multicuadraticas Inversas ϕ v i v i c i 2 a 2 1 2 displaystyle phi v i v i c i 2 a 2 1 2 donde c i displaystyle c i es el vector representando la funcion central y a displaystyle a y s displaystyle sigma son parametros affectando la magnitud del radio Maquinas de vectores de soporte SVMs pueden efectivamente utilizar una clase de funciones de activacion que incluyen funciones sigmoidales y funciones de base radial En este caso el vector de entrada es transformado para reflejar un limite de decision hiplerplano basado en unas pocas entradas de entrenamiento llamadas vectores de soporte x displaystyle x La funcion de activacion para las capas ocultas de esas maquinas son referidas como producto del nucleo interno K v i x ϕ v i displaystyle K v i x phi v i Los vectores de soporte son representados como los centros en RBFs con el nucleo igual a la funcion de activacion pero toman una forma unica en el perceptron como ϕ v i tanh b 1 b 0 j v i j x j displaystyle phi v i tanh left beta 1 beta 0 sum j v i j x j right donde b 0 displaystyle beta 0 y b 1 displaystyle beta 1 deben satisfacer ciertas condiciones de convergencia Esas maquinas tambien pueden aceptar funciones de polinomios de orden arbitrario donde ϕ v i 1 j v i j x j p displaystyle phi v i left 1 sum j v i j x j right p 1 Referencias Editar Haykin Simon 1998 Neural Networks A Comprehensive Foundation 2 edicion Prentice Hall ISBN 0132733501 Datos Q4677469 Obtenido de https es wikipedia org w index php title Funcion de activacion amp oldid 144447954, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos