fbpx
Wikipedia

RNA de base radial

Las redes de base radial son un tipo de redes de neuronas artificiales que calculan la salida de la función en función de la distancia a un punto denominado centro. Al igual que con los perceptrones multicapa, sirven como aproximadores universales.

Introducción

La función de base radial es una función que calcula la distancia euclidea de un vector de entrada x respecto de un centro c, de tal manera que resulta la siguiente función:

 

A cada neurona de la capa de entrada le corresponde una función de base radial   y un peso de salida wi. El patrón de salida ingresa a una neurona de salida que suma las entradas y da como resultado una salida. La función de una red RBF final resulta:

 

Las redes RBF tienen una construcción rígida de tres capas: Capa de entrada, capa oculta y capa de salida (a diferencia de otras redes backpropagation).

Características principales

  • Las redes de base radial tienen sus orígenes a finales de los años 80.
  • Son redes de tipo multicapa que tienen conexiones hacia delante y que solo tienen una capa oculta. Mientras que las neuronas ocultas poseen carácter local, las neuronas de salida realizan una combinación lineal de las activaciones de las neuronas ocultas.
  • Este tipo de redes construyen aproximaciones que son combinaciones lineales de múltiples funciones locales no lineales.
  • Entre sus aplicaciones se encuentran análisis de series temporales, procesamiento de imágenes, reconocimiento automático del habla, diagnósticos médicos, etc.

Arquitectura

Cada red de base radial tienen 3 capas diferentes en total:

  • Capa de entrada: Transmiten las señales de entrada a las neuronas ocultas sin realizar procesamiento, es decir, las conexiones de la capa de entrada a la capa oculta no llevan pesos asociados.
  • Capa oculta: Realizan una transformación local y no lineal de dichas señales.
  • Capa de salida: Realiza una combinación lineal de las activaciones de las neuronas ocultas.

Tipos de funciones de base radial

La función Φ(r) siendo r la distancia euclidea, puede ser de varios tipos dependiendo de los patrones a clasificar. Las elecciones más comunes son las siguientes:

 
 
 
 
 
 

Aprendizaje

El aprendizaje consiste en la determinación de los centros, desviaciones y pesos de la capa oculta a la capa de salida. Como las capas de la red realizan diferentes tareas, se separarán los parámetros de la capa oculta de la capa de salida para optimizar el proceso. De esta forma, los centros y las desviaciones siguen un proceso guiado por una optimización en el espacio de entrada, mientras que los pesos siguen una optimización sobre la base de las salidas que se desean obtener.

Los dos métodos de aprendizaje más utilizados son el método híbrido y el método totalmente supervisado.

Método híbrido

En la fase no supervisada, los centros y las desviaciones de las funciones de base radial deben ser determinados con el objetivo de agrupar el espacio de entrada en diferentes clases. El representante de cada clase será el centro de la función de base radial y la desviación vendrá dada por la amplitud de cada clase. En la fase supervisada, se determinan de forma supervisada los pesos y umbrales de la capa de salida.

A la hora de determinar los centros, se utilizará un algoritmo de clasificación no supervisado que permita dividir el espacio de entrada en clases o clusters. El número de clusters será el número de neuronas ocultas en la red de base radial. El algoritmo más utilizado es el algoritmo de K-medias.[1]​ Mientras, a la hora de determinar las desviaciones, se deben calcular las amplitudes de manera que cada neurona oculta se active en la región del espacio de entrada y de manera que el solapamiento de las zonas de activación de una neurona a otra sea lo más ligera posible, para suavizar así la interpolación. Una opción bastante efectiva es determinar la amplitud de la función de base radial como la media geométrica de la distancia del centro a sus dos vecinos más cercanos.

En la fase supervisada, se calculan los pesos y umbrales de las neuronas de salida de la red. El objetivo es minimizar las diferencias entre las salidas de la red y las salidas deseadas. El proceso de aprendizaje está guiado por la minimización de una función error computada en la salida de la red. Como la salida de la red depende linealmente de los pesos, puede utilizarse un método directo, como es el método de la pseudoinversa, o bien el método de mínimos cuadrados.

Los centros se determinan usando la siguiente fórmula:

 

Donde:

  es el Número de patrones
  representa el patrón de entrada n
  es la Función de pertenencia

Además   se puede determinar de la siguiente manera:

 

Algoritmo de K-medias

Dado el número de clases K

1-Se inicializan aleatoriamente los centros de los K clusters (Unidad de capa oculta)

2-Se asignan Ni patrones de entrada a cada clúster i del siguiente modo:

El patrón X(n) pertenece al clúster i si :

 

Con lo cual cada unidad tendrá asociado un determinado número de patrones de entrada, aquellos más cercanos a su centro.

3-Se calcula la nueva posición de los centros como la media de todos los patrones que pertenecen al clúster:

 

4-Se repiten 2 y 3 hasta que las nuevas posiciones de los centros no se modifiquen respecto de la anterior:

 

Determinación de las desviaciones

Las desviaciones se calculan de manera que cada unidad oculta se activa para una determinada región del espacio entrada y además que esta región de esta unidad no se solape con la región de otra unidad oculta.

Existen diversas formas de calular esta desviación, siendo la más común, la media geométrica entre un centro y los centros adyacentes:

 

Donde   y   son los centros más cercanos a   para la desviación del clúster i

Fase supervisada

Durante esta fase se determinan pesos y umbrales. Se usan los siguientes métodos: Método de la pseudo-inversa y Método de los mínimos cuadrados.

Método de la pseudo-inversa

La solución viene dada por la siguiente expresión:

 

Siendo W la matriz de orden   que posee los n pesos y los umbrales en la última fila. La matriz G posee todas las funciones de activación para cada uno de los patrones de entrada, es de orden  , siendo   siendo   la función de activación de la neurona oculta i para el patrón de entrada  .   es la matriz de salidas deseadas de la red, de orden  

Método de los mínimos cuadrados

Método totalmente supervisado

Todos los parámetros de las redes de neuronas de base radial, es decir, los centros, las desviaciones, los pesos y los umbrales, se determinan de forma supervisada con el objetivo de minimizar el error cuadrático medio. El proceso no se guía para que las amplitudes sean tales que el solapamiento de las gausianas sea lo más suave posible, sino para minimizar el error cuadrático; por tanto, pueden perderse las características locales. Mientras que las salidas de la red dependen linealmente de los pesos, los centros y desviaciones no. Para realizar el cálculo de los parámetros, se aplicará el método de descenso del gradiente.

Referencias

  1. Algoritmo K-medias, Tutorial sobre su funcionamiento a través de una aplicación.
  •   Datos: Q2679684

base, radial, redes, base, radial, tipo, redes, neuronas, artificiales, calculan, salida, función, función, distancia, punto, denominado, centro, igual, perceptrones, multicapa, sirven, como, aproximadores, universales, Índice, introducción, características, p. Las redes de base radial son un tipo de redes de neuronas artificiales que calculan la salida de la funcion en funcion de la distancia a un punto denominado centro Al igual que con los perceptrones multicapa sirven como aproximadores universales Indice 1 Introduccion 2 Caracteristicas principales 3 Arquitectura 3 1 Tipos de funciones de base radial 4 Aprendizaje 4 1 Metodo hibrido 4 1 1 Algoritmo de K medias 4 2 Determinacion de las desviaciones 4 3 Fase supervisada 4 3 1 Metodo de la pseudo inversa 4 3 2 Metodo de los minimos cuadrados 4 4 Metodo totalmente supervisado 5 ReferenciasIntroduccion EditarLa funcion de base radial es una funcion que calcula la distancia euclidea de un vector de entrada x respecto de un centro c de tal manera que resulta la siguiente funcion f x x c i displaystyle f mathbf x mathbf x mathbf c i A cada neurona de la capa de entrada le corresponde una funcion de base radial F x displaystyle Phi mathbf x y un peso de salida wi El patron de salida ingresa a una neurona de salida que suma las entradas y da como resultado una salida La funcion de una red RBF final resulta F x i 1 N w i F x c i displaystyle F mathbf x sum i 1 N w i Phi mathbf x mathbf c i Las redes RBF tienen una construccion rigida de tres capas Capa de entrada capa oculta y capa de salida a diferencia de otras redes backpropagation Caracteristicas principales EditarLas redes de base radial tienen sus origenes a finales de los anos 80 Son redes de tipo multicapa que tienen conexiones hacia delante y que solo tienen una capa oculta Mientras que las neuronas ocultas poseen caracter local las neuronas de salida realizan una combinacion lineal de las activaciones de las neuronas ocultas Este tipo de redes construyen aproximaciones que son combinaciones lineales de multiples funciones locales no lineales Entre sus aplicaciones se encuentran analisis de series temporales procesamiento de imagenes reconocimiento automatico del habla diagnosticos medicos etc Arquitectura EditarCada red de base radial tienen 3 capas diferentes en total Capa de entrada Transmiten las senales de entrada a las neuronas ocultas sin realizar procesamiento es decir las conexiones de la capa de entrada a la capa oculta no llevan pesos asociados Capa oculta Realizan una transformacion local y no lineal de dichas senales Capa de salida Realiza una combinacion lineal de las activaciones de las neuronas ocultas Tipos de funciones de base radial Editar La funcion F r siendo r la distancia euclidea puede ser de varios tipos dependiendo de los patrones a clasificar Las elecciones mas comunes son las siguientes Funcion gaussiana ϕ r e e r 2 displaystyle phi r e varepsilon r 2 dd Funcion multicuadratica ϕ r 1 e r 2 displaystyle phi r sqrt 1 varepsilon r 2 dd Funcion multi cuadratica inversa ϕ r 1 1 e r 2 displaystyle phi r frac 1 sqrt 1 varepsilon r 2 dd Funcion Spline poliarmonico ϕ r r k k 1 3 5 displaystyle phi r r k k 1 3 5 dots ϕ r r k ln r k 2 4 6 displaystyle phi r r k ln r k 2 4 6 dots dd Funcion Spline de placa delgada ϕ r r 2 ln r displaystyle phi r r 2 ln r dd Aprendizaje EditarEl aprendizaje consiste en la determinacion de los centros desviaciones y pesos de la capa oculta a la capa de salida Como las capas de la red realizan diferentes tareas se separaran los parametros de la capa oculta de la capa de salida para optimizar el proceso De esta forma los centros y las desviaciones siguen un proceso guiado por una optimizacion en el espacio de entrada mientras que los pesos siguen una optimizacion sobre la base de las salidas que se desean obtener Los dos metodos de aprendizaje mas utilizados son el metodo hibrido y el metodo totalmente supervisado Metodo hibrido Editar En la fase no supervisada los centros y las desviaciones de las funciones de base radial deben ser determinados con el objetivo de agrupar el espacio de entrada en diferentes clases El representante de cada clase sera el centro de la funcion de base radial y la desviacion vendra dada por la amplitud de cada clase En la fase supervisada se determinan de forma supervisada los pesos y umbrales de la capa de salida A la hora de determinar los centros se utilizara un algoritmo de clasificacion no supervisado que permita dividir el espacio de entrada en clases o clusters El numero de clusters sera el numero de neuronas ocultas en la red de base radial El algoritmo mas utilizado es el algoritmo de K medias 1 Mientras a la hora de determinar las desviaciones se deben calcular las amplitudes de manera que cada neurona oculta se active en la region del espacio de entrada y de manera que el solapamiento de las zonas de activacion de una neurona a otra sea lo mas ligera posible para suavizar asi la interpolacion Una opcion bastante efectiva es determinar la amplitud de la funcion de base radial como la media geometrica de la distancia del centro a sus dos vecinos mas cercanos En la fase supervisada se calculan los pesos y umbrales de las neuronas de salida de la red El objetivo es minimizar las diferencias entre las salidas de la red y las salidas deseadas El proceso de aprendizaje esta guiado por la minimizacion de una funcion error computada en la salida de la red Como la salida de la red depende linealmente de los pesos puede utilizarse un metodo directo como es el metodo de la pseudoinversa o bien el metodo de minimos cuadrados Los centros se determinan usando la siguiente formula J i 1 K n 1 N m A X n C i displaystyle J sum i 1 K sum n 1 N mu A mathbf X mathbf n mathbf C i Donde N displaystyle N es el Numero de patrones X n displaystyle mathbf X mathbf n representa el patron de entrada n m A displaystyle mu A es la Funcion de pertenenciaAdemas m A displaystyle mu A se puede determinar de la siguiente manera m A 1 si X n C i lt X n C s s i s 1 2 K 0 en otro caso displaystyle mu A begin cases 1 amp mbox si mathbf X mathbf n mathbf C i lt mathbf X mathbf n mathbf C s forall s neq i s 1 2 K 0 amp mbox en otro caso end cases Algoritmo de K medias Editar Dado el numero de clases K1 Se inicializan aleatoriamente los centros de los K clusters Unidad de capa oculta 2 Se asignan Ni patrones de entrada a cada cluster i del siguiente modo El patron X n pertenece al cluster i si X n C i lt X n C s s i s 1 2 K displaystyle mathbf X mathbf n mathbf C i lt mathbf X mathbf n mathbf C s forall s neq i s 1 2 K Con lo cual cada unidad tendra asociado un determinado numero de patrones de entrada aquellos mas cercanos a su centro 3 Se calcula la nueva posicion de los centros como la media de todos los patrones que pertenecen al cluster c i j 1 N n 1 N m A x j j 1 2 p i 1 2 K displaystyle c ij frac 1 N sum n 1 N mu A x j forall j 1 2 p forall i 1 2 K 4 Se repiten 2 y 3 hasta que las nuevas posiciones de los centros no se modifiquen respecto de la anterior C i t C i t 1 lt e i 1 2 K displaystyle C i t C i t 1 lt varepsilon forall i 1 2 K Determinacion de las desviaciones Editar Las desviaciones se calculan de manera que cada unidad oculta se activa para una determinada region del espacio entrada y ademas que esta region de esta unidad no se solape con la region de otra unidad oculta Existen diversas formas de calular esta desviacion siendo la mas comun la media geometrica entre un centro y los centros adyacentes d i C i C m C i C s displaystyle d i sqrt C i C m C i C s Donde C m displaystyle C m y C s displaystyle C s son los centros mas cercanos a C i displaystyle C i para la desviacion del cluster i Fase supervisada Editar Durante esta fase se determinan pesos y umbrales Se usan los siguientes metodos Metodo de la pseudo inversa y Metodo de los minimos cuadrados Metodo de la pseudo inversa Editar La solucion viene dada por la siguiente expresion W G S displaystyle W G S Siendo W la matriz de orden n 1 r displaystyle n 1 times r que posee los n pesos y los umbrales en la ultima fila La matriz G posee todas las funciones de activacion para cada uno de los patrones de entrada es de orden N n 1 displaystyle N times n 1 siendo g i n ϕ i n displaystyle g in phi i n siendo ϕ i displaystyle phi i la funcion de activacion de la neurona oculta i para el patron de entrada X n displaystyle X n S displaystyle S es la matriz de salidas deseadas de la red de orden N r displaystyle N times r Metodo de los minimos cuadrados Editar Metodo totalmente supervisado Editar Todos los parametros de las redes de neuronas de base radial es decir los centros las desviaciones los pesos y los umbrales se determinan de forma supervisada con el objetivo de minimizar el error cuadratico medio El proceso no se guia para que las amplitudes sean tales que el solapamiento de las gausianas sea lo mas suave posible sino para minimizar el error cuadratico por tanto pueden perderse las caracteristicas locales Mientras que las salidas de la red dependen linealmente de los pesos los centros y desviaciones no Para realizar el calculo de los parametros se aplicara el metodo de descenso del gradiente Referencias Editar Algoritmo K medias Tutorial sobre su funcionamiento a traves de una aplicacion Datos Q2679684Obtenido de https es wikipedia org w index php title RNA de base radial amp oldid 118710453, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos