fbpx
Wikipedia

Red neuronal convolucional

Una red neuronal convolucional es un tipo de red neuronal artificial donde las neuronas corresponden a campos receptivos de una manera muy similar a las neuronas en la corteza visual primaria (V1) de un cerebro biológico[cita requerida]. Este tipo de red es una variación de un perceptron multicapa, sin embargo, debido a que su aplicación es realizada en matrices bidimensionales, son muy efectivas para tareas de visión artificial, como en la clasificación y segmentación de imágenes, entre otras aplicaciones.

Historia

Los fundamentos de las redes neuronales convolucionales se basan en el Neocognitron, introducido por Kunihiko Fukushima en 1980.[1]​ Este modelo fue más tarde mejorado por Yann LeCun et al. en 1998[2]​ al introducir un método de aprendizaje basado en la propagación hacia atrás para poder entrenar el sistema correctamente. En el año 2012, fueron refinadas por Dan Ciresan y otros, y fueron implementadas para una unidad de procesamiento gráfico (GPU) consiguiendo así resultados impresionantes.[3]

A raíz de la pandemia Covid-19 se desarrolló una tecnología llamada Crowd- counting el cual mediante algoritmos logra clasificar y dar un baremo de la cantidad de personas que se encuentran cerca de un objetivo desconocido.[4]

Fundamentos Biológicos

El trabajo realizado por Hubel y Wiesel en 1959[5]​ jugó un papel importante en la comprensión sobre cómo funciona la corteza visual, particularmente las células responsables de la selectividad de orientación y detección de bordes en los estímulos visuales dentro de la corteza visual primaria V1. Dos tipos de células principales fueron identificadas aquí, teniendo éstas campos receptivos alargados, con lo cual tienen una mejor respuesta a los estímulos visuales alargados como las líneas y los bordes. Estas se denominan células simples y células complejas.

Las células simples tienen regiones excitadoras e inhibitorias, ambas formando patrones elementales alargados en una dirección, posición y tamaño en particular en cada célula. Si un estímulo visual llega a la célula con la misma orientación y posición, de tal manera que ésta se alinea perfectamente con los patrones creados por las regiones excitadoras y al mismo tiempo se evita activar las regiones inhibitorias, la célula es activada y emite una señal.

Las células complejas operan de una manera similar. Como las células simples, éstas tienen una orientación particular sobre la cual son sensibles. Sin embargo, éstas no tienen sensibilidad a la posición. Por ello, un estímulo visual necesita llegar únicamente en la orientación correcta para que esta célula sea activada.

Otro punto importante sobre las células en la corteza visual es la estructura que éstas forman. A lo largo de la jerarquía de la corteza, comenzando por la región V1 de la corteza visual, luego siguiendo a las regiones V2, V4 e IT, se encuentra que la complejidad de los estímulos ideales incrementa cada vez más. Al mismo tiempo, las activaciones de las células se hacen menos sensibles a la posición y tamaño de los estímulos iniciales. Esto sucede como resultado de las células activando y propagando sus propios estímulos a otras células conectadas a esta jerarquía, principalmente gracias a la alternación entre células simples y complejas.

Arquitectura

Las redes neuronales convolucionales consisten en múltiples capas de filtros convolucionales de una o más dimensiones. Después de cada capa, por lo general se añade una función para realizar un mapeo causal no-lineal.

Como redes de clasificación, al principio se encuentra la fase de extracción de características, compuesta de neuronas convolucionales y de reducción de muestreo. Al final de la red se encuentran neuronas de perceptron sencillas para realizar la clasificación final sobre las características extraídas. La fase de extracción de características se asemeja al proceso estimulante en las células de la corteza visual. Esta fase se compone de capas alternas de neuronas convolucionales y neuronas de reducción de muestreo. Según progresan los datos a lo largo de esta fase, se disminuye su dimensionalidad, siendo las neuronas en capas lejanas mucho menos sensibles a perturbaciones en los datos de entrada, pero al mismo tiempo siendo estas activadas por características cada vez más complejas.

Neuronas convolucionales

En la fase de extracción de características, las neuronas sencillas de un perceptron son reemplazadas por procesadores en matriz que realizan una operación sobre los datos de imagen 2D que pasan por ellas, en lugar de un único valor numérico. La salida de cada neurona convolucional se calcula como:

 

Donde la salida   de una neurona   es una matriz que se calcula por medio de la combinación lineal de las salidas   de las neuronas en la capa anterior cada una de ellas operadas con el núcleo de convolucional   correspondiente a esa conexión. Esta cantidad es sumada a una influencia   y luego se pasa por una función de activación   no-lineal.

El operador de convolución tiene el efecto de filtrar la imagen de entrada con un núcleo previamente entrenado. Esto transforma los datos de tal manera que ciertas características (determinadas por la forma del núcleo) se vuelven más dominantes en la imagen de salida al tener estas un valor numérico más alto asignados a los pixeles que las representan. Estos núcleos tienen habilidades de procesamiento de imágenes específicas, como por ejemplo la detección de bordes que se puede realizar con núcleos que resaltan la gradiente en una dirección en particular. Sin embargo, los núcleos que son entrenados por una red neuronal convolucional generalmente son más complejos para poder extraer otras características más abstractas y no triviales.

Neuronas de Reducción de Muestreo

Las redes neuronales cuentan con cierta tolerancia a pequeñas perturbaciones en los datos de entrada. Por ejemplo, si dos imágenes casi idénticas (diferenciadas únicamente por un traslado de algunos pixeles lateralmente) se analizan con una red neuronal, el resultado debería de ser esencialmente el mismo. Esto se obtiene, en parte, dado a la reducción de muestreo que ocurre dentro de una red neuronal convolucional. Al reducir la resolución, las mismas características corresponderán a un mayor campo de activación en la imagen de entrada.

Originalmente, las redes neuronales convolucionales utilizaban un proceso de subsampling para llevar a cabo esta operación. Sin embargo, estudio recientes han demostrado que otras operaciones, como por ejemplo max-pooling, son mucho más eficaces en resumir características sobre una región. Además, existe evidencia que este tipo de operación es similar a como la corteza visual puede resumir información internamente.

La operación de max-pooling encuentra el valor máximo entre una ventana de muestra y pasa este valor como resumen de características sobre esa área. Como resultado, el tamaño de los datos se reduce por un factor igual al tamaño de la ventana de muestra sobre la cual se opera.

Neuronas de Clasificación

Después de una o más fases de extracción de características, los datos finalmente llegan a la fase de clasificación. Para entonces, los datos han sido depurados hasta una serie de características únicas para la imagen de entrada, y es ahora la labor de esta última fase el poder clasificar estas características hacia una etiqueta u otra, según los objetivos de entrenamiento.

Las neuronas en esta fase funcionan de manera idéntica a las de un perceptron multicapas, donde la salida de cada una se calcula de esta forma:

 

Donde la salida   de una neurona   es un valor que se calcula por medio de la combinación lineal de las salidas   de las neuronas en la capa anterior cada una de ellas multiplicadas con un peso   correspondiente a esa conexión. Esta cantidad es sumada a una influencia   y luego se pasa por una función de activación   no-lineal.

Aplicaciones

Dado a la naturaleza de las convoluciones dentro de las redes neuronales convolucionales, estas son aptas para poder aprender a clasificar todo tipo de datos donde estos estén distribuidos de una forma continua a lo largo del mapa de entrada, y a su vez sean estadísticamente similares en cualquier lugar del mapa de entrada. Por esta razón, son especialmente eficaces para clasificar imágenes, por ejemplo para el auto-etiquetado de imágenes.

Sin embargo, las redes neuronales convolucionales también pueden ser aplicadas para la clasificación de series de tiempo o señales de audio utilizando convoluciones en 1D, así como para la clasificación de datos volumétricos usando convoluciones en 3D.

Bibliografía

  1. Fukushima, Kunihiko (1980). "Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position". Biological Cybernetics 36 (4): 193–202.
  2. LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner (1998). "Gradient-based learning applied to document recognition". Proceedings of the IEEE 86 (11): 2278–2324.
  3. Ciresan, Dan; Ueli Meier; Jonathan Masci; Luca M. Gambardella; Jurgen Schmidhuber (2011). "Flexible, High Performance Convolutional Neural Networks for Image Classification". Proceedings of the Twenty-Second international joint conference on Artificial Intelligence-Volume Volume Two 2: 1237–1242.
  4. «The coronavirus must- have Crowd- Counting apps». 
  5. Hubel, D. H.; Wiesel, T. N. (1959). "Receptive fields of single neurones in the cat's striate cortex". The Journal of physiology 148 (3): 574–591.
  •   Datos: Q17084460

neuronal, convolucional, neuronal, convolucional, tipo, neuronal, artificial, donde, neuronas, corresponden, campos, receptivos, manera, similar, neuronas, corteza, visual, primaria, cerebro, biológico, cita, requerida, este, tipo, variación, perceptron, multi. Una red neuronal convolucional es un tipo de red neuronal artificial donde las neuronas corresponden a campos receptivos de una manera muy similar a las neuronas en la corteza visual primaria V1 de un cerebro biologico cita requerida Este tipo de red es una variacion de un perceptron multicapa sin embargo debido a que su aplicacion es realizada en matrices bidimensionales son muy efectivas para tareas de vision artificial como en la clasificacion y segmentacion de imagenes entre otras aplicaciones Indice 1 Historia 2 Fundamentos Biologicos 3 Arquitectura 3 1 Neuronas convolucionales 3 2 Neuronas de Reduccion de Muestreo 3 3 Neuronas de Clasificacion 4 Aplicaciones 5 BibliografiaHistoria EditarLos fundamentos de las redes neuronales convolucionales se basan en el Neocognitron introducido por Kunihiko Fukushima en 1980 1 Este modelo fue mas tarde mejorado por Yann LeCun et al en 1998 2 al introducir un metodo de aprendizaje basado en la propagacion hacia atras para poder entrenar el sistema correctamente En el ano 2012 fueron refinadas por Dan Ciresan y otros y fueron implementadas para una unidad de procesamiento grafico GPU consiguiendo asi resultados impresionantes 3 A raiz de la pandemia Covid 19 se desarrollo una tecnologia llamada Crowd counting el cual mediante algoritmos logra clasificar y dar un baremo de la cantidad de personas que se encuentran cerca de un objetivo desconocido 4 Fundamentos Biologicos EditarEl trabajo realizado por Hubel y Wiesel en 1959 5 jugo un papel importante en la comprension sobre como funciona la corteza visual particularmente las celulas responsables de la selectividad de orientacion y deteccion de bordes en los estimulos visuales dentro de la corteza visual primaria V1 Dos tipos de celulas principales fueron identificadas aqui teniendo estas campos receptivos alargados con lo cual tienen una mejor respuesta a los estimulos visuales alargados como las lineas y los bordes Estas se denominan celulas simples y celulas complejas Las celulas simples tienen regiones excitadoras e inhibitorias ambas formando patrones elementales alargados en una direccion posicion y tamano en particular en cada celula Si un estimulo visual llega a la celula con la misma orientacion y posicion de tal manera que esta se alinea perfectamente con los patrones creados por las regiones excitadoras y al mismo tiempo se evita activar las regiones inhibitorias la celula es activada y emite una senal Las celulas complejas operan de una manera similar Como las celulas simples estas tienen una orientacion particular sobre la cual son sensibles Sin embargo estas no tienen sensibilidad a la posicion Por ello un estimulo visual necesita llegar unicamente en la orientacion correcta para que esta celula sea activada Otro punto importante sobre las celulas en la corteza visual es la estructura que estas forman A lo largo de la jerarquia de la corteza comenzando por la region V1 de la corteza visual luego siguiendo a las regiones V2 V4 e IT se encuentra que la complejidad de los estimulos ideales incrementa cada vez mas Al mismo tiempo las activaciones de las celulas se hacen menos sensibles a la posicion y tamano de los estimulos iniciales Esto sucede como resultado de las celulas activando y propagando sus propios estimulos a otras celulas conectadas a esta jerarquia principalmente gracias a la alternacion entre celulas simples y complejas Arquitectura EditarLas redes neuronales convolucionales consisten en multiples capas de filtros convolucionales de una o mas dimensiones Despues de cada capa por lo general se anade una funcion para realizar un mapeo causal no lineal Como redes de clasificacion al principio se encuentra la fase de extraccion de caracteristicas compuesta de neuronas convolucionales y de reduccion de muestreo Al final de la red se encuentran neuronas de perceptron sencillas para realizar la clasificacion final sobre las caracteristicas extraidas La fase de extraccion de caracteristicas se asemeja al proceso estimulante en las celulas de la corteza visual Esta fase se compone de capas alternas de neuronas convolucionales y neuronas de reduccion de muestreo Segun progresan los datos a lo largo de esta fase se disminuye su dimensionalidad siendo las neuronas en capas lejanas mucho menos sensibles a perturbaciones en los datos de entrada pero al mismo tiempo siendo estas activadas por caracteristicas cada vez mas complejas Neuronas convolucionales Editar En la fase de extraccion de caracteristicas las neuronas sencillas de un perceptron son reemplazadas por procesadores en matriz que realizan una operacion sobre los datos de imagen 2D que pasan por ellas en lugar de un unico valor numerico La salida de cada neurona convolucional se calcula como Y j g b j i K i j Y i displaystyle Y j g left b j sum i K ij otimes Y i right Donde la salida Y j displaystyle Y j de una neurona j displaystyle j es una matriz que se calcula por medio de la combinacion lineal de las salidas Y i displaystyle Y i de las neuronas en la capa anterior cada una de ellas operadas con el nucleo de convolucional K i j displaystyle K ij correspondiente a esa conexion Esta cantidad es sumada a una influencia b j displaystyle b j y luego se pasa por una funcion de activacion g displaystyle g cdot no lineal El operador de convolucion tiene el efecto de filtrar la imagen de entrada con un nucleo previamente entrenado Esto transforma los datos de tal manera que ciertas caracteristicas determinadas por la forma del nucleo se vuelven mas dominantes en la imagen de salida al tener estas un valor numerico mas alto asignados a los pixeles que las representan Estos nucleos tienen habilidades de procesamiento de imagenes especificas como por ejemplo la deteccion de bordes que se puede realizar con nucleos que resaltan la gradiente en una direccion en particular Sin embargo los nucleos que son entrenados por una red neuronal convolucional generalmente son mas complejos para poder extraer otras caracteristicas mas abstractas y no triviales Neuronas de Reduccion de Muestreo Editar Las redes neuronales cuentan con cierta tolerancia a pequenas perturbaciones en los datos de entrada Por ejemplo si dos imagenes casi identicas diferenciadas unicamente por un traslado de algunos pixeles lateralmente se analizan con una red neuronal el resultado deberia de ser esencialmente el mismo Esto se obtiene en parte dado a la reduccion de muestreo que ocurre dentro de una red neuronal convolucional Al reducir la resolucion las mismas caracteristicas corresponderan a un mayor campo de activacion en la imagen de entrada Originalmente las redes neuronales convolucionales utilizaban un proceso de subsampling para llevar a cabo esta operacion Sin embargo estudio recientes han demostrado que otras operaciones como por ejemplo max pooling son mucho mas eficaces en resumir caracteristicas sobre una region Ademas existe evidencia que este tipo de operacion es similar a como la corteza visual puede resumir informacion internamente La operacion de max pooling encuentra el valor maximo entre una ventana de muestra y pasa este valor como resumen de caracteristicas sobre esa area Como resultado el tamano de los datos se reduce por un factor igual al tamano de la ventana de muestra sobre la cual se opera Neuronas de Clasificacion Editar Despues de una o mas fases de extraccion de caracteristicas los datos finalmente llegan a la fase de clasificacion Para entonces los datos han sido depurados hasta una serie de caracteristicas unicas para la imagen de entrada y es ahora la labor de esta ultima fase el poder clasificar estas caracteristicas hacia una etiqueta u otra segun los objetivos de entrenamiento Las neuronas en esta fase funcionan de manera identica a las de un perceptron multicapas donde la salida de cada una se calcula de esta forma y j g b j i w i j y i displaystyle y j g left b j sum i w ij cdot y i right Donde la salida y j displaystyle y j de una neurona j displaystyle j es un valor que se calcula por medio de la combinacion lineal de las salidas y i displaystyle y i de las neuronas en la capa anterior cada una de ellas multiplicadas con un peso w i j displaystyle w ij correspondiente a esa conexion Esta cantidad es sumada a una influencia b j displaystyle b j y luego se pasa por una funcion de activacion g displaystyle g cdot no lineal Aplicaciones EditarDado a la naturaleza de las convoluciones dentro de las redes neuronales convolucionales estas son aptas para poder aprender a clasificar todo tipo de datos donde estos esten distribuidos de una forma continua a lo largo del mapa de entrada y a su vez sean estadisticamente similares en cualquier lugar del mapa de entrada Por esta razon son especialmente eficaces para clasificar imagenes por ejemplo para el auto etiquetado de imagenes Sin embargo las redes neuronales convolucionales tambien pueden ser aplicadas para la clasificacion de series de tiempo o senales de audio utilizando convoluciones en 1D asi como para la clasificacion de datos volumetricos usando convoluciones en 3D Bibliografia Editar Fukushima Kunihiko 1980 Neocognitron A Self organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position Biological Cybernetics 36 4 193 202 LeCun Yann Leon Bottou Yoshua Bengio Patrick Haffner 1998 Gradient based learning applied to document recognition Proceedings of the IEEE 86 11 2278 2324 Ciresan Dan Ueli Meier Jonathan Masci Luca M Gambardella Jurgen Schmidhuber 2011 Flexible High Performance Convolutional Neural Networks for Image Classification Proceedings of the Twenty Second international joint conference on Artificial Intelligence Volume Volume Two 2 1237 1242 The coronavirus must have Crowd Counting apps Hubel D H Wiesel T N 1959 Receptive fields of single neurones in the cat s striate cortex The Journal of physiology 148 3 574 591 Datos Q17084460 Obtenido de https es wikipedia org w index php title Red neuronal convolucional amp oldid 133245872, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos