fbpx
Wikipedia

Teoría hebbiana

La teoría Hebbiana describe un mecanismo básico de plasticidad sináptica en el que el valor de una conexión sináptica se incrementa si las neuronas de ambos lados de dicha sinapsis se activan repetidas veces de forma simultánea. Introducida por Donald Hebb, en 1949, es también llamada regla de Hebb, postulado de aprendizaje de Hebb o Teoría de la Asamblea Celular, y afirma lo siguiente:

Supongamos que la persistencia de una actividad repetitiva (o "señal") tiende a inducir cambios celulares duraderos que promueven su estabilidad. ... Cuando el axón de una célula A está lo suficientemente cerca como para excitar a una célula B y repetidamente toma parte en la activación, ocurren procesos de crecimiento o cambios metabólicos en una o ambas células de manera que tanto la eficiencia de la célula A, como la capacidad de excitación de la célula B son aumentadas.

La teoría se resume a menudo como: "las células que se disparan juntas, permanecerán conectadas", aunque esto es una simplificación del sistema nervioso no debe tomarse literalmente, así como no representa con exactitud la declaración original de Hebb sobre cambios de la fuerza de conectividad en las células. La teoría es comúnmente evocada para explicar algunos tipos de aprendizajes asociativos en los que la activación simultánea de las células conduce a un pronunciado aumento de la fuerza sináptica. Este aprendizaje se conoce como aprendizaje de Hebb.

Los Engramas de Hebb y la teoría de la Asamblea celular

La teoría de Hebb se encarga de cómo se conectan las neuronas formando engramas. Las teorías de Hebb sobre la forma y la función de la asamblea celular se pueden entender de la siguiente manera:

"La idea es antigua, que dos células o sistemas de células que están continuamente activas al mismo tiempo, tenderán a convertirse en 'asociadas', de manera que la actividad de una facilitará la de la otra." (Hebb, 1949, p. 70)
"Cuando una célula ayuda en repetidas ocasiones a que otra se dispare, en el axón de la primera célula se desarrollan botones sinápticos (o se agrandan si ya existen) en contacto con el soma de la segunda célula." (Hebb, 1949, p. 63)

Gordon Allport ha propuesto nuevas ideas sobre la teoría de la Asamblea celular y su papel en la formación de los engramas, en el sentido del concepto de auto-asociación, que se describe como sigue:

"Si las entradas a un sistema producen el mismo patrón de actividad repetidamente, el conjunto de elementos activos que constituyen ese modelo llegarán a tener una interasociación más fuerte. Es decir, cada elemento tenderá a activar a otros elementos y (con pesos negativos) a inactivar a los elementos que no formen parte del patrón. En otras palabras, el patrón en su conjunto se convertirá en 'auto-asociado'. Se puede decir que un aprendizaje (auto-asociado) es un patrón de engrama." (Hebb, 1949, p. 44)

La teoría hebbiana ha sido la base principal de la visión convencional de que los engramas son redes neuronales cuando se analizan desde un nivel holístico.

Los trabajos de laboratorio de Eric Kandel han aportado pruebas de la participación de mecanismos de aprendizaje hebbiano en las sinapsis del gasterópodo marino Aplysia californica

Los experimentos sobre los mecanismos hebbianos de modificación en las sinapsis del sistema nervioso central de vertebrados son mucho más difíciles de controlar que los experimentos con las sinapsis del relativamente simple sistema nervioso periférico estudiadas en invertebrados marinos. Gran parte del trabajo sobre cambios sinápticos de larga duración en neuronas de vertebrados (como la potenciación a largo plazo) implican el uso de estimulación experimental no fisiológica de células cerebrales. Sin embargo, algunos de los mecanismos fisiológicamente relevantes de modificación sináptica que se han estudiado en cerebros de vertebrados parecen ser ejemplos de procesos hebbianos. Un estudio resultado de estos experimentos indica que los cambios a largo plazo en la fuerza de las sinapsis pueden ser inducidos por actividad sináptica fisiológicamente relevante que trabaja tanto a través de mecanismos hebbianos como no hebbianos.

Principios

Desde el punto de vista de las neuronas artificiales y redes neuronales artificiales, el principio de Hebb se puede describir como un método de determinar la forma de modificar los pesos entre modelos de neuronas. El peso entre dos neuronas se incrementa si las dos neuronas se activan simultáneamente y se reduce si se activan por separado. Los nodos que tienden a ser positivos o negativos al mismo tiempo tienen fuertes pesos positivos, mientras que aquellos que tienden a ser contrarios tienen fuertes pesos negativos.

Este original principio es quizás la forma más simple de selección de pesos. Si bien esto significa que puede ser relativamente fácil de codificar en un programa informático y se utilice para actualizar los pesos correspondientes de una red de neuronas, también limita el número de aplicaciones de aprendizaje hebbiano. Hoy en día, el término aprendizaje hebbiano por lo general se refiere a algún tipo de abstracción matemática del principio original propuesto por Hebb. En este sentido, el aprendizaje hebbiano implica que los pesos sean ajustados de manera que cada uno de ellos represente la mejor relación posible entre los nodos. Como tal, muchos métodos de aprendizaje de la naturaleza pueden ser consideradas como hebbianos.

La siguiente es una formulación matemática del aprendizaje hebbiano: (nótese que muchas otras descripciones son posibles)

 

donde   es el peso de la conexión de la neurona   a la neurona   y   el valor de entrada para la neurona  . Hay que tener en cuenta que este es el modelo de aprendizaje (pesos actualizados después de cada ejemplo de entrenamiento). En una Red de Hopfield las conexiones   se ponen a cero si   (no se permiten conexiones reflexivas). Con neuronas binarias (valores de activación de 0 o 1) las conexiones se establecen a 1 si las neuronas conectadas tienen el mismo patrón de activación.

Otra formulación matemática es:

  ,

donde   es el peso de la conexión de la neurona   a la neurona  ,   es la dimensión del vector de entrada,   el número de patrones de aprendizaje, y   la entrada número   para la neurona  . Es un aprendizaje por épocas (los pesos se actualizan después de que todos los ejemplos de formación se han presentado). De nuevo en las redes Hopfield las conexiones   se ponen a cero si   (conexiones no reflexivas).

Una variación del aprendizaje hebbiano que toma en cuenta fenómenos como el bloqueo de los nervios y de muchos otros fenómenos de aprendizaje es el modelo matemático de Harry Klopf. El modelo de Klopf reproduce gran cantidad de fenómenos biológicos, y también es fácil de aplicar.

Generalización y estabilidad

La regla de Hebb se generaliza frecuentemente como:

 ,

o el cambio en el peso   de la sinapsis número   es igual a la tasa de aprendizaje   por la entrada número     por la respuesta postsináptica  . A menudo se cita el caso de una neurona lineal,

 ,

la simplificación de la sección anterior tiene en cuenta que tanto la tasa de aprendizaje como los pesos de entrada sean 1. Esta versión de la regla es claramente inestable, como en cualquier red con una señal dominante los pesos aumentarán o disminuirán exponencialmente. Sin embargo, se puede ver que para cualquier modelo de neurona, la regla de Hebb es inestable. Por lo que los modelos de redes de neuronas suelen emplear otras teorías de aprendizaje, tales como la teoría BCM, la regla de Oja,[1]​ o el algoritmo hebbiano generalizado.

Véase también

Referencias

  1. Shouval, Harel (3 de enero de 2005). . The Synaptic basis for Learning and Memory: A theoretical approach (en inglés). The University of Texas Health Science Center at Houston. Archivado desde el original el 10 de junio de 2007. Consultado el 14 de noviembre de 2007. 

Lecturas adicionales

  • Hebb, D.O. (1985). Debate, ed. La organización de la conducta. Madrid. 
  • Hebb, D.O. (1949). Wiley, ed. The Organization of Behavior (en inglés). New York. 
  • Hebb, D.O. (1961). «Distinctive features of learning in the higher animal». En J. F. Delafresnaye, ed. Brain Mechanisms and Learning (en inglés). London: Oxford University Press. 
  • Hebb, D.O.; Penfield, W. (1940). «Human behaviour after extensive bilateral removal from the frontal lobes». Archives of Neurology and Psychiatry (en inglés) 44: 421-436. 
  • Allport, D.A. (1985). «Distributed memory, modular systems and dysphasia». En Newman, S.K. and Epstein, R., ed. Current Perspectives in Dysphasia (en inglés). Edinburgh: Churchill Livingstone. ISBN 0-443-03039-1. 
  • Bishop, C.M. (1995). Neural Networks for Pattern Recognition (en inglés). Oxford: Oxford University Press. ISBN 0-19-853849-9. 
  • Flórez López, Raquel; Fernández Fernández, J. Miguel (2008). Netbiblo, ed. Las redes neuronales artificiales. ISBN 978-84-9745-246-5. 
  • Paulsen, O.; Sejnowski, T. J. (2000). «Natural patterns of activity and long-term synaptic plasticity». Current opinion in neurobiology (en inglés) 10 (2): 172-179. PMID 10753798. doi:10.1016/S0959-4388(00)00076-3. 

Enlaces externos

  • El legado de Hebb para la psicología científica
  • (en inglés)
  • Tutorial de aprendizaje hebbiano (en inglés) (, )
  •   Datos: Q1277874

teoría, hebbiana, teoría, hebbiana, describe, mecanismo, básico, plasticidad, sináptica, valor, conexión, sináptica, incrementa, neuronas, ambos, lados, dicha, sinapsis, activan, repetidas, veces, forma, simultánea, introducida, donald, hebb, 1949, también, ll. La teoria Hebbiana describe un mecanismo basico de plasticidad sinaptica en el que el valor de una conexion sinaptica se incrementa si las neuronas de ambos lados de dicha sinapsis se activan repetidas veces de forma simultanea Introducida por Donald Hebb en 1949 es tambien llamada regla de Hebb postulado de aprendizaje de Hebb o Teoria de la Asamblea Celular y afirma lo siguiente Supongamos que la persistencia de una actividad repetitiva o senal tiende a inducir cambios celulares duraderos que promueven su estabilidad Cuando el axon de una celula A esta lo suficientemente cerca como para excitar a una celula B y repetidamente toma parte en la activacion ocurren procesos de crecimiento o cambios metabolicos en una o ambas celulas de manera que tanto la eficiencia de la celula A como la capacidad de excitacion de la celula B son aumentadas La teoria se resume a menudo como las celulas que se disparan juntas permaneceran conectadas aunque esto es una simplificacion del sistema nervioso no debe tomarse literalmente asi como no representa con exactitud la declaracion original de Hebb sobre cambios de la fuerza de conectividad en las celulas La teoria es comunmente evocada para explicar algunos tipos de aprendizajes asociativos en los que la activacion simultanea de las celulas conduce a un pronunciado aumento de la fuerza sinaptica Este aprendizaje se conoce como aprendizaje de Hebb Indice 1 Los Engramas de Hebb y la teoria de la Asamblea celular 2 Principios 3 Generalizacion y estabilidad 4 Vease tambien 5 Referencias 6 Lecturas adicionales 7 Enlaces externosLos Engramas de Hebb y la teoria de la Asamblea celular EditarLa teoria de Hebb se encarga de como se conectan las neuronas formando engramas Las teorias de Hebb sobre la forma y la funcion de la asamblea celular se pueden entender de la siguiente manera La idea es antigua que dos celulas o sistemas de celulas que estan continuamente activas al mismo tiempo tenderan a convertirse en asociadas de manera que la actividad de una facilitara la de la otra Hebb 1949 p 70 Cuando una celula ayuda en repetidas ocasiones a que otra se dispare en el axon de la primera celula se desarrollan botones sinapticos o se agrandan si ya existen en contacto con el soma de la segunda celula Hebb 1949 p 63 Gordon Allport ha propuesto nuevas ideas sobre la teoria de la Asamblea celular y su papel en la formacion de los engramas en el sentido del concepto de auto asociacion que se describe como sigue Si las entradas a un sistema producen el mismo patron de actividad repetidamente el conjunto de elementos activos que constituyen ese modelo llegaran a tener una interasociacion mas fuerte Es decir cada elemento tendera a activar a otros elementos y con pesos negativos a inactivar a los elementos que no formen parte del patron En otras palabras el patron en su conjunto se convertira en auto asociado Se puede decir que un aprendizaje auto asociado es un patron de engrama Hebb 1949 p 44 La teoria hebbiana ha sido la base principal de la vision convencional de que los engramas son redes neuronales cuando se analizan desde un nivel holistico Los trabajos de laboratorio de Eric Kandel han aportado pruebas de la participacion de mecanismos de aprendizaje hebbiano en las sinapsis del gasteropodo marino Aplysia californicaLos experimentos sobre los mecanismos hebbianos de modificacion en las sinapsis del sistema nervioso central de vertebrados son mucho mas dificiles de controlar que los experimentos con las sinapsis del relativamente simple sistema nervioso periferico estudiadas en invertebrados marinos Gran parte del trabajo sobre cambios sinapticos de larga duracion en neuronas de vertebrados como la potenciacion a largo plazo implican el uso de estimulacion experimental no fisiologica de celulas cerebrales Sin embargo algunos de los mecanismos fisiologicamente relevantes de modificacion sinaptica que se han estudiado en cerebros de vertebrados parecen ser ejemplos de procesos hebbianos Un estudio resultado de estos experimentos indica que los cambios a largo plazo en la fuerza de las sinapsis pueden ser inducidos por actividad sinaptica fisiologicamente relevante que trabaja tanto a traves de mecanismos hebbianos como no hebbianos Principios EditarDesde el punto de vista de las neuronas artificiales y redes neuronales artificiales el principio de Hebb se puede describir como un metodo de determinar la forma de modificar los pesos entre modelos de neuronas El peso entre dos neuronas se incrementa si las dos neuronas se activan simultaneamente y se reduce si se activan por separado Los nodos que tienden a ser positivos o negativos al mismo tiempo tienen fuertes pesos positivos mientras que aquellos que tienden a ser contrarios tienen fuertes pesos negativos Este original principio es quizas la forma mas simple de seleccion de pesos Si bien esto significa que puede ser relativamente facil de codificar en un programa informatico y se utilice para actualizar los pesos correspondientes de una red de neuronas tambien limita el numero de aplicaciones de aprendizaje hebbiano Hoy en dia el termino aprendizaje hebbiano por lo general se refiere a algun tipo de abstraccion matematica del principio original propuesto por Hebb En este sentido el aprendizaje hebbiano implica que los pesos sean ajustados de manera que cada uno de ellos represente la mejor relacion posible entre los nodos Como tal muchos metodos de aprendizaje de la naturaleza pueden ser consideradas como hebbianos La siguiente es una formulacion matematica del aprendizaje hebbiano notese que muchas otras descripciones son posibles w i j x i x j displaystyle w ij x i x j donde w i j displaystyle w ij es el peso de la conexion de la neurona j displaystyle j a la neurona i displaystyle i y x i displaystyle x i el valor de entrada para la neurona i displaystyle i Hay que tener en cuenta que este es el modelo de aprendizaje pesos actualizados despues de cada ejemplo de entrenamiento En una Red de Hopfield las conexiones w i j displaystyle w ij se ponen a cero si i j displaystyle i j no se permiten conexiones reflexivas Con neuronas binarias valores de activacion de 0 o 1 las conexiones se establecen a 1 si las neuronas conectadas tienen el mismo patron de activacion Otra formulacion matematica es w i j 1 n k 1 p x i k x j k displaystyle w ij frac 1 n sum k 1 p x i k x j k donde w i j displaystyle w ij es el peso de la conexion de la neurona j displaystyle j a la neurona i displaystyle i n displaystyle n es la dimension del vector de entrada p displaystyle p el numero de patrones de aprendizaje y x i k displaystyle x i k la entrada numero k displaystyle k para la neurona i displaystyle i Es un aprendizaje por epocas los pesos se actualizan despues de que todos los ejemplos de formacion se han presentado De nuevo en las redes Hopfield las conexiones w i j displaystyle w ij se ponen a cero si i j displaystyle i j conexiones no reflexivas Una variacion del aprendizaje hebbiano que toma en cuenta fenomenos como el bloqueo de los nervios y de muchos otros fenomenos de aprendizaje es el modelo matematico de Harry Klopf El modelo de Klopf reproduce gran cantidad de fenomenos biologicos y tambien es facil de aplicar Generalizacion y estabilidad EditarLa regla de Hebb se generaliza frecuentemente como D w i h x i y displaystyle Delta w i eta x i y o el cambio en el peso w i displaystyle w i de la sinapsis numero i displaystyle i es igual a la tasa de aprendizaje h displaystyle eta por la entrada numero i displaystyle i x i displaystyle x i por la respuesta postsinaptica y displaystyle y A menudo se cita el caso de una neurona lineal y j w j x j displaystyle y sum j w j x j la simplificacion de la seccion anterior tiene en cuenta que tanto la tasa de aprendizaje como los pesos de entrada sean 1 Esta version de la regla es claramente inestable como en cualquier red con una senal dominante los pesos aumentaran o disminuiran exponencialmente Sin embargo se puede ver que para cualquier modelo de neurona la regla de Hebb es inestable Por lo que los modelos de redes de neuronas suelen emplear otras teorias de aprendizaje tales como la teoria BCM la regla de Oja 1 o el algoritmo hebbiano generalizado Vease tambien EditarPotenciacion a largo plazo Memoria Redes Neuronales Redes de Hopfield Principio de DaleReferencias Editar Shouval Harel 3 de enero de 2005 The Physics of the Brain The Synaptic basis for Learning and Memory A theoretical approach en ingles The University of Texas Health Science Center at Houston Archivado desde el original el 10 de junio de 2007 Consultado el 14 de noviembre de 2007 Lecturas adicionales EditarHebb D O 1985 Debate ed La organizacion de la conducta Madrid Hebb D O 1949 Wiley ed The Organization of Behavior en ingles New York Hebb D O 1961 Distinctive features of learning in the higher animal En J F Delafresnaye ed Brain Mechanisms and Learning en ingles London Oxford University Press Hebb D O Penfield W 1940 Human behaviour after extensive bilateral removal from the frontal lobes Archives of Neurology and Psychiatry en ingles 44 421 436 Allport D A 1985 Distributed memory modular systems and dysphasia En Newman S K and Epstein R ed Current Perspectives in Dysphasia en ingles Edinburgh Churchill Livingstone ISBN 0 443 03039 1 Bishop C M 1995 Neural Networks for Pattern Recognition en ingles Oxford Oxford University Press ISBN 0 19 853849 9 Florez Lopez Raquel Fernandez Fernandez J Miguel 2008 Netbiblo ed Las redes neuronales artificiales ISBN 978 84 9745 246 5 La referencia utiliza el parametro obsoleto coautores ayuda Paulsen O Sejnowski T J 2000 Natural patterns of activity and long term synaptic plasticity Current opinion in neurobiology en ingles 10 2 172 179 PMID 10753798 doi 10 1016 S0959 4388 00 00076 3 Enlaces externos EditarRegla de Hebb El legado de Hebb para la psicologia cientifica Descripcion general en ingles Tutorial de aprendizaje hebbiano en ingles Part 1 Novelty Filtering Part 2 PCA Datos Q1277874Obtenido de https es wikipedia org w index php title Teoria hebbiana amp oldid 133062407, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos