fbpx
Wikipedia

Neguentropía

La neguentropía, negentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la neguentropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico.[1]

La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía.

Concepto de entropía negativa

El concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de los padres de la mecánica cuántica) en su libro de ciencia popular, What is life?, publicado en 1943. Más tarde, Léon Brillouin cambió la palabra por "neguentropía", para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importa neguentropía y la almacena. En 1974, Albert Szent-Györgyi (Nobel de Fisiología Médica en 1937) propuso cambiar el término de neguentropía a sintropía, aunque este último ya había sido usado por el matemático Luigi Fantappiè, quien lo utilizó con el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero, arquitecto y diseñador del siglo XX, trató de hacer popular este término, pero la palabra neguentropía siempre permaneció como la más común.

En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un sub-sistema ordenado dinámicamente como el déficit de entropía relacionado al caos que rodea al sub-sistema ordenado. De esta forma, las unidades de la neguentropía son [J/kg-K] cuando se define con base en la entropía por unidad de masa, mientras que cuando se define con base en la entropía por unidad de energía las unidades son [K-1]. Esta definición ha habilitado:

  1. Representaciones termodinámicas a escala invariante de la existencia de un orden dinámico.
  2. Pensamiento de principios físicos exclusivamente para la existencia de un orden dinámico y evolución.
  3. La interpretación matemática de la neguentropía de Schrödinger.

Teoría de la información

En la teoría de la información y la estadística, la neguentropía se usa como medida de distancia de normalidad. Si se considera una señal con una cierta distribución, y la señal es gausiana, ésta tendrá una distribución normal. La neguentropía es siempre positiva, invariante a cambios lineales de coordenadas, y se desvanece si y sólo si la señal es gausiana. La neguentropía se define por:

 

Donde   es el diferencial de entropía de la densidad gausiana con la misma media y varianza, mientras que   y   es la entropía diferencial de  :

 

La neguentropía se usa en estadística y procesamiento de señales. Está relacionada con la entropía de redes, que es usada en el análisis de componentes independientes. La neguentropía puede ser entendida intuitivamente como la información que puede ser guardada cuando se representa   de forma eficiente: si   fuera una variable aleatoria (con distribución gausiana) con misma media y varianza, se necesitaría una máxima longitud de datos para ser representada, incluso en su forma más eficiente. Como   no es tan aleatorio, algo se sabe de antemano.   contiene menos información desconocida, y necesita menos longitud de datos para ser representado de forma más eficiente.

Hipótesis de Brillouin

Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y hace el lazo entra la entropía informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se puede anular la entropía.

Correlación entre neguentropía estadística y energía libre de Gibbs

 
Gráfica de energía libre de Gibbs (Willard Gibbs en 1873), la cual muestra un plano perpendicular al eje de v (volumen) y pasando por el punto A, que representa el estado inicial del cuerpo. MN es la sección de la superficie de la energía disipada. Qε y Qη son secciones de los planos η = 0 y ε = 0, y, por tanto, paralelos a los ejes de ε (energía interna) y η (entropía) respectivamente. AD y AE son la energía y entropía del cuerpo en su estado inicial. En AB y AC, su energía disponible (energía libre de Gibbs) y su capacidad de entropía (la cantidad por la cual la entropía del cuerpo puede aumentar sin cambiar la energía del cuerpo o aumentar su volumen) respectivamente.

Existe una magnitud física estrechamente vinculada a la energía libre (entalpía libre), con una unidad de entropía isomórfica a la neguentropía, conocida en estadística y en teoría de la información. En 1873 Willard Gibbs creó un diagrama ilustrando del concepto de energía libre correspondiente a entalpía libre. En el diagrama se puede ver la cantidad llamada capacidad de la entropía. Dicha cantidad es la entropía que se puede incrementar sin cambiar la energía interna o aumentar el volumen. En otras palabras, se trata de una diferencia entre el máximo posible, en condiciones de asumir, la entropía y la entropía real. Esto corresponde exactamente a la definición de neguentropía adoptada por la estadística y la teoría de la información. Una cantidad física similar fue presentada en 1869 por Massieu para el proceso isotérmico, y luego por Max Planck para el proceso isotérmico-isobárico. Más adelante, el potencial termodinámico de Massieu-Planck, conocido también como entropía libre, ha mostrado desempeñar un papel importante en la formulación entrópica de la mecánica estadística, con aplicaciones en biología molecular y en procesos termodinámicos no equilibrados.

 

Donde:

  - (“Capacidad para entropía” de Gibbs)
  – Potencial de Massieu
  - Función de partición
  - Constante de Boltzman

Teoría de la organización

En 1988, basándose en la definición de entropía estadística de Shannon, Mario Ludovico dio una definición formal al término sintropía, como una medida del grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí. De acuerdo a esta definición, la sintropía es una cantidad complementaria a la entropía. La suma de dos cantidades define un valor constante, específicas del sistema en el que ese valor constante identifica el potencial de transformación. Usando estas definiciones, la teoría desarrolla ecuaciones aptas para describir y simular cualquier posible forma de evolución del sistema, ya sea hacia niveles mayores o menores de “organización interna” (por ejemplo la sintropía), o hacia el colapso del sistema.

La organización como sistema (abierto) está constituido por los elementos básicos de este (entradas, medio, salidas y retroalimentación) y es en las entradas donde la información juega un papel clave como medio regulador, medio neguentrópico, ya que a través de ella se puede disminuir la cantidad de incertidumbre (entropía). Se puede considerar a la información como elemento generador de orden y como herramienta fundamental para la toma de decisiones en la organización o en cualquier sistema en el que se presenten situaciones de elección con múltiples alternativas.

En la gestión de riesgos, neguentropía es la fuerza que tiene por objeto lograr un comportamiento organizacional eficaz y conducir a un estado estacionario predecible.

Véase también

Referencias

  1. «Teoría de sistemas, universidad Nacional de Colombia». Consultado el 19 de septiembre de 2015. 

Bibliografía

  • Luz Amanda Camacho: Teoría general de sistemas.
  • Johansen O.: Las comunicaciones y la conducta organizacional.
  • Juan Vergara: Gestión por Procesos ITM.
  •   Datos: Q252552

neguentropía, neguentropía, negentropía, negantropía, también, llamada, entropía, negativa, sintropía, sistema, vivo, entropía, sistema, exporta, para, mantener, entropía, baja, encuentra, intersección, entropía, vida, para, compensar, proceso, degradación, si. La neguentropia negentropia o negantropia tambien llamada entropia negativa o sintropia de un sistema vivo es la entropia que el sistema exporta para mantener su entropia baja se encuentra en la interseccion de la entropia y la vida Para compensar el proceso de degradacion sistemica a lo largo del tiempo algunos sistemas abiertos consiguen compensar su entropia natural con aportaciones de subsistemas con los que se relacionan Si en un sistema cerrado el proceso entropico no puede detenerse por si solo en un sistema abierto la neguentropia seria una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entropico 1 La neguentropia se puede definir como la tendencia natural de que un sistema se modifique segun su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo Por ejemplo las plantas y su fruto ya que dependen los dos para lograr el metodo de neguentropia Indice 1 Concepto de entropia negativa 2 Teoria de la informacion 2 1 Hipotesis de Brillouin 3 Correlacion entre neguentropia estadistica y energia libre de Gibbs 4 Teoria de la organizacion 5 Vease tambien 6 Referencias 7 BibliografiaConcepto de entropia negativa EditarEl concepto de entropia negativa fue introducido por Erwin Schrodinger fisico teorico y uno de los padres de la mecanica cuantica en su libro de ciencia popular What is life publicado en 1943 Mas tarde Leon Brillouin cambio la palabra por neguentropia para expresarla en una forma mucho mas positiva diciendo que un sistema vivo importa neguentropia y la almacena En 1974 Albert Szent Gyorgyi Nobel de Fisiologia Medica en 1937 propuso cambiar el termino de neguentropia a sintropia aunque este ultimo ya habia sido usado por el matematico Luigi Fantappie quien lo utilizo con el fin de construir una teoria unificando la fisica y la biologia Buckminster Fuller ingeniero arquitecto y disenador del siglo XX trato de hacer popular este termino pero la palabra neguentropia siempre permanecio como la mas comun En el ano 2009 Mahulikar amp Herwig redefinieron la neguentropia de un sub sistema ordenado dinamicamente como el deficit de entropia relacionado al caos que rodea al sub sistema ordenado De esta forma las unidades de la neguentropia son J kg K cuando se define con base en la entropia por unidad de masa mientras que cuando se define con base en la entropia por unidad de energia las unidades son K 1 Esta definicion ha habilitado Representaciones termodinamicas a escala invariante de la existencia de un orden dinamico Pensamiento de principios fisicos exclusivamente para la existencia de un orden dinamico y evolucion La interpretacion matematica de la neguentropia de Schrodinger Teoria de la informacion EditarArticulo principal Teoria de la informacion En la teoria de la informacion y la estadistica la neguentropia se usa como medida de distancia de normalidad Si se considera una senal con una cierta distribucion y la senal es gausiana esta tendra una distribucion normal La neguentropia es siempre positiva invariante a cambios lineales de coordenadas y se desvanece si y solo si la senal es gausiana La neguentropia se define por J p x S ϕ x S p x displaystyle J p x S phi x S p x Donde S ϕ x displaystyle S phi x es el diferencial de entropia de la densidad gausiana con la misma media y varianza mientras que p x displaystyle p x y S p x displaystyle S p x es la entropia diferencial de p x displaystyle p x S p x p x u log p x u d u displaystyle S p x int p x u log p x u du La neguentropia se usa en estadistica y procesamiento de senales Esta relacionada con la entropia de redes que es usada en el analisis de componentes independientes La neguentropia puede ser entendida intuitivamente como la informacion que puede ser guardada cuando se representa p x displaystyle p x de forma eficiente si p x displaystyle p x fuera una variable aleatoria con distribucion gausiana con misma media y varianza se necesitaria una maxima longitud de datos para ser representada incluso en su forma mas eficiente Como p x displaystyle p x no es tan aleatorio algo se sabe de antemano p x displaystyle p x contiene menos informacion desconocida y necesita menos longitud de datos para ser representado de forma mas eficiente Hipotesis de Brillouin Editar Leon Brillouin publico en 1959 Science et theorie de l information version en ingles editada por vez primera en 1962 donde son examinadas las relaciones entre estas dos disciplinas Adopta particularmente un punto de vista de fisico y hace el lazo entra la entropia informacional de Shannon y la entropia estadistica de Boltzmann en donde se arriesga que la informacion y con la misma el lenguaje es un factor neguentropico es decir por el cual se puede anular la entropia Correlacion entre neguentropia estadistica y energia libre de Gibbs Editar Grafica de energia libre de Gibbs Willard Gibbs en 1873 la cual muestra un plano perpendicular al eje de v volumen y pasando por el punto A que representa el estado inicial del cuerpo MN es la seccion de la superficie de la energia disipada Qe y Qh son secciones de los planos h 0 y e 0 y por tanto paralelos a los ejes de e energia interna y h entropia respectivamente AD y AE son la energia y entropia del cuerpo en su estado inicial En AB y AC su energia disponible energia libre de Gibbs y su capacidad de entropia la cantidad por la cual la entropia del cuerpo puede aumentar sin cambiar la energia del cuerpo o aumentar su volumen respectivamente Articulo principal Energia de Gibbs Existe una magnitud fisica estrechamente vinculada a la energia libre entalpia libre con una unidad de entropia isomorfica a la neguentropia conocida en estadistica y en teoria de la informacion En 1873 Willard Gibbs creo un diagrama ilustrando del concepto de energia libre correspondiente a entalpia libre En el diagrama se puede ver la cantidad llamada capacidad de la entropia Dicha cantidad es la entropia que se puede incrementar sin cambiar la energia interna o aumentar el volumen En otras palabras se trata de una diferencia entre el maximo posible en condiciones de asumir la entropia y la entropia real Esto corresponde exactamente a la definicion de neguentropia adoptada por la estadistica y la teoria de la informacion Una cantidad fisica similar fue presentada en 1869 por Massieu para el proceso isotermico y luego por Max Planck para el proceso isotermico isobarico Mas adelante el potencial termodinamico de Massieu Planck conocido tambien como entropia libre ha mostrado desempenar un papel importante en la formulacion entropica de la mecanica estadistica con aplicaciones en biologia molecular y en procesos termodinamicos no equilibrados J S max S F k ln Z displaystyle J S max S Phi k ln Z Donde J displaystyle J Capacidad para entropia de Gibbs F displaystyle Phi Potencial de Massieu Z displaystyle Z Funcion de particion k displaystyle k Constante de BoltzmanTeoria de la organizacion EditarEn 1988 basandose en la definicion de entropia estadistica de Shannon Mario Ludovico dio una definicion formal al termino sintropia como una medida del grado de organizacion interna de cualquier sistema formado por componentes que interactuan entre si De acuerdo a esta definicion la sintropia es una cantidad complementaria a la entropia La suma de dos cantidades define un valor constante especificas del sistema en el que ese valor constante identifica el potencial de transformacion Usando estas definiciones la teoria desarrolla ecuaciones aptas para describir y simular cualquier posible forma de evolucion del sistema ya sea hacia niveles mayores o menores de organizacion interna por ejemplo la sintropia o hacia el colapso del sistema La organizacion como sistema abierto esta constituido por los elementos basicos de este entradas medio salidas y retroalimentacion y es en las entradas donde la informacion juega un papel clave como medio regulador medio neguentropico ya que a traves de ella se puede disminuir la cantidad de incertidumbre entropia Se puede considerar a la informacion como elemento generador de orden y como herramienta fundamental para la toma de decisiones en la organizacion o en cualquier sistema en el que se presenten situaciones de eleccion con multiples alternativas En la gestion de riesgos neguentropia es la fuerza que tiene por objeto lograr un comportamiento organizacional eficaz y conducir a un estado estacionario predecible Vease tambien EditarTeoria de sistemas Entropia informacion Referencias Editar Teoria de sistemas universidad Nacional de Colombia Consultado el 19 de septiembre de 2015 Bibliografia EditarLuz Amanda Camacho Teoria general de sistemas Johansen O Las comunicaciones y la conducta organizacional Juan Vergara Gestion por Procesos ITM Datos Q252552Obtenido de https es wikipedia org w index php title Neguentropia amp oldid 134153413, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos