fbpx
Wikipedia

Entropía de von Neumann

En mecánica estadística cuántica, la entropía de von Neumann es la extensión del concepto de entropía de Gibbs clásica al campo de mecánica cuántica. Recibe su nombre de John von Neumann. Para un sistema cuántico descrito por una matriz densidad , la entropía de von Neumann[1]

donde denota la traza y denota el logaritmo natural de matrices. Si está escrito en términos de sus autovectores , , ,... como

entonces la entropía de von Neumann es simplemente[1]

En esta forma, se puede entender como la entropía de Shannon de la distribución de probabilidad .[1]

Motivación Editar

John von Neumann estableció un marco matemático riguroso para la mecánica cuántica en su trabajo de 1932 trabajo Las fundamentaciones matemáticas de la mecánica cuántica[2]​ En él, propone una teoría de la medición, donde la idea habitual del colapso de la función de onda se describe como un proceso irreversible (las mediciones proyectivas o de von Neumann).

La matriz densidad fue introducida, con motivaciones diferentes, por von Neumann y por Lev Landáu. La motivación que inspiró a Landau era la imposibilidad de describir un subsistema de un sistema cuántico compuesto mediante un vector de estado.[3]​ Por otro lado, von Neumann introdujo la matriz densidad para desarrollar la mecánica estadística cuántica y la teoría de mediciones cuánticas.

El formalismo de la matriz densidad se desarrolló para extender las herramientas de mecánica estadística clásica al ámbito cuántico. En el marco clásico se calcula la función de partición del sistema para evaluar todas cantidades termodinámicas posibles. Von Neumann introdujo la matriz densidad en el contexto de estados y operadores en un espacio de Hilbert. El conocimiento de la matriz densidad serviría para poder calcular todos los valores esperados de una manera conceptualmente similar, pero matemáticamente diferente. Sea un conjunto de funciones de onda   que dependen paramétricamente de un conjunto de números cuánticos  . La variable natural es la amplitud con la que una función de ondas particular del conjunto participa en la función de ondas del sistema. Denotando el cuadrado de esta amplitud por  , el objetivo es convertir esta cantidad p a la función de densidad clásica en el espacio de fases clásico. Hay que verificar que p tienda a la función de densidad en el límite clásico, y que tenga propiedades ergódicas. Trase comprobar que   es una constante del movimiento, suponer la ergodicidad hace que p dependa solo de la energía.

Después de este procedimiento, finalmente se llega al formalismo de la matriz densidad al buscar una forma en la que   sea invariante con respecto a la representación utilizada. En la forma en la que está escrita, solo se obtienen los valores esperados correctos para cantidades que sean diagonales con respecto a los números cuánticos  .

Los valores esperados de operadores que no sean diagonales involucran las fases de las amplitudes cuánticas. Si codificamos los números cuánticos   en un único índice  , la función de onda tiene la forma

 

El valor esperado de un operador   que no es diagonal en estas funciones de onda es

 

El papel que antes tenían las cantidades   ahora le corresponde a la matriz densidad

 

Por tanto,   queda como

 

La invariancia de esta fórmula está garantizada por el álgebra lineal. Se ha establecido una formulación matemática en la que los valores esperados se obtienen como la traza del operador de densidad   y un operador   (el producto escalar de Hilbert de dos operadores).

Matemáticamente,   es una matriz hermítica semidefinida positiva con traza unidad.

Definición Editar

Dada la matriz densidad  , von Neumann definió la entropía[4][5]​ como

 

que es una extensión apropiada de la entropía de Gibbs (salvo un factor  ) y la entropía de Shannon al caso cuántico. Para calcular   es conveniente calcular su diagonalización  . En este caso, la entropía de von Neumann está dada por

 

Como para un estado puro, la matriz densidad es idempotente,   , la entropía   se anula. Así, si el sistema es de dimensión finita, la entropía   cuantifica la diferencia del sistema con respecto de un estado puro. En otras palabras, codifica el grado de mezcla de los estados puros que describen un sistema finito dado. La medición crea decoherencia en un sistema cuántico y lo "hace más clásico"; así, por ejemplo, la entropía nula de un estado puro  , al que corresponde una matriz densidad

 

aumenta hasta   para la mezcla resultante de la medida

 

ya que la información sobre interferencia cuántica se borra en el proceso de medición.

Propiedades Editar

Algunas propiedades de la entropía de von Neumann:

  •   es cero si y solo si   representa un estado puro.
  •   es máxima e igual a   para un estado máximamente mezclado, siendo   la dimensión del espacio de Hilbert.
  •   es invariante bajo cambios en la base de  , esto es,  , con   una transformación unitaria.
  •   es cóncava, es decir, dado una colección de números positivos   que suman a la unidad ( ) y operadores densidad  , tenemos 
  •   es aditiva para sistemas independientes. Dadas dos matrices de densidad  ,   que describen sistemas independientes A y B, tenemos .
  •   es fuertemente subaditiva para cualquier conjunto de tres sistemas A, B, y C:
     
    Esto automáticamente significa que   es subaditiva:
     

Subaditividad Editar

Si ρA, ρB son las matrices de densidad reducidas del estado ρAB, entonces

 

La desigualdad de la derecha recibe el nombre de subadividad, y las dos desigualdades juntas se conocen como la desigualdad triangular. Fueron probadas en 1970 por Huzihiro Araki y Elliott H. Lieb.[6]​ Mientras en la teoría de Shannon la entropía de un sistema compuesto nunca puede ser menor que la entropía de cualquiera de sus partes, en la teoría cuántica este no es el caso, es decir, es posible que  , mientras que  .

Intuitivamente, esto se puede entender así: En mecánica cuántica, la entropía del sistema conjunto puede ser menor que la suma de la entropía de sus componentes porque los componentes pueden estar entrelazados. Por ejemplo, el estado de Bell de dos qubits,

 

es un estado puro con cero entropía, pero cada espín tiene la entropía máxima cuándo se considera individualmente su matriz de densidad reducida.[7]​ La entropía en un espín puede ser "cancelada" por estar correlacionada con la entropía del otro. La desigualdad izquierda puede interpretarse aproximadamente como que la entropía solo puede ser cancelada por una cantidad igual de entropía.

Si los sistema A y B tiene cantidades diferentes de entropía, la menor solo se puede compensar parcialmente con la mayor, y queda alguna entropía residual. Así mismo, la desigualdad de la derecha puede ser interpretada como que la entropía de un sistema compuesto es máxima cuando sus componentes no están correlacionados, y en este caso la entropía total es la suma de las entropías de los componentes.

Usos Editar

La entropía de von Neumann se usa extensamente en formas diferentes (entropías condicionales, entropías relativas, etc.) en el marco de la teoría de información cuántica.[8]​ Las medidas de entrelazamiento están basadas a alguna cantidad directamente relacionada con la entropía de von Neumann.

Véase también Editar

Referencias Editar

  1. Bengtsson, Ingemar; Zyczkowski, Karol. Geometry of Quantum States: An Introduction to Quantum Entanglement (1st edición). p. 301. 
  2. Von Neumann, John (1932). Mathematische Grundlagen der Quantenmechanik. Berlin: Springer. ISBN 3-540-59207-5. 
  3. Landau, L. (1927). «Das Daempfungsproblem in der Wellenmechanik». Zeitschrift für Physik 45 (5–6): 430-464. doi:10.1007/BF01343064. 
  4. Geometry of Quantum States: An Introduction to Quantum Entanglement, by Ingemar Bengtsson, Karol Życzkowski, p301
  5. Zachos, C. K. (2007). «A classical bound on quantum entropy». Journal of Physics A: Mathematical and Theoretical 40 (21): F407. Bibcode:2007JPhA...40..407Z. arXiv:hep-th/0609148. doi:10.1088/1751-8113/40/21/F02. 
  6. Huzihiro Araki and Elliott H. Lieb, Entropy Inequalities, Communications in Mathematical Physics, vol 18, 160–170 (1970).
  7. Zurek, W. H. (2003). «Decoherence, einselection, and the quantum origins of the classical». Reviews of Modern Physics 75 (3): 715. Bibcode:2003RvMP...75..715Z. arXiv:quant-ph/0105127. doi:10.1103/RevModPhys.75.715. 
  8. Nielsen, Michael A. and Isaac Chuang (2001). Quantum computation and quantum information (Repr. edición). Cambridge [u.a.]: Cambridge Univ. Press. p. 700. ISBN 978-0-521-63503-5. 
  •   Datos: Q6961323

entropía, neumann, mecánica, estadística, cuántica, entropía, neumann, extensión, concepto, entropía, gibbs, clásica, campo, mecánica, cuántica, recibe, nombre, john, neumann, para, sistema, cuántico, descrito, matriz, densidad, displaystyle, entropía, neumann. En mecanica estadistica cuantica la entropia de von Neumann es la extension del concepto de entropia de Gibbs clasica al campo de mecanica cuantica Recibe su nombre de John von Neumann Para un sistema cuantico descrito por una matriz densidad r displaystyle rho la entropia de von Neumann 1 S t r r ln r displaystyle S mathrm tr rho ln rho donde t r displaystyle mathrm tr denota la traza y l n displaystyle mathrm ln denota el logaritmo natural de matrices Si r displaystyle rho esta escrito en terminos de sus autovectores 1 displaystyle 1 rangle 2 displaystyle 2 rangle 3 displaystyle 3 rangle como r j h j j j displaystyle rho sum j eta j left j right rangle left langle j right entonces la entropia de von Neumann es simplemente 1 S j h j ln h j displaystyle S sum j eta j ln eta j En esta forma S r displaystyle S rho se puede entender como la entropia de Shannon de la distribucion de probabilidad h j displaystyle eta j 1 Indice 1 Motivacion 2 Definicion 3 Propiedades 3 1 Subaditividad 4 Usos 5 Vease tambien 6 ReferenciasMotivacion EditarJohn von Neumann establecio un marco matematico riguroso para la mecanica cuantica en su trabajo de 1932 trabajo Las fundamentaciones matematicas de la mecanica cuantica 2 En el propone una teoria de la medicion donde la idea habitual del colapso de la funcion de onda se describe como un proceso irreversible las mediciones proyectivas o de von Neumann La matriz densidad fue introducida con motivaciones diferentes por von Neumann y por Lev Landau La motivacion que inspiro a Landau era la imposibilidad de describir un subsistema de un sistema cuantico compuesto mediante un vector de estado 3 Por otro lado von Neumann introdujo la matriz densidad para desarrollar la mecanica estadistica cuantica y la teoria de mediciones cuanticas El formalismo de la matriz densidad se desarrollo para extender las herramientas de mecanica estadistica clasica al ambito cuantico En el marco clasico se calcula la funcion de particion del sistema para evaluar todas cantidades termodinamicas posibles Von Neumann introdujo la matriz densidad en el contexto de estados y operadores en un espacio de Hilbert El conocimiento de la matriz densidad serviria para poder calcular todos los valores esperados de una manera conceptualmente similar pero matematicamente diferente Sea un conjunto de funciones de onda ps displaystyle psi rangle nbsp que dependen parametricamente de un conjunto de numeros cuanticos n 1 n 2 n N displaystyle n 1 n 2 ldots n N nbsp La variable natural es la amplitud con la que una funcion de ondas particular del conjunto participa en la funcion de ondas del sistema Denotando el cuadrado de esta amplitud por p n 1 n 2 n N displaystyle p n 1 n 2 ldots n N nbsp el objetivo es convertir esta cantidad p a la funcion de densidad clasica en el espacio de fases clasico Hay que verificar que p tienda a la funcion de densidad en el limite clasico y que tenga propiedades ergodicas Trase comprobar que p n 1 n 2 n N displaystyle p n 1 n 2 ldots n N nbsp es una constante del movimiento suponer la ergodicidad hace que p dependa solo de la energia Despues de este procedimiento finalmente se llega al formalismo de la matriz densidad al buscar una forma en la que p n 1 n 2 n N displaystyle p n 1 n 2 ldots n N nbsp sea invariante con respecto a la representacion utilizada En la forma en la que esta escrita solo se obtienen los valores esperados correctos para cantidades que sean diagonales con respecto a los numeros cuanticos n 1 n 2 n N displaystyle n 1 n 2 ldots n N nbsp Los valores esperados de operadores que no sean diagonales involucran las fases de las amplitudes cuanticas Si codificamos los numeros cuanticos n 1 n 2 n N displaystyle n 1 n 2 ldots n N nbsp en un unico indice i displaystyle i nbsp la funcion de onda tiene la forma PS i a i ps i displaystyle left Psi right rangle sum i a i left psi i right rangle nbsp El valor esperado de un operador B displaystyle B nbsp que no es diagonal en estas funciones de onda es B i j a i a j i B j displaystyle left langle B right rangle sum i j a i a j left langle i right B left j right rangle nbsp El papel que antes tenian las cantidades a i 2 displaystyle left a i right 2 nbsp ahora le corresponde a la matriz densidad j r i a j a i displaystyle left langle j right rho left i right rangle a j a i nbsp Por tanto B displaystyle langle B rangle nbsp queda como B t r r B displaystyle left langle B right rangle mathrm tr rho B nbsp La invariancia de esta formula esta garantizada por el algebra lineal Se ha establecido una formulacion matematica en la que los valores esperados se obtienen como la traza del operador de densidad r displaystyle rho nbsp y un operador B displaystyle B nbsp el producto escalar de Hilbert de dos operadores Matematicamente r displaystyle rho nbsp es una matriz hermitica semidefinida positiva con traza unidad Definicion EditarDada la matriz densidad r displaystyle rho nbsp von Neumann definio la entropia 4 5 como S r t r r ln r displaystyle S rho mathrm tr rho rm ln rho nbsp que es una extension apropiada de la entropia de Gibbs salvo un factor k B displaystyle k B nbsp y la entropia de Shannon al caso cuantico Para calcular S r displaystyle S rho nbsp es conveniente calcular su diagonalizacion r j h j j j displaystyle rho sum j eta j left j right rangle left langle j right nbsp En este caso la entropia de von Neumann esta dada por S r j h j ln h j displaystyle S rho sum j eta j ln eta j nbsp Como para un estado puro la matriz densidad es idempotente r 2 r displaystyle rho 2 rho nbsp la entropia S r displaystyle S rho nbsp se anula Asi si el sistema es de dimension finita la entropia S r displaystyle S rho nbsp cuantifica la diferencia del sistema con respecto de un estado puro En otras palabras codifica el grado de mezcla de los estados puros que describen un sistema finito dado La medicion crea decoherencia en un sistema cuantico y lo hace mas clasico asi por ejemplo la entropia nula de un estado puro PS 0 1 2 displaystyle Psi left 0 right rangle left 1 right rangle sqrt 2 nbsp al que corresponde una matriz densidad r 1 2 1 1 1 1 displaystyle rho 1 over 2 begin pmatrix 1 amp 1 1 amp 1 end pmatrix nbsp aumenta hasta S ln 2 0 69 displaystyle S ln 2 0 69 nbsp para la mezcla resultante de la medida r 1 2 1 0 0 1 displaystyle rho 1 over 2 begin pmatrix 1 amp 0 0 amp 1 end pmatrix nbsp ya que la informacion sobre interferencia cuantica se borra en el proceso de medicion Propiedades EditarAlgunas propiedades de la entropia de von Neumann S r displaystyle S rho nbsp es cero si y solo si r displaystyle rho nbsp representa un estado puro S r displaystyle S rho nbsp es maxima e igual a ln N displaystyle ln N nbsp para un estado maximamente mezclado siendo N displaystyle N nbsp la dimension del espacio de Hilbert S r displaystyle S rho nbsp es invariante bajo cambios en la base de r displaystyle rho nbsp esto es S r S U r U displaystyle S rho S U rho U dagger nbsp con U displaystyle U nbsp una transformacion unitaria S r displaystyle S rho nbsp es concava es decir dado una coleccion de numeros positivos l i displaystyle lambda i nbsp que suman a la unidad S i l i 1 displaystyle Sigma i lambda i 1 nbsp y operadores densidad r i displaystyle rho i nbsp tenemosS i 1 k l i r i i 1 k l i S r i displaystyle S bigg sum i 1 k lambda i rho i bigg geq sum i 1 k lambda i S rho i nbsp S r displaystyle S rho nbsp es aditiva para sistemas independientes Dadas dos matrices de densidad r A displaystyle rho A nbsp r B displaystyle rho B nbsp que describen sistemas independientes A y B tenemosS r A r B S r A S r B displaystyle S rho A otimes rho B S rho A S rho B nbsp S r displaystyle S rho nbsp es fuertemente subaditiva para cualquier conjunto de tres sistemas A B y C S r A B C S r B S r A B S r B C displaystyle S rho ABC S rho B leq S rho AB S rho BC nbsp Esto automaticamente significa que S r displaystyle S rho nbsp es subaditiva S r A C S r A S r C displaystyle S rho AC leq S rho A S rho C nbsp Subaditividad Editar Si rA rB son las matrices de densidad reducidas del estado rAB entonces S r A S r B S r A B S r A S r B displaystyle left S rho A S rho B right leq S rho AB leq S rho A S rho B nbsp La desigualdad de la derecha recibe el nombre de subadividad y las dos desigualdades juntas se conocen como la desigualdad triangular Fueron probadas en 1970 por Huzihiro Araki y Elliott H Lieb 6 Mientras en la teoria de Shannon la entropia de un sistema compuesto nunca puede ser menor que la entropia de cualquiera de sus partes en la teoria cuantica este no es el caso es decir es posible que S r A B 0 displaystyle S rho AB 0 nbsp mientras que S r A S r B 0 displaystyle S rho A S rho B 0 nbsp Intuitivamente esto se puede entender asi En mecanica cuantica la entropia del sistema conjunto puede ser menor que la suma de la entropia de sus componentes porque los componentes pueden estar entrelazados Por ejemplo el estado de Bell de dos qubits ps displaystyle left psi right rangle left uparrow downarrow right rangle left downarrow uparrow right rangle nbsp es un estado puro con cero entropia pero cada espin tiene la entropia maxima cuando se considera individualmente su matriz de densidad reducida 7 La entropia en un espin puede ser cancelada por estar correlacionada con la entropia del otro La desigualdad izquierda puede interpretarse aproximadamente como que la entropia solo puede ser cancelada por una cantidad igual de entropia Si los sistema A y B tiene cantidades diferentes de entropia la menor solo se puede compensar parcialmente con la mayor y queda alguna entropia residual Asi mismo la desigualdad de la derecha puede ser interpretada como que la entropia de un sistema compuesto es maxima cuando sus componentes no estan correlacionados y en este caso la entropia total es la suma de las entropias de los componentes Usos EditarLa entropia de von Neumann se usa extensamente en formas diferentes entropias condicionales entropias relativas etc en el marco de la teoria de informacion cuantica 8 Las medidas de entrelazamiento estan basadas a alguna cantidad directamente relacionada con la entropia de von Neumann Vease tambien EditarEntropia informacion Funcion de particion Entrelazamiento cuanticoReferencias Editar a b c Bengtsson Ingemar Zyczkowski Karol Geometry of Quantum States An Introduction to Quantum Entanglement 1st edicion p 301 Von Neumann John 1932 Mathematische Grundlagen der Quantenmechanik Berlin Springer ISBN 3 540 59207 5 Landau L 1927 Das Daempfungsproblem in der Wellenmechanik Zeitschrift fur Physik 45 5 6 430 464 doi 10 1007 BF01343064 Geometry of Quantum States An Introduction to Quantum Entanglement by Ingemar Bengtsson Karol Zyczkowski p301 Zachos C K 2007 A classical bound on quantum entropy Journal of Physics A Mathematical and Theoretical 40 21 F407 Bibcode 2007JPhA 40 407Z arXiv hep th 0609148 doi 10 1088 1751 8113 40 21 F02 Huzihiro Araki and Elliott H Lieb Entropy Inequalities Communications in Mathematical Physics vol 18 160 170 1970 Zurek W H 2003 Decoherence einselection and the quantum origins of the classical Reviews of Modern Physics 75 3 715 Bibcode 2003RvMP 75 715Z arXiv quant ph 0105127 doi 10 1103 RevModPhys 75 715 Nielsen Michael A and Isaac Chuang 2001 Quantum computation and quantum information Repr edicion Cambridge u a Cambridge Univ Press p 700 ISBN 978 0 521 63503 5 nbsp Datos Q6961323 Obtenido de https es wikipedia org w index php title Entropia de von Neumann amp oldid 140855733, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos