fbpx
Wikipedia

Segundo principio de la termodinámica

El segundo principio de la termodinámica [Nota 1]​ expresa que:

La cantidad de entropía del universo tiende a incrementarse en el tiempo.[Nota 2]

Este principio establece la irreversibilidad de los fenómenos físicos, especialmente durante el intercambio de calor. Es un principio de la evolución que fue enunciado por primera vez por Sadi Carnot en 1824. Después ha sido objeto de numerosas generalizaciones y formulaciones sucesivas por Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 y Max Planck (véase la historia de la termodinámica y la mecánica estadística), a lo largo del siglo XIX y hasta el presente.

El segundo principio introduce la función de estado entropía , por lo general asimilada a la noción de aleatoriedad que no puede más que crecer en el curso de una transformación termodinámica real.

Introducción

El segundo principio de la termodinámica es uno de los más importantes de la física; aún pudiendo ser formulado de muchas maneras, todas ellas llevan a la explicación del concepto de irreversibilidad y al de entropía. Este último concepto, cuando es tratado por otras ramas de la física, sobre todo por la mecánica estadística y la teoría de la información, queda ligado al grado de desorden de la materia y la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física de la entropía, que queda asociada a la cantidad de energía no utilizable de un sistema. Sin embargo, esta interpretación meramente fenomenológica de la entropía es totalmente consistente con sus interpretaciones estadísticas. Así, tendrá más entropía el agua en estado gaseoso con sus moléculas dispersas y alejadas unas de las otras que la misma en estado líquido con sus moléculas más juntas y más ordenadas.

El primer principio de la termodinámica dictamina que la materia y la energía no se pueden crear ni destruir, sino que se transforman, y establece el sentido en el que se produce dicha transformación. Sin embargo, el punto capital del segundo principio es que, como ocurre con toda la teoría termodinámica, se refiere única y exclusivamente a estados de equilibrio. Toda definición, corolario o concepto que de él se extraiga solo podrá aplicarse a estados de equilibrio, por lo que, formalmente, parámetros tales como la temperatura o la propia entropía quedarán definidos únicamente para estados de equilibrio. Así, según el segundo principio, cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la cantidad de entropía en el estado de equilibrio B será la máxima posible, e inevitablemente mayor a la del estado de equilibrio A. Evidentemente el sistema solo funcionará cuando esté en tránsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo, si el sistema era aislado, su energía y cantidad de materia no han podido variar; si la entropía debe maximizarse en cada transición de un estado de equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente un límite natural: cada vez costará más extraer la misma cantidad de trabajo, pues según la mecánica estadística el desorden equivalente debe aumentar exponencialmente.

Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las estrellas, estas, al convertir el hidrógeno, su combustible principal, en helio generan luz y calor. Al fusionar los núcleos de hidrógeno en su interior la estrella libera la energía suficiente para producirlos a esa intensidad; sin embargo, cuando fusiona los núcleos de helio no consigue liberar la misma cantidad de energía que obtenía cuando fusionaba los núcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un elemento obtiene otro que le es más inútil para obtener energía y, en consecuencia, la estrella muere, y en ese orden de ideas la materia que deja atrás ya no servirá para generar otra estrella. Es así como el segundo principio de la termodinámica se ha utilizado para explicar el fin del universo.

Definición axiomática

La definición formal del segundo principio de la termodinámica establece que:

En un estado de equilibrio, los valores que toman los parámetros característicos de un sistema termodinámico aislado son tales que maximizan el valor de una cierta magnitud que está en función de dichos parámetros, llamada entropía.
[1]

La entropía de un sistema es una magnitud física abstracta que la mecánica estadística identifica con el grado de desorden molecular interno de un sistema físico. La termodinámica clásica, en cambio, la define como la relación entre el calor transmitido y la temperatura a la que se transmite. La termodinámica axiomática define a la entropía como una cierta función —a priori, de forma desconocida—, que depende de los llamados «parámetros característicos» del sistema, y que solo puede definirse para los estados de equilibrio del sistema.

Dichos parámetros característicos se establecen a partir de un postulado derivado del primer principio de la termodinámica, llamado a veces el principio de estado. Según este, el estado de equilibrio de un sistema queda totalmente definido por medio de la energía interna del sistema, su volumen y su composición molar. Cualquier otro parámetro termodinámico, como podrían serlo la temperatura o la presión, se define como una función de dichos parámetros. Así, la entropía será también una función de dichos parámetros.

El segundo principio de la termodinámica establece que dicha entropía solo puede definirse para estados de equilibrio termodinámico, y que de entre todos los estados de equilibrio posibles —que vendrán definidos por los parámetros característicos—, solo se puede dar el que, de entre todos ellos, maximiza la entropía.

Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente al equilibrio, los estados de equilibrio posibles incluyen todos aquellos que sean compatibles con los límites o contornos del sistema. Entre ellos se encuentra, evidentemente, el estado de equilibrio de partida. Si el sistema varía su estado de equilibrio desde el de partida a otro, ello es debido a que la entropía del nuevo estado es mayor que la del estado inicial; si el sistema cambia de estado de equilibrio, su entropía solo puede aumentar. Por tanto, la entropía de un sistema aislado termodinámicamente solo puede incrementarse. Suponiendo que el universo partió de un estado de equilibrio, que en todo instante de tiempo el universo no se aleja demasiado del equilibrio termodinámico y que el universo es un sistema aislado, el segundo principio de la termodinámica puede formularse de la siguiente manera;

La cantidad de entropía del universo tiende a incrementarse con el tiempo.

Sin embargo, la termodinámica axiomática no reconoce el Tiempo como una variable termodinámica. Formalmente, la entropía solo puede definirse para estados en equilibrio. En el proceso que va de un estado de equilibrio a otro no hay estados de equilibrio, por lo que la entropía en dichos estados de no-equilibrio no puede definirse sin incurrir en inconsistencias formales dentro de la propia termodinámica. Así, la entropía no puede ser una función del tiempo, por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto.

Cuando se hace, es debido a que se ha presupuesto que en el proceso de un estado de equilibrio a otro se ha pasado por infinitos estados intermedios de equilibrio, procedimiento que permite introducir al tiempo como parámetro. En tanto en cuanto el estado de equilibrio final sea aquel de máxima entropía posible, no se habrá incurrido en una inconsistencia frontal por cuanto dichos estados de equilibrio intermedios no han afectado al único real (el final).

La formulación clásica defiende que el cambio en la entropía S es siempre mayor o igual (esto último, la igualdad, exclusivo para procesos reversibles ideales, donde se requieren infinitos pasos de equilibrio intermedios) que la transferencia de calor Q producida, dividido por la temperatura de equilibrio T del sistema:[2]

 .

Descripción general

 
Suponiendo estados iniciales y finales de equilibrio, el principio establece que los sistemas físicos saltan de un estado con cierto orden a un estado menos ordenado, aumentando su entropía. El proceso inverso es imposible de forma espontánea.

El enunciado axiomático del segundo principio pone inmediatamente de manifiesto su principal característica: se trata de una de las pocas leyes ontológicas de la Física, en tanto que distingue, de manera general, aquellos procesos y estados físicos que son posibles de aquellos que no lo son; esto es, el segundo principio permite determinar la posibilidad de un proceso o estado. De hecho, en un sentido histórico el segundo principio surgió, en plena Revolución Industrial en el contexto de las máquinas térmicas como una explicación empírica de por qué éstas se comportaban de una manera determinada y no de otra. En efecto, aunque parezca trivial, siempre se observaba, por ejemplo, que para calentar una caldera era necesario emplear combustible ardiendo a mayor temperatura que la de la caldera; sin embargo, jamás se observaba que la caldera se calentara tomando energía de su entorno, el cual a su vez se enfriaría. De hecho, podría razonarse que, en virtud del primer principio de la termodinámica, nada impide que, espontáneamente, sea posible extraer calor de un cuerpo frío, por ejemplo a 200 K, para transmitírselo a otro caliente, por ejemplo a 1000 K: basta con que se cumpla el balance energético correspondiente, a consecuencia del cual el cuerpo frío se enfriaría aún más, y el caliente se calentaría más aún. Sin embargo, todo esto es contrario a toda experiencia; y aunque parezca común y hasta trivial, tenía un extraordinario impacto en las máquinas empleadas en la Revolución Industrial: por ejemplo, de no haber sido así, las máquinas podrían funcionar sin necesitar combustible, pues la energía necesaria podría transferirse de manera espontánea del resto del ambiente. Sin embargo, las máquinas térmicas parecían obedecer una determinada ley, que se materializó en el segundo principio: para producir trabajo mecánico, era necesario aportar energía adicional (el combustible), que a su vez era siempre mayor que la cantidad de trabajo extraído. El concepto de máquina térmica aparece así íntimamente ligado al enunciado inicial del segundo principio.

Una máquina térmica es aquella que provee de trabajo eficaz gracias a la diferencia de temperaturas entre dos cuerpos. Dado que cualquier máquina termodinámica requiere una diferencia de temperatura, se deriva pues que ningún trabajo útil puede extraerse de un sistema aislado en equilibrio térmico, esto es, se requerirá de la alimentación de energía del exterior. Ese principio empírico, extraído de la observación continua de cómo funciona el universo, constituye uno de los primeros enunciados del segundo principio de termodinámica: «es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda esta energía en forma de calor en energía en forma de trabajo».

Enunciados clásicos

El segundo principio de termodinámica ha sido expresada de muchas maneras diferentes. Clausius fue el primero, basándose en los resultados de Carnot:

Es imposible que una máquina autónoma, sin ayuda de algún agente externo, transfiera calor de un cuerpo a otro más caliente.
It is impossible for a self-acting machine, unaided by any external agency, to convey heat from one body to another at a higher temperature.
Clausius, originalmente en alemán (1850) y traducido por Kelvin.

Desechada la teoría del calórico, en 1851, Kelvin ofrece un nuevo enunciado:

Es imposible construir un dispositivo que, utilizando un fluido inerte, pueda producir trabajo efectivo causado por el enfriamiento del cuerpo más frío de que se disponga.
It is impossible, by means of inanimate material agency, to derive mechanical effect any portion of matter by cooling it below the temperature of the coldest of the surrounding objects.
Enunciado de Kelvin.

Más tarde Planck, basándose en los estudios de Kelvin establece un enunciado muy sencillo:

Es imposible construir una máquina que funcione con un periodo regular que no haga otra cosa que elevar un peso y causar el correspondiente enfriamiento de una fuente térmica.
It is impossible to construct a machine which functions with a regular period and which does nothing but raise a weight and causes a corresponding cooling of a heat reservoir.
Enunciado de Planck-Kelvin en 1897.

Finalmente, en 1909, el enunciado más formal sería el del matemático Constantin Carathéodory

En cada vecindad arbitrariamente próxima a un estado inicial dado, existen estados a los que, mediante procesos adiabáticos, no se pueden acercar tanto como se quiera.
In every arbitrarily close neighborhood of a given initial state exist states which cannot be approached arbitrarily closely by adiabatic processes
C. Carathéodory en 1909.

Algunos corolarios del principio, a veces empleados como enunciados alternativos, serían:

«Ningún proceso cíclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al mismo estado del que partieron».
«En un sistema aislado, ningún proceso puede ocurrir si a él se asocia una disminución de la entropía total del sistema».
Corolario del principio, debido a Clausius.

Visualmente, el segundo principio se puede expresar imaginando una caldera de un barco de vapor. Esta no podría producir trabajo si no fuese porque el vapor se encuentra a temperaturas y presión elevadas comparados con el medio que la rodea.

Matemáticamente, se expresa así:

 

donde S es la entropía y el símbolo de igualdad solo existe cuando la entropía se encuentra en su valor máximo (en equilibrio).

Entropía en mecánica estadística

La termodinámica no ofrece ninguna interpretación física de lo que es la entropía: simplemente la define como una función matemática que toma su máximo valor para cada estado de equilibrio. La habitual identificación de entropía con desorden molecular proviene de una muy simplificada interpretación de los resultados de la mecánica estadística; en concreto, del llamado formalismo microcanónico de la mecánica estadística. Es importante recalcar que la termodinámica y la mecánica estadística, aunque relacionadas, son ramas separadas de la física.

Interpretación microcanónica de la entropía con base en el segundo principio de la termodinámica

La ecuación fundamental de un sistema cerrado termodinámico en equilibrio puede expresarse como

 ,

donde S representa la entropía del sistema —desde un punto de vista termodinámico—, U la energía interna del sistema, y N1, N2, etc., el número de moles de cada componente del sistema. Todas estas magnitudes son macroscópicas, en el sentido de que son expresadas y pueden ser medidas y calculadas sin entrar a considerar la naturaleza microscópica —esto es, de los átomos, moléculas, etc., que componen el sistema termodinámico—.

Intuitivamente, puede parecer razonable suponer que si el sistema está en equilibrio, entonces sus componentes más fundamentales, sus átomos y moléculas, también lo estén. Sin embargo, un resultado fundamental de la mecánica cuántica afirma que si el sistema es macroscópico, entonces pueden existir multitud de estados cuánticos discretos para sus átomos y moléculas que, globalmente, sean compatibles con los valores de U, V y n1, n2, …, del sistema macroscópico. En principio, no obstante, aunque exista esa potencial capacidad de los componentes microscópicos del sistema para pasar de un estado cuántico a otro, como el sistema es cerrado y está en equilibrio podría razonarse que tales transiciones no se van a dar.

Ahora bien, en realidad no existe un sistema aislado perfecto. Por ejemplo, aunque seamos capaces de aislar térmicamente al sistema de manera absoluta, no podremos evitar los efectos gravitatorios que el resto del universo seguirá ejerciendo sobre la materia que hayamos encerrado dentro; tampoco podrá aislarse perfectamente de todos los campos electromagnéticos que lo rodeen, por muy débiles que puedan resultar. En definitiva, el sistema podrá estar cerrado a efectos macroscópicos, pero la acción de todo tipo de campos de fuerza (sean de gravedad, eléctricas, etc.) y la propia interacción del sistema con las paredes que lo encierren harán que, al menos desde un punto de vista microscópico, el sistema no esté en equilibrio: los átomos y moléculas estarán sometidos a continuas transiciones de un estado cuántico a otro cuyas causas son, a todos los efectos, meramente azarosas, de tantas y tan indefinidas que pueden ser.

La mecánica estadística considera que un sistema macroscópico realiza transiciones enormemente rápidas y totalmente aleatorias entre los distintos estados cuánticos que sean posibles, de manera que las medidas macroscópicas de parámetros tales como la temperatura, la energía, incluso el volumen, son en realidad la media de las miríadas de estados cuánticos o microscópicos. Y como dichas transiciones están producidas por procesos esencialmente aleatorios, se acepta como principio que un sistema macroscópico visita todos los estados microscópicos permisibles con igual probabilidad. A dichos estados microscópicos permisibles se les llama microestados.

Para cada macroestado de equilibrio, el número de microestados permitidos es uno determinado por las leyes de la física. Por ejemplo, si un sistema macroscópico tiene por energía 1000 julios, es absurdo suponer que un microestado de dicho sistema pueda tener más de 1000 julios de energía.

Si se considera un estado de equilibrio macroscópico, según el segundo principio de termodinámica este vendrá totalmente definido por los valores de las variables termodinámicas U, V, N1, N2, etc., para los que la entropía S toma su máximo valor entre todos los posibles. Supongamos que tenemos un sistema termodinámico en equilibrio que viene definido por una limitación fundamental: no se permite que el sistema tenga un volumen mayor que uno concreto, y la cantidad de materia del sistema es la que se haya dado al comienzo. Por ejemplo, gas en una bombona de gas: no puede tener un volumen mayor que el de la bombona, ni puede haber más cantidad de gas que la que se ha colocado dentro. Atendiendo a esa limitación de volumen y masa, el sistema adquirirá los valores de U tales que maximicen la entropía, y entonces habrá alcanzado el equilibrio macroscópico. Asociado a ese estado macroscópico de equilibrio, tenemos el de los microestados: las moléculas del sistema podrán presentar transiciones aleatorias entre distintos microestados dentro de los límites impuestos por el propio sistema. No podrán, por ejemplo, desplazarse más allá de las barreras del sistema, ni podrán vibrar con una energía mayor que la energía total del sistema macroscópico, etc. Esto es, asociado al equilibrio macroscópcio se tiene un número limitado, aunque posiblemente inmenso, de microestados que los constituyentes microscópicos del sistema pueden visitar con igual probabilidad.

Si retiramos ahora una restricción al sistema macroscópico, como por ejemplo permitir que el volumen sea ahora mayor que antes, pasarán dos cosas:

  • Desde el punto de vista de la termodinámica, esto es, desde el punto de vista macroscópico, las variables del sistema evolucionarán hacia un estado de entropía mayor: el volumen V es ahora mayor que antes, y aunque la cantidad de materia es la misma, esta ahora puede ocupar más volumen. Así, la energía interna del sistema U variará de manera que, en el nuevo estado de equilibrio, la entropía S tome el máximo valor posible. Dicho valor es necesariamente mayor que el del estado de equilibrio previo. En efecto, podemos concebir la situación en la que, aunque puede, el sistema se mantiene en su volumen anterior, con la misma energía interna y misma materia. En ese caso, la entropía no habrá cambiado. Y ese caso es compatible con los límites del sistema. Sin embargo, sabemos que la naturaleza no opera así: el sistema tenderá a ocupar todo el volumen (aunque sea un sólido, en cuyo caso la presión de vapor del sólido cambiará, o se evaporará más sólido, etc.), y el equilibrio se desplazará. La función entropía es aquella función matemática que toma su valor máximo en ese nuevo equilibrio, y deberá ser por tanto mayor que en el estado de equilibrio anterior.
  • Desde el punto de vista microscópico, ocurre que ahora el número de microestados que son compatibles con los límites del sistema ha aumentado. En efecto, seguiremos teniendo los mismos de antes, pero a estos se les suman otros nuevos. Por ejemplo, ahora un átomo podrá moverse no ya dentro del volumen anterior, sino también dentro de todo el nuevo volumen.

Así, a la vez que la entropía aumenta se produce un incremento del número de microestados posibles. Esto sugiere que la entropía puede identificarse con el número de microestados consistentes con las limitaciones macroscópicas impuestas sobre el sistema. Siendo los microestados producto del azar, y siendo la probabilidad de que cada uno de ellos se dé la misma, es natural identificar por tanto entropía con desorden microscópico.

Existe un único problema: según la termodinámica, la entropía es aditiva. Esto es, la entropía de dos sistemas iguales es el doble que la entropía individual de cada uno de ellos. Sin embargo, el número de microestados posibles es multiplicativo. Esto es, el número de microestados de dos sistemas es el producto del número de microestados de cada uno de ellos. Por ejemplo, el número de «microestados» de dos dados, si el de cada uno de ellos es 6 (cada cara del dado es un microestado posible), es 6x6=36 microestados (tener un «1» en el primero, un «3» en el segundo; un «2» en el primero, un «5» en el segundo, etc.). Para interpretar la entropía necesitaremos conseguir que el número de microestados cumpla una regla aditiva.

La única solución a esto es identificar la entropía con el logaritmo del número de microestados posibles. Llamando Ω al número de microestados y S a la entropía, podremos escribir que:

 ,

donde kB es la constante de Boltzmann, y aparece sencillamente para determinar la escala de la entropía, que suele darse como energía por grado de temperatura (J/K), aunque según esta interpretación podría carecer de unidades.

Interpretación canónica

La interpretación microcanónica de la entropía concibe un sistema termodinámico aislado, esto es, un sistema termodinámico que no intercambia ni materia ni energía ni volumen con el exterior: la composición del sistema, dada por N1, N2, …, su energía interna U y su volumen V no cambian en ella. El sistema por antonomasia que cumple dichas condiciones es el propio universo. Sin embargo, en muchas ocasiones se contemplan sistemas que sí intercambian energía, masa o volumen con su entorno. Estos asertos, estarían sujetos a que se mantuviera válida la hipótesis de que existe un solo y único universo.

Para esos casos, es necesario extender las interpretaciones estadísticas de la entropía, si bien globalmente es la interpretación microcanónica la que perdura. En efecto, si consideramos un sistema que por ejemplo intercambia materia con su entorno, podemos concebir un sistema mayor que incluya al sistema inicial y a su entorno de manera que el sistema global se amolde a la interpretación microcanónica; en el límite, dicho sistema será el propio universo. Y es precisamente la entropía del sistema microcanónico la que queda sujeta al segundo principio de la termodinámica, esto es, aquella que debe aumentar al variarse el equilibrio global del sistema.

Evidentemente, podría entonces pensarse que cualquier sistema, sean cuales sean las condiciones de intercambio con su entorno, puede ser tratado concibiendo el sistema global que quede sujeto a la interpretación microcanónica. En efecto, en principio su estado de equilibrio debería poder obtenerse sin más que considerar el número total de microestados del sistema global. Esto, sin embargo, puede ser muy costoso por no decir prácticamente imposible de estimar en la mayor parte de las circunstancias: los cálculos combinatorios sobre el número de formas en que la energía disponible en un sistema puede distribuirse suele quedar más allá de todo conocimiento matemático. Y es para solventar esas deficiencias que surgen el resto de interpretaciones de la entropía.

La interpretación canónica, a veces llamada formalismo canónico o de Helmholtz, considera un sistema termodinámico capaz de intercambiar energía con un reservorio térmico o termostato. Según esto, al disponer de una fuente infinita de energía, todo estado energético, desde el de menor energía hasta el de mayor, será concebible para el sistema. Sin embargo, en oposición al sistema microcanónico, la probabilidad de cada uno de esos estados no será la misma: el sistema no estará la misma fracción de tiempo en cada uno de esos estados. El punto central del formalismo canónico es determinar la distribución de probabilidad de los microestados. Y dicho problema se resuelve teniendo en cuenta que el sistema global formado por el termostato y el sistema en cuestión es un sistema cerrado, esto es, cumple el formalismo microcanónico de que la probabilidad de cada microestado global es la misma.

Si la energía total del sistema global es Etot, y la de un microestado del sistema local es Ej, al estar el sistema local en un estado de energía Ej el termostato quedará reducido inevitablemente a uno de energía Etot – Ej. La probabilidad de que el sistema global esté en un microestado tal que el termostato tenga energía Etot – Ej y el sistema local Ej será entonces:

 .

Siguiendo la definición de la entropía según Boltzmann, dicha ecuación puede escribirse como:

 .

La energía interna U será el valor medio de la energía del sistema local, por lo que, como la entropía es aditiva, puede escribirse que:

 .

Si se desarrolla en serie   tendremos que:

 .

De este modo, la probabilidad puede expresarse como:

 .

Y como   es la energía libre de Helmholtz, podemos expresar dicha probabilidad como:

  ,

donde  .

La probabilidad total de estar en alguno de dichos estados es la unidad, por lo que:

 , de donde se define  .

Z es las la llamada función de partición canónica, generalmente definida como:

 

Si para un sistema de partículas en equilibrio térmico se conoce la función de partición Z, se puede calcular la entropía mediante:

 

Donde kB es la constante de Boltzmann, T la temperatura y las probabilidades Pj. Esta es la interpretación de la entropía, llamada interpretación canónica o entropía de Helmholtz.

Entropía de Von Neumann en mecánica cuántica

En el siglo XIX el concepto de entropía fue aplicado a sistemas formados por muchas partículas que se comportan clásicamente, a principios del siglo XX Von Neumann generalizó el concepto de entropía para sistemas de partículas cuánticas, definiendo para un estados mezcla caracterizado por una matriz densidad ρ la entropía cuántica de Von Neumann como la magnitud escalar:

 

Entropía generalizada en relatividad general

El intento de extender el análisis termodinámico convencional al universo entero, llevó a examinar a principios de los 70 el comportamiento termodinámico de estructuras como los agujeros negros. El resultado preliminar de dicho análisis reveló algo muy interesante, que el segundo principio tal como había sido formulado convencionalmente para sistemas clásicos y cuánticos podría ser violada en presencia de agujeros negros. Sin embargo, los trabajos de Jacob D. Bekenstein sobre teoría de la información y agujeros negros sugirieron que el segundo principio seguiría siendo válido si se introducía una entropía generalizada (Sgen) que sumara a la entropía convencional (Sconv), la entropía atribuible a los agujeros negros que depende del área total (A) de agujeros negros en el universo. Concretamente esta entropía generalizada debe definirse como:

 


Donde:

Violaciones del segundo principio de la termodinámica

Existen circunstancias en las que el segundo principio no es aplicable o, dicho de otra manera, se pueden dar condiciones en sistemas concretos en los que el segundo principio de la termodinámica no es cierto. Por regla general, este es el caso de sistemas de tamaño atomísticos, sometidos a fluctuaciones cuánticas o fenómenos sobre escalas temporales muy breves (del orden de femtosegundos o picosegundoss).

El teorema de fluctuación

El teorema de fluctuación, enunciado en el contexto de la mecánica estadística, trata la probabilidad relativa de que la entropía de un sistema que no se encuentra en equilibrio termodinámico (esto es, un sistema tal que su entropía no es máxima) aumente o disminuya en un período de tiempo determinado. El segundo principio de termodinámica predice que la entropía de todo sistema aislado tiende a incrementarse hasta que el sistema alcanza el equilibrio termodinámico. Sin embargo, en mecánica estadística, la entropía es una variable aleatoria, lo que sugiere que debería existir una probabilidad no nula de que la entropía de un sistema aislado decrezca espontánemante. El teorema de fluctuación cuantifica de manera exacta dicha probabilidad.[3]

El teorema de fluctuación fue propuesto en 1993 por Denis Evans, E.G.D. Cohen y Gary Morriss, quienes emplearon simulaciones por ordenador para su prueba.[3]​ La primera prueba rigurosa del teorema fue dada por Denis Evans y Debra Searles en 1994.[4]​ Desde entonces, el teorema ha sido puesto a prueba en numerosos sistemas y colectividades estadísticos, y siempre se ha demostrado cierto.

Grosso Modo, el teorema de fluctuación trata sobre la distribución de probabilidad de la tasa media de producción de entropía irreversible sobre un período de tiempo, denotada como  . El teorema establece que, en sistemas alejados del equilibrio termodinámico durante un período de tiempo t, la razón entre la probabilidad de que   tome un valor A, y la probabilidad de que tome el valor opuesto, −A, sigue una proporción exponencial en At. Dicho de otro modo, para un sistema finito que no está en equilibrio, durante un período de tiempo finito, el teorema de fluctuación establece de manera precisa la probabilidad de que la entropía del sistema fluya en sentido opuesto al dictado por el segundo principio de termodinámica.

Matemáticamente, queda expresado como:

 

De acuerdo con esta ecuación, se sigue que existe una cierta probabilidad de que el segundo principio de termodinámica pueda ser violado. Sin embargo, esta probabilidad depende tanto del tiempo como del tamaño del sistema. En efecto, como la entropía   es una variable extensiva (lo que significa que ha de duplicar su valor si el tamaño del sistema se duplica), la probabilidad de observar que la producción de entropía es opuesta a la dictada por el segundo principio decae exponencialmente conforme el tamaño del sistema aumenta, o el tiempo de observación es incrementado.

Es por ello importante indicar que el teorema de fluctuación no afirma que el segundo principio de termodinámica es falso o inválido; este principio se refiere a sistemas macroscópicos. El teorema de fluctuación es más general, por cuanto puede ser aplicado a sistemas microscópicos y macroscópicos. Como se ha dicho arriba, cuando se aplica a sistemas lo suficientemente grandes, de acuerdo con el teorema la probabilidad de que el flujo de entropía sea negativo es nula, con lo que el teorema se vuelve equivalente al segundo principio de la termodinámica.

Sin embargo, el teorema sí que indica que, en sistemas microscópicos y sobre períodos de tiempo muy breves, el segundo principio puede ser violado (en su interpretación no macroscópica).

Véase también

Notas y referencias

Notas
  1. también conocido como segunda ley de la termodinámica, mas en español (como en francés), a diferencia del inglés —por ejemplo, second law of thermodynamics—, se usa el término «principio» para designar leyes naturales que no pueden demostrarse explícitamente, sin embargo se pueden medir y cuantificar observando los resultados que producen.
  2. Esta definición plantea un problema difícil de solventar; la entropía clásica solo se define formalmente para estados de equilibrio, siendo complicado extender el concepto de equilibrio al universo completo en cualquier instante.
Referencias
  1. H. Callen (1985) Thermodynamics and an Introduction to Thermostatistics, Wiley, NY.
  2. A. Bejan, (2006). 'Advanced Engineering Thermodynamics', Wiley. ISBN 0-471-67763-9
  3. Denis J. Evans, E.G.D. Cohen & G.P. Morriss (1993). "Probability of second law violations in shearing steady states". Physical Review Letters 71 (15): 2401–2404.
  4. Denis J. Evans & Debra J. Searles (1994). "Equilibrium microstates which generate second law violating steady states". Physical Review E 50 (2): 1645–1648.
  •   Datos: Q177045

segundo, principio, termodinámica, segundo, principio, termodinámica, nota, expresa, cantidad, entropía, universo, tiende, incrementarse, tiempo, nota, este, principio, establece, irreversibilidad, fenómenos, físicos, especialmente, durante, intercambio, calor. El segundo principio de la termodinamica Nota 1 expresa que La cantidad de entropia del universo tiende a incrementarse en el tiempo Nota 2 Este principio establece la irreversibilidad de los fenomenos fisicos especialmente durante el intercambio de calor Es un principio de la evolucion que fue enunciado por primera vez por Sadi Carnot en 1824 Despues ha sido objeto de numerosas generalizaciones y formulaciones sucesivas por Clapeyron 1834 Clausius 1850 Lord Kelvin Ludwig Boltzmann en 1873 y Max Planck vease la historia de la termodinamica y la mecanica estadistica a lo largo del siglo XIX y hasta el presente El segundo principio introduce la funcion de estado entropia S displaystyle S por lo general asimilada a la nocion de aleatoriedad que no puede mas que crecer en el curso de una transformacion termodinamica real Indice 1 Introduccion 2 Definicion axiomatica 3 Descripcion general 3 1 Enunciados clasicos 3 2 Entropia en mecanica estadistica 3 2 1 Interpretacion microcanonica de la entropia con base en el segundo principio de la termodinamica 3 2 2 Interpretacion canonica 3 3 Entropia de Von Neumann en mecanica cuantica 3 4 Entropia generalizada en relatividad general 4 Violaciones del segundo principio de la termodinamica 4 1 El teorema de fluctuacion 5 Vease tambien 6 Notas y referenciasIntroduccion EditarEl segundo principio de la termodinamica es uno de los mas importantes de la fisica aun pudiendo ser formulado de muchas maneras todas ellas llevan a la explicacion del concepto de irreversibilidad y al de entropia Este ultimo concepto cuando es tratado por otras ramas de la fisica sobre todo por la mecanica estadistica y la teoria de la informacion queda ligado al grado de desorden de la materia y la energia de un sistema La termodinamica por su parte no ofrece una explicacion fisica de la entropia que queda asociada a la cantidad de energia no utilizable de un sistema Sin embargo esta interpretacion meramente fenomenologica de la entropia es totalmente consistente con sus interpretaciones estadisticas Asi tendra mas entropia el agua en estado gaseoso con sus moleculas dispersas y alejadas unas de las otras que la misma en estado liquido con sus moleculas mas juntas y mas ordenadas El primer principio de la termodinamica dictamina que la materia y la energia no se pueden crear ni destruir sino que se transforman y establece el sentido en el que se produce dicha transformacion Sin embargo el punto capital del segundo principio es que como ocurre con toda la teoria termodinamica se refiere unica y exclusivamente a estados de equilibrio Toda definicion corolario o concepto que de el se extraiga solo podra aplicarse a estados de equilibrio por lo que formalmente parametros tales como la temperatura o la propia entropia quedaran definidos unicamente para estados de equilibrio Asi segun el segundo principio cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B la cantidad de entropia en el estado de equilibrio B sera la maxima posible e inevitablemente mayor a la del estado de equilibrio A Evidentemente el sistema solo funcionara cuando este en transito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados Sin embargo si el sistema era aislado su energia y cantidad de materia no han podido variar si la entropia debe maximizarse en cada transicion de un estado de equilibrio a otro y el desorden interno del sistema debe aumentar se ve claramente un limite natural cada vez costara mas extraer la misma cantidad de trabajo pues segun la mecanica estadistica el desorden equivalente debe aumentar exponencialmente Aplicado este concepto a un fenomeno de la naturaleza como por ejemplo la vida de las estrellas estas al convertir el hidrogeno su combustible principal en helio generan luz y calor Al fusionar los nucleos de hidrogeno en su interior la estrella libera la energia suficiente para producirlos a esa intensidad sin embargo cuando fusiona los nucleos de helio no consigue liberar la misma cantidad de energia que obtenia cuando fusionaba los nucleos de hidrogeno Cada vez que la estrella fusiona los nucleos de un elemento obtiene otro que le es mas inutil para obtener energia y en consecuencia la estrella muere y en ese orden de ideas la materia que deja atras ya no servira para generar otra estrella Es asi como el segundo principio de la termodinamica se ha utilizado para explicar el fin del universo Definicion axiomatica EditarLa definicion formal del segundo principio de la termodinamica establece que En un estado de equilibrio los valores que toman los parametros caracteristicos de un sistema termodinamico aislado son tales que maximizan el valor de una cierta magnitud que esta en funcion de dichos parametros llamada entropia 1 La entropia de un sistema es una magnitud fisica abstracta que la mecanica estadistica identifica con el grado de desorden molecular interno de un sistema fisico La termodinamica clasica en cambio la define como la relacion entre el calor transmitido y la temperatura a la que se transmite La termodinamica axiomatica define a la entropia como una cierta funcion a priori de forma desconocida que depende de los llamados parametros caracteristicos del sistema y que solo puede definirse para los estados de equilibrio del sistema Dichos parametros caracteristicos se establecen a partir de un postulado derivado del primer principio de la termodinamica llamado a veces el principio de estado Segun este el estado de equilibrio de un sistema queda totalmente definido por medio de la energia interna del sistema su volumen y su composicion molar Cualquier otro parametro termodinamico como podrian serlo la temperatura o la presion se define como una funcion de dichos parametros Asi la entropia sera tambien una funcion de dichos parametros El segundo principio de la termodinamica establece que dicha entropia solo puede definirse para estados de equilibrio termodinamico y que de entre todos los estados de equilibrio posibles que vendran definidos por los parametros caracteristicos solo se puede dar el que de entre todos ellos maximiza la entropia Las consecuencias de este enunciado son sutiles al considerar un sistema cerrado tendente al equilibrio los estados de equilibrio posibles incluyen todos aquellos que sean compatibles con los limites o contornos del sistema Entre ellos se encuentra evidentemente el estado de equilibrio de partida Si el sistema varia su estado de equilibrio desde el de partida a otro ello es debido a que la entropia del nuevo estado es mayor que la del estado inicial si el sistema cambia de estado de equilibrio su entropia solo puede aumentar Por tanto la entropia de un sistema aislado termodinamicamente solo puede incrementarse Suponiendo que el universo partio de un estado de equilibrio que en todo instante de tiempo el universo no se aleja demasiado del equilibrio termodinamico y que el universo es un sistema aislado el segundo principio de la termodinamica puede formularse de la siguiente manera La cantidad de entropia del universo tiende a incrementarse con el tiempo Sin embargo la termodinamica axiomatica no reconoce el Tiempo como una variable termodinamica Formalmente la entropia solo puede definirse para estados en equilibrio En el proceso que va de un estado de equilibrio a otro no hay estados de equilibrio por lo que la entropia en dichos estados de no equilibrio no puede definirse sin incurrir en inconsistencias formales dentro de la propia termodinamica Asi la entropia no puede ser una funcion del tiempo por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto Cuando se hace es debido a que se ha presupuesto que en el proceso de un estado de equilibrio a otro se ha pasado por infinitos estados intermedios de equilibrio procedimiento que permite introducir al tiempo como parametro En tanto en cuanto el estado de equilibrio final sea aquel de maxima entropia posible no se habra incurrido en una inconsistencia frontal por cuanto dichos estados de equilibrio intermedios no han afectado al unico real el final La formulacion clasica defiende que el cambio en la entropia S es siempre mayor o igual esto ultimo la igualdad exclusivo para procesos reversibles ideales donde se requieren infinitos pasos de equilibrio intermedios que la transferencia de calor Q producida dividido por la temperatura de equilibrio T del sistema 2 d S d Q T displaystyle dS geq frac delta Q T Descripcion general Editar Suponiendo estados iniciales y finales de equilibrio el principio establece que los sistemas fisicos saltan de un estado con cierto orden a un estado menos ordenado aumentando su entropia El proceso inverso es imposible de forma espontanea El enunciado axiomatico del segundo principio pone inmediatamente de manifiesto su principal caracteristica se trata de una de las pocas leyes ontologicas de la Fisica en tanto que distingue de manera general aquellos procesos y estados fisicos que son posibles de aquellos que no lo son esto es el segundo principio permite determinar la posibilidad de un proceso o estado De hecho en un sentido historico el segundo principio surgio en plena Revolucion Industrial en el contexto de las maquinas termicas como una explicacion empirica de por que estas se comportaban de una manera determinada y no de otra En efecto aunque parezca trivial siempre se observaba por ejemplo que para calentar una caldera era necesario emplear combustible ardiendo a mayor temperatura que la de la caldera sin embargo jamas se observaba que la caldera se calentara tomando energia de su entorno el cual a su vez se enfriaria De hecho podria razonarse que en virtud del primer principio de la termodinamica nada impide que espontaneamente sea posible extraer calor de un cuerpo frio por ejemplo a 200 K para transmitirselo a otro caliente por ejemplo a 1000 K basta con que se cumpla el balance energetico correspondiente a consecuencia del cual el cuerpo frio se enfriaria aun mas y el caliente se calentaria mas aun Sin embargo todo esto es contrario a toda experiencia y aunque parezca comun y hasta trivial tenia un extraordinario impacto en las maquinas empleadas en la Revolucion Industrial por ejemplo de no haber sido asi las maquinas podrian funcionar sin necesitar combustible pues la energia necesaria podria transferirse de manera espontanea del resto del ambiente Sin embargo las maquinas termicas parecian obedecer una determinada ley que se materializo en el segundo principio para producir trabajo mecanico era necesario aportar energia adicional el combustible que a su vez era siempre mayor que la cantidad de trabajo extraido El concepto de maquina termica aparece asi intimamente ligado al enunciado inicial del segundo principio Una maquina termica es aquella que provee de trabajo eficaz gracias a la diferencia de temperaturas entre dos cuerpos Dado que cualquier maquina termodinamica requiere una diferencia de temperatura se deriva pues que ningun trabajo util puede extraerse de un sistema aislado en equilibrio termico esto es se requerira de la alimentacion de energia del exterior Ese principio empirico extraido de la observacion continua de como funciona el universo constituye uno de los primeros enunciados del segundo principio de termodinamica es imposible todo proceso ciclico cuyo unico resultado sea la absorcion de energia en forma de calor procedente de un foco termico o reservorio o deposito termico y la conversion de toda esta energia en forma de calor en energia en forma de trabajo Enunciados clasicos Editar El segundo principio de termodinamica ha sido expresada de muchas maneras diferentes Clausius fue el primero basandose en los resultados de Carnot Es imposible que una maquina autonoma sin ayuda de algun agente externo transfiera calor de un cuerpo a otro mas caliente It is impossible for a self acting machine unaided by any external agency to convey heat from one body to another at a higher temperature Clausius originalmente en aleman 1850 y traducido por Kelvin Desechada la teoria del calorico en 1851 Kelvin ofrece un nuevo enunciado Es imposible construir un dispositivo que utilizando un fluido inerte pueda producir trabajo efectivo causado por el enfriamiento del cuerpo mas frio de que se disponga It is impossible by means of inanimate material agency to derive mechanical effect any portion of matter by cooling it below the temperature of the coldest of the surrounding objects Enunciado de Kelvin Mas tarde Planck basandose en los estudios de Kelvin establece un enunciado muy sencillo Es imposible construir una maquina que funcione con un periodo regular que no haga otra cosa que elevar un peso y causar el correspondiente enfriamiento de una fuente termica It is impossible to construct a machine which functions with a regular period and which does nothing but raise a weight and causes a corresponding cooling of a heat reservoir Enunciado de Planck Kelvin en 1897 Finalmente en 1909 el enunciado mas formal seria el del matematico Constantin Caratheodory En cada vecindad arbitrariamente proxima a un estado inicial dado existen estados a los que mediante procesos adiabaticos no se pueden acercar tanto como se quiera In every arbitrarily close neighborhood of a given initial state exist states which cannot be approached arbitrarily closely by adiabatic processesC Caratheodory en 1909 Algunos corolarios del principio a veces empleados como enunciados alternativos serian Ningun proceso ciclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al mismo estado del que partieron En un sistema aislado ningun proceso puede ocurrir si a el se asocia una disminucion de la entropia total del sistema Corolario del principio debido a Clausius Visualmente el segundo principio se puede expresar imaginando una caldera de un barco de vapor Esta no podria producir trabajo si no fuese porque el vapor se encuentra a temperaturas y presion elevadas comparados con el medio que la rodea Matematicamente se expresa asi d S d t 0 1 displaystyle frac dS dt geq 0 qquad mbox 1 donde S es la entropia y el simbolo de igualdad solo existe cuando la entropia se encuentra en su valor maximo en equilibrio Entropia en mecanica estadistica Editar La termodinamica no ofrece ninguna interpretacion fisica de lo que es la entropia simplemente la define como una funcion matematica que toma su maximo valor para cada estado de equilibrio La habitual identificacion de entropia con desorden molecular proviene de una muy simplificada interpretacion de los resultados de la mecanica estadistica en concreto del llamado formalismo microcanonico de la mecanica estadistica Es importante recalcar que la termodinamica y la mecanica estadistica aunque relacionadas son ramas separadas de la fisica Interpretacion microcanonica de la entropia con base en el segundo principio de la termodinamica Editar La ecuacion fundamental de un sistema cerrado termodinamico en equilibrio puede expresarse como S S U V n 1 n 2 n r displaystyle S S U V n 1 n 2 ldots n r donde S representa la entropia del sistema desde un punto de vista termodinamico U la energia interna del sistema y N1 N2 etc el numero de moles de cada componente del sistema Todas estas magnitudes son macroscopicas en el sentido de que son expresadas y pueden ser medidas y calculadas sin entrar a considerar la naturaleza microscopica esto es de los atomos moleculas etc que componen el sistema termodinamico Intuitivamente puede parecer razonable suponer que si el sistema esta en equilibrio entonces sus componentes mas fundamentales sus atomos y moleculas tambien lo esten Sin embargo un resultado fundamental de la mecanica cuantica afirma que si el sistema es macroscopico entonces pueden existir multitud de estados cuanticos discretos para sus atomos y moleculas que globalmente sean compatibles con los valores de U V y n1 n2 del sistema macroscopico En principio no obstante aunque exista esa potencial capacidad de los componentes microscopicos del sistema para pasar de un estado cuantico a otro como el sistema es cerrado y esta en equilibrio podria razonarse que tales transiciones no se van a dar Ahora bien en realidad no existe un sistema aislado perfecto Por ejemplo aunque seamos capaces de aislar termicamente al sistema de manera absoluta no podremos evitar los efectos gravitatorios que el resto del universo seguira ejerciendo sobre la materia que hayamos encerrado dentro tampoco podra aislarse perfectamente de todos los campos electromagneticos que lo rodeen por muy debiles que puedan resultar En definitiva el sistema podra estar cerrado a efectos macroscopicos pero la accion de todo tipo de campos de fuerza sean de gravedad electricas etc y la propia interaccion del sistema con las paredes que lo encierren haran que al menos desde un punto de vista microscopico el sistema no este en equilibrio los atomos y moleculas estaran sometidos a continuas transiciones de un estado cuantico a otro cuyas causas son a todos los efectos meramente azarosas de tantas y tan indefinidas que pueden ser La mecanica estadistica considera que un sistema macroscopico realiza transiciones enormemente rapidas y totalmente aleatorias entre los distintos estados cuanticos que sean posibles de manera que las medidas macroscopicas de parametros tales como la temperatura la energia incluso el volumen son en realidad la media de las miriadas de estados cuanticos o microscopicos Y como dichas transiciones estan producidas por procesos esencialmente aleatorios se acepta como principio que un sistema macroscopico visita todos los estados microscopicos permisibles con igual probabilidad A dichos estados microscopicos permisibles se les llama microestados Para cada macroestado de equilibrio el numero de microestados permitidos es uno determinado por las leyes de la fisica Por ejemplo si un sistema macroscopico tiene por energia 1000 julios es absurdo suponer que un microestado de dicho sistema pueda tener mas de 1000 julios de energia Si se considera un estado de equilibrio macroscopico segun el segundo principio de termodinamica este vendra totalmente definido por los valores de las variables termodinamicas U V N1 N2 etc para los que la entropia S toma su maximo valor entre todos los posibles Supongamos que tenemos un sistema termodinamico en equilibrio que viene definido por una limitacion fundamental no se permite que el sistema tenga un volumen mayor que uno concreto y la cantidad de materia del sistema es la que se haya dado al comienzo Por ejemplo gas en una bombona de gas no puede tener un volumen mayor que el de la bombona ni puede haber mas cantidad de gas que la que se ha colocado dentro Atendiendo a esa limitacion de volumen y masa el sistema adquirira los valores de U tales que maximicen la entropia y entonces habra alcanzado el equilibrio macroscopico Asociado a ese estado macroscopico de equilibrio tenemos el de los microestados las moleculas del sistema podran presentar transiciones aleatorias entre distintos microestados dentro de los limites impuestos por el propio sistema No podran por ejemplo desplazarse mas alla de las barreras del sistema ni podran vibrar con una energia mayor que la energia total del sistema macroscopico etc Esto es asociado al equilibrio macroscopcio se tiene un numero limitado aunque posiblemente inmenso de microestados que los constituyentes microscopicos del sistema pueden visitar con igual probabilidad Si retiramos ahora una restriccion al sistema macroscopico como por ejemplo permitir que el volumen sea ahora mayor que antes pasaran dos cosas Desde el punto de vista de la termodinamica esto es desde el punto de vista macroscopico las variables del sistema evolucionaran hacia un estado de entropia mayor el volumen V es ahora mayor que antes y aunque la cantidad de materia es la misma esta ahora puede ocupar mas volumen Asi la energia interna del sistema U variara de manera que en el nuevo estado de equilibrio la entropia S tome el maximo valor posible Dicho valor es necesariamente mayor que el del estado de equilibrio previo En efecto podemos concebir la situacion en la que aunque puede el sistema se mantiene en su volumen anterior con la misma energia interna y misma materia En ese caso la entropia no habra cambiado Y ese caso es compatible con los limites del sistema Sin embargo sabemos que la naturaleza no opera asi el sistema tendera a ocupar todo el volumen aunque sea un solido en cuyo caso la presion de vapor del solido cambiara o se evaporara mas solido etc y el equilibrio se desplazara La funcion entropia es aquella funcion matematica que toma su valor maximo en ese nuevo equilibrio y debera ser por tanto mayor que en el estado de equilibrio anterior Desde el punto de vista microscopico ocurre que ahora el numero de microestados que son compatibles con los limites del sistema ha aumentado En efecto seguiremos teniendo los mismos de antes pero a estos se les suman otros nuevos Por ejemplo ahora un atomo podra moverse no ya dentro del volumen anterior sino tambien dentro de todo el nuevo volumen Asi a la vez que la entropia aumenta se produce un incremento del numero de microestados posibles Esto sugiere que la entropia puede identificarse con el numero de microestados consistentes con las limitaciones macroscopicas impuestas sobre el sistema Siendo los microestados producto del azar y siendo la probabilidad de que cada uno de ellos se de la misma es natural identificar por tanto entropia con desorden microscopico Existe un unico problema segun la termodinamica la entropia es aditiva Esto es la entropia de dos sistemas iguales es el doble que la entropia individual de cada uno de ellos Sin embargo el numero de microestados posibles es multiplicativo Esto es el numero de microestados de dos sistemas es el producto del numero de microestados de cada uno de ellos Por ejemplo el numero de microestados de dos dados si el de cada uno de ellos es 6 cada cara del dado es un microestado posible es 6x6 36 microestados tener un 1 en el primero un 3 en el segundo un 2 en el primero un 5 en el segundo etc Para interpretar la entropia necesitaremos conseguir que el numero de microestados cumpla una regla aditiva La unica solucion a esto es identificar la entropia con el logaritmo del numero de microestados posibles Llamando W al numero de microestados y S a la entropia podremos escribir que S k B ln W displaystyle S k B ln Omega donde kB es la constante de Boltzmann y aparece sencillamente para determinar la escala de la entropia que suele darse como energia por grado de temperatura J K aunque segun esta interpretacion podria carecer de unidades Interpretacion canonica Editar La interpretacion microcanonica de la entropia concibe un sistema termodinamico aislado esto es un sistema termodinamico que no intercambia ni materia ni energia ni volumen con el exterior la composicion del sistema dada por N1 N2 su energia interna U y su volumen V no cambian en ella El sistema por antonomasia que cumple dichas condiciones es el propio universo Sin embargo en muchas ocasiones se contemplan sistemas que si intercambian energia masa o volumen con su entorno Estos asertos estarian sujetos a que se mantuviera valida la hipotesis de que existe un solo y unico universo Para esos casos es necesario extender las interpretaciones estadisticas de la entropia si bien globalmente es la interpretacion microcanonica la que perdura En efecto si consideramos un sistema que por ejemplo intercambia materia con su entorno podemos concebir un sistema mayor que incluya al sistema inicial y a su entorno de manera que el sistema global se amolde a la interpretacion microcanonica en el limite dicho sistema sera el propio universo Y es precisamente la entropia del sistema microcanonico la que queda sujeta al segundo principio de la termodinamica esto es aquella que debe aumentar al variarse el equilibrio global del sistema Evidentemente podria entonces pensarse que cualquier sistema sean cuales sean las condiciones de intercambio con su entorno puede ser tratado concibiendo el sistema global que quede sujeto a la interpretacion microcanonica En efecto en principio su estado de equilibrio deberia poder obtenerse sin mas que considerar el numero total de microestados del sistema global Esto sin embargo puede ser muy costoso por no decir practicamente imposible de estimar en la mayor parte de las circunstancias los calculos combinatorios sobre el numero de formas en que la energia disponible en un sistema puede distribuirse suele quedar mas alla de todo conocimiento matematico Y es para solventar esas deficiencias que surgen el resto de interpretaciones de la entropia La interpretacion canonica a veces llamada formalismo canonico o de Helmholtz considera un sistema termodinamico capaz de intercambiar energia con un reservorio termico o termostato Segun esto al disponer de una fuente infinita de energia todo estado energetico desde el de menor energia hasta el de mayor sera concebible para el sistema Sin embargo en oposicion al sistema microcanonico la probabilidad de cada uno de esos estados no sera la misma el sistema no estara la misma fraccion de tiempo en cada uno de esos estados El punto central del formalismo canonico es determinar la distribucion de probabilidad de los microestados Y dicho problema se resuelve teniendo en cuenta que el sistema global formado por el termostato y el sistema en cuestion es un sistema cerrado esto es cumple el formalismo microcanonico de que la probabilidad de cada microestado global es la misma Si la energia total del sistema global es Etot y la de un microestado del sistema local es Ej al estar el sistema local en un estado de energia Ej el termostato quedara reducido inevitablemente a uno de energia Etot Ej La probabilidad de que el sistema global este en un microestado tal que el termostato tenga energia Etot Ej y el sistema local Ej sera entonces P j W t e r m E t o t E j W t o t E t o t displaystyle P j frac Omega mathrm term E mathrm tot E j Omega mathrm tot E mathrm tot Siguiendo la definicion de la entropia segun Boltzmann dicha ecuacion puede escribirse como P j e S t e r m k B E t o t E j e S t o t k B E t o t displaystyle P j frac e frac S mathrm term k B E mathrm tot E j e frac S mathrm tot k B E mathrm tot La energia interna U sera el valor medio de la energia del sistema local por lo que como la entropia es aditiva puede escribirse que S t o t E t o t S U S t e r m E t o t U displaystyle S mathrm tot E mathrm tot S U S mathrm term E mathrm tot U Si se desarrolla en serie S t e r m E t o t E j displaystyle S mathrm term E mathrm tot E j tendremos que S t e r m E t o t E j S t e r m E t o t U U E j S t e r m E t o t E U E j T displaystyle S mathrm term E mathrm tot E j S mathrm term E mathrm tot U U E j S mathrm term E mathrm tot E frac U E j T De este modo la probabilidad puede expresarse como P j e U T S U k B e T k B E j displaystyle P j frac e frac U TS U k B e frac T k B E j Y como F U T S U displaystyle F U TS U es la energia libre de Helmholtz podemos expresar dicha probabilidad como P j e b F e b E j displaystyle P j e beta F e beta E j donde b 1 k B T displaystyle beta frac 1 k B T La probabilidad total de estar en alguno de dichos estados es la unidad por lo que j P j e b F j e b E j 1 displaystyle sum j P j e beta F sum j e beta E j 1 de donde se define e b F Z displaystyle e beta F Z Z es las la llamada funcion de particion canonica generalmente definida como Z j e b E j displaystyle Z sum j e beta E j Si para un sistema de particulas en equilibrio termico se conoce la funcion de particion Z se puede calcular la entropia mediante S k B b 2 F b T k B T ln Z k B j P j ln P j displaystyle S k B beta 2 frac partial F partial beta frac partial partial T k B T ln Z k B sum j P j ln P j Donde kB es la constante de Boltzmann T la temperatura y las probabilidades Pj Esta es la interpretacion de la entropia llamada interpretacion canonica o entropia de Helmholtz Entropia de Von Neumann en mecanica cuantica Editar En el siglo XIX el concepto de entropia fue aplicado a sistemas formados por muchas particulas que se comportan clasicamente a principios del siglo XX Von Neumann generalizo el concepto de entropia para sistemas de particulas cuanticas definiendo para un estados mezcla caracterizado por una matriz densidad r la entropia cuantica de Von Neumann como la magnitud escalar S r k B T r r l n r displaystyle S rho k B rm Tr rho rm ln rho Entropia generalizada en relatividad general Editar El intento de extender el analisis termodinamico convencional al universo entero llevo a examinar a principios de los 70 el comportamiento termodinamico de estructuras como los agujeros negros El resultado preliminar de dicho analisis revelo algo muy interesante que el segundo principio tal como habia sido formulado convencionalmente para sistemas clasicos y cuanticos podria ser violada en presencia de agujeros negros Sin embargo los trabajos de Jacob D Bekenstein sobre teoria de la informacion y agujeros negros sugirieron que el segundo principio seguiria siendo valido si se introducia una entropia generalizada Sgen que sumara a la entropia convencional Sconv la entropia atribuible a los agujeros negros que depende del area total A de agujeros negros en el universo Concretamente esta entropia generalizada debe definirse como S g e n S c o n v k c 3 4 G ℏ A displaystyle S gen S conv frac kc 3 4G hbar A Donde k es la constante de Boltzmann c es la velocidad de la luz G es la constante de gravitacion universal ℏ displaystyle hbar es la constante de Planck racionalizada A es la area total de agujeros negros en el universo Violaciones del segundo principio de la termodinamica EditarExisten circunstancias en las que el segundo principio no es aplicable o dicho de otra manera se pueden dar condiciones en sistemas concretos en los que el segundo principio de la termodinamica no es cierto Por regla general este es el caso de sistemas de tamano atomisticos sometidos a fluctuaciones cuanticas o fenomenos sobre escalas temporales muy breves del orden de femtosegundos o picosegundoss El teorema de fluctuacion Editar El teorema de fluctuacion enunciado en el contexto de la mecanica estadistica trata la probabilidad relativa de que la entropia de un sistema que no se encuentra en equilibrio termodinamico esto es un sistema tal que su entropia no es maxima aumente o disminuya en un periodo de tiempo determinado El segundo principio de termodinamica predice que la entropia de todo sistema aislado tiende a incrementarse hasta que el sistema alcanza el equilibrio termodinamico Sin embargo en mecanica estadistica la entropia es una variable aleatoria lo que sugiere que deberia existir una probabilidad no nula de que la entropia de un sistema aislado decrezca espontanemante El teorema de fluctuacion cuantifica de manera exacta dicha probabilidad 3 El teorema de fluctuacion fue propuesto en 1993 por Denis Evans E G D Cohen y Gary Morriss quienes emplearon simulaciones por ordenador para su prueba 3 La primera prueba rigurosa del teorema fue dada por Denis Evans y Debra Searles en 1994 4 Desde entonces el teorema ha sido puesto a prueba en numerosos sistemas y colectividades estadisticos y siempre se ha demostrado cierto Grosso Modo el teorema de fluctuacion trata sobre la distribucion de probabilidad de la tasa media de produccion de entropia irreversible sobre un periodo de tiempo denotada como S t displaystyle overline Sigma t El teorema establece que en sistemas alejados del equilibrio termodinamico durante un periodo de tiempo t la razon entre la probabilidad de que S t displaystyle overline Sigma t tome un valor A y la probabilidad de que tome el valor opuesto A sigue una proporcion exponencial en At Dicho de otro modo para un sistema finito que no esta en equilibrio durante un periodo de tiempo finito el teorema de fluctuacion establece de manera precisa la probabilidad de que la entropia del sistema fluya en sentido opuesto al dictado por el segundo principio de termodinamica Matematicamente queda expresado como Pr S t A Pr S t A e A t displaystyle frac Pr overline Sigma t A Pr overline Sigma t A e At De acuerdo con esta ecuacion se sigue que existe una cierta probabilidad de que el segundo principio de termodinamica pueda ser violado Sin embargo esta probabilidad depende tanto del tiempo como del tamano del sistema En efecto como la entropia S displaystyle Sigma es una variable extensiva lo que significa que ha de duplicar su valor si el tamano del sistema se duplica la probabilidad de observar que la produccion de entropia es opuesta a la dictada por el segundo principio decae exponencialmente conforme el tamano del sistema aumenta o el tiempo de observacion es incrementado Es por ello importante indicar que el teorema de fluctuacion no afirma que el segundo principio de termodinamica es falso o invalido este principio se refiere a sistemas macroscopicos El teorema de fluctuacion es mas general por cuanto puede ser aplicado a sistemas microscopicos y macroscopicos Como se ha dicho arriba cuando se aplica a sistemas lo suficientemente grandes de acuerdo con el teorema la probabilidad de que el flujo de entropia sea negativo es nula con lo que el teorema se vuelve equivalente al segundo principio de la termodinamica Sin embargo el teorema si que indica que en sistemas microscopicos y sobre periodos de tiempo muy breves el segundo principio puede ser violado en su interpretacion no macroscopica Vease tambien EditarFluctuacion cuantica Principios de la termodinamica Transmision de calor Demonio de Maxwell Criterio de signos termodinamico Colectividad canonicaNotas y referencias EditarNotas tambien conocido como segunda ley de la termodinamica mas en espanol como en frances a diferencia del ingles por ejemplo second law of thermodynamics se usa el termino principio para designar leyes naturales que no pueden demostrarse explicitamente sin embargo se pueden medir y cuantificar observando los resultados que producen Esta definicion plantea un problema dificil de solventar la entropia clasica solo se define formalmente para estados de equilibrio siendo complicado extender el concepto de equilibrio al universo completo en cualquier instante Referencias H Callen 1985 Thermodynamics and an Introduction to Thermostatistics Wiley NY A Bejan 2006 Advanced Engineering Thermodynamics Wiley ISBN 0 471 67763 9 a b Denis J Evans E G D Cohen amp G P Morriss 1993 Probability of second law violations in shearing steady states Physical Review Letters 71 15 2401 2404 Denis J Evans amp Debra J Searles 1994 Equilibrium microstates which generate second law violating steady states Physical Review E 50 2 1645 1648 Datos Q177045 Obtenido de https es wikipedia org w index php title Segundo principio de la termodinamica amp oldid 138001746, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos