fbpx
Wikipedia

Entropía

En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio, también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico.

Mapa conceptual de la relación de entropía con la segunda ley de la termodinámica y la energía libre de Gibbs.

La entropía es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se da de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra «entropía» procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850;[1][2]​ y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.[3]

Planteamiento de partida

Cuando se plantea la pregunta: «¿Por qué ocurren los sucesos en la naturaleza de una manera determinada y no de otra manera?», se busca una respuesta que indique cuál es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará y el trozo frío se calentará, finalizando en equilibrio térmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía. Intuitivamente, la entropía es una magnitud física que, mediante cálculo, permite determinar la parte de la energía por unidad de temperatura que no puede utilizarse para producir trabajo.

La función termodinámica entropía es central para el segundo principio de la termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse hacia una condición más probable (similar a una distribución al azar), reorganización que dará como resultado un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y entonces se alcanzará la configuración de mayor probabilidad.

Una magnitud es una función de estado si, y solo si, su cambio de valor entre dos estados es independiente del proceso seguido para llegar de un estado a otro. Esa caracterización de función de estado es fundamental a la hora de definir la variación de entropía.

La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Entre la entropía y la espontaneidad de una reacción química se establece una relación que viene dada por la energía de Gibbs.

Entropía y termodinámica

Magnitud termodinámica que mide la parte de la energía no utilizable para realizar trabajo y que se expresa como el cociente entre el calor cedido por un cuerpo y su temperatura absoluta.[4]

Dentro de la termodinámica o rama de la física que estudia los procesos que surgen a partir del intercambio de energías y de la puesta en movimiento de diferentes elementos naturales, la entropía figura como una especie de desorden de todo aquello que es sistematizado, es decir, como la referencia o la demostración de que cuando algo no es controlado puede transformarse y desordenarse. La entropía, además, supone que de ese caos o desorden existente en un sistema surja una situación de equilibrio u homogeneidad que, a pesar de ser diferente a la condición inicial, suponga que las partes se hallan ahora igualadas o equilibradas.

Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de

 

solo depende de los estados inicial y final, con independencia del camino seguido (δQ es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta). Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:

  .

Téngase en cuenta que, como el calor no es una función de estado, se usa δQ, en lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación siguiente:

 

o, más simplemente, cuando no se produce variación de temperatura (proceso isotérmico):

 

donde S es la entropía,   la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin.

Unidades: S=[cal/K]

Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico.

Significado

El significado de esta ecuación es el siguiente:

Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio, dividido por su temperatura absoluta.

De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará la entropía, en la misma dirección. Cuando la temperatura es más alta, el flujo de calor que entra al sistema produce un aumento de entropía.

Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius), definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 julio a la temperatura de 1 kelvin.

Cuando el sistema evoluciona irreversiblemente, la ecuación de Clausius se convierte en una inecuación:

 

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un término positivo al segundo miembro, podemos transformar de nuevo la expresión en una ecuación:

 

Al término  , siempre positivo, se le denomina producción de entropía, y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabático, según la ecuación, dS=0, es decir, el valor de la entropía es constante y además constituye un proceso isoentrópico.

Cero absoluto

Solo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema, es necesario fijar la entropía del mismo en un estado determinado. El tercer principio de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K) o (-273.15 °C).

Esta magnitud permite definir el segundo principio de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aun cuando siga cumpliéndose la condición de conservación de la energía del sistema (el primer principio de la termodinámica).

Entropía y reversibilidad

La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores:

 

Si se trata de un proceso reversible, ΔS (universo) es cero, pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q= -W. Pero en la práctica real el trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles.

Para llevar al sistema nuevamente a su estado original, hay que aplicarle un trabajo mayor que el producido por el gas, lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global.

Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como la energía no puede crearse ni destruirse, la entropía puede crearse pero no destruirse. Es posible afirmar entonces que, como el universo es un sistema aislado, su entropía crece constantemente con el tiempo. Esto marca un sentido a la evolución del mundo físico, que se conoce como principio de evolución.

Cuando la entropía sea máxima en el universo, esto es, cuando exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del universo (enunciada por Clausius).

En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas, la diferencia entre calor y trabajo desaparece y, por tanto, parámetros termodinámicos como la entropía, la temperatura y otros no tienen significado. Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a estos microsistemas, porque realmente no son sistemas termodinámicos. Se cree que existe también un límite superior de aplicación del segundo principio, de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el universo, lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del universo.

Historia de la entropía

El concepto de entropía fue desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de reacciones de combustión siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil. Los primeros motores de calor como el Thomas Savery (1698), la máquina de Newcomen (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos del 2 % de la energía de entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. Durante los próximos dos siglos los físicos investigaron este enigma de la energía perdida, el resultado fue el concepto de entropía.

En la década de 1850, Rudolf Clausius estableció el concepto de sistema termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término «entropía». Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.

Interpretación estadística de la entropía

 
Tumba de Boltzmann en el cementerio central de Viena con la fórmula de entropía.

Entre 1890 y 1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como física estadística, teoría profundamente influenciada por el concepto de entropía. Una de las teorías termodinámicas estadísticas (la teoría de Maxwell-Boltzmann) establece la siguiente relación entre la entropía y la probabilidad termodinámica:

 ,

donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo natural). La ecuación asume que todos los microestados tienen la misma probabilidad de aparecer.

La ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicidó en 1906, profundamente deprimido, quizá por la poca aceptación de sus teorías en el mundo académico de la época.[5]

El significado de la ecuación es el siguiente:

La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles.

Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta al concepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de la entropía de un sistema, pues solo los cambios en la misma son relevantes. En cambio, la teoría estadística permite definir la entropía absoluta de un sistema.

La entropía es una magnitud física básica que dio lugar a diversas interpretaciones, al parecer a veces en conflicto. Han sido, sucesivamente, asimilados a diferentes conceptos, como el desorden y la información. La entropía mide tanto la falta de información como la información. Estas dos concepciones son complementarias. La entropía también mide la libertad, y esto permite una interpretación coherente de las fórmulas de entropía y de los hechos experimentales. No obstante, asociar la entropía y el desorden implica definir el orden como la ausencia de libertad.[6]​ El desorden o la agitación guardan relación con la temperatura.

Entropía y desorden

Cuando la energía es degradada, dijo Boltzmann, se debe a que los átomos asumen un estado más desordenado. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende de la nueva interpretación de Boltzmann. Por extraño que parezca, se puede crear una medida para el desorden; es la probabilidad de un estado particular, definido aquí como el número de formas en que se puede armar a partir de sus átomos
Jacob Bronowski. El ascenso del hombre (The Ascent of Man). Bogotá, Fondo Educativo Interamericano, 1979, p. 347, capítulo 10 "Un mundo dentro del mundo".

Coloquialmente, suele considerarse que la entropía es el desorden de un sistema, es decir, su grado de homogeneidad. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse, mientras que jamás será posible que, lanzando trozos de cristal, se construya un vaso por sí solo. Otro ejemplo doméstico: imagínense dos envases de un litro de capacidad que contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, se toma pintura blanca, se vierte en el recipiente de pintura negra y se mezcla; luego se toma pintura negra con la misma cucharita, se vierte en el recipiente de pintura blanca y se mezclan; el proceso se repite hasta que se obtienen dos litros de pintura gris, que no podrán reconvertirse en un litro de pintura blanca y otro de pintura negra; la entropía del conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogéneo).

Así pues, si consideramos la homogeneidad como un indicador de la entropía, entonces el surgimiento de la vida supondría un aumento de entropía, ya que la materia viva es más homogénea que su entorno inanimado. Así, por ejemplo, en un ser vivo encontramos hasta 60 elementos de un total de 92 presentes en la naturaleza; y si consideramos por ejemplo, el hierro, vemos que se concentra sobre todo en el núcleo de la Tierra (más de un 80% de la composición de este), y en cambio la presencia de elementos más ligeros como el oxígeno no pasaría allí de un 5%. Mientras, en el mar, el hierro solo supone un 0,0000034 %, y el agua un 95 %. En cambio, en un ser vivo como las sardinas, la presencia de agua se reduce a un 45% y el hierro alcanza un 0,0022 % de su peso; es decir, que los distintos componentes están más equilibrados.


No obstante, considerar que la entropía es el desorden de un sistema sin tener en cuenta la naturaleza del mismo es una falacia. Y es que hay sistemas en los que la entropía no es directamente proporcional al desorden, sino al orden.

Entropía como creadora de orden

A pesar de la identificación entre la entropía y el desorden, hay muchas transiciones de fase en la que emerge una fase ordenada y al mismo tiempo, la entropía aumenta. En este artículo se muestra que esta paradoja se resuelve haciendo una interpretación literal de la famosa ecuación de Boltzmann S = k log W. Podemos verlo en la segregación de una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a separarse. También en la cristalización de esferas duras: cuando agitamos naranjas en un cesto, estas se ordenan de forma espontánea. De estos casos se deduce el concepto de fuerza entrópica o interacción, muy útil en la ciencia de polímeros o ciencia coloidal.[7]

El astrofísico Alan Lightman reconoció que a los científicos “les parece misterioso el hecho de que el universo fuera creado con este elevado grado de orden”. Agregó que “cualquier teoría cosmológica viable debería explicar en última instancia esta contradicción de la entropía”, es decir, que el universo no se halle en estado caótico.[8]

De acuerdo con Ilya Prigogine, galardonado con el Premio Nobel de Química en 1977, "la producción de entropía contiene siempre dos elementos dialécticos: un elemento creador de desorden, pero también un elemento creador de orden. Y los dos están siempre ligados". Prigogine ejemplifica esta afirmación con el caso de un sistema compuesto de dos cajas comunicantes que contienen una mezcla de nitrógeno e hidrógeno. Si la temperatura del sistema es homogénea, también lo será la distribución del hidrógeno y el nitrógeno, pero si se somete al sistema a una constricción térmica se genera una disipación, un aumento de la entropía, pero también del orden, ya que el hidrógeno predominará en una de las cajas y el nitrógeno en la otra (fenómeno de antidifusión).[9]

Relación de la entropía con la teoría de la información

Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck. De hecho, en presencia de agujeros negros la segunda ley de la termodinámica solo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional (Sconv) más un factor dependiente del área total (A) de agujeros negros existente en el universo, del siguiente modo:

 

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de la gravitación y   es la constante de Planck racionalizada.

Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos. Stephen Hawking tuvo que ceder ante las evidencias de la nueva teoría y propuso un mecanismo nuevo para la conservación de la entropía en los agujeros negros.

Simplemente, al realizar un trabajo, se ocupa muy poca energía; la entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo.

La entropía como flecha del tiempo

Como se demuestra en el segundo principio de la termodinámica, de los dos únicos sentidos en que puede evolucionar un sistema el espontáneo es el que corresponde al estado del universo con una igual o mayor entropía. Se entiende por lo tanto que la entropía del universo tiene un único sentido: es creciente. Es equiparable al paso del tiempo, cuyo sentido a ojos de la vida humana es siempre el mismo.

El tiempo pasa y la entropía crece hasta alcanzar el punto de máxima entropía del universo, el equilibrio termodinámico. A modo tanto de cuestión filosófica como de cuestión científica este concepto recae inevitablemente en la paradoja del origen del universo. Si el tiempo llevara pasando infinitamente la entropía del universo no tendría sentido, siendo esta un concepto finito creciente en el tiempo y el tiempo un concepto infinito y eterno.

Véase también

Referencias

  1. Clausius, R. (1850). «Über die bewegende Kraft der Wärme». Annalen der Physik und Chemie 79: 368-397, 500-524. Consultado el 23 de septiembre de 2009. 
  2. Clausius, R. (1865). «Ueber verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie». Annalen der Physik und Chemie 125: 351-400. Consultado el 23 de septiembre de 2009. 
  3. Bronowski, J. (1979). El ascenso del hombre. Alejandro Ludlow Wiechers/BBC, trad. Bogotá: Fondo Educativo Interamericano.
  4. «Entropía, definición según RAE». 
  5. Véase el capítulo 10, "Un mundo dentro del mundo", de El ascenso del hombre, de Jacob Bronowski. En [1] pueden verse, en inglés, los últimos minutos de ese capítulo.
  6. Jean-Bernard Brissaud. The meanings of entropy. Entropy, 2005, 7.1, 68-96.
  7. Cuesta, José A.: La entropía como creadora de orden. Revista Española de Física, 2006, vol. 20, n. 4, p. 13-19
  8. Revista ¡Despertad! 1999, 22/6
  9. El Nacimiento del Tiempo

Enlaces externos

  • Documentos de termodinámica
  • Entendiendo la entropía
  •   Datos: Q45003
  •   Multimedia: Entropy

entropía, para, otros, usos, este, término, véase, desambiguación, termodinámica, entropía, simbolizada, como, magnitud, física, para, sistema, termodinámico, equilibrio, mide, número, microestados, compatibles, macroestado, equilibrio, también, puede, decir, . Para otros usos de este termino vease Entropia desambiguacion En termodinamica la entropia simbolizada como S es una magnitud fisica para un sistema termodinamico en equilibrio Mide el numero de microestados compatibles con el macroestado de equilibrio tambien se puede decir que mide el grado de organizacion del sistema o que es la razon de un incremento entre energia interna frente a un incremento de temperatura del sistema termodinamico Mapa conceptual de la relacion de entropia con la segunda ley de la termodinamica y la energia libre de Gibbs La entropia es una funcion de estado de caracter extensivo y su valor en un sistema aislado crece en el transcurso de un proceso que se da de forma natural La entropia describe lo irreversible de los sistemas termodinamicos La palabra entropia procede del griego ἐntropia y significa evolucion o transformacion Fue Rudolf Clausius quien le dio nombre y la desarrollo durante la decada de 1850 1 2 y Ludwig Boltzmann quien encontro en 1877 la manera de expresar matematicamente este concepto desde el punto de vista de la probabilidad 3 Indice 1 Planteamiento de partida 2 Entropia y termodinamica 2 1 Significado 2 2 Cero absoluto 2 3 Entropia y reversibilidad 3 Historia de la entropia 4 Interpretacion estadistica de la entropia 4 1 Entropia y desorden 4 2 Entropia como creadora de orden 4 3 Relacion de la entropia con la teoria de la informacion 4 4 La entropia como flecha del tiempo 5 Vease tambien 6 Referencias 7 Enlaces externosPlanteamiento de partida EditarCuando se plantea la pregunta Por que ocurren los sucesos en la naturaleza de una manera determinada y no de otra manera se busca una respuesta que indique cual es el sentido de los sucesos Por ejemplo si se ponen en contacto dos trozos de metal con distinta temperatura se anticipa que finalmente el trozo caliente se enfriara y el trozo frio se calentara finalizando en equilibrio termico El proceso inverso el calentamiento del trozo caliente y el enfriamiento del trozo frio es muy improbable que se presente a pesar de conservar la energia El universo tiende a distribuir la energia uniformemente es decir a maximizar la entropia Intuitivamente la entropia es una magnitud fisica que mediante calculo permite determinar la parte de la energia por unidad de temperatura que no puede utilizarse para producir trabajo La funcion termodinamica entropia es central para el segundo principio de la termodinamica La entropia puede interpretarse como una medida de la distribucion aleatoria de un sistema Se dice que un sistema altamente distribuido al azar tiene alta entropia Un sistema en una condicion improbable tendra una tendencia natural a reorganizarse hacia una condicion mas probable similar a una distribucion al azar reorganizacion que dara como resultado un aumento de la entropia La entropia alcanzara un maximo cuando el sistema se acerque al equilibrio y entonces se alcanzara la configuracion de mayor probabilidad Una magnitud es una funcion de estado si y solo si su cambio de valor entre dos estados es independiente del proceso seguido para llegar de un estado a otro Esa caracterizacion de funcion de estado es fundamental a la hora de definir la variacion de entropia La variacion de entropia nos muestra la variacion del orden molecular ocurrido en una reaccion quimica Si el incremento de entropia es positivo los productos presentan un mayor desorden molecular mayor entropia que los reactivos En cambio cuando el incremento es negativo los productos son mas ordenados Entre la entropia y la espontaneidad de una reaccion quimica se establece una relacion que viene dada por la energia de Gibbs Entropia y termodinamica EditarMagnitud termodinamica que mide la parte de la energia no utilizable para realizar trabajo y que se expresa como el cociente entre el calor cedido por un cuerpo y su temperatura absoluta 4 Dentro de la termodinamica o rama de la fisica que estudia los procesos que surgen a partir del intercambio de energias y de la puesta en movimiento de diferentes elementos naturales la entropia figura como una especie de desorden de todo aquello que es sistematizado es decir como la referencia o la demostracion de que cuando algo no es controlado puede transformarse y desordenarse La entropia ademas supone que de ese caos o desorden existente en un sistema surja una situacion de equilibrio u homogeneidad que a pesar de ser diferente a la condicion inicial suponga que las partes se hallan ahora igualadas o equilibradas Esta idea de desorden termodinamico fue plasmada mediante una funcion ideada por Rudolf Clausius a partir de un proceso ciclico reversible En todo proceso reversible la integral curvilinea ded Q T displaystyle frac delta Q T solo depende de los estados inicial y final con independencia del camino seguido dQ es la cantidad de calor absorbida en el proceso en cuestion y T es la temperatura absoluta Por tanto ha de existir una funcion del estado del sistema S f P V T denominada entropia cuya variacion en un proceso reversible entre los estados 1 y 2 es D S S 2 S 1 1 2 d Q T displaystyle Delta S S 2 S 1 int 1 2 frac delta Q T Tengase en cuenta que como el calor no es una funcion de estado se usa dQ en lugar de dQ La entropia fisica en su forma clasica esta definida por la ecuacion siguiente d S d Q T displaystyle dS frac delta Q T o mas simplemente cuando no se produce variacion de temperatura proceso isotermico S 2 S 1 Q 1 2 T displaystyle S 2 S 1 begin matrix cfrac Q 1 to 2 T end matrix donde S es la entropia Q 1 2 displaystyle Q 1 to 2 la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin Unidades S cal K Los numeros 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinamico Significado Editar El significado de esta ecuacion es el siguiente Cuando un sistema termodinamico pasa en un proceso reversible e isotermico del estado 1 al estado 2 el cambio en su entropia es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta De acuerdo con la ecuacion si el calor se transfiere al sistema tambien lo hara la entropia en la misma direccion Cuando la temperatura es mas alta el flujo de calor que entra al sistema produce un aumento de entropia Las unidades de la entropia en el Sistema Internacional son el J K o Clausius definido como la variacion de entropia que experimenta un sistema cuando absorbe el calor de 1 julio a la temperatura de 1 kelvin Cuando el sistema evoluciona irreversiblemente la ecuacion de Clausius se convierte en una inecuacion d S i 1 n d Q T F i T F T i displaystyle dS geq sum i 1 n frac delta Q TF i T FT i Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes No obstante sumando un termino positivo al segundo miembro podemos transformar de nuevo la expresion en una ecuacion d S d s p i 1 n d Q T F i T F T i displaystyle dS delta sigma p sum i 1 n frac delta Q TF i T FT i Al termino s p displaystyle sigma p siempre positivo se le denomina produccion de entropia y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema En el caso de darse un proceso reversible y adiabatico segun la ecuacion dS 0 es decir el valor de la entropia es constante y ademas constituye un proceso isoentropico Cero absoluto Editar Solo se pueden calcular variaciones de entropia Para calcular la entropia de un sistema es necesario fijar la entropia del mismo en un estado determinado El tercer principio de la termodinamica fija un estado estandar para sistemas quimicamente puros sin defectos estructurales en la red cristalina de densidad finita la entropia es nula en el cero absoluto 0 K o 273 15 C Esta magnitud permite definir el segundo principio de la termodinamica de la cual se deduce que un proceso tiende a darse de forma espontanea en un cierto sentido solamente Por ejemplo un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontanea aun cuando siga cumpliendose la condicion de conservacion de la energia del sistema el primer principio de la termodinamica Entropia y reversibilidad Editar La entropia global del sistema es la entropia del sistema considerado mas la entropia de los alrededores Tambien se puede decir que la variacion de entropia del universo para un proceso dado es igual a su variacion en el sistema mas la de los alrededores D S u n i v e r s o D S s i s t e m a D S e n t o r n o displaystyle Delta S rm universo Delta S rm sistema Delta S rm entorno Si se trata de un proceso reversible DS universo es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado Pero esto es una situacion ideal ya que para que esto ocurra los procesos han de ser extraordinariamente lentos y esta circunstancia no se da en la naturaleza Por ejemplo en la expansion isotermica proceso isotermico de un gas considerando el proceso como reversible todo el calor absorbido del medio se transforma en trabajo y Q W Pero en la practica real el trabajo es menor ya que hay perdidas por rozamientos por lo tanto los procesos son irreversibles Para llevar al sistema nuevamente a su estado original hay que aplicarle un trabajo mayor que el producido por el gas lo que da como resultado una transferencia de calor hacia el entorno con un aumento de la entropia global Como los procesos reales son siempre irreversibles siempre aumentara la entropia Asi como la energia no puede crearse ni destruirse la entropia puede crearse pero no destruirse Es posible afirmar entonces que como el universo es un sistema aislado su entropia crece constantemente con el tiempo Esto marca un sentido a la evolucion del mundo fisico que se conoce como principio de evolucion Cuando la entropia sea maxima en el universo esto es cuando exista un equilibrio entre todas las temperaturas y presiones llegara la muerte termica del universo enunciada por Clausius En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moleculas la diferencia entre calor y trabajo desaparece y por tanto parametros termodinamicos como la entropia la temperatura y otros no tienen significado Esto conduce a la afirmacion de que el segundo principio de la termodinamica no es aplicable a estos microsistemas porque realmente no son sistemas termodinamicos Se cree que existe tambien un limite superior de aplicacion del segundo principio de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el universo lo que pone en controversia la afirmacion de Clausius sobre la muerte termica del universo Historia de la entropia EditarEl concepto de entropia fue desarrollado en respuesta a la observacion de que una cierta cantidad de energia liberada de reacciones de combustion siempre se pierde debido a la disipacion o la friccion y por lo tanto no se transforma en trabajo util Los primeros motores de calor como el Thomas Savery 1698 la maquina de Newcomen 1712 y el Cugnot de vapor de tres ruedas 1769 eran ineficientes la conversion de menos del 2 de la energia de entrada en produccion de trabajo util una gran cantidad de energia util se disipa o se pierde en lo que parecia un estado de aleatoriedad inconmensurable Durante los proximos dos siglos los fisicos investigaron este enigma de la energia perdida el resultado fue el concepto de entropia En la decada de 1850 Rudolf Clausius establecio el concepto de sistema termodinamico y postula la tesis de que en cualquier proceso irreversible una pequena cantidad de energia termica dQ se disipa gradualmente a traves de la frontera del sistema Clausius siguio desarrollando sus ideas de la energia perdida y acuno el termino entropia Durante el proximo medio siglo se llevo a cabo un mayor desarrollo y mas recientemente el concepto de entropia ha encontrado aplicacion en el campo analogo de perdida de datos en los sistemas de transmision de informacion Interpretacion estadistica de la entropia Editar Tumba de Boltzmann en el cementerio central de Viena con la formula de entropia Entre 1890 y 1900 el fisico austriaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como fisica estadistica teoria profundamente influenciada por el concepto de entropia Una de las teorias termodinamicas estadisticas la teoria de Maxwell Boltzmann establece la siguiente relacion entre la entropia y la probabilidad termodinamica S k ln W displaystyle S k cdot ln Omega donde S es la entropia k la constante de Boltzmann y W el numero de microestados posibles para el sistema ln es la funcion logaritmo natural La ecuacion asume que todos los microestados tienen la misma probabilidad de aparecer La ecuacion se encuentra grabada sobre la lapida de la tumba de Ludwig Boltzmann en el Zentralfriedhof el cementerio central de Viena Boltzmann se suicido en 1906 profundamente deprimido quiza por la poca aceptacion de sus teorias en el mundo academico de la epoca 5 El significado de la ecuacion es el siguiente La cantidad de entropia de un sistema es proporcional al logaritmo natural del numero de microestados posibles Uno de los aspectos mas importantes que describe esta ecuacion es la posibilidad de dar una definicion absoluta al concepto de la entropia En la descripcion clasica de la termodinamica carece de sentido hablar del valor de la entropia de un sistema pues solo los cambios en la misma son relevantes En cambio la teoria estadistica permite definir la entropia absoluta de un sistema La entropia es una magnitud fisica basica que dio lugar a diversas interpretaciones al parecer a veces en conflicto Han sido sucesivamente asimilados a diferentes conceptos como el desorden y la informacion La entropia mide tanto la falta de informacion como la informacion Estas dos concepciones son complementarias La entropia tambien mide la libertad y esto permite una interpretacion coherente de las formulas de entropia y de los hechos experimentales No obstante asociar la entropia y el desorden implica definir el orden como la ausencia de libertad 6 El desorden o la agitacion guardan relacion con la temperatura Entropia y desorden Editar Cuando la energia es degradada dijo Boltzmann se debe a que los atomos asumen un estado mas desordenado Y la entropia es un parametro del desorden esa es la concepcion profunda que se desprende de la nueva interpretacion de Boltzmann Por extrano que parezca se puede crear una medida para el desorden es la probabilidad de un estado particular definido aqui como el numero de formas en que se puede armar a partir de sus atomosJacob Bronowski El ascenso del hombre The Ascent of Man Bogota Fondo Educativo Interamericano 1979 p 347 capitulo 10 Un mundo dentro del mundo Coloquialmente suele considerarse que la entropia es el desorden de un sistema es decir su grado de homogeneidad Un ejemplo domestico seria el de lanzar un vaso de cristal al suelo tendera a romperse y a esparcirse mientras que jamas sera posible que lanzando trozos de cristal se construya un vaso por si solo Otro ejemplo domestico imaginense dos envases de un litro de capacidad que contienen respectivamente pintura blanca y pintura negra con una cucharita se toma pintura blanca se vierte en el recipiente de pintura negra y se mezcla luego se toma pintura negra con la misma cucharita se vierte en el recipiente de pintura blanca y se mezclan el proceso se repite hasta que se obtienen dos litros de pintura gris que no podran reconvertirse en un litro de pintura blanca y otro de pintura negra la entropia del conjunto ha ido en aumento hasta llegar a un maximo cuando los colores de ambos recipientes son sensiblemente iguales sistema homogeneo Asi pues si consideramos la homogeneidad como un indicador de la entropia entonces el surgimiento de la vida supondria un aumento de entropia ya que la materia viva es mas homogenea que su entorno inanimado Asi por ejemplo en un ser vivo encontramos hasta 60 elementos de un total de 92 presentes en la naturaleza y si consideramos por ejemplo el hierro vemos que se concentra sobre todo en el nucleo de la Tierra mas de un 80 de la composicion de este y en cambio la presencia de elementos mas ligeros como el oxigeno no pasaria alli de un 5 Mientras en el mar el hierro solo supone un 0 0000034 y el agua un 95 En cambio en un ser vivo como las sardinas la presencia de agua se reduce a un 45 y el hierro alcanza un 0 0022 de su peso es decir que los distintos componentes estan mas equilibrados No obstante considerar que la entropia es el desorden de un sistema sin tener en cuenta la naturaleza del mismo es una falacia Y es que hay sistemas en los que la entropia no es directamente proporcional al desorden sino al orden Entropia como creadora de orden Editar A pesar de la identificacion entre la entropia y el desorden hay muchas transiciones de fase en la que emerge una fase ordenada y al mismo tiempo la entropia aumenta En este articulo se muestra que esta paradoja se resuelve haciendo una interpretacion literal de la famosa ecuacion de Boltzmann S k log W Podemos verlo en la segregacion de una mezcla tipo coloide por ejemplo cuando el agua y aceite tienden a separarse Tambien en la cristalizacion de esferas duras cuando agitamos naranjas en un cesto estas se ordenan de forma espontanea De estos casos se deduce el concepto de fuerza entropica o interaccion muy util en la ciencia de polimeros o ciencia coloidal 7 El astrofisico Alan Lightman reconocio que a los cientificos les parece misterioso el hecho de que el universo fuera creado con este elevado grado de orden Agrego que cualquier teoria cosmologica viable deberia explicar en ultima instancia esta contradiccion de la entropia es decir que el universo no se halle en estado caotico 8 De acuerdo con Ilya Prigogine galardonado con el Premio Nobel de Quimica en 1977 la produccion de entropia contiene siempre dos elementos dialecticos un elemento creador de desorden pero tambien un elemento creador de orden Y los dos estan siempre ligados Prigogine ejemplifica esta afirmacion con el caso de un sistema compuesto de dos cajas comunicantes que contienen una mezcla de nitrogeno e hidrogeno Si la temperatura del sistema es homogenea tambien lo sera la distribucion del hidrogeno y el nitrogeno pero si se somete al sistema a una constriccion termica se genera una disipacion un aumento de la entropia pero tambien del orden ya que el hidrogeno predominara en una de las cajas y el nitrogeno en la otra fenomeno de antidifusion 9 Relacion de la entropia con la teoria de la informacion Editar Vease tambien Entropia informacion Recientes estudios han podido establecer una relacion entre la entropia fisica y la entropia de la teoria de la informacion gracias a la revision de la fisica de los agujeros negros Segun la nueva teoria de Jacob D Bekenstein el bit de informacion seria equivalente a una superficie de valor 1 4 del area de Planck De hecho en presencia de agujeros negros la segunda ley de la termodinamica solo puede cumplirse si se introduce la entropia generalizada o suma de la entropia convencional Sconv mas un factor dependiente del area total A de agujeros negros existente en el universo del siguiente modo S t o t S c o n v k c 3 4 G ℏ A displaystyle S rm tot S rm conv frac kc 3 4G hbar A Donde k es la constante de Boltzmann c es la velocidad de la luz G es la constante de la gravitacion y ℏ displaystyle hbar es la constante de Planck racionalizada Los agujeros negros almacenarian la entropia de los objetos que engulle en la superficie del horizonte de sucesos Stephen Hawking tuvo que ceder ante las evidencias de la nueva teoria y propuso un mecanismo nuevo para la conservacion de la entropia en los agujeros negros Simplemente al realizar un trabajo se ocupa muy poca energia la entropia se encarga de medir la energia que no es usada y queda reservada en un cuerpo La entropia como flecha del tiempo Editar Articulo principal Flecha del tiempo Como se demuestra en el segundo principio de la termodinamica de los dos unicos sentidos en que puede evolucionar un sistema el espontaneo es el que corresponde al estado del universo con una igual o mayor entropia Se entiende por lo tanto que la entropia del universo tiene un unico sentido es creciente Es equiparable al paso del tiempo cuyo sentido a ojos de la vida humana es siempre el mismo El tiempo pasa y la entropia crece hasta alcanzar el punto de maxima entropia del universo el equilibrio termodinamico A modo tanto de cuestion filosofica como de cuestion cientifica este concepto recae inevitablemente en la paradoja del origen del universo Si el tiempo llevara pasando infinitamente la entropia del universo no tendria sentido siendo esta un concepto finito creciente en el tiempo y el tiempo un concepto infinito y eterno Vease tambien EditarAceleracion Caos Dinamica de sistemas Equilibrio termodinamico Energia Energia libre de Gibbs Energia libre de Helmholtz Energia interna Entalpia Entalpia libre Entropia de formacion Estructura disipativa Economia ecologica Exergia Fuerza Ilya Prigogine Ley de perdida de exergia Masa Neguentropia Principio antropico Principio de conservacion de la energia Principio de maximo de entropia Sistema complejo Sistema dinamico Stephen Hawking Trabajo Termodinamica TiempoReferencias Editar Clausius R 1850 Uber die bewegende Kraft der Warme Annalen der Physik und Chemie 79 368 397 500 524 Consultado el 23 de septiembre de 2009 Clausius R 1865 Ueber verschiedene fur die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Warmetheorie Annalen der Physik und Chemie 125 351 400 Consultado el 23 de septiembre de 2009 Bronowski J 1979 El ascenso del hombre Alejandro Ludlow Wiechers BBC trad Bogota Fondo Educativo Interamericano Entropia definicion segun RAE Vease el capitulo 10 Un mundo dentro del mundo de El ascenso del hombre de Jacob Bronowski En 1 pueden verse en ingles los ultimos minutos de ese capitulo Jean Bernard Brissaud The meanings of entropy Entropy 2005 7 1 68 96 Cuesta Jose A La entropia como creadora de orden Revista Espanola de Fisica 2006 vol 20 n 4 p 13 19 Revista Despertad 1999 22 6 El Nacimiento del TiempoEnlaces externos EditarDocumentos de termodinamica Entendiendo la entropia Datos Q45003 Multimedia EntropyObtenido de https es wikipedia org w index php title Entropia amp oldid 137311904, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos