Entropía
Entropía
Entropía
Mapa conceptual de la relación de entropía con la segunda ley de la termodinámica y la energía libre de
Gibbs.
Planteamiento de partida[editar]
Cuando se plantea la pregunta «¿por qué ocurren los sucesos en la naturaleza de
una manera determinada y no de otra manera?», se busca una respuesta que
indique cuál es el sentido de los sucesos. Por ejemplo, si se ponen en contacto
dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo
caliente se enfriará y el trozo frío se calentará, finalizando en equilibrio térmico. El
proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío
es muy improbable que se presente, a pesar de conservar la energía. El universo
tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
Intuitivamente, la entropía es una magnitud física que, mediante cálculo, permite
determinar la parte de la energía por unidad de temperatura que no puede
utilizarse para producir trabajo.
La función termodinámica entropía es central para el segundo principio de la
termodinámica. La entropía puede interpretarse como una medida de la
distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido
al azar tiene alta entropía. Un sistema en una condición improbable tendrá una
tendencia natural a reorganizarse hacia una condición más probable (similar a una
distribución al azar), reorganización que dará como resultado un aumento de la
entropía. La entropía alcanzará un máximo cuando el sistema se acerque al
equilibrio, y entonces se alcanzará la configuración de mayor probabilidad.
Una magnitud es una función de estado si, y solo si, su cambio de valor entre dos
estados es independiente del proceso seguido para llegar de un estado a otro. Esa
caracterización de función de estado es fundamental a la hora de definir la
variación de entropía.
La variación de entropía nos muestra la variación del orden molecular ocurrido en
una reacción química. Si el incremento de entropía es positivo,
los productos presentan un mayor desorden molecular (mayor entropía) que
los reactivos. En cambio, cuando el incremento es negativo, los productos son
más ordenados. Entre la entropía y la espontaneidad de una reacción química se
establece una relación que viene dada por la energía de Gibbs.
Entropía y termodinámica[editar]
La RAE recoge el concepto de entropía definido como la "magnitud termodinámica
que mide la parte de la energía no utilizable para realizar trabajo y que se expresa
como el cociente entre el calor cedido por un cuerpo y su temperatura absoluta."4
Dentro de la termodinámica o rama de la física que estudia los procesos que
surgen a partir del intercambio de energías y de la puesta en movimiento de
diferentes elementos naturales, la entropía figura como una especie de desorden
de todo aquello que es sistematizado, es decir, como la referencia o la
demostración de que cuando algo no es controlado puede transformarse y
desordenarse. La entropía, además, supone que de ese caos o desorden
existente en un sistema surja una situación de equilibrio u homogeneidad que, a
pesar de ser diferente a la condición inicial, suponga que las partes se hallan
ahora igualadas o equilibradas.
Esta idea de desorden termodinámico fue plasmada mediante una función ideada
por Rudolf Clausius a partir de un proceso cíclico reversible. En todo
proceso reversible la integral curvilínea de
solo depende de los estados inicial y final, con independencia del camino seguido
(δQ es la cantidad de calor absorbida en el proceso en cuestión y T es
la temperatura absoluta). Por tanto, ha de existir una función del estado del
sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso
reversible entre los estados 1 y 2 es:
.
Téngase en cuenta que, como el calor no es una función de estado, se
usa δQ, en lugar de dQ. La entropía física, en su forma clásica, está definida
por la ecuación siguiente:
o, más simplemente, cuando no se produce variación de temperatura (proceso
isotérmico):
donde S2 es la entropía del estado final del sistema termodinámico, S1 la
entropía del estado inicial, la cantidad de calor intercambiado entre el sistema
y el entorno y T la temperatura absoluta expresada en grados Kelvin.
La unidad de entropía en el Sistema Internacional es: JK-1, si bien, son
frecuentes otras unidades como: calK-1
Significado[editar]
El significado de esta ecuación es el siguiente:
Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado
1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el
sistema y el medio, dividido por su temperatura absoluta.
Historia de la entropía[editar]
El concepto de entropía fue desarrollado en respuesta a la
observación de que una cierta cantidad de energía liberada
de reacciones de combustión siempre se pierde debido a la
disipación o la fricción y por lo tanto no se transforma en trabajo útil.
Los primeros motores de calor como el Thomas Savery (1698),
la máquina de Newcomen (1712) y el Cugnot de vapor de tres
ruedas (1769) eran ineficientes, la conversión de menos del 2 % de
la energía de entrada en producción de trabajo útil; una gran
cantidad de energía útil se disipa o se pierde en lo que parecía un
estado de aleatoriedad inconmensurable. Durante los próximos dos
siglos los físicos investigaron este enigma de la energía perdida, el
resultado fue el concepto de entropía.
En la década de 1850, Rudolf Clausius estableció el concepto
de sistema termodinámico y postula la tesis de que en cualquier
proceso irreversible una pequeña cantidad de energía térmica δQ
se disipa gradualmente a través de la frontera del sistema. Clausius
siguió desarrollando sus ideas de la energía perdida, y acuñó el
término «entropía». Durante el próximo medio siglo se llevó a cabo
un mayor desarrollo, y más recientemente el concepto de entropía
ha encontrado aplicación en el campo análogo de pérdida de datos
en los sistemas de transmisión de información.
Véase también