Entropía

This post is also available in: Inglés

Entropía

Hay muchas definiciones de entropía, aunque todas ellas son equivalentes en algún sentido.
La entropía como concepto fue desarrollada por Clausius en el siglo XIX, al intentar entender el comportamiento de las máquinas. Clausius definió la entropía como una medida de la energía que no se puede usar para realizar trabajo en un sistema dado y postuló que ésta siempre aumentará con el tiempo en un sistema aislado.
Lo que eso significa, desde un punto de vista práctico, es que un motor siempre perderá algo de energía útil, es decir, no puede ser efectivo al cien por cien. Por ejemplo, en un motor de coche, una parte de la energía obtenida al quemar la gasolina se usará para hacer funcionar el motor, y esa energía puede ser usada de nuevo. Sin embargo, otra parte calentará inevitablemente el motor, y esa energía no se puede recuperar.
Aunque esa definición se usa ampliamente en física y química, hay una nueva definición, propuesta por Boltzmann también en el siglo XIX, que da al concepto una forma más intuitiva. Es gracias a la formulación de Boltzmann que surgió la presentación usual de la entropía como “desorden”.
La definición de Boltzmann dice que la entropía es el número de estados microscópicos compatibles con un cierto estado macroscópico. Como en la entropía de Clausius, la de Boltzmann también aumenta con el tiempo. Sin embargo, en este caso es fácil ver por qué.
Supongamos que tenemos un gas, confinado a un pequeño volumen. Queremos saber cuántas configuraciones de moléculas son compatibles con el hecho de que midamos el mismo volumen, temperatura y presión. La respuesta será, por supuesto, un número muy grande. Por ejemplo, podemos coger cada molécula y substituirla por su vecina, y así sucesivamente hasta que nos quedemos sin moléculas.
Sin embargo, si hacemos el volumen más grande, es fácil ver que el número de configuraciones moleculares compatible con el estado macroscópico se hace mucho mayor. ¿Por qué? Porque ahora el volumen disponible para intercambiar y mover moléculas se ha incrementado substancialmente.
Si tenemos un gas en un contenedor, entonces, lo esperable es que al expandir el volumen del contenedor, el gas se extienda hasta ocuparlo todo. No hay nada en las leyes de Newton que requiera eso: las moléculas podrían simplemente quedarse en una esquina. Pero hay tantas más configuraciones con moléculas repartidas que con moléculas confinadas que, en la práctica, hace que la probabilidad de encontrar a todas las moléculas en una esquina sea casi cero.
Así vista, la segunda ley de la termodinámica se puede deducir de la simple estadística: todo lo que dice es que las cosas más probables tienden a pasar, si se les da suficiente tiempo.
Hay aún otra definición de entropía que no parece estar relacionada con la entropía física, pero que resulta estarlo. Es la llamada entropía de Shannon.
La entropía de Shannon es un concepto matemático. Es una medida de la información en un sistema y, por lo tanto, se mide en bits.
Supongamos que tenemos una cadena de bits. Si la cadena es totalmente aleatoria, no hay manera de saber si el siguiente bit será 0 o 1. Por lo tanto, antes de leer el siguiente bit, no tenemos información alguna y, después de hacerlo, tendremos un bit de información. En este caso, se dice que cada bit de la cadena tiene una entropía con valor 1.
Ahora imaginemos el caso opuesto: tenemos una cadena de bits, pero se trata de una cadena de unos. En este caso, aún antes de ver el siguiente bit, sabemos que será un 1. No hay incertidumbre alguna en el siguiente bit y, por lo tanto, no nos da ninguna información. Su entropía de Shannon es 0.
Hay muchos casos intermedios. La mayoría de archivos de ordenador, por ejemplo, tienen algún tipo de regularidad, pero no suficiente para que sepamos el valor de cualquier bit antes de verlo. Así pues, su entropía de Shannon es mayor que 0, pero en general menos que la longitud del archivo en bits. Podemos ver la entropía de Shannon de una cadena como la mínima longitud en bits a la que puede ser comprimida.
Esta definición puede parecer muy lejana a la física, pero de hecho el concepto de entropía física está muy cercano a la información. Por ejemplo, si tenemos un gas en un gran volumen, la aleatoriedad -y por lo tanto la incertidumbre- en la posición de cada molécula individual es mucho mayor: así pues, especificar la posición de cada una requiere mucha más información de la que requeriría para un volumen menor.
Los nuevos desarrollos en termodinámica de los agujeros negros han llevado a descubrimientos importantísimos en física teórica, la culminación de los cuales es el principio holográfico. La relación entre entropía e información fue un paso crucial en el proceso.

Para más información, visite myoutsourcedbrain.com myoutsourcedbrain.com.

Share and Enjoy:
  • Digg
  • del.icio.us
  • Facebook
  • Yahoo! Buzz
  • Twitter
  • Google Bookmarks
  • Bitacoras.com
  • Google Buzz
  • Meneame
  • Reddit
  • RSS

Leave a Reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>