PDA

Ver la versión completa : Entropía



Lisa Simpson
02/07/2012, 13:46
Saludos.

Estoy intentando comprender qué es exactamente la entropía y, mientras más investigo, más me lío. Alguien puede explicármelo sin fórmulas ni palabras excesivamente técnicas. me gustaría obtener una definición aplicable a los distintos tipos de entropía: termodinámica (creo que es la única que medio entiendo), de la información, etc.

Gracias

Asexperia
02/07/2012, 14:56
La entropia es la medida del desorden molecular de una sustancia. Esta relacionada
con la cantidad de calor. A mayor calor mayor entropia o desorden.

En Informatica es el mismo concepto, confusion, duda.

Lisa Simpson
03/07/2012, 13:42
Gracias Asexperia. Pero, es sobre todo cuando entra el término orden en la definición cuando más me confundo. Por ejemplo ¿hay más orden en las moléculas de sal disueltas en el agua o en la sal cristalizada en cubos? Hay más orden en cuerpos repartidos por el espacio (homogéneamente si se quiere) o en cuerpos que forman sistemas orbitales? No sé si me estoy desviando, pero en el caso de las cristalizaciones o los sistemas planetarios, los anillos de Saturno, los tornados, etc. me da la impresión de que el orden aparece. O cometo algún error en la interpretación del término orden, o se diría que la tendencia natural en estos casos es a la reducción de la entropía, lo que iría en contra del segundo principio de la termodinámica. Agradecería mucho que alguien me aclarase este punto que lleva tiempo quitándome el sueño.
Saludos

Asexperia
04/07/2012, 10:02
Que es la entropia?

Segunda ley de la termodinámica.

"Esta ley cambia la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto, la
imposibilidad de que ocurran en el sentido contrario (por ejemplo, que una mancha de tinta dispersada en el
agua pueda volver a concentrarse en un pequeño volumen). También establece, en algunos casos, la imposibilidad
de convertir completamente toda la energía de un tipo en otro sin pérdidas. De esta forma, la segunda ley impone
restricciones para las transferencias de energía que hipotéticamente pudieran llevarse a cabo teniendo en cuenta
sólo el primer principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud física llamada
entropía, de tal manera que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la
variación de la entropía siempre debe ser mayor que cero.
Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de
mayor temperatura hacia los de menor temperatura, hasta lograr un equilibrio térmico.
La aplicación más conocida es la de las máquinas térmicas, que obtienen trabajo mecánico mediante aporte de calor
de una fuente o foco caliente, para ceder parte de este calor a la fuente o foco o sumidero frío. La diferencia entre
los dos calores tiene su equivalente en el trabajo mecánico obtenido.
Existen numerosos enunciados equivalentes para definir este principio, destacándose el de Clausius y el de Kelvin."

Fuente: wikipedia

Vean este video:


http://www.youtube.com/watch?v=veFLTN13PGo

Lisa Simpson
05/07/2012, 17:31
Gracias de nuevo por tu ayuda Asexperia, pero sigo sin tenerlo claro. Como digo en el primer mensaje, con la entropía en termodinámica no tenía problema. El problema vino con la entropía de kolmogórov y de Shannon o de la información. No sé que tienen en común con la primera. Me hace dudar del significado general de entropía, si es que lo tiene. Es decir, quisiera saber si entropía tiene algún sinónimo (como tendencia al desorden o al equilibrio, o tendencia en general) que sea aplicable en todos sus usos.
Ya he buscado en Wikipedia y demás. Quisiera alguna explicación sencilla y breve, con tus palabras, si puede ser.
Saludos

Asexperia
05/07/2012, 18:32
El concepto de entropia es tan complejo como el de tiempo.

Pero, en todos los casos la entropia se generaliza como la tendencia probable al desorden o al equilibrio de los
elementos de un sistema dado, particulas en Termodinamica o simbolos en Teoria de la informacion.

Lisa Simpson
06/07/2012, 15:27
Saludos

Un puñado de monedas frías y un puñado de monedas calientes en una bolsa, tenderán a igualar su temperatura. Cuando se alcance el equilibrio térmico, habrá aumentado la entropía. Hasta ahí lo entiendo. Lo que no entiendo es que se hable de más orden cuando la temperatura está distribuida irregularmente, y más desorden cuando las monedas tienen la misma temperatura.

Supongo que hay que limitar el término orden a la entropía de la información, y en la termodinámica, hablar de equilibrio.
De todas formas me parece aceptable la conclusión. Tal vez buscaba una definición demasiado simple para algo que en realidad no lo es. Muchas gracias por tu ayuda.

Ahora me gustaría saber, pasando a hablar de la entropía de la información, en cuál de estas series se reconoce mayor entropía:

“1, 2, 2, 1, 4, 2, 3, 2, 1, 1”
“1, 5, 10, 15, 20, 25, 30, 35, 40, 45”

Es decir, ¿se valorará la simplicidad del algoritmo que relaciona los números (habiendo más entropía en la segunda), o la proximidad entre ellos (siendo más entrópica la primera)?

Gracias de nuevo