Pages

miércoles, 13 de octubre de 2010

Entropía de la información

Definiciones de Entropia:
  1. En fisica : Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o materia.
  2. En informática: Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno solo.Equivale a la pérdida de energía o incluso desorden.Siendo considerada por Einstein como la primera ley de todas la ciencias. 
  3. En el área de comunicación se tiene la entropia de la información que es definida como siendo una forma de medir la cantidad de información. O sea, un mensaje tiene cierta cantidad de información cuánto mayor sea su grado de incertidumbre o imprevisibilidade.
  4. En mecanica: Medida del desorden molecular de una materia o sustancia: los fluidos tienen más entropía que los sólidos. 
  5. Definición comun:Desorden, caos.
Historia:
El concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de funcionales reacciones de combustión Siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil . Los primeros motores de calor como Thomas Savery (1698), el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. Durante los próximos dos siglos, los físicos investigaron este enigma de la energía perdida, el resultado fue el concepto de entropía.En la década de 1850, Rudolf Clausius establecido el concepto de la sistema termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término "entropía". Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.

 
INFORMACIÓN Y ENTROPÍA

Seguramente todos hemos comido alguna vez sopa de letras, existen ahí todas las letras del alfabeto, que sirven para formar miles de palabras, el no. se incrementa si pensamos que esas mismas palabras pueden ser escritas en diferentes idiomas, pero las letras se encuentran completamente al azar, con un patrón caótico, es muy raro encontrar ahí un arreglo que posea una palabra formada. Pero, cuando empezamos a aprender a leer y escribir, la sopa de letras es una herramienta fabulosa. A partir de un no. muy grande de letras que contienen ninguna o muy poca información, el sistema posee mucha entropía, es posible aumentar el orden y arreglarlo incluso para formar oraciones. De lo anterior se debe concluir que la información es una fuente de energía, de hecho se le ha denominado “entropía negativa”. Existe una rama de las matemáticas denominada teoría de la información, que es necesaria para la programación lógica de las computadoras, que está muy relacionada con la termodinámica.


Los organismos vivos, están altamente ordenados, naturalmente, no poseen estructuras al azar y son inmensamente ricos en información, que es necesaria para llevar a cabo los miles de procesos que les permite mantenerse en homeóstasis, fenómeno necesario para vivir. Generalmente como asociamos la entropía al orden y relacionamos a las enfermedades con un desorden del metabolismo, a priori suponemos que somos muy ordenados. Para explicar la verdad, recuérdese la tercera ley de la termodinámica: en el cero absoluto (-273.15 °C), al entropía es cero, y la inmensa mayoría de los seres vivos viven a temperaturas mucho mayores.  Debido a lo anterior, los seres vivos son sistemas que poseen cierto grado de entropía. Esta cantidad no es tan baja como lo es en un sólido, ni intermedia como se esperaría para un líquido, estamos de hecho muy lejos de ser tan entrópicos como un gas; la entropía de nuestros cuerpos es la suma de la entropía de las moléculas que nos constituyen en los tres estados de la materia y sus diferentes grados de transformación n calor. La entropía de los seres vivos es tal que depende incluso del  estado metabólico particular, una mujer embarazada posee un grado de entropía diferente al que posee cuando no está embarazada. No es trivial calcular la entropía de los seres vivos. Finalmente una reflexión más al respecto: cuando la muerte sobreviene, el grado de desorden que retienen los seres vivos disminuye, piénsese simplemente en la pérdida de la temperatura corporal.  Esta idea no está en contraposición con el enunciado de: “la entropía del universo tiende a un máximo”, la energía calorífica de los seres vivos aumenta la entropía de sus alrededores y por tanto del universo, los seres vivos luchan continuamente para mantener su entropía misma que pierden al morir i.e. pasan de un estado muy entrópico a otro mucho menos entrópico. Uno de los principios termodinámicos dice que la energía del universo crece, en el caso de los seres vivos, al morir su posterior descomposición (putrefacción), alterará el orden de los alrededores haciendo que la entropía del universo aumente. 









    0 comentarios:

    Publicar un comentario