¿Qué es la entropía?

 

Sin entrar en grandes detalles, podemos decir que la entropía es la tendencia natural a la pérdida del orden en un sistema.

Por el contrario, parece ser que la humanidad, desde sus inicios, mantiene una lucha inacabable y de resultado incierto con la naturaleza y constantemente crea sistemas por estructurar el entorno.

El desarrollo del cerebro y su funcionamiento cognitivo podría estar detrás de esta pulsión.

Clasificación o desorden

El antropólogo Claude Lévi Strauss (1908-2009) en su libro El pensamiento salvaje (1962) *) ya plantea la existencia de una ciencia de las comunidades neolíticas basada en la clasificación de la realidad natural, como un equivalente a la ciencia moderna. Claro que él seguía la corriente estructuralista y veía organización en todas partes.

Volviendo al desorden, el científico austríaco Ludwig Boltzmann (1844-1906) que defendió la existencia de los átomos antes de que se pudieran ver, también es conocido por la fórmula que muestra la relación entre la entropía y el número de formas en que se pueden organizar los átomos o moléculas de un sistema termodinámico.

Para simplificar: si estamos jugando al palet y sólo utilizamos una piedra, es más fácil que al tirarla vaya a parar a la casilla del juego que nos interesa. Si lanzamos 6 piedras, ya es más difícil que caigan todas de manera disciplinada en un punto concreto. Si queremos jugar a ser científicos, podemos aplicar la fórmula de Boltzmann para calcular las probabilidades de orden de nuestro palet.

El caos de las fuentes de información

Boltzmann también demostró que la comunidad científica puede ser una auténtica guarida de víboras suicidándose, supuestamente, debido a las críticas y el rechazo que sufrió su teoría sobre la existencia de los átomos.

Le debemos a otro científico, el matemático e ingeniero estadounidense Claude Elwood Shannon (1916-2001) la formulación según la cual la entropía también mide el grado de incertidumbre de una fuente de información.

Lo podemos constatar, por ejemplo, analizando la información de las palabras en un texto: las más utilizadas (el, de, la) suelen aportar poca información, pero las menos frecuentes (juego, pelota) aportan más. En cuanto todos los símbolos del texto son relevantes decimos que la entropía es máxima.

Shanon también es conocido por crear una máquina que llamó «The Ultimate Machine» que tiene el único objetivo de apagarse cuando la desea poner en marcha (lo digo en serio). Si vais a Youtube podréis ver los diferentes modelos que se siguen construyendo (con piezas de Lego, de madera, …). Los humanos somos así.

Gestionar un archivo al estilo Marie Kondo

La aplicación casera de las teorías sobre la entropía ha llegado al máximo con los consejos de la consultora en organización japonesa Marie Kondo, que nos propone seleccionar y ordenar en nuestros armarios los objetos que tienen algún significado o utilidad y eliminar el resto. ¿Quién no querría tener un archivo gestionado de esta manera?

No sabemos si, por culpa de nuestra naturaleza humana, tendremos que continuar la lucha constante contra el caos en nuestros sistemas de información y documentación o bien podemos soñar con un futuro de rendición a la naturaleza en la que navegaremos por un caos de información comprensible.

Aviso: la «Ultimate Machine» del artículo se autoapagará en unos segundos.