Definición de

Entropía

Desorden

La entropía mide el caos de un sistema.

Entropía es una noción que procede de un vocablo griego que puede traducirse como «vuelta» o «transformación» (utilizado en sentido figurado).

En el siglo XIX, Clausius acuñó el concepto en el ámbito de la física para referirse a una medida del desorden que puede verse en las moléculas de un gas. A partir de entonces este concepto se utilizaría con diversos significados en múltiples ciencias, tales como la física, la química, la informática, la matemática y la lingüística.

Algunas definiciones de entropía

La entropía puede ser la magnitud física termodinámica que permite medir la parte no utilizable de la energía contenida en un sistema. Esto quiere decir que dicha parte de la energía no puede usarse para producir un trabajo.

Se entiende por entropía también a la medida de desorden de un sistema. En este sentido, está asociada a un grado de homogeneidad.

La entropía de formación de un compuesto químico se establece midiendo la que conforma a cada uno de sus elementos constituyentes. A mayor entropía de formación, más favorable será su formación.

Entropía de Shannon

A la entropía de la información también se la conoce como entropía de Shannon.

El concepto y la información

En la teoría de la información, la entropía es la medida de la incertidumbre que existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno). La medición en cuestión es necesaria para reducir o eliminar la incertidumbre.

Otra manera de entender la entropía es como la cantidad media de información que contienen los símbolos transmitidos. Palabras como «el» o «que» son los símbolos más frecuentes en un texto pero, sin embargo, son los que aportan menos información. El mensaje tendrá información relevante y máxima entropía cuando todos los símbolos son igualmente probables.

Moléculas

La fórmula de entropía de Boltzmann evidencia el vínculo entre la entropía y la cantidad de formas en las que pueden organizarse las moléculas o los átomos de un sistema termodinámico.

La entropía en el campo de la lingüística

La forma en la que se organiza y difunde la información en un discurso es uno de los temas más relevantes y susceptibles de investigación para la lingüística. Y gracias a la entropía puede realizarse un análisis más profundo de la comunicación.

En el caso de la comunicación escrita el problema es sencillo de analizar (las unidades básicas, las letras, se encuentran bien definidas); si se desea comprender a fondo el mensaje es posible decodificarlo con exactitud y comprender tanto lo dicho literalmente como en sentido figurado. Pero en el lenguaje oral, la cosa cambia un poco, presentando algunas complicaciones.

No es sencillo determinar en el discurso oral los elementos fundamentales del código; las palabras suenan diferentes según quién las pronuncie y, de igual modo, pueden tener significados diversos. No es suficiente, por lo tanto, clasificarlas en fonemas vocálicos y consonánticos porque esto no nos permitiría entender cómo se organiza la información ya que, por ejemplo, si se suprimen fonemas vocálicos, no es posible comprender el mensaje.

Comprensión del código

Según un estudio realizado en la Universidad de Wisconsin-Madison una buena forma de aislar y comprender el código oral es a través de la descomposición espectral de las señales sonoras. Gracias a esta técnica se intenta comprender cómo la cóclea filtra y analiza lo le llega. La cóclea es la parte de nuestros oídos que tiene la función de transformar los sonidos en señales eléctricas y enviarlas directamente al cerebro.

Para llevar a cabo este experimento se utilizó una unidad de medida que se conoce como entropía espectral en escala coclear (CSE), que permite establecer conexiones entre una señal y la que la precede, decidiendo qué posibilidades hay de predecir una señal partiendo de la anterior.

Los resultados devolvieron que cuanto más parecidas son dos señales, más fácil es predecir la segunda; esto significa que la información que tomamos de la segunda es casi nula. Así mismo cuanto más difieran entre sí, mayor será la información que aporte la segunda señal, por lo que si es eliminada provocará consecuencias considerables en la comprensión del discurso.

La entropía y los principios de la termodinámica

Se denomina principios de la termodinámica a cuatro leyes que se encargan de la definición de las cantidades físicas fundamentales que permiten la caracterización de un sistema termodinámico. Estas leyes realizan una descripción del comportamiento de los sistemas bajo determinadas circunstancias.

Existe una ley cero de la termodinámica que indica que, cuando dos sistemas se hallan en equilibrio térmico -cada uno de forma independiente- con un tercer sistema, dichos sistemas también tienen que encontrarse en equilibrio térmico entre sí. Este postulado es importante para la definición de la temperatura.

La primera ley de la termodinámica, por su parte, alude a que un sistema cerrado puede realizar un intercambio energético con su entorno a través de calor y trabajo, lo que implica que acumula energía interna.

La segunda ley de la termodinámica sostiene que la entropía del universo muestra siempre una tendencia al incremento.

Finalmente, la tercera ley de la termodinámica expresa que la entropía de un sistema va acercándose a un valor constante cuando la temperatura, por su parte, se acerca al cero absoluto. En este punto hay que indicar que la entropía de un sistema en dicha instancia suele ser cercana al 0, excepto en aquellos sólidos que no son cristalinos.

¿Te sirvió este artículo?

Cómo citar este artículo Publicado por Julián Pérez Porto y Ana Gardey. Actualizado el 26 de julio de 2024. Entropía - Qué es, definición y concepto. Disponible en https://definicion.de/entropia/
Buscar otra definición
x