La teoría de la información es un postulado que explica cómo se procesan y se miden los datos cuando se transmite información. También llamada teoría matemática de la comunicación, fue elaborada por el biólogo Warren Weaver y el ingeniero eléctrico y matemático Claude Shannon a fines de la década de 1940.
Antes de avanzar, resulta útil analizar los términos que componen el concepto. Una teoría es un conjunto de principios o preceptos que permiten vincular y explicar fenómenos. La noción también puede referirse a una hipótesis o una especulación. La información, en tanto, es un conocimiento, una noticia o una indicación.
Puede decirse que la teoría de la información analiza el funcionamiento de los sistemas de comunicación, teniendo en cuenta el rol del emisor y del receptor. Asimismo considera la circulación de los mensajes a través de un canal.
Historia de la teoría de la información
La historia de la teoría de la información comenzó mucho antes de los trabajos de Weaver y Shannon. Como ocurre siempre en el ámbito de la ciencia, estos teóricos se basaron en investigaciones y publicaciones de otros especialistas para avanzar en la construcción de saberes.
Se menciona a Andréi Márkov como uno de los precursores gracias a sus estudios sobre las probabilidades y la aleatoriedad a fines del siglo XIX y comienzos del siglo XX. Luego llegaron los aportes de Ralph Hartley, quien examinó cómo se transmite la voz sobre ondas portadoras en los últimos años de la década de 1920.
Otra contribución clave fue la realizada por Alan Turing, a quien se señala como pionero de la informática y las ciencias de la computación. La denominada máquina de Turing, un esquema que se basa en el tratamiento de datos mediante la manipulación de símbolos, permite la simulación de la lógica de los algoritmos que se utilizan en el campo informático.
Todo este bagaje posibilitó que Weaver y Shannon desarrollaran la teoría matemática de la comunicación. Fue Shannon quien, en 1948, dio a conocer un artículo que tituló «A Mathematical Theory of Communication» («Una teoría matemática de la comunicación») en The Bell System Technical Journal.
La teoría de la información, en este marco, surgió con la finalidad de encontrar maneras eficientes de aprovechar los canales comunicativos para la transmisión de mensajes sin pérdida de calidad (es decir, sin la interferencia generada por ruido).
Sus componentes
La teoría de la información reconoce diversos componentes o elementos que forman parte de un proceso de comunicación.
El mensaje es el conjunto de datos que se transmiten. Dicha información se transporta mediante canales de comunicación (los medios que hacen posible la transmisión) y es interpretada de acuerdo a las reglas de un determinado código.
Quien envía el mensaje, por otra parte, es el emisor. En el marco de la teoría de la información, el emisor es entendido como la fuente informativa. El receptor, en tanto, es aquel que recibe el mensaje.
Otro elemento central es el ruido. Se trata de las causas que llevan a que el mensaje no arribe correctamente al receptor, quien por dicho motivo no puede comprenderlo. Existen distintos tipos de ruido, como el ruido blanco (una señal aleatoria cuyos valores en dos tiempos distintos no mantienen una correlación a nivel estadístico) o el ruido gaussiano (que presenta una densidad de probabilidad que resulta idéntica a la de una distribución normal).
Características de la teoría de la información
La teoría de la información examina el desarrollo del proceso informativo, señalando cuál es la manera más simple y con mayor eficacia para la transmisión de un mensaje. Por eso advierte sobre el ruido, busca qué canales son los más adecuados y analiza la posible comprensión de los datos.
De acuerdo a esta visión, el emisor y el receptor tienen que estar en condiciones de llevar a la cabo tanto la codificación como la decodificación de los mensajes.
Cabe destacar que, a nivel conceptual, la información se compone de variables capaces de adoptar distintos valores: esto implica que, al observar el valor de una variable, se obtiene información. La idea de entropía de la información está asociada a la cuantificación de los distintos valores posibles que contiene una variable.
La teoría de la información, en basa a la probabilidad matemática, sostiene que la información debe guardar proporcionalidad con el número de bits que se requieren para el reconocimiento del mensaje. Debe tenerse en cuenta que un bit es una unidad que mide la cantidad de información y que equivale a la elección entre dos alternativas que presentan idéntica probabilidad. Asimismo hay que considerar que los mensajes pueden representarse, en este contexto, con una serie de ceros (0) y unos (1).
Continuando con el análisis, puede afirmarse que un mensaje cuenta con muchos sentidos: es el receptor quien, al compartir el código con el emisor, le confiere el significado. La información es un bit cuando, en el proceso comunicativo, hay alternativas que son igual de probables. A medida que existen más alternativas, y siempre que todas cuenten con la misma probabilidad, hay más información.
Es interesante indicar que los principios de la teoría de la información tienen múltiples aplicaciones. Aparecen en ámbitos muy diversos como las ciencias de la computación (en lo que respecta a la criptografía, por ejemplo) y la biología (el código genético y la secuenciación del ácido desoxirribonucleico), además de la estadística y la ingeniería.