martes, 14 de mayo de 2024

Libro: La teoría de la información. Las matemáticas de la era digital. Grandes Ideas de las Matematicas

 

 

El primer contacto con la teoría matemática de la información suele generar una considerable confusión y cierta decepción. Uno espera que la teoría trate de forma matemática los mensajes que intercambiamos, e incluso el propio pensamiento y como este se formula en un lenguaje. Sin embargo, en esta teoría lo importante es la impredecibilidad, ya que no se preocupa por el significado de los mensajes o lo textos, sino que trata de cuantificar la información que pueden albergar.

Claude Elwood Shannon fue capaz, con solo dos artículos publicados en 1948, de construir las bases de toda la teoría de la información. Los conceptos de información y su aplicación a la compresión de datos (primer teorema de Shannon), así como la capacidad de transmisión de los canales de comunicación (segundo teorema de Shannon) y sus aplicaciones en telefonía movil y otros sistemas de comunicación conforman el nucleso de este libro. 

Asimismo, en este volumen se aborda la inesperada relación que ha surgido entre la física y la teoría de la información, al descubrir que los sistemas cuánticos pueden procesar información de manera mucho más eficaz que los clásicos.


CLAUDE SHANNON

(Claude Elwood Shannon; Gaylord, 1916 - Medford, 2001) Ingeniero estadounidense, padre de la moderna teoría de la información, una formulación matemática que analiza las unidades de información (bits) y su pérdida en los procesos de transmisión. Claude Shannon se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.

Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cuantitativa. 

Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como «redundancia» (elementos del mensaje que no aportan nueva información pero se anticipan a posibles pérdidas) o «ruido» (perturbaciones en la comunicación) e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.

La rama de las matemáticas inaugurada por Shannon se denominó «teoría de la información» y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras, la informática y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, la psicología, la fonética e incluso la semántica y la literatura.

También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.

 

MÁS INFORMACIÓN

 

Autor(es): Juan M. R. Parrondo

Editorial: EMSE EDAPP

Páginas: 144

Tamaño: 16 x 23,5 cm.

Año: 2023