Claude Shannon. Los cimientos de las telecomunicaciones

Hoy Google conmemora en la página principal de su buscador el centenario del nacimiento de Claude Shannon, considerado el padre de la Teoría de la Comunicación. La teoría constituye la base de las telecomunicaciones actuales y a Google no le falta razón para homenajear a otro adelantado a su tiempo.

1024px-Esquema_de_comunicación_Shannon

Este blog quiere aportar un granito de arena a la divulgación de cómo funcionan estas técnicas de comunicación, y hoy recordamos a los que pusieron los cimientos de cómo las máquinas habían de tratar la información.

Cualquier texto que quiera remontarse a los principios de la información ha de hacer una rápida referencia al periodo védico, hacia el siglo IV a.C. Se trata de los textos sagrados de la India antigua, a los que se atribuye una disruptiva concepción de las matemáticas. Parece ser que Pingala, en su búsqueda para entender el concepto del número cero fue el primero en toparse con el sistema binario. Los indios ya usaban métrica decimal (0-9), su concepción de las matemáticas entendía perfectamente las fracciones de la unidad y tendía a pensar en la continuidad de las cosas y los números irracionales. Por ello el cero consituía un problema; la ausencia de magnitud, de longitud, de cantidad, es un concepto binario por naturaleza (ausencia o presencia de algo). He aquí el sistema binario.

Los matemáticos chinos también hicieron sus pinitos con el binario, pero el que conocemos hoy, el de los ceros y los unos, fue documentado por Goddfried Leibniz en el siglo XVII. Podían haberse llamado peras y manzanas, rojo y verde, o círculo y cuadrado, pero usamos ceros y unos para determinar el estado más elemental de una cosa, la unidad mínima de información. Esa cosa puede ser encendido/apagado, +5Voltios/-5Voltios, SÍ/NO, ausencia/presencia… aquí empieza el juego, valores que llamamos booleanos. George Boole, en el XIX empezó a definir sistemas lógicos (álgebra booleana), operaciones en sistema binario como puertas AND, OR, NOT, etcétera.

En el siglo XX, entre 1925 y 1954, una generación de físicos brillantes realizan experimentos con semiconductores y relés para controlar las corrientes eléctricas de un circuito, de tal manera que puedan asociarse a su vez a estados binarios. Estas investigaciones dan lugar a diferentes tipos de transistores, que permiten crear circuitos para realizar operaciones complejas con estos nuevos números. Nótese que el periodo comprende la Segunda Guerra mundial y que, en plena carrera por el desarrollo electrónico, Alan Turing creó una máquina de criptoanálisis para descrifrar los códigos de Enigma, la que utilizaban los nazis para sus transmisiones; todo su trabajo fue secreto hasta 1970. Y nótese también que la arquitectura de Von Newman, precursora de nuestros actuales ordenadores (periféricos de entrada y salida, procesamiento CPU y memoria) fue descrita en 1945.

En estos vertiginos años de desarrollo científico y computacional, Claude Shannon ya venía trabajando desde 1936 como ingeniero eléctrico en el Instituto Tecnológico de Massachusets, en conmutación y sistemas digitales. En 1948 publicó “Una teoría matemática de la comunicación”, en la que explicaba que gracias al binario se podían codificar mensajes, los cuales serían inyectados en un canal de comunicación a través de un transmisor, a lo que le daba el nombre de señal. Shannon se dio cuenta que para implementar sistemas de comunicaciones tendría que ser capaz de medir la cantidad de información que genera una fuente, pues no sería lo mismo transmitir un mensaje conocido que, por ejemplo cada cien niveles altos (1) presenta un nivel bajo (0), que mensajes mucho más desordenados. El primero resultaría mucho más sencillo de comprimir, tiene menos información real, y para cuantificar la cantidad de información introdujo la entropía, que depende únicamente de la probabilidad de ocurrencia de un dato, no de la cantidad de datos. Además, la señal transmitida al ser introducida en el canal se verá sometida a diversas fuentes de ruido, lo que emborronará la señal y podría hacer más difícil al receptor interpretar los estados binarios. Dependiendo de la codificación/compresión y del canal físico empleado, se puede modelar cómo es la fuente de ruido, cómo detectar y corregir errores en el receptor. El trabajo de Shannon consistió en teorizar matemáticamente estos aspectos, no en cómo se comporta un cable o un canal de radio, o en crear estándares de codificación o compresión.

A partir de aquí, resultaría crucial todo el trabajo de Jean-Baptiste Joseph Fourier y la transformación matemática que lleva su nombre, máximo exponente del análisis en frecuencia de señales. Gracias a esta transformada conocemos la información que tiene una señal en el dominio de la frecuencia. Shannon logró demostrar en su teoría de la comunicación el teorema de Nyquist (1928), que venía a decir que la reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras, es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda. Además, Shannon indicaba que, en presencia de ruido, a mayor frecuencia de muestreo el sistema se ve menos afectado por el ruido.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *