La teoría de la información

En 1916 nació Claude Shannon,
matemático e ingeniero
que en los años treinta sentó
las bases de la Teoría de la
Información y de la revolución
digital.
Cuando Shannon estudiaba en
la universidad, poco antes de
la II Guerra Mundial, los ordenadores
no existían como tales
y las máquinas de cálculo eran
dispositivos mecánicos llenos
de engranajes y muelles.
Trabajó con el asesor científico
del presidente Roosevelt,
Vannevar Bush quien, según
muchos, fue uno de los fundadores

14/06/06 · 17:13
Edición impresa

En 1916 nació Claude Shannon,
matemático e ingeniero
que en los años treinta sentó
las bases de la Teoría de la
Información y de la revolución
digital.
Cuando Shannon estudiaba en
la universidad, poco antes de
la II Guerra Mundial, los ordenadores
no existían como tales
y las máquinas de cálculo eran
dispositivos mecánicos llenos
de engranajes y muelles.
Trabajó con el asesor científico
del presidente Roosevelt,
Vannevar Bush quien, según
muchos, fue uno de los fundadores
de Internet. Éste confiaba
en crear una máquina que
liberara al humano de hacer
tediosos cálculos, para lo que
había diseñado un “analizador
diferencial”, que almacenaba
números en cilindros dentados
giratorios. Llevaba días
enteros ajustar la máquina
para trabajar en un problema
concreto, y, después, había
que desmantelarla y ajustarla
para que se encargara de un
nuevo problema. Los cálculos
del analizador generaban una
cantidad determinada de
información y en los indicadores
de salida había una velocidad
límite para presentar la
información calculada.
La cantidad de información y
la velocidad de transmisión
iban a ser los pilares de la
Teoría de la Información de
Shannon. Otro factor que
influenció a Shannon fueron
los conmutadores eléctricos
por el juego que daban al ser
encendidos y apagados; junto
a la lógica de Boole, que nos
dice que podemos expresar
casi todo como afirmaciones
verdaderas o falsas.
Definió lo que hoy es la unidad
de medida de la información,
el bit, que puede tener dos
valores: 0 y 1. Es una unidad
que actualmente tiene tanta
importancia como el litro o el
kilovatio y sin la cual no existirían
las telecomunicaciones tal
y como las conocemos.
El matemático escribió un artículo
en 1948 que conectaba
la Teoría de la Información y la
Física creando una nueva
perspectiva sobre la información
que es la que está desarrollando
en la actualidad y
hará que en el futuro existan
ordenadores con velocidades y
capacidades inimaginables
actualmente. Serán los llamados
ordenadores cuánticos.
En 1985 recibió el Premio
Kyoto, equivalente al premio
Nobel en el campo de los ordenadores.
Shannon falleció en
el año 2001 enfermo de alzheimer.

+A Agrandar texto
+A Disminuir texto
Licencia

comentarios

0

separador

Tienda El Salto