freshadvertising

Teoria i modelo de Shannon

Shannon es uno de los padres del código binario, base de toda la informática de hoy día. A partir de sus estudios, que establecen las bases para unificar toda la información en un código de transmisión único, surgirá su teoría matemática de la comunicación.

Shannon estudia el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite. Al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción.
Al cabo de más de medio siglo de sus hallazgos se sigue considerando el trabajo de Shannon la pieza clave en el desarrollo que lleva a que la comunicación adquiera un carácter de centralidad en la sociedad actual. Asimismo, sienta los fundamentos matemáticos de la revolución tecnológica de la segunda mitad del siglo XX.
Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.

 

 

 

La información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos para enviar información o la cantidad de información útil que se puede enviar a través de un canal.

 

La información así tratada adquiere una dimensión física, cuantificable y mesurable, independientemente del contenido, de los emisores y de los receptores. Equis páginas de un libro tienen la misma información que una cantidad igual de otro, independientemente de sus autores y la calidad de sus contenidos... La base matemática de la teoría radica en su cuantificación, en la descripción del concepto técnico de canal, en la codificación y descodificación de las señales; esto es, un concepto de la información distinto al conocido hasta entonces en los ámbitos de las ciencias sociales. Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.

 

'Los modelos de comunicación; Miquel Rodrigo Alsina'

 

Basandose en la entropía Shannon estudia la capacidad de los canales de transmisión para transmitir un mensaje incompleto y que a pesar de ello las partes que se reciban sean descodificables de forma independiente. También investiga el ruido de cualquier mensaje y como lo afecta según el canal por el que se transmite. 

 

Todos los cambios en la señal original pueden llamarse “ruido”. Cuando la señal es recibida por el receptor se lleva a cabo la operación inversa a la del transmisor reconstruyendo el mensaje a partir de la señal.

 

Entropía: El concepto de entropía, magnitud que proviene de la termodinámica y mida el grado de desorden molecular de un sistema es recogido también por la teoría matemática. De la misma manera que la entropía es una medida de desorganización, la información suministrada por un grupo de mensajes es una medida de organización.

Se define a la Entropía como el paso de un estado de orden previsible a un estado de desorden aleatorio.

Comentarios

hola me encanto el articulo, le rogaria en cuanto fuese posible que meenvien la bibliografia del mismo. Muchas Gracias.

Endrina, baja esa mayúscula, queda muy violenta

Interesante lectura

QUIERO SABER SOBRE LOS MODELOS DE LA COMUNICACION DE SHANNON Y NIXON

Añadir un Comentario: