¡Descarga Teoría de la información - Apuntes - Seguridad Informátcia - Parte1 y más Apuntes en PDF de Ingeniería Infórmatica solo en Docsity!
Seguridad Informática y Criptografía
Capítulo 6 Teoría de la Información
Los pilares sobre los que descansa toda la teoría asociada a los criptosistemas son básicamente tres:
- La teoría de la información
- Estudio de la cantidad de información contenida en los mensajes y claves, así como su entropía.
- La teoría de los números
- Estudio de las matemáticas discretas y cuerpos finitos que permiten las operaciones de cifrado y descifrado.
- La teoría de la complejidad de los algoritmos
- Estudio de la clasificación de los problemas como computacionalmente tratables o intratables. Estos temas los veremos en éste y en los siguientes capítulos del libro.
Fundamentos de la Seguridad Informática
Puede ser numérica, alfabética, simbólica, por lenguaje.
Ejemplo: 15/01/05 15-01-05 15-1-05 15/01/ 01/15/05 01-15-05 1-15-05 01-15- ...
- Todos son el día 15 de enero del año 2005. Vitaminas: B 12 , C, ... Grupo sanguíneo: A2 Rh+ ... Elementos: Fe, Si, Hg ... Compuestos químicos: H 2 O, CO 2 ... Más común Lenguaje con código: “¿ Hace calor allí?”
Veamos la información que contiene el mensaje ¿Hace calor allí?
Representación de la información
Veremos qué información nos entrega un mensaje
dependiendo del contexto en que nos encontremos.
Esto puede analizarse:
a) En función de la extensión del mensaje recibido.
b) En función de la utilidad del mensaje recibido.
c) En función de la sorpresa del mensaje recibido.
d) Dependiendo del entorno de esa sorpresa.
e) En función de la probabilidad de recibir un mensaje.
La información que tiene un mensaje
Este último enfoque orientado a la ingeniería y usado por Claude Shannon en su estudio es el que aquí nos interesa.
http://es.wikipedia.org/wiki/Claude_E._Shannon^
En función de la utilidad del mensaje
- Ante una pregunta cualquiera, una respuesta más útil y clara nos dejará con la sensación de haber recibido una mayor “cantidad de información”.
• Pregunta: ¿Hace calor allí? ( una playa en particular )
- Respuesta 1: Sí, sobre 30 grados.
- Respuesta 2: Si no hay viento del sur y el mar está en calma, es normal que la temperatura suba bastante.
- Respuesta 1: Sí, sobre 30 grados.
Cantidad de información (caso 2)
¿Dónde hay una mayor cantidad de información?
En función de la sorpresa del mensaje
- Ante una pregunta cualquiera, una respuesta más inesperada y sorprendente, nos dará la sensación de contener una mayor “cantidad de información”.
• Pregunta: ¿Hace calor allí? ( ahora Finlandia en otoño )
- Respuesta 1: Sí, muchísimo. Es insoportable.
- Respuesta 2: En esta época del año, la temperatura es más suave y el tiempo muy agradable.
- Respuesta 1: Sí, muchísimo. Es insoportable.
Cantidad de información (caso 3)
¿Dónde hay una mayor cantidad de información?
En función de la probabilidad de recibir un mensaje
- Este enfoque probabilístico es el que nos interesará en cuanto a la definición de Cantidad de Información.
¿Dónde le da alegría a su cuerpo Macarena?
- Respuesta 1: En un país de Europa.
- Respuesta 2: En una ciudad de España.
- Respuesta 3: En los números 1 y 3 de la calle Sierpes en Sevilla, España.
- Respuesta 3: En los números 1 y 3 de la calle Sierpes en Sevilla, España... La Campana, ¡una excelente bombonería!
Cantidad de información (caso 5)
¿Dónde hay una mayor cantidad de información?
¿Por qué?
Ante varios mensajes posibles, en principio todos equiprobables, aquel que tenga una menor probabilidad de aparición será el que contenga una mayor cantidad de información.
- En el ejemplo anterior:
- Al ser más extenso el número de calles y sus números en una ciudad que el número de ciudades en España, y esto último mayor que los países en Europa, la última respuesta tendrá una mayor incertidumbre.
- Si suponemos todos los estados equiprobables, entonces la cantidad de información de la respuesta tercera será mayor que las demás.
Incertidumbre e información
http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html^
Las siguientes diapositivas resumen el estudio de Claude Shannon sobre la entropía en su artículo “A Mathematical Theory of Communication” que puede descargarlo en formato pdf desde esta dirección:
• Definiremos ci a la cantidad de información del
estado i, como el logaritmo en base dos de la
probabilidad de que ocurra el estado iésimo.
ci = - log 2 (pi )
- Logaritmo: p(xi) = 1 no hay incertidumbre: ci = 0 p(xi) = 0 máxima incertidumbre: ci
- Signo: p(xi) 1 log p(xi) será negativo
- Base 2: Un fenómeno binario dos estados (bit)
1
ci
pi 0
Definición de cantidad de información
0
Combinación 1 Combinación 5 Combinación 2 Combinación 6 Combinación 3 Combinación 7 Combinación 4 Combinación 8
Grado de indeterminación previo Grado de indeterminación posterior ci =
En una bolsa hay dos papeles con círculos, dos con cuadrados y dos con triángulos: negros o blancos. Sacamos a ciegas tres papeles cualesquiera...
¿Qué cantidad de información tiene cada uno de los estados?
Si hay equiprobabilidad entonces p(xi) = 1/
Grado de indeterminación
Sea ésta será la combinación elegida...
- Las figuras no son del mismo color. Ii baja de 8 a 6: ci1 = log (8/6) = log 8 - log 6
- El círculo es blanco. Ii baja de 6 a 3: ci2 = log (6/3) = log 6 - log 3
- Hay dos figuras blancas. Ii baja de 3 a 2: ci3 = log (3/2) = log 3 - log 2
- El cuadrado es negro. Ii baja de 2 a 1: ci4 = log (2/1) = log 2 - log 1 Todas las magnitudes se pueden sumar como escalares:
ci = ci1 + ci2 + ci3 + ci4 = log 8 - log 1 = log 8
Solución matemática al ejemplo del mago
Sean Ii la indeterminación inicial
If la indeterminación final
ci = log (Ii / If) = log Ii - log If
La cantidad de información tiene como unidad de medida la de un fenómeno de sólo dos estados, un fenómeno binario. Luego:
ci = logb (2/1) = logb 2 - logb 1
- Si logb 2 debe ser igual a 1 entonces la base b = 2.
- Precisamente a esta unidad se le llama bit (binary digit)
- Ejemplo anterior: ci = log 2 8 = 3. Es decir, pasamos de la incertidumbre total a la certeza con sólo 3 preguntas.
Base del logaritmo
- Si un fenómeno tiene un grado de indeterminación k y
sus estados son equiprobables, la probabilidad p de
que se dé uno de esos estados será 1/k. Luego:
ci = log 2 (k/1) = log 2 [1/(1/k)] = - log 2 p
- Si ahora cada uno de estos estados tiene una
probabilidad distinta pi, la entropía H será igual a la
suma ponderada de la cantidad de información:
H = - p 1 log 2 p 1 - p 2 log 2 p 2 - ... - pk log 2 pk
k H = - pi log 2 pi i = 1
Nota: aunque la ecuación parece bastante lógica, no es inmediata.
Entropía de los mensajes
http://en.wikipedia.org/wiki/Information_entropy^
- La entropía de un mensaje X, que se representa por H(X), es el valor medio ponderado de la cantidad de información de los diversos estados del mensaje.
- Es una medida de la incertidumbre media acerca de una variable aleatoria y el número de bits de información.
k H(X) = - p(xi) log 2 p(xi) i = 1
Después del ejemplo de los papeles, podríamos aceptar el concepto de incertidumbre en H. Lo que ahora nos llama la atención es lo del número de bits de información.
Esto lo veremos más adelante...
Definición de entropía