Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Teoría de la información - Apuntes - Seguridad Informátcia - Parte1, Apuntes de Ingeniería Infórmatica

Universidad Nacional Experimental del Táchira. Apuntes de Ingeniería Infórmatica. Fundamentos de la Seguridad Informática.

Tipo: Apuntes

2012/2013

Subido el 16/05/2013

Mauro_88
Mauro_88 🇻🇪

4.5

(213)

624 documentos

1 / 30

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Seguridad Informática y Criptografía
Capítulo 6
Teoría de la Información
docsity.com
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e

Vista previa parcial del texto

¡Descarga Teoría de la información - Apuntes - Seguridad Informátcia - Parte1 y más Apuntes en PDF de Ingeniería Infórmatica solo en Docsity!

Seguridad Informática y Criptografía

Capítulo 6 Teoría de la Información

Los pilares sobre los que descansa toda la teoría asociada a los criptosistemas son básicamente tres:

  • La teoría de la información
    • Estudio de la cantidad de información contenida en los mensajes y claves, así como su entropía.
  • La teoría de los números
    • Estudio de las matemáticas discretas y cuerpos finitos que permiten las operaciones de cifrado y descifrado.
  • La teoría de la complejidad de los algoritmos
    • Estudio de la clasificación de los problemas como computacionalmente tratables o intratables. Estos temas los veremos en éste y en los siguientes capítulos del libro.

Fundamentos de la Seguridad Informática

Puede ser numérica, alfabética, simbólica, por lenguaje.

Ejemplo: 15/01/05 15-01-05 15-1-05 15/01/ 01/15/05 01-15-05 1-15-05 01-15- ...

  • Todos son el día 15 de enero del año 2005. Vitaminas: B 12 , C, ... Grupo sanguíneo: A2 Rh+ ... Elementos: Fe, Si, Hg ... Compuestos químicos: H 2 O, CO 2 ... Más común Lenguaje con código: “¿ Hace calor allí?”

Veamos la información que contiene el mensaje ¿Hace calor allí?

Representación de la información

Veremos qué información nos entrega un mensaje

dependiendo del contexto en que nos encontremos.

Esto puede analizarse:

a) En función de la extensión del mensaje recibido.

b) En función de la utilidad del mensaje recibido.

c) En función de la sorpresa del mensaje recibido.

d) Dependiendo del entorno de esa sorpresa.

e) En función de la probabilidad de recibir un mensaje.

La información que tiene un mensaje

Este último enfoque orientado a la ingeniería y usado por Claude Shannon en su estudio es el que aquí nos interesa.

http://es.wikipedia.org/wiki/Claude_E._Shannon^ 

En función de la utilidad del mensaje

  • Ante una pregunta cualquiera, una respuesta más útil y clara nos dejará con la sensación de haber recibido una mayor “cantidad de información”.

• Pregunta: ¿Hace calor allí? ( una playa en particular )

  • Respuesta 1: Sí, sobre 30 grados.
  • Respuesta 2: Si no hay viento del sur y el mar está en calma, es normal que la temperatura suba bastante.
  • Respuesta 1: Sí, sobre 30 grados. 

Cantidad de información (caso 2)

¿Dónde hay una mayor cantidad de información?

En función de la sorpresa del mensaje

  • Ante una pregunta cualquiera, una respuesta más inesperada y sorprendente, nos dará la sensación de contener una mayor “cantidad de información”.

• Pregunta: ¿Hace calor allí? ( ahora Finlandia en otoño )

  • Respuesta 1: Sí, muchísimo. Es insoportable.
  • Respuesta 2: En esta época del año, la temperatura es más suave y el tiempo muy agradable.
  • Respuesta 1: Sí, muchísimo. Es insoportable. 

Cantidad de información (caso 3)

¿Dónde hay una mayor cantidad de información?

En función de la probabilidad de recibir un mensaje

  • Este enfoque probabilístico es el que nos interesará en cuanto a la definición de Cantidad de Información.

¿Dónde le da alegría a su cuerpo Macarena?

  • Respuesta 1: En un país de Europa.
  • Respuesta 2: En una ciudad de España.
  • Respuesta 3: En los números 1 y 3 de la calle Sierpes en Sevilla, España.
  • Respuesta 3: En los números 1 y 3 de la calle Sierpes en Sevilla, España... La Campana, ¡una excelente bombonería!

Cantidad de información (caso 5)

¿Dónde hay una mayor cantidad de información?

¿Por qué?

Ante varios mensajes posibles, en principio todos equiprobables, aquel que tenga una menor probabilidad de aparición será el que contenga una mayor cantidad de información.

  • En el ejemplo anterior:
    • Al ser más extenso el número de calles y sus números en una ciudad que el número de ciudades en España, y esto último mayor que los países en Europa, la última respuesta tendrá una mayor incertidumbre.
    • Si suponemos todos los estados equiprobables, entonces la cantidad de información de la respuesta tercera será mayor que las demás.

Incertidumbre e información

http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html^ 

Las siguientes diapositivas resumen el estudio de Claude Shannon sobre la entropía en su artículo “A Mathematical Theory of Communication” que puede descargarlo en formato pdf desde esta dirección:

• Definiremos ci a la cantidad de información del

estado i, como el logaritmo en base dos de la

probabilidad de que ocurra el estado iésimo.

ci = - log 2 (pi )

  • Logaritmo: p(xi) = 1  no hay incertidumbre: ci = 0 p(xi) = 0  máxima incertidumbre: ci  
  • Signo: p(xi)  1  log p(xi) será negativo
  • Base 2: Un fenómeno binario  dos estados (bit)

1

ci

pi 0

Definición de cantidad de información

0

Combinación 1 Combinación 5 Combinación 2 Combinación 6 Combinación 3 Combinación 7 Combinación 4 Combinación 8

Grado de indeterminación previo Grado de indeterminación posterior ci =

En una bolsa hay dos papeles con círculos, dos con cuadrados y dos con triángulos: negros o blancos. Sacamos a ciegas tres papeles cualesquiera...

¿Qué cantidad de información tiene cada uno de los estados?

Si hay equiprobabilidad entonces p(xi) = 1/

Grado de indeterminación

Sea ésta será la combinación elegida...

  • Las figuras no son del mismo color. Ii baja de 8 a 6: ci1 = log (8/6) = log 8 - log 6
  • El círculo es blanco. Ii baja de 6 a 3: ci2 = log (6/3) = log 6 - log 3
  • Hay dos figuras blancas. Ii baja de 3 a 2: ci3 = log (3/2) = log 3 - log 2
  • El cuadrado es negro. Ii baja de 2 a 1: ci4 = log (2/1) = log 2 - log 1 Todas las magnitudes se pueden sumar como escalares:

ci = ci1 + ci2 + ci3 + ci4 = log 8 - log 1 = log 8

Solución matemática al ejemplo del mago

Sean Ii la indeterminación inicial

If la indeterminación final

ci = log (Ii / If) = log Ii - log If

La cantidad de información tiene como unidad de medida la de un fenómeno de sólo dos estados, un fenómeno binario. Luego:

ci = logb (2/1) = logb 2 - logb 1

  • Si logb 2 debe ser igual a 1 entonces la base b = 2.
  • Precisamente a esta unidad se le llama bit (binary digit)
  • Ejemplo anterior: ci = log 2 8 = 3. Es decir, pasamos de la incertidumbre total a la certeza con sólo 3 preguntas.

Base del logaritmo

  • Si un fenómeno tiene un grado de indeterminación k y

sus estados son equiprobables, la probabilidad p de

que se dé uno de esos estados será 1/k. Luego:

ci = log 2 (k/1) = log 2 [1/(1/k)] = - log 2 p

  • Si ahora cada uno de estos estados tiene una

probabilidad distinta pi, la entropía H será igual a la

suma ponderada de la cantidad de información:

H = - p 1 log 2 p 1 - p 2 log 2 p 2 - ... - pk log 2 pk

k H = -  pi log 2 pi i = 1

Nota: aunque la ecuación parece bastante lógica, no es inmediata.

Entropía de los mensajes

http://en.wikipedia.org/wiki/Information_entropy^ 

  • La entropía de un mensaje X, que se representa por H(X), es el valor medio ponderado de la cantidad de información de los diversos estados del mensaje.
  • Es una medida de la incertidumbre media acerca de una variable aleatoria y el número de bits de información.

k H(X) = -  p(xi) log 2 p(xi) i = 1

Después del ejemplo de los papeles, podríamos aceptar el concepto de incertidumbre en H. Lo que ahora nos llama la atención  es lo del número de bits de información.

Esto lo veremos más adelante...

Definición de entropía