Documento no encontrado! Por favor, inténtelo de nuevo

TALLER 1 – Segunda Etapa

Respuesta 3. Z. Enunciado 4. Considere una fuente de Markov de segundo orden ergódica con un alfabeto. S= {0, 1}. Suponga las siguientes probabilidades:.
17KB Größe 10 Downloads 141 vistas
FACULTAD DE CIENCIAS EXACTAS Y TECNOLOGIAS Licenciatura en Sistemas de Información – Profesorado en Informática ASIGNATURA: Teoría de la Información y la Comunicación

Año 2011

TALLER 1 – Segunda Etapa Tema: Introducción a la Teoría de la Información y la Comunicación. Objetivo: Que los alumnos logren… 

Identificar los conceptos básicos de la Teoría de la información.



Identificar la relación entre codificación y la medida de la información.

Consignas.  Esta evaluación integra la segunda etapa del Taller 2, cuya primera etapa se llevó a cabo previamente.  Para realizar esta segunda etapa de la evaluación el alumno deberá presentar la carpeta solicitada para la primera etapa de la evaluación, cumpliendo con todos sus puntos.  Esta evaluación es de carácter individual y se realizará a lo sumo en tres horas reloj. Condiciones de aprobación.  La presentación de la carpeta solicitada en la primera etapa deberá realizarse en tiempo y forma y contar con todos los ítems solicitados.  Las respuestas en la evaluación presencial, segunda etapa, deberán ser precisas, completas y claras y demostrar correcto manejo conceptual y bibliográfico.  Cumplimentar por lo menos el 50% de respuestas correctas en la segunda etapa de este taller. El alumno se halla debidamente notificado, se le solicita que indique su nombre y apellido y firme a continuación. APELLIDO Y NOMBRE: .............................................................................................................................. .......................................... Cuestionario Segunda Etapa Enunciado 1. Indique cuánta información contiene una cadena de moléculas de 10.000 eslabones, si entre eslabones pueden hallarse cuatro moléculas diferentes. Fundamente. Respuesta 1. X. Respuesta 2. Y. Respuesta 3. Z. Enunciado 2. La Entropía H(S) de una fuente de memoria nula es igual a la siguiente fórmula: Respuesta 1. X. Respuesta 2. Y. Respuesta 3. Z. Enunciado 3. Dada una fuente de memoria nula con S = {S1, S2, S3, S4} y las probabilidades de los eventos: P(S1)= 1/2, P(S2)= 1/4, P(S3)= 1/16, P(S4)= 3/16. Indique el valor correcto de la entropía de la fuente

Respuesta 1. X. Respuesta 2. Y. Respuesta 3. Z. Enunciado 4. Considere una fuente de Markov de segundo orden ergódica con un alfabeto S= {0, 1}. Suponga las siguientes probabilidades: P (1/11) = 0.1 P (1/00) = 0.5 P (0/00) = 1.0 P (1/01) = 0.7 Construya el diagrama de estados. Enunciado 5. La relación existente entre la medida de la información y la entropía consiste en… Respuesta 1. X. Respuesta 2. Y. Respuesta 3. Z.