Telecomunicações – 2003/2004
3º ano Eng.ª Informática
Exercícios sobre Teoria da Informação – 5ª ficha de exercícios
Sumário:
- Resolução de exercícios sobre Teoria da Informação.
- Códigos de da Auto-Informação, Entropia, Entropia conjunta e
condicionada, Capacidade de canal.
1. Uma dada fonte de informação X produz símbolos ternários { A, B, C} com as
probabilidades de ocorrência {9/27, 16/27, 2/27}, respectivamente.
a) Determinar a auto informação de cada símbolo da fonte I(xi).
b) Determinar o valor da entropia H(X) da fonte.
c) Determinar o valor da entropia conjunta H(X,Y), supondo que o canal
cria uma relação entre os símbolos gerados pela fonte X e os
símbolos descodificados à saída do canal, uma segunda fonte Y
portanto. Essa relação é dada pelas probabilidades de transição
p(yj|xi) conforme o modelo do canal seguinte
2. Considere uma comunicação via satélite, onde se existem 3 canais
envolvidos, ascendente, bordo e descendente. Determine a capacidade do
sistema global tendo esses canais as seguinte probabilidades de erro.
Peasc=0,01
Pebordo=0
Pedesc=0,1
a) Desenhe o modelo do sistema global.
b) Determine a capacidade do sistema global tendo esses canais as
seguinte probabilidades de erro.
António Moura
1
Telecomunicações – 2003/2004
3º ano Eng.ª Informática
3. As probabilidades de geração dos símbolos de uma fonte binária são
p(x1)=p(x2)= 0,5. Os símbolos gerados por essa fonte binária atacam um
canal cuja matriz de transição de probabilidades é
a) Desenhe o modelo do canal.
b) Determine os valores das probabilidades p(y1) e p(y2) de cada um dos
símbolos binários à saída do canal de comunicação.
c) Determine os valores das probabilidades conjuntas p(xi,yj).
d) Determine o valor da informação mútua média I(X,Y).
e) Determine os valores da equivocação e da redundância do canal.
4. A figura abaixo representa um canal de informação. Determine a entropia
H(A) à entrada do canal e as entropias condicionais H(A|B) e H(B|A).
5. Para o modelo de canal de transmissão binário simétrico da figura (BSC),
abaixo apresentado, determine a taxa de transmissão de informação e o
débito médio de informação, quando p assume valores iguais a 0.9, 0.8 e 0.6.
António Moura
2
Telecomunicações – 2003/2004
3º ano Eng.ª Informática
6. O comportamento de uma fonte de informação X é definido através de uma
máquina de transição de estados, cujo comportamento é modelizado à custa
da seguinte cadeia de Markov. Quando a máquina se encontra no estado A,
B ou C, é enviado o símbolo de fonte xA, xB ou xC, respectivamente. As
probabilidades p(A), p(B) e p(C) quantificam a probabilidade de geração do
primeiro símbolo de fonte a ser transmitido pelo canal de comunicação (a
probabilidade do primeiro estado).
a)
b)
c)
d)
Calcular a entropia H(Xi) de cada um dos estados, com iЄ{1,2,3}.
Calcular a entropia H(X) da fonte.
Calcular a entropia H(2)(X) da extensão de ordem 2.
Verificar que H(2)(X) ≥ H(X).
7. Duas fontes de informação X e Y produzem símbolos quaternários {x0, x1, x2,
x3} e {y0, y1, y2, y3}, com probabilidades de ocorrência {1/2, 1/4, 1/8, 1/8} e
{1/4, 1/4, 1/4, 1/4}, respectivamente. Sabendo que as fontes produzem
símbolos a uma taxa de 1000 símbolos por segundo, deterime:
a)
b)
c)
d)
O débito binário das fontes R.
Uma codificação mais adequada para as fontes.
O comprimento médio das palavras de código N .
Conclua se a codificação que realizou é capaz de codificar sem erros
as duas fontes.
António Moura
3
Telecomunicações – 2003/2004
3º ano Eng.ª Informática
Formulário:
 1 
 = − log 2 ( p( xi )), ∀i
I ( xi ) = log 2 
 p ( xi ) 
M
M
M
 1 
 = −∑ p( xi ) ⋅ log 2 ( p( xi ))
H ( X ) = ∑ p ( xi ) ⋅ I ( xi ) = ∑ p ( xi ) ⋅ log 2 
i =1
i =1
i =1
 p ( xi ) 
R = r ⋅ H(X )
bis / seg
1
 1 
,
H ( X ) = Ω b ( p ) = p ⋅ log 2   + (1 − p ) ⋅ log 2 
 p
1− p 
p (0 ) = p
p (1) = 1 − p
R = r ⋅ H ( X ) = rb ⋅ Ω b ( p ) ≤ rb
N =
M
rb
= ∑ p(xi ) ⋅ N i
r
i =1
H (X ) ≤ N ≤ H (X ) + ε ,
ε =1
com
H ( n) ( X ) ≤ N ≤ n ⋅ H ( X )
n ⋅ H (X ) ≤ n ⋅ N ≤ n ⋅ H (X ) + 1
η=
⇒ H (X ) ≤ N ≤ H (X ) +
1
n
R H (X )
=
≤1
rb
N
M
K = ∑ 2 − Ni ≤ 1
i =1
 p (xi \ y j ) 

I ( xi , y j ) = log 2 
p
(
x
)
i


I ( X , Y ) = ∑∑ p (xi , y j ) ⋅ I (xi , y j )
M
N
i =1 j =1
I ( X , Y ) = H ( X ) − H ( X \ Y ) = H (Y ) − H (Y \ X ) = H ( X ) + H (Y ) − H ( X , Y )
H ( X , Y ) = H ( X ) + H ( X \ Y ) = H (Y ) + H (Y \ X )
António Moura
4
Telecomunicações – 2003/2004
3º ano Eng.ª Informática
M N


1

H ( X , Y ) = ∑∑ p (xi , y j ) ⋅ log
 p (x , y ) 
i =1 j =1
i
j


M N


1

H ( X \ Y ) = ∑ ∑ p(x i , y j )⋅ log
 p (x \ y ) 
i =1 j =1
i
j


M N


1

H (Y \ X ) = ∑∑ p ( y j , xi ) ⋅ log
 p(y \ x ) 
i =1 j =1
j
i 

redundância = 1 −
C s = max[I ( X , I )],
p ( xi )
C = rs ⋅ C s ,
António Moura
H (Y \ X )
H (X )
bits / símbolodefonte
bits / segundo
5
Download

Exercícios sobre Teoria da Informação – 5ª ficha de exercícios