Teoria
da
Informação
-
Um Enfoque Para Telecomunicações
SHANNON : O grande mestre da
Teoria da Informação
– Claude Elwood Shannon é considerado o pai
da Teoria da Informação ou Teoria das
Comunicações. Trabalhou na empresa Bell
Laboratories (USA) como Matemático e
Engenheiro.
– Shannon nasceu na cidade de Gaylord,
Michigan, USA , aos 30 de Abril de 1916
e morreu em 2001 aos 84 anos.
SHANNON
Tópicos Gerais :
Informação
 Quantidade de Informação
 Entropia
 Banda de Transmissão
 Ruído
 Capacidade de Canal ( Shannon )

Introdução
Conceituando o sistema de
comunicação:
A Fonte
A Informação
A Mensagem
Conceitos Importantes

Elementos de um Sistema de Comunicação
sinal transmitido
fonte
transmissor
sinal de
entrada
Canal
receptor
Ruído, interferência
destino
Introdução à Teoria da
Informação
FONTE
fonte
destinatário
É o ente que produz a informação.
Dispõe de elementos simples e símbolos.
Introdução à Teoria da Informação
Fontes de informação podem ser classificadas
em duas categorias:
a - fontes de informação analógica: emissão de
sinais de amplitude contínua - Ex: microfone
captando a voz, câmara TV..
b- fontes de informação discretas: emissão de
símbolos discretos . Ex: saída de modem
digital, saída de computador, saída de
conversor A/D, etc...
Introdução à Teoria da
Informação
A fonte de informação discreta
apresenta em sua constituição:
O ELEMENTO BÁSICO :
 que é o componente mais simples que
entra na composição representativa da
informação. Por exemplo: 0 e 1
Introdução à Teoria da
Informação
O SÍMBOLO :
que é formado por um conjunto ordenado
de elementos.
Os símbolos que compõem uma fonte
também são fixos e definidos.
Ex.: com os elementos 0 e 1 podemos
compor os simbolos: 10,101..1100...

Introdução à Teoria da
Informação
O alfabeto da fonte pode ser o alfabeto
de elementos ou alfabeto de símbolos.
 MENSAGEM:consiste de um conjunto
ordenado de símbolos que a fonte
seleciona de seu alfabeto, ...
10011 10001 01110

elemento
Símbolo
Introdução à Teoria da
Informação
A mensagem é uma realização que se
caracteriza por apresentar
configurações variáveis ao longo do
tempo e, também, para um observador
externo à fonte, por apresentar
símbolos de um modo aleatório.
Introdução à Teoria da
Informação
A cada símbolo corresponde uma certa
quantidade de informação, que é
função de suas probabilidades de
ocorrência.
A cada mensagem se associa uma certa
quantidade de informação, dada pela
soma das quantidades de informação
de cada símbolo.
Introdução à Teoria da
Informação


A produção de uma seqüência de símbolos,
que podem ser letras , notas musicais, dados,
imagens, etc, operando de acordo com certas
probabilidades, é chamado um “processo
estocástico”, “aleatório” ou “randômico” .
Um caso especial, quando as probabilidades
dependem de eventos antecedentes, é
denominado processo Markov ou cadeia de
Markov.
Introdução à Teoria da
Informação
O processo de comunicação consiste em
estabelecer o fluxo de informações
entre fonte e destinatário, o que é feito
através da transmissão dos símbolos
que compõem a mensagem.
MENSAGEM 
FONTE
CANAL
DESTINO
“ Só conhecemos realmente um fenômeno quando
podemos medí-lo e compará-lo” ( Darwin )
Quantidade de Informação
É possível medir??
Introdução à Teoria da
Informação
Do ponto de vista técnico a informação é
analisada no que diz respeito às
características de diversidade e de
aleatoriedade dos símbolos que a fonte
seleciona.
Introdução à Teoria da
Informação
JOGO:
Quem adivinhar a carta
Recebe US$ 50,00
?
fonte
Número distinto de símbolos
Os símbolos recebidos são imprevisíveis
Introdução à Teoria da
Informação
O nível de incerteza a respeito da
ocorrência de um símbolo pode ser
expresso pela probabilidade de
ocorrência deste símbolo.
Esta probabilidade é fundamental para a
medida da quantidade de informação
que cada símbolo carrega para o
destinatário.
Introdução à Teoria da
Informação
A probabilidade de sair a face 5
é de 1 em 6 (total de eventos possíveis).
P = 1/6
Incerteza do Jogador
P= 1 => certeza total
0,7 – grau de incerteza antes que
o evento ocorra
Informação é a “quantidade de incerteza”
Sobre a ocorrência de um símbolo,
Que é anulada quando este símbolo ocorre.
0,3 grau de certeza (probabilidade que
aconteça um evento) antes que o evento ocorra
P = 0 => incerteza total
Se a probabilidade é p=0,3, o grau de incerteza é 0,7.
Quando o evento ocorre, passa p=0,3 para p=1
Introdução à Teoria da
Informação

Quanto maior o número de símbolos
disponíveis na fonte ( isto é, sua
variedade), maior será o grau de
incerteza sobre qual símbolo será
selecionado para envio.
?
destinatário
P( verde ) = 0,5
Introdução à Teoria da
Informação

Grau de liberdade:
– se todos os símbolos têm igual
probabilidade de serem selecionados, a
fonte possui o maior grau de liberdade
possível na seleção.
Introdução à Teoria da
Informação

Informação e sua Medida.
FONTE COM
SÍMBOLOS
MENSAGEM: conjunto de símbolos
Fonte “X” , com um conjunto de símbolos ( x1, x2 ..xi )
Introdução à Teoria da
Informação
Variedade de Símbolos:
a- alfabeto com “n” elementos.
b - símbolo composto por uma combinação
de “m” elementos dentre os “n”.
Configurações possíveis => N = nm
Princípios de
telecomunicações



A fonte seleciona os símbolos ao produzir a
mensagem.
Para o observador externo, que desconhece
a lógica da fonte, a escolha é aleatória.
Pode-se associar a cada símbolo selecionado
uma certa probabilidade de ocorrência.
Introdução à Teoria da
Informação

Quantidade de Informação inerente a
um símbolo xi :
I(xi) = f [ P (xi)]
P(xi) = probabilidade de ocorrência.
Introdução à Teoria da
Informação
Esta função deve ter as seguintes
propriedades:

1. Se P(xi) = 1 ENTÃO I (xI) = 0
2. Se P (xi) = 0 ENTÃO I ( xi ) = 

3. I (xi ) é monotônica decrescente com P( xi)

A função será:
I (xi ) = - log 2 P (xi ) (bits)
Introdução à Teoria da
Informação

Dada uma fonte X, sabemos:
Símbolo x1, x2, ....
xn
Probabilidade de Ocorrência: ..... P (xn )
Informação Própria do Símbolo... I (xn)
A quantidade de informação de um evento
(associado a uma mensagem) é definida como
o logaritmo do inverso da probabilidade deste
evento. I (xi ) = log 2 1 / P (xi )
Comunicação e Informação
A informação é recebida pelo
destinatário quando este identifica o
símbolo recebido com um dos de seu
alfabeto.
 A informação se transforma em
comunicação quando os símbolos
identificados pelo destinatário possuem
um sentido interpretável por ele.

Comunicação e Informação
em resumo!
A equação de Shannon para relacionar a
quantidade de informação (I)
 Com a probabilidade (p) é a seguinte:




I = log2 (1 /p)
I = quantidade de informação de um símbolo
p = probabilidade da mensagem que se
transmite
log2 = logaritmo na base 2
Um conceito fundamental :
ENTROPIA :
é a medida da quantidade de informação
presente num experimento (não em um símbolo apenas)
randômico ou aleatório. Quanto maior a quantidade de
informação de um experimento, maior será sua entropia.
Introdução à Teoria da
Informação
Para telecomunicações
o que nos interessa é
a quantidade de informação
média ao longo do tempo
para dimensionar os sistemas
de telecomunicações.
Introdução à Teoria da
Informação
X
FONTE
M=[a,b,c...s]

Aaa abbssssssaaas
Ou seja : Dada uma fonte “X” atuando...
Com M símbolos, com mj ocorrências,
cada símbolo ocorrendo xj vezes;
teremos assim uma quantidade
“Q” total de informação.
Introdução à Teoria da
Informação
Problema:
 Quando a fonte era conhecida ( nosso
dado com 6 faces) conhecíamos as
probabilidades, como p(2) = 1/6.
 Mas numa fonte desconhecida como
saber a probabilidade de um evento
isolado?
Seja a experiência
“lançamento de um dado 1000 vezes”
E determinar a freqüência relativa do aparecimento da face 6.
faces
1
2
3
4
5
6
total
Resultados
favoráveis
Freqüência
relativa
166
163
164
170
168
169
1000
0,166
0,163
0,164
0,170
0,168
0,169
1,000
P(6) = 1/6
0,167
Freqüência
relativa
do
aparecimento
de 6.
Número total de ocorrência da face 6 = 169
Lei de Bernouilli
lei fraca dos grandes números.
O valor mais provável da freqüência
relativa a ser encontrado, quando a
experiência é realizada um grande
número de vezes, é numericamente
igual a probabilidade do evento isolado
QUANTIDADE de Informação gerada
Q
 mi
n
=
i =1
I (xi ) =
Q = quantidade de informação
mi = número total de ocorrências de
cada símbolo xi
n = todos os diferentes símbolos da fonte.
Introdução à Teoria da
Informação
Q =  m I (x )
i =1
n
i
i
M = número total de símbolos utilizados
Lembrando a lei fraca dos grandes números, se M for
suficientemente grande podemos tomar mi / M por P (xi)
Então vamos dividir a expressão por M
Introdução à Teoria da
Informação
Lembrando que:
I(xi) = - Log2 P ( xi )
Conteúdo total
de informação
n
Q
M
Número
total de
símbolos
=

P (xi ) I ( xi ) = HX)
I=1
H (X) Entropia
ENTROPIA
n

H(x) =
P (xi ) I ( xi )
I=1
OU MELHOR:
n
H(x) = -

I=1
P (xi ) log2 P ( xi )
ATENÇÃO

Não confudir o parâmetro I com o
parâmetro H
Introdução à Teoria da
Informação
Um exemplo prático:
a, b, c, d, e, f, g, h, i, j, l, m, n, o, p, q, r,
s, t, u, v, x, z
Observação: Você deve estar se
perguntando pelas letras W, Y e K.Elas
não pertencem mais ao nosso
alfabeto.São usadas apenas em casos
especiais
Introdução à Teoria da
Informação





As mensagens a serem transmitidas são
compostas pelas 23 letras do alfabeto, (N =23)
formando combinações aleatórias.
Como as mensagens têm a mesma
probabilidade, a ENTROPIA do sistema será:
H = log2 N ou
H = log2 23
H = 5 significa que necessitamos de 5 bits para
codificar cada uma das letras do alfabeto.
Introdução à Teoria da
Informação
B
Ex.: alfabeto
com
elementos
L
0e1 em=5
O
25 = 32
-Código telegráfico
-: Baudot
E
Introdução à Teoria da
Informação

A informação média ou entropia em
uma fonte com m símbolos xi é
máxima quando as probabilidades de
seus símbolos forem equiprováveis.
Introdução à Teoria da
Informação
Em telecomunicações encontramos
fontes que emitem símbolos binários ou bits.


Cada bit assume dois estados: 0 ou 1
Logo temos P(0) e P(1)
H(X) = -[P(1) log2 P(1) + P(0) log2 P(0)]
shanonn/símbolo
Introdução à Teoria da
Informação
Se as ocorrências de (0) e (1) forem
equiprováveis
temos P(1) = P(0) =1/2
H(X) = 1 shannon/símbolo
Ou 1 bit / símbolo
Introdução à Teoria da
Informação

Quanto todos os símbolos são
equiprováveis a quantidade de
informação média por símbolo é
numericamente igual à quantidade de
informação própria de cada símbolo e
igual a variedade.
H(X) = I(xi ) = v
Entropia
Tendo calculado a Entropia de uma
fonte e obtido: H(X) = 0,8
 Isto significará que esta fonte em sua
escolha de símbolos, com a finalidade
de formar uma mensagem, estará com
aproximadamente 80% de grau de
liberdade.

Símbolos
Aplicação
fonte
Dada uma fonte e calculamos sua
entropia:
 H(X) = 7 sh / símbolo
 Isto nos indica que, em média, seus
símbolos podem ser representados por
7 bits.

Princípios de
telecomunicações
O canal
Comunicação da fonte
ao destino.
Transdutor
de Entrada
Sinal de vídeo
mensagem
Sinal de vídeo
Fonte
de
Informação:
Cena / imagem
Sistema
de
Comunicação Mensagem
recebida
Transdutor
De
Saída
Mensagem: caracterização física da informação
Sistema de Comunicação digital
simplificado
Sistema
De
Comunicação
Transdutor
entrada
Fonte
Codifi
cador
Transmissor
Transdutor
saída
Canal de
comunicação
Sinal de
Sinal a transmitir
Sinal
entrada - Codificação.
binária
mensagem
Receptor
Sinal
recebido
destinatário
Decodi
ficador
Sinal de
saída
Destino
O canal
Sempre que gerarmos informação pela
seleção feita no alfabeto de uma fonte
(codificador que alimenta o canal em
certa velocidade), isto corresponderá a
uma liberação de certa quantidade de
bits/s lançados no canal (meio físico)
pelo transmissor.
transmissor
canal
receptor
O canal
entrada
fonte
saída
canal
X=(xi)
destino
Y = ( yj )
P ( yj/ xi ) ou P (xi / yj )
( P (yj,xi ) significa a probabilidade de se obter um
yj na saída sendo enviado um xi )
O canal
fonte
canal
destino
fonte
destino
H(Y)
H(X)
Entropia no destino
p
X1=1
q
Y1 =1
p=1-q
q
X2 =0
p
Y2 = 0
O canal
É preciso fazer o dimensionamento da
Capacidade do Canal de forma a suportar o
fluxo de informação que lhe é oferecido.
Sem ruído não há distorção, o que entra no
canal será entregue por ele!
Com ruído, o “1” pode ser recebido como “0”
O canal
As entropias presentes serão:



H(X) entropia na fonte, ou entrada do canal.
H(Y) entropia no destino ou saída do canal
H(X/Y) ou H(Y/X) dispersão provocadas por
ruídos e distorções do canal, que acarretam erros
nos símbolos e perda da informação.

H(X;Y) entropia mútua entre entrada e
saída (transinformação), que é a
informação passada da fonte para o
destino.

H(X,Y) é a entropia conjunta, criada pelos
símbolos da fonte e do destinatário tomados em
conjunto.
O canal
De fato desejamos a transinformação e
queremos que ela seja máxima:
 H(X ; Y) = H(X) - H ( X / Y) sh/símb

Canal sem ruído = H( X /Y ) = 0
Define-se: Capacidade máxima do canal
C = Hmax (X;Y ) sh/símb
O canal
Um canal sem ruído, não tem erro de
símbolo transmitido, logo está sem perda:

Neste caso especial: H(X /Y) = H (Y/X) = 0

H(X;Y) = H(X) = H(Y) = H(X,Y) sh/símb

Sem ruído: H(X) = H(Y) = H(X;Y) - toda a
informação na entrada do canal chega ao
destinatário.
Neste caso Hmax (X;Y) = Hmax(X)
Então a Capacidade do canal será dada por:
C = log2 N sh/símb


O Canal
Capacidade de transmissão do canal
 1. A fonte nos dá uma variedade de símbolo:
 V = log2 N ou ainda,
v = m log2 n ( bit)
No caso de uma fonte binária. Equiprovável, com
elementos 0 e 1.
V = 1 log2 2 = 1 bit
Fonte
+ codif.
Transmissor:
10 volts = bit “1”
0 volts = bit “0”
Canal:
(Par de fios)
H(X) = - [P(1) log2 P(1) + P(0) log2 P(0) ] = 1 shanon/símbolo
Cada símbolo será representado por unidades binárias ( bits),
numericamente igual a entropia!
Capacidade de Transmissão
do Canal
TRANSMISSOR SINALIZA A LINHA COM DIFERENTES TENSÕES
Canal = Linha física: pares de fios.
TX
RX
V
V
1
t1
0 1
t2

tempo

t1
t2
t1 + t1
tempo
t2 + t2
Tempo da transição de um estado para outro
O canal
Variação dos Símbolos por unidade de tempo
(velocidade de sinalização) entregue ao canal será a

variabilidade Vs = v /  (bit/s)
( relação entre a variedade V dos símbolos
produzidos pela fonte e o intervalo de tempo “” em
que são produzidos)

Fonte binária
TRANSMISSÃO TELEGRÁFICA
Teleimpressor: terminal
a
bateria
LINHA = canal
Variação de
corrente
I
a = 01011
1
+i
t
t
ideal
0
-i
real
Princípios de
telecomunicações
Capacidade de Transmissão
do Canal
Capacidade de Transmissão
do Canal
Capacidade de transmissão do canal

Além da análise estática shannon/ símbolo é preciso
analisar dinamicamente a Vs = v / 

Suponhamos uma fonte que produz M símbolos ao
longo do tempo T e a cada símbolo corresponde o
intervalo de tempo , teremos uma taxa de envio
destes símbolos:
=T
M
então Vs = M v bit/s
T
Capacidade de Transmissão
do Canal
Na prática o canal não consegue responder
além de uma certa velocidade de transição do
sinal.
v
v
t

Existe um tempo mínimo [mín] para que o
sistema responda a uma transição do sinal.
t
Capacidade de Transmissão
do Canal


No início das técnicas de transmissão de
sinais elétricos ( transmissões telegráficas)
observou-se que os sinais eram transmitidos,
enviados pelo canal, mas chegavam
distorcidos.
Essa distorção se devia a esta duração
mínima necessária, que levou a definição da
faixa de passagem oferecida pelo meio.
Capacidade de Transmissão
do Canal


A pior condição do sinal entrante é a de que
em cada intervalo mín ocorra uma transição.
Para que o canal possa distinguir isto
constatou-se que precisava ter um período
de duração “T” mínimo, dado por:
T = 2 mín
 Assim se definiu uma largura de faixa
mínima, em Hertz, dada por:
B= 1
2 mín

Capacidade de Transmissão
part 1 1 1 0 0
do Canal
par
O sinal telegráfico de um terminal teleimpressor
se compõe de 1 pulso de partida com a duração
e 20 ms; 5 pulsos binários portadores de
Informação com a duração de 20 ms cada e 1 pulso de parada
com a duração de 30 ms.
Nesta condições toma-se para mín o menor valor, de 20 ms.
Logo
B = 1 / 2 mín = 1 / 2x20 x10-3
B = 25 Hz
Capacidade de Transmissão
do Canal


Visto que o símbolo possui a variedade dada
por: v = log2 n max bits
A velocidade máxima de transmissão do sinal
será igual à máxima velocidade de sinalização
que o canal aceita , ou seja:
Vs = V = 1 log 2 n max bit/s.
T
mín
Capacidade de Transmissão
do Canal
Como este é o sinal mais crítico que se pode
transmitir, esta grandeza vai medir a capacidade Ct
de transmissão de sinal
Ct = 1 log2 n max bit/s
mín
Telegrafia = Capacidade = 50 bps
50 = log2 2 . 1/ mín
Logo o mín = 1/50 = 0.02 s ou 20 ms
B = 1/ 2 mín
B = 25 Hz
Princípios de
Telecomunicações
A presença do Ruído limitando a
capacidade do Canal
Capacidade do Canal com
Ruído
Ruído
 É um sinal aleatório ao qual não se tem
controle sobre sua forma.
 No processo de transmissão do sinal
pelo canal observa-se sinais espúrios,
aleatórios, que se somam ao sinal
desejado.
Capacidade do Canal com
Ruído

Ruído branco: ocorre devido à agitação
térmica onde elétrons livres apresentam um
movimento aleatório e produzem uma
corrente elétrica, quando se é observado em
intervalos de tempo infinitamente pequenos.
I(t)
t
Capacidade do Canal com
Ruído


Agora se considerarmos um sinal elétrico
sendo transmitido no canal;
As variações no sinal podem ser analisadas
como alterações em sua amplitude,
percebidas entre dois instantes diferentes.
Capacidade do Canal com
Ruído
Mas a velocidade de transição do sinal
encontra uma limitação prática,
 Em termos físicos existem elementos
armazenadores de energia no canal que
impedem cargas e descargas
instantâneas.
 Estes componentes impõe um tempo
mínimo “  “ para resposta física

Capacidade do Canal –
limitações físicas

v
A pior condição para o sinal entrante é
aquela em que a cada intervalo “ mínimo“
ocorra uma transição,
Figura 1
1
0
1
t
t
t
Figura 4
Figura 3
Figura 2
t
t
Capacidade do Canal com
Ruído

v
Contudo, os ruídos inerentes ao
processo de transmissão impedem que
se reconheça amplitudes a partir de um
determinado valor.
sinal
ruído
t
t
Sinal + ruído
t
Capacidade do Canal com Ruído
Os níveis distinguíveis podem ser
apresentados em função da relação sinal / ruído.
Ruídos impedem reconhecer subdivisões de amplitude
do sinal recebido
Níveis de amplitude
nmax = s+r
r
s+r
s r
tempo
mín
=1+s
r
Capacidade do Canal com Ruído

Consideremos ainda que mín se
relaciona com a largura de faixa do
sistema( B = 1/2 min) temos:
Ct = 2 B log2 ( 1 + s / r) bit/s
Ruído é um sinal complexo de natureza aleatória.
Sistemas de Telecomunicações trabalham com sinais complexos
Sinais complexos se somam em potência.
Capacidade do Canal com
Ruído
Se trabalharmos com a potência do sinal (S),
a potência do ruído (R) e
S =  si2
R =  ri2
2
nmax = S + R = 1 + S = 1 +
R
R
 si2
 ri2
si componentes individuais do sinal ( valor eficaz)
Ri componentes individuais do ruído ( valor eficaz)
nmax = ( 1 + S )1/2
R
Capacidade do Canal com
Ruído

Substituindo este novo resultado e a banda B de
passagem chegamos a
C = B log2 ( 1 + S )
R

bit/s
Conhecida como a Lei de Shannon-Hartley e vai
nos traduzir a velocidade de transmissão de
informação ou capacidade de informação que o
canal permite.
Capacidade do Canal com
Ruído
Lei de Shannon-Hartley
C = B log2 ( 1 + S/R )
bit/s
C = capacidade do canal - medida em bits por segundo
B
= banda do canal- medida em Hertz
S/R = relação sinal ruído - geralmente dada em dB, decibéis
relação logarítmica de potências,
por exemplo: Sinal de voz S/N 30 dB = 1000 vezes
BIBLIOGRAFIA
MELO, Jair Candido. Introdução à Teoria da Informação.
MacGraw-Hill. Brasil. 1976
CARSON. A Bruce. Communication Systems. McGrawHill. Singapore. 1986.
BARRADAS. Ovídio. Sistemas Analógicos-Digitais. Livros
Técnicos e Científicos. Rio de Janeiro.1980
EPSTEIN Isaac. Teoria da Informação. Ática.S.Paulo.
1988.
EDWARDS Elwyn. Introdução à Teoria da Informação.
Cultirx. S. Paulo.1971
Download

AA_Teoria_da_Inf