Teoria das filas
Introdução


Por que aparecem as filas?
Não é eficiente, nem racional, que cada um
disponha de todos os recursos individualmente.
Por exemplo:



que cada pessoa disponha do uso exclusivo de
uma rua para se movimentar
que cada pessoa tenha um supermercado para o
seu abastecimento exclusivo
Recursos limitados devem ser compartilhados.
Introdução

Ao compartilhar recursos, pode acontecer que
no momento em que se queira fazer uso de um
recurso, este esteja ocupado,



necessidade de esperar
aparecem as filas
Exemplo: nos sistemas de fluxo pode acontecer
a formação de filas
Sistemas de fluxo



Um fluxo é o movimento de alguma entidade
através de um ou mais canais de capacidade
finita para ir de um ponto a outro.
Capacidade finita significa que o canal só pode
satisfazer a demanda a uma taxa finita.
Exemplos:


fluxo de automóveis (entidades) através de uma
rede de caminhos (canais)
transmissão de mensagens telefônicas
(entidades) através da rede (canal)
Sistemas de fluxo

Se dividem em duas classes:


Determinísticos: sistemas no qual o
comportamento da demanda de serviço é
totalmente previsível, isto é, a quantidade de
demanda é exatamente conhecida sobre o
intervalo de interesse.
Aleatório: não é possível predizer como vai se
comportar a demanda de serviço, por exemplo,
o instante de chegada de uma demanda é
imprevisível.
Sistemas de fluxo

Exemplo de fluxo determinístico:




Seja r a taxa de chegada (constante) de pacotes
em uma rede de comutação a um buffer.
Seja c a taxa (constante) com que esses pacotes
são processados em cada nó.
Se r > c, o buffer do nó é inundado com
pacotes, já que o número de pacotes em espera
de serviço crescerá indefinidamente.
Se r < c, se tem um fluxo estável, o número de
pacotes em espera de serviço é finito.
Sistemas de fluxo

Exemplo de fluxo aleatório:



Um centro de computação em que as
solicitações de impressão podem chegar em
instantes imprevisíveis.
Quando um trabalho de impressão chega, pode
ser que o servidor esteja atendendo outro e seja
necessário esperar.
Se está desocupado, pode atender
imediatamente à nova solicitação de impressão
até que esta fique completa.
Teoria das filas

Representação de uma fila
sistema
1
2
Chegadas ao
sistema
Fila
m
Servidores
Saídas do
sistema
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas

Alguns valores de A mais comuns:
M: denota distribuição exponencial
equivalente (M provém de
Markoviano)
G: distribuição geral
D: representa um tempo fixo (determinístico)
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas

distribuição do
tempo de serviço
Alguns valores de B mais comuns:
M: denota distribuição exponencial
equivalente (M provém de Markoviano)
G: distribuição geral
D: representa um tempo fixo (determinístico)
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
número de
servidores
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
 K é omitido quando:
número de
servidores
K=
número máximo de
clientes permitidos
no sistema
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
 m se omite quando:
m=
número de
servidores
tamanho da
população
número máximo de
clientes permitidos
no sistema
Teoria das filas

Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
disciplina
de serviço
número de
servidores
tamanho da
população
número máximo de
clientes permitidos
no sistema
Z se omite quando:
 = FIFO

Teoria das filas

Notações usadas nos sistemas de filas:








Ci: i-ésimo usuário que entra ao sistema.
ri: tempo de chegada de Ci
ti: tempo entre as chegadas de Ci-1 e Ci (ti = ri - ri-1)
A(t): distribuição do tempo entre chegadas =
P[ti t]
xi: tempo de serviço para Ci
B(x): distribuição do tempo de serviço = P[xi x]
wi: tempo de espera na fila de Ci
se: tempo no sistema (fila mais serviço) de Ci
(se = wi + xi)
Teoria das filas

Notação de filas em diagrama temporal
se
Ci-1
wi
Servidor
Fila
ri
ri+1
ti+1
Ci
Ci+1
Ci
xi
Ci
Ci+1
Ci+2
xi+1
Ci+1
xi+2
Ci+2
ri+2
ti+2
Ci+2
Tempo
Teoria das filas

Notações usadas nos sistemas de filas (cont.)



Ek: estado do sistema (normalmente
corresponde ao número de usuários no sistema)
k taxa média de chegada dos usuários ao
sistema, quando este se encontra no estado k
k: taxa média de serviço quando o sistema se
encontra no estado k
Teoria das filas

Outros parâmetros de uma fila:




N(t): número de usuários no sistema no instante t
L = E[k]: número médio de usuários no sistema
(em estado estacionário)
LQ: número médio de usuários na fila (em
estado estacionário).
T = E[s]: tempo médio de permanência de um
usuário no sistema = E[k]/ (fórmula de Little)
Cadeias de Markov discretas
Cadeias de Markov discretas

Markov estabeleceu uma simples e útil relação
entre as variáveis aleatórias que forman
processos estocásticos
Definições

Estado: se Xn= i diz-se que o processo está no
estado i no instante n, onde {Xn, n=0,1,2...} é
um processo estocástico que passa por um
número finito ou contável de possíveis estados.

Transição: a transição de um estado a outro
depende somente do estado atual, e não da
história do processo
Observações

No caso das cadeias discretas de Markov, os
instantes de tempo nos quais a transição entre
um estado e outro acontecem podem asumir
apenas valores inteiros 0, 1, 2..., n. Em outras
palavras, o tempo é discretizado.

Os processos devem permanecer num estado
determinado durante um tempo que deve estar
geométricamente distribuído.
Observações

Propriedade Markoviana:
P{Xn+1 = j | Xn = i, Xn-1= in-1,... X0 = i0}
=P{Xn+1 = j | Xn = i} = Pij 00

Interpretação (sistema sem memória):
A transição de um estado para outro só
depende do estado atual, e não da história do
processo.
Cadeias de Markov discretas
Xn denota a cidade na qual encontra-se o turista ao
meio-dia no dia n
X1
Curicó
X2
Rancagua
X3
Santiago
X4
Valparaíso
X5
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Continuarei mais ao
Norte?
t
Cadeias de Markov discretas

Da minha viagem,n posso lhes dizer que:

Nos processos de Markov, o estado atual do
sistema e as probabilidades de transição entre
os diversos estados caracterizam o
comportamento futuro do sistema.

Já que um processo de Markov está num
estado determinado, seu comportamento futuro
não depende de sua história antes de chegar a
esse estado.
Definições

Cadeias de Markov são processos estocásticos
{X(t)} que satisfazem:
pij: probabilidade de transição do estado i para
o estado j depende somente do estado i
 P=[pij]: matriz de probabilidade de transição
 Y ( i ) : tempo em que o processo permanece no
estado i, sem memória

Exemplo

Considerando-se apenas o trajeto SantiagoValparaíso-Serena, tem-se graficamente:
(1)
Valpo
1/4
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
(2)
1/2
(1)
Valpo
1/4
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
1/2
(2)
Números nos arcos dão a probabilidade pij do viajante
ser recolhido por um carro

Probabilidade do viajante permanecer em Serena até o
dia seguinte é 1/2


Números entre parênteses usados posteriormente
Valpo
1/4
(1)
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
(2)
1/4

Matriz de probabilidades de transição:
 0
P  1 / 4

1 / 4
3/ 4
0
1/ 4
1/ 4
3 / 4

1 / 2 
1/2
Definições

Num processo de Markov, se diz que um
estado Sj é transiente se, de algum estado Sk
que pode ser alcançado desde Sj, o sistema não
pode voltar a Sj. A probabilidade de não voltar
a si mesmo existe.
1
3
2
Estados 1 e 2 são transientes
Definições

Se diz que um estado é recorrente se de cada
estado Sk alcançável a partir de Sj, o sistema
pode voltar a Sj.
1
3
2
Estados 1, 2 e 3 são recorrentes
Cadeias de Markov discretas





Exemplo 1: “predição do tempo”
Dois estados possíveis:
0: chuva
1: não chuva
Hipótese: o tempo amanhã só depende de hoje
(processo sem memória)
Chove hoje  probabilidade de chover
amanhã = 
Não chove hoje  probabilidade de chover
amanhã = 
Cadeias de Markov discretas

Cadeia de Markov fica definida por:
0

P

1
1  
1   
1
1 
Graficamente:

0
1 
1
0

Cadeias de Markov discretas


Exemplo 2: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Considere-se um elevador em um prédio de
três andares:
Estados:
Andar 3
E
Andar 2
Andar 1
Cadeias de Markov discretas


Processo não-Markoviano, porque no estado 2
é necessária a informação do estado anterior (1
ou 3) para saber qual será a direção do
elevador.
Para que o processo seja Markoviano, se faz
necessária uma redefinição dos estados.
Cadeias de Markov discretas

Exemplo 2: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Redefinição dos estados:
3: Andar 2, sentido abaixo
2: Andar 3, sentido abaixo
E
1: Andar 2, sentido acima
0: Andar 1, sentido acima
Cadeias de Markov discretas

Da redefinição obtém-se o novo diagrama de
1
1
estados: 1
0
1
2
3
1
0: andar 1, sentido acima
2: andar 3, sentido abaixo
1: andar 2, sentido acima
3: andar 2, sentido abaixo
Cadeias de Markov discretas





Exemplo 2.1: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Choveu, choveu  amanhã choverá: p=0,7
Não-choveu, choveu  amanhã choverá:
p=0,5
Choveu, não choveu  amanhã choverá:
p=0,4
Não choveu, não choveu  amanhã choverá:
p=0,2
Cadeias de Markov discretas




Exemplo 2.1: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Motivo: há contradição; precisa-se de
informação não só do dia presente, mas
também do anterior.
Redefinição de estados: se o estado depende do
tempo de ontem e hoje então SIM, pode ser
Markoviano
Para transformar um processo não-Markoviano
em Markoviano (se possível), devem ser
redefinidos os estados de maneira adequada.
Cadeias de Markov discretas

Exemplo 2.1: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”

Portanto, se são redefinidos os seguintes
estados:
0: Choveu, choveu
1: Não choveu, choveu
2: Choveu, não choveu
3: Não choveu, não choveu
Cadeias de Markov discretas
Estados:
0: Choveu, choveu
1: Não choveu, choveu
2: Choveu, não choveu
3: Não choveu, não choveu
Cadeia de Markov definida pela matriz de
probabilidade de transição:
 0,7
 0,5
P
 0
 0

0
0,3
0
0,5
0,4
0
0,2
0
0
0

0,6

0,8
Definições





i = probabilidade estacionária de estar no
estado i
i(n) = probabilidade de estar no estado I no
instante n
i(0) = probabilidade inicial de estar no
estado i
=(0, 1, 2, …, n)
Por definição:

(1)

( 0)
P
Definições

Exemplo:


(1)
(1)


0
1

( 0)
( 0)


0
1
Aplicando recursivamente:

(n)



(n)


( n 1)
P
ou
( 0)
P
n
 P00
P
 10

P01 
P11 
Definições

Se a cadeia de Markov é irredutível e ergódica,
então:

 lim

( 0)
n 
P
n
existe e  é denominada a probabilidade límite
de P, ou autovetor esquerdo de P.

Obtenção de :
 
P
Cadeias de Markov discretas

Exemplo 3: utilizando o exemplo 1, se a
probabilidade de que choverá hoje é 0.2 e
0.7
P
0.4
0.3
0.6
Qual é a probabilidade incondicional de que
amanhã choverá?
Cadeias de Markov discretas
Aplicando o teorema da probabilidade total:
seja  a probabilidade incondicional de que
choverá amanhã.
 = P(amanhã choverá | hoje choveu) +
P(amanhã choverá | hoje não choveu)
  0.2 P00  08
. P10
  0.2  0.7  0.8  0.4  0.46
Cadeias de Markov discretas

Exemplo 4: utilizando o exemplo 1
 0  1  


0
1

 
0
1 

1  
1   
  0   1
 (1   ) 0  (1   ) 1
1   0  1
Se   0.7 e   0.4 então a probabilidade
límite de que choverá é     0  1   4 / 7
3 / 7
Cadeias de Markov discretas
 Voltando ao exemplo do turista:
Me leva?
Valpo
1/4
(1)
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
(2)
1/2
Cadeias de Markov discretas
Do diagrama de estados pode obter-se a matriz
de probabilidades de transição
 0
P  1 / 4

1 / 4
3/ 4
0
1/ 4
1/ 4
3 / 4

1 / 2 
definindo-se a matriz de probabilidade como:
   0
 1  2
Cadeias de Markov discretas
Considerando-se a relação
obtém-se que



com
1

0

0
1
2
1

0  0
3

4
1
4
2

1

4
0 0 
0


3
4


1


1
1
P
1

4
1
4
1
2


2
2
2
Cadeias de Markov discretas
Resolvendo-se as equações obtém-se as
probabilidades em estado de equilíbrio:



0
1
2
1
 0.20
5
7
25
13
25
 0.28
 052
.
Cadeias de Markov de
tempo contínuo
Cadeias de Markov de
tempo contínuo

Definição: uma cadeia de Markov de tempo
contínuo é um processo aleatório em que, dado
o estado presente, o valor do processo no
futuro não depende do passado.

É como uma cadeia de Markov discreta, com a
diferença de que o tempo de permanência em
um estado é uma variável aleatória com
distribuição exponencial.
Cadeias de Markov de
tempo contínuo

Evolução a partir de um estado:
 ij
j
i
 ik
k
 ij : taxa média de saída do estado i para o estado j
 ik : taxa média de saída do estado i para o estado k
Pij : probabilidade de transitar do estado i ao estado j, no
momento da transição
Cadeias de Markov de
tempo contínuo

Definição:
 tij (tik):


tempo de permanência no estado i antes
de transitar para j (k), caso passe para j(k).
tij e tik são variáveis aleatórias com distribuição
exponencial de parâmetros  ij e  ik
respectivamente.
Seja t t = min { tij , tik } o tempo de permanência
no estado i. Do anterior se deduz que :

t se distribui exponencialmente
com parâmetro ( ij+ ik)
Cadeias de Markov de
tempo contínuo

Propriedades:

O tempo de permanência em um estado é
Markoviano (processo sem memória)

A escolha do próximo estado se efetua no instante
da transição e só depende do estado atual e não do
passado, portanto é Markoviano.
Cadeias de Markov de
tempo contínuo

Dado que o tempo de permanência em
qualquer estado e a escolha do próximo estado
são Markovianos, então tem-se uma cadeia de
Markov de parâmetro contínuo.

As variáveis aleatórias “tempo de permanência
no estado i” e “próximo estado visitado” são
independentes.
Cadeias de Markov de
tempo contínuo

Definição formal:
Um processo aleatório X(t) é uma cadeia de Markov
de tempo contínuo se:
PX (t  s)  j | X ( s)  i, X (u )  x(u ),0  u  s
 PX (t  s )  j | X ( s )  i
Cadeias de Markov de
tempo contínuo

Exemplo : processo de Poisson
N( )
N(t+s) = j
j-i chegadas
j-i arribos
N(t): estado no instante t
 N(t): número de chegadas
até t
N(t) = i

t
t+s

P{ N (t  s )  j / N (t )  i , N (u )  X (u ) 0  u  t}
 P{ N (t  s )  j / N (t )  i}
 P{( j  i )chegadasem(t , t  s ]}
O que é resolver uma cadeia de
Markov?

É encontrar as probabilidades de transição de
qualquer estado i a qualquer estado j em um
dado instante.

Para resolver este problema se utilizará o
princípio do balanço global
Princípio de balanço global
 Definições:
 i  i1
 2  2i
 i  i2
...
 k  ki
i
...
1 1i
 i  ij
Princípio de balanço global
Definições:

k: probabilidade em regime estacionário de estar
no estado k
Outra interpretação: fração de tempo que o sistema
fica no estado k.
k
Unidad de
Unidade
detiempo
tempo
+
k
+
Unidad de tiempo
Unidade
de tempo
Princípio de balanço global
Definições:

k(t): probabilidade de estar no estado k no
instante t
lim  k ( t )   k
t 

ki: taxa média de transição do estado k para o
estado i

k· ki: número médio de transições do
estado k ao estado i, por unidade de tempo.
Princípio de balanço global
...
 k ( t )  ki t
Número médio de
entradas de qualquer
estado k ao estado i
em t
i
...
 i ( t )  i1t
1 ( t )  1i t
 i ( t )  ij t
número médio de
saídas do estado i a
qualquer estado j
em t
Princípio de balanço global

Número de entradas totais ao estado i emt:

k
( t )  ki t  o( t )
k

Número de saídas totais desde o estado i em t:
  ( t )
i
j
ij
t  o( t )
Princípio de balanço global

Balanço de fluxos
Entradas líquidas
número médio de número médio de
médias por unidade = entradas totais por - saídas totais por
de tempo (EN)
unidade de tempo
unidade de tempo

Considerando-se o número de entradas líquidas
em um intervalo t, se tem que:


EN  t     k ( t )  ki    i ( t )  ij  t  o( t )
 k i

j i
Princípio de balanço global

O número de entradas líquidas em t pode ser
interpretado como:
 i  t  t 
+
+
i  t
Unidad de tiempo
Unidade de tempo
+
+
i  t
EN  t   i ( t  t )   i ( t )  o( t )
  i ( t )  o( t )
Princípio de balanço global

Usando-se novamente o balanço de fluxos:
número de
Variação do tempo de
permanência no estado i, = entradas totais em t
por unidade de tempo

número de
saídas totais
em t
Esta variação pode expressar-se em forma da
equação de diferenças:


 i ( t )     k ( t )  ki    i ( t )  ij  t  o( t ) (1)
 k i

j i
Princípio de balanço global

Dividindo por
 i ( t )
t



k i
k
t em (1):
( t )  ki    i ( t )  ij 
j i
Tomando-se o limite
 i ( t )
t


k i
k
lim
t 0
( t )  ki
o( t )
t
(2)
em (2):


  i ( t )    ij 


j i
“ Equação de balanço global para o estado i”
(3)
Princípio de balanço global

Equação de balanço global para um estado i
qualquer:
 i ( t )
t



k i
k
( t )  ki    i ( t )  ij
j i
Pode-se reescrever em forma vetorial da
seguinte maneira:
 

0i
 i ( t )
t

 0 (t)
...  i ( t ) ...


:


 n ( t )    ij 
 j i

:





ni



Princípio de balanço global

Definindo-se:

( t )   0 ( t )
( t )
t
  0 ( t )

 t
   0 j
 j 0

:

Q    i0

:

 
n0

...
...
...
i (t)
 n (t)
...
 i ( t )
t
 0i
...
...
:
...
   ij
...
j i
:
...
 ni
...

 n ( t ) 
t 



:

 in 

:

   nj 

j n
 0n
Equações de balanço global

O conjunto das equações de balanço global pode
expressar-se em forma matricial como:
( t )
t
 ( t )Q
Além disso, sempre:
  (t)  1
i
i
“Equações de balanço global”
Equações de balanço global

Em estado estacionário se tem que:
fluxo de entrada = fluxo de saída
Q  0

i
1
i
“Equações de balanço global em estado estacionário”
Equações de balanço global

Os conjuntos de equações anteriores servem
para resolver tanto a situação transiente como
estacionária da cadeia de Markov. Isto é, nos
permite encontrar as probabilidades de
transição de qualquer estado i a qualquer
estado j num intervalo t qualquer (Pij(t)).
Exemplo: Cadeia de Markov de
dois estados

Uma máquina funciona uma quantidade de
tempo exponencialmente distribuída com média
1/Quando falhase repara com a mesma
distribuição em um tempo médio 1/.
Inicialmente, a máquina encontra-se
funcionando.

Deseja-se determinar a probabilidade de que a
máquina esteja funcionando em um instante t
dado. Inicialmente a máquina se encontra
operacional.
Exemplo: Cadeia de Markov de
dois estados

0
1
EmEn
reparo
Operacional
Reparación


Se tem que :
 01  

10  
Condições iniciais:

(0)   0 (0)
 
1 (0)  1

0
Exemplo: Cadeia de Markov de
dois estados

Equações de balanço global estabelecem que:
( t )
t

 0 (t)
 
1 ( t ) 
 

 

 
 0 ( t )  1 ( t )  1

Forma escalar da equação anterior é:
 i ( t )
t


k i
k
( t )  ki


  i ( t )    ij 


j i
k , i, j  0 ,1
Exemplo: Cadeia de Markov de
dois estados

Portanto:
 0 ( t )
t
1 ( t )
t
   0 ( t )   1 ( t ) 
(4)
  0 ( t )   1 ( t ) 
(5)
 0 ( t )  1 ( t )  1
(6)
Exemplo: Cadeia de Markov de
dois estados

Resolvendo (4), (5) e (6), obtém-se:
0 (t) 
1 ( t ) 










e
e
(    ) t
(   ) t
Exemplo: Cadeia de Markov de
dos estados

Resolvendo em estado estacionário, obtém-se:
 0 ( t )
t

1 ( t )
t
0
  0  1  0
(7)
 0   1  0
(8)
 0  1  1
(9)
Exemplo: Cadeia de Markov de
dois estados

Resolvendo (7), (8) e (9), obtém-se :
0 
1 





Observação:
Também pode chegar-se a este resultado através
das equações em estado transiente, fazendo
tender o parâmetro t a infinito.
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 0 com =4
0
=2
=5
=7
t
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 0 com =4
0
=7
=5
=2
t
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 1 com =4
1
=7
=5
=2
t
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 1 com =4
1
=2
=5
=7
t
Problema 1

Seja uma cadeia de Markov de três estados
como se ilustra na figura:
01
10
1
0
02
20
2
Dado que acontece uma transição do estado 0,
determinar a probabilidade de que esta transição
seja para o estado 1.
Problema 1

Define-se:
 t01:


tempo de permanência no estado 0 antes de
transitar para o estado 1, caso transite para o
estado 1
t02: tempo de permanência no estado 0 antes de
transitar para o estado 2, caso transite para o
estado 2
A probabilidade pedida é equivalente à
probabilidade de que a transição para o estado 1
ocorra antes da transição para o estado 2.
Problema 1

Portanto:

P( t 01  t 02 ) 
 P( t
 t 02 / t 02  s) P( t 02  s)ds
01
0


 P( t
01
 s) P( t 02  s) ds
0


 (1  e
  01s
0

 01
 01   02
)  02 e
  02 s
ds
Problema 1

Estendendo o resultado anterior, para qualquer
número de estados, se tem que:
Pij 
onde


 ij

ik
k i
Pij: probabilidade de transitar do estado i para o
estado j, dado que acontece uma transição
ik: taxa média de saída do estado i para o
estado k
Problema 2

Dado que aconteceu uma transição do estado i,
qual é a probabilidade de que o próximo estado
seja i ?
Sabe-se que:
Pii  1   Pij
j i
Além disso:
Pij 
 ij

k i
ik
Problema 2

Portanto:
 ij
Pii  1  

j i
ik
k i
Pii  1 
1


ik
k i
Pii  1  1  0
j i
ij
Problema 3

Dado que no instante zero o sistema está no
estado i, qual é a probabilidade de permanecer
neste estado até o instante t?
P{permanecer em estado i até t} = 1 - P{sair do estado i até t}
Dado que o tempo de permanência é exponencial:
Portanto:
P{sair do estado i até t}  1  e
P{permanecer no estado i até t}
  ik t
k i
e
  ik t
k i
Download

Parte 3 - PUC-Rio