Teoria das filas
Introdução
Por que aparecem as filas?
Não é eficiente, nem racional, que cada um
disponha de todos os recursos individualmente.
Por exemplo:
que cada pessoa disponha do uso exclusivo de
uma rua para se movimentar
que cada pessoa tenha um supermercado para o
seu abastecimento exclusivo
Recursos limitados devem ser compartilhados.
Introdução
Ao compartilhar recursos, pode acontecer que
no momento em que se queira fazer uso de um
recurso, este esteja ocupado,
necessidade de esperar
aparecem as filas
Exemplo: nos sistemas de fluxo pode acontecer
a formação de filas
Sistemas de fluxo
Um fluxo é o movimento de alguma entidade
através de um ou mais canais de capacidade
finita para ir de um ponto a outro.
Capacidade finita significa que o canal só pode
satisfazer a demanda a uma taxa finita.
Exemplos:
fluxo de automóveis (entidades) através de uma
rede de caminhos (canais)
transmissão de mensagens telefônicas
(entidades) através da rede (canal)
Sistemas de fluxo
Se dividem em duas classes:
Determinísticos: sistemas no qual o
comportamento da demanda de serviço é
totalmente previsível, isto é, a quantidade de
demanda é exatamente conhecida sobre o
intervalo de interesse.
Aleatório: não é possível predizer como vai se
comportar a demanda de serviço, por exemplo,
o instante de chegada de uma demanda é
imprevisível.
Sistemas de fluxo
Exemplo de fluxo determinístico:
Seja r a taxa de chegada (constante) de pacotes
em uma rede de comutação a um buffer.
Seja c a taxa (constante) com que esses pacotes
são processados em cada nó.
Se r > c, o buffer do nó é inundado com
pacotes, já que o número de pacotes em espera
de serviço crescerá indefinidamente.
Se r < c, se tem um fluxo estável, o número de
pacotes em espera de serviço é finito.
Sistemas de fluxo
Exemplo de fluxo aleatório:
Um centro de computação em que as
solicitações de impressão podem chegar em
instantes imprevisíveis.
Quando um trabalho de impressão chega, pode
ser que o servidor esteja atendendo outro e seja
necessário esperar.
Se está desocupado, pode atender
imediatamente à nova solicitação de impressão
até que esta fique completa.
Teoria das filas
Representação de uma fila
sistema
1
2
Chegadas ao
sistema
Fila
m
Servidores
Saídas do
sistema
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
Alguns valores de A mais comuns:
M: denota distribuição exponencial
equivalente (M provém de
Markoviano)
G: distribuição geral
D: representa um tempo fixo (determinístico)
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
Alguns valores de B mais comuns:
M: denota distribuição exponencial
equivalente (M provém de Markoviano)
G: distribuição geral
D: representa um tempo fixo (determinístico)
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
número de
servidores
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
K é omitido quando:
número de
servidores
K=
número máximo de
clientes permitidos
no sistema
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
m se omite quando:
m=
número de
servidores
tamanho da
população
número máximo de
clientes permitidos
no sistema
Teoria das filas
Notação de Kendall para descrever uma fila:
A/B/C/K/m/Z
distribuição do
tempo entre chegadas
distribuição do
tempo de serviço
disciplina
de serviço
número de
servidores
tamanho da
população
número máximo de
clientes permitidos
no sistema
Z se omite quando:
= FIFO
Teoria das filas
Notações usadas nos sistemas de filas:
Ci: i-ésimo usuário que entra ao sistema.
ri: tempo de chegada de Ci
ti: tempo entre as chegadas de Ci-1 e Ci (ti = ri - ri-1)
A(t): distribuição do tempo entre chegadas =
P[ti t]
xi: tempo de serviço para Ci
B(x): distribuição do tempo de serviço = P[xi x]
wi: tempo de espera na fila de Ci
se: tempo no sistema (fila mais serviço) de Ci
(se = wi + xi)
Teoria das filas
Notação de filas em diagrama temporal
se
Ci-1
wi
Servidor
Fila
ri
ri+1
ti+1
Ci
Ci+1
Ci
xi
Ci
Ci+1
Ci+2
xi+1
Ci+1
xi+2
Ci+2
ri+2
ti+2
Ci+2
Tempo
Teoria das filas
Notações usadas nos sistemas de filas (cont.)
Ek: estado do sistema (normalmente
corresponde ao número de usuários no sistema)
k taxa média de chegada dos usuários ao
sistema, quando este se encontra no estado k
k: taxa média de serviço quando o sistema se
encontra no estado k
Teoria das filas
Outros parâmetros de uma fila:
N(t): número de usuários no sistema no instante t
L = E[k]: número médio de usuários no sistema
(em estado estacionário)
LQ: número médio de usuários na fila (em
estado estacionário).
T = E[s]: tempo médio de permanência de um
usuário no sistema = E[k]/ (fórmula de Little)
Cadeias de Markov discretas
Cadeias de Markov discretas
Markov estabeleceu uma simples e útil relação
entre as variáveis aleatórias que forman
processos estocásticos
Definições
Estado: se Xn= i diz-se que o processo está no
estado i no instante n, onde {Xn, n=0,1,2...} é
um processo estocástico que passa por um
número finito ou contável de possíveis estados.
Transição: a transição de um estado a outro
depende somente do estado atual, e não da
história do processo
Observações
No caso das cadeias discretas de Markov, os
instantes de tempo nos quais a transição entre
um estado e outro acontecem podem asumir
apenas valores inteiros 0, 1, 2..., n. Em outras
palavras, o tempo é discretizado.
Os processos devem permanecer num estado
determinado durante um tempo que deve estar
geométricamente distribuído.
Observações
Propriedade Markoviana:
P{Xn+1 = j | Xn = i, Xn-1= in-1,... X0 = i0}
=P{Xn+1 = j | Xn = i} = Pij 00
Interpretação (sistema sem memória):
A transição de um estado para outro só
depende do estado atual, e não da história do
processo.
Cadeias de Markov discretas
Xn denota a cidade na qual encontra-se o turista ao
meio-dia no dia n
X1
Curicó
X2
Rancagua
X3
Santiago
X4
Valparaíso
X5
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Me leva?
t
Cadeias de Markov discretas
Curicó
Rancagua
Santiago
Valparaíso
Serena
1
2
3
4
5
...
Continuarei mais ao
Norte?
t
Cadeias de Markov discretas
Da minha viagem,n posso lhes dizer que:
Nos processos de Markov, o estado atual do
sistema e as probabilidades de transição entre
os diversos estados caracterizam o
comportamento futuro do sistema.
Já que um processo de Markov está num
estado determinado, seu comportamento futuro
não depende de sua história antes de chegar a
esse estado.
Definições
Cadeias de Markov são processos estocásticos
{X(t)} que satisfazem:
pij: probabilidade de transição do estado i para
o estado j depende somente do estado i
P=[pij]: matriz de probabilidade de transição
Y ( i ) : tempo em que o processo permanece no
estado i, sem memória
Exemplo
Considerando-se apenas o trajeto SantiagoValparaíso-Serena, tem-se graficamente:
(1)
Valpo
1/4
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
(2)
1/2
(1)
Valpo
1/4
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
1/2
(2)
Números nos arcos dão a probabilidade pij do viajante
ser recolhido por um carro
Probabilidade do viajante permanecer em Serena até o
dia seguinte é 1/2
Números entre parênteses usados posteriormente
Valpo
1/4
(1)
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
(2)
1/4
Matriz de probabilidades de transição:
0
P 1 / 4
1 / 4
3/ 4
0
1/ 4
1/ 4
3 / 4
1 / 2
1/2
Definições
Num processo de Markov, se diz que um
estado Sj é transiente se, de algum estado Sk
que pode ser alcançado desde Sj, o sistema não
pode voltar a Sj. A probabilidade de não voltar
a si mesmo existe.
1
3
2
Estados 1 e 2 são transientes
Definições
Se diz que um estado é recorrente se de cada
estado Sk alcançável a partir de Sj, o sistema
pode voltar a Sj.
1
3
2
Estados 1, 2 e 3 são recorrentes
Cadeias de Markov discretas
Exemplo 1: “predição do tempo”
Dois estados possíveis:
0: chuva
1: não chuva
Hipótese: o tempo amanhã só depende de hoje
(processo sem memória)
Chove hoje probabilidade de chover
amanhã =
Não chove hoje probabilidade de chover
amanhã =
Cadeias de Markov discretas
Cadeia de Markov fica definida por:
0
P
1
1
1
1
1
Graficamente:
0
1
1
0
Cadeias de Markov discretas
Exemplo 2: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Considere-se um elevador em um prédio de
três andares:
Estados:
Andar 3
E
Andar 2
Andar 1
Cadeias de Markov discretas
Processo não-Markoviano, porque no estado 2
é necessária a informação do estado anterior (1
ou 3) para saber qual será a direção do
elevador.
Para que o processo seja Markoviano, se faz
necessária uma redefinição dos estados.
Cadeias de Markov discretas
Exemplo 2: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Redefinição dos estados:
3: Andar 2, sentido abaixo
2: Andar 3, sentido abaixo
E
1: Andar 2, sentido acima
0: Andar 1, sentido acima
Cadeias de Markov discretas
Da redefinição obtém-se o novo diagrama de
1
1
estados: 1
0
1
2
3
1
0: andar 1, sentido acima
2: andar 3, sentido abaixo
1: andar 2, sentido acima
3: andar 2, sentido abaixo
Cadeias de Markov discretas
Exemplo 2.1: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Choveu, choveu amanhã choverá: p=0,7
Não-choveu, choveu amanhã choverá:
p=0,5
Choveu, não choveu amanhã choverá:
p=0,4
Não choveu, não choveu amanhã choverá:
p=0,2
Cadeias de Markov discretas
Exemplo 2.1: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Motivo: há contradição; precisa-se de
informação não só do dia presente, mas
também do anterior.
Redefinição de estados: se o estado depende do
tempo de ontem e hoje então SIM, pode ser
Markoviano
Para transformar um processo não-Markoviano
em Markoviano (se possível), devem ser
redefinidos os estados de maneira adequada.
Cadeias de Markov discretas
Exemplo 2.1: “transformar um processo nãoMarkoviano em Markoviano (às vezes é
possível)”
Portanto, se são redefinidos os seguintes
estados:
0: Choveu, choveu
1: Não choveu, choveu
2: Choveu, não choveu
3: Não choveu, não choveu
Cadeias de Markov discretas
Estados:
0: Choveu, choveu
1: Não choveu, choveu
2: Choveu, não choveu
3: Não choveu, não choveu
Cadeia de Markov definida pela matriz de
probabilidade de transição:
0,7
0,5
P
0
0
0
0,3
0
0,5
0,4
0
0,2
0
0
0
0,6
0,8
Definições
i = probabilidade estacionária de estar no
estado i
i(n) = probabilidade de estar no estado I no
instante n
i(0) = probabilidade inicial de estar no
estado i
=(0, 1, 2, …, n)
Por definição:
(1)
( 0)
P
Definições
Exemplo:
(1)
(1)
0
1
( 0)
( 0)
0
1
Aplicando recursivamente:
(n)
(n)
( n 1)
P
ou
( 0)
P
n
P00
P
10
P01
P11
Definições
Se a cadeia de Markov é irredutível e ergódica,
então:
lim
( 0)
n
P
n
existe e é denominada a probabilidade límite
de P, ou autovetor esquerdo de P.
Obtenção de :
P
Cadeias de Markov discretas
Exemplo 3: utilizando o exemplo 1, se a
probabilidade de que choverá hoje é 0.2 e
0.7
P
0.4
0.3
0.6
Qual é a probabilidade incondicional de que
amanhã choverá?
Cadeias de Markov discretas
Aplicando o teorema da probabilidade total:
seja a probabilidade incondicional de que
choverá amanhã.
= P(amanhã choverá | hoje choveu) +
P(amanhã choverá | hoje não choveu)
0.2 P00 08
. P10
0.2 0.7 0.8 0.4 0.46
Cadeias de Markov discretas
Exemplo 4: utilizando o exemplo 1
0 1
0
1
0
1
1
1
0 1
(1 ) 0 (1 ) 1
1 0 1
Se 0.7 e 0.4 então a probabilidade
límite de que choverá é 0 1 4 / 7
3 / 7
Cadeias de Markov discretas
Voltando ao exemplo do turista:
Me leva?
Valpo
1/4
(1)
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
(2)
1/2
Cadeias de Markov discretas
Do diagrama de estados pode obter-se a matriz
de probabilidades de transição
0
P 1 / 4
1 / 4
3/ 4
0
1/ 4
1/ 4
3 / 4
1 / 2
definindo-se a matriz de probabilidade como:
0
1 2
Cadeias de Markov discretas
Considerando-se a relação
obtém-se que
com
1
0
0
1
2
1
0 0
3
4
1
4
2
1
4
0 0
0
3
4
1
1
1
P
1
4
1
4
1
2
2
2
2
Cadeias de Markov discretas
Resolvendo-se as equações obtém-se as
probabilidades em estado de equilíbrio:
0
1
2
1
0.20
5
7
25
13
25
0.28
052
.
Cadeias de Markov de
tempo contínuo
Cadeias de Markov de
tempo contínuo
Definição: uma cadeia de Markov de tempo
contínuo é um processo aleatório em que, dado
o estado presente, o valor do processo no
futuro não depende do passado.
É como uma cadeia de Markov discreta, com a
diferença de que o tempo de permanência em
um estado é uma variável aleatória com
distribuição exponencial.
Cadeias de Markov de
tempo contínuo
Evolução a partir de um estado:
ij
j
i
ik
k
ij : taxa média de saída do estado i para o estado j
ik : taxa média de saída do estado i para o estado k
Pij : probabilidade de transitar do estado i ao estado j, no
momento da transição
Cadeias de Markov de
tempo contínuo
Definição:
tij (tik):
tempo de permanência no estado i antes
de transitar para j (k), caso passe para j(k).
tij e tik são variáveis aleatórias com distribuição
exponencial de parâmetros ij e ik
respectivamente.
Seja t t = min { tij , tik } o tempo de permanência
no estado i. Do anterior se deduz que :
t se distribui exponencialmente
com parâmetro ( ij+ ik)
Cadeias de Markov de
tempo contínuo
Propriedades:
O tempo de permanência em um estado é
Markoviano (processo sem memória)
A escolha do próximo estado se efetua no instante
da transição e só depende do estado atual e não do
passado, portanto é Markoviano.
Cadeias de Markov de
tempo contínuo
Dado que o tempo de permanência em
qualquer estado e a escolha do próximo estado
são Markovianos, então tem-se uma cadeia de
Markov de parâmetro contínuo.
As variáveis aleatórias “tempo de permanência
no estado i” e “próximo estado visitado” são
independentes.
Cadeias de Markov de
tempo contínuo
Definição formal:
Um processo aleatório X(t) é uma cadeia de Markov
de tempo contínuo se:
PX (t s) j | X ( s) i, X (u ) x(u ),0 u s
PX (t s ) j | X ( s ) i
Cadeias de Markov de
tempo contínuo
Exemplo : processo de Poisson
N( )
N(t+s) = j
j-i chegadas
j-i arribos
N(t): estado no instante t
N(t): número de chegadas
até t
N(t) = i
t
t+s
P{ N (t s ) j / N (t ) i , N (u ) X (u ) 0 u t}
P{ N (t s ) j / N (t ) i}
P{( j i )chegadasem(t , t s ]}
O que é resolver uma cadeia de
Markov?
É encontrar as probabilidades de transição de
qualquer estado i a qualquer estado j em um
dado instante.
Para resolver este problema se utilizará o
princípio do balanço global
Princípio de balanço global
Definições:
i i1
2 2i
i i2
...
k ki
i
...
1 1i
i ij
Princípio de balanço global
Definições:
k: probabilidade em regime estacionário de estar
no estado k
Outra interpretação: fração de tempo que o sistema
fica no estado k.
k
Unidad de
Unidade
detiempo
tempo
+
k
+
Unidad de tiempo
Unidade
de tempo
Princípio de balanço global
Definições:
k(t): probabilidade de estar no estado k no
instante t
lim k ( t ) k
t
ki: taxa média de transição do estado k para o
estado i
k· ki: número médio de transições do
estado k ao estado i, por unidade de tempo.
Princípio de balanço global
...
k ( t ) ki t
Número médio de
entradas de qualquer
estado k ao estado i
em t
i
...
i ( t ) i1t
1 ( t ) 1i t
i ( t ) ij t
número médio de
saídas do estado i a
qualquer estado j
em t
Princípio de balanço global
Número de entradas totais ao estado i emt:
k
( t ) ki t o( t )
k
Número de saídas totais desde o estado i em t:
( t )
i
j
ij
t o( t )
Princípio de balanço global
Balanço de fluxos
Entradas líquidas
número médio de número médio de
médias por unidade = entradas totais por - saídas totais por
de tempo (EN)
unidade de tempo
unidade de tempo
Considerando-se o número de entradas líquidas
em um intervalo t, se tem que:
EN t k ( t ) ki i ( t ) ij t o( t )
k i
j i
Princípio de balanço global
O número de entradas líquidas em t pode ser
interpretado como:
i t t
+
+
i t
Unidad de tiempo
Unidade de tempo
+
+
i t
EN t i ( t t ) i ( t ) o( t )
i ( t ) o( t )
Princípio de balanço global
Usando-se novamente o balanço de fluxos:
número de
Variação do tempo de
permanência no estado i, = entradas totais em t
por unidade de tempo
número de
saídas totais
em t
Esta variação pode expressar-se em forma da
equação de diferenças:
i ( t ) k ( t ) ki i ( t ) ij t o( t ) (1)
k i
j i
Princípio de balanço global
Dividindo por
i ( t )
t
k i
k
t em (1):
( t ) ki i ( t ) ij
j i
Tomando-se o limite
i ( t )
t
k i
k
lim
t 0
( t ) ki
o( t )
t
(2)
em (2):
i ( t ) ij
j i
“ Equação de balanço global para o estado i”
(3)
Princípio de balanço global
Equação de balanço global para um estado i
qualquer:
i ( t )
t
k i
k
( t ) ki i ( t ) ij
j i
Pode-se reescrever em forma vetorial da
seguinte maneira:
0i
i ( t )
t
0 (t)
... i ( t ) ...
:
n ( t ) ij
j i
:
ni
Princípio de balanço global
Definindo-se:
( t ) 0 ( t )
( t )
t
0 ( t )
t
0 j
j 0
:
Q i0
:
n0
...
...
...
i (t)
n (t)
...
i ( t )
t
0i
...
...
:
...
ij
...
j i
:
...
ni
...
n ( t )
t
:
in
:
nj
j n
0n
Equações de balanço global
O conjunto das equações de balanço global pode
expressar-se em forma matricial como:
( t )
t
( t )Q
Além disso, sempre:
(t) 1
i
i
“Equações de balanço global”
Equações de balanço global
Em estado estacionário se tem que:
fluxo de entrada = fluxo de saída
Q 0
i
1
i
“Equações de balanço global em estado estacionário”
Equações de balanço global
Os conjuntos de equações anteriores servem
para resolver tanto a situação transiente como
estacionária da cadeia de Markov. Isto é, nos
permite encontrar as probabilidades de
transição de qualquer estado i a qualquer
estado j num intervalo t qualquer (Pij(t)).
Exemplo: Cadeia de Markov de
dois estados
Uma máquina funciona uma quantidade de
tempo exponencialmente distribuída com média
1/Quando falhase repara com a mesma
distribuição em um tempo médio 1/.
Inicialmente, a máquina encontra-se
funcionando.
Deseja-se determinar a probabilidade de que a
máquina esteja funcionando em um instante t
dado. Inicialmente a máquina se encontra
operacional.
Exemplo: Cadeia de Markov de
dois estados
0
1
EmEn
reparo
Operacional
Reparación
Se tem que :
01
10
Condições iniciais:
(0) 0 (0)
1 (0) 1
0
Exemplo: Cadeia de Markov de
dois estados
Equações de balanço global estabelecem que:
( t )
t
0 (t)
1 ( t )
0 ( t ) 1 ( t ) 1
Forma escalar da equação anterior é:
i ( t )
t
k i
k
( t ) ki
i ( t ) ij
j i
k , i, j 0 ,1
Exemplo: Cadeia de Markov de
dois estados
Portanto:
0 ( t )
t
1 ( t )
t
0 ( t ) 1 ( t )
(4)
0 ( t ) 1 ( t )
(5)
0 ( t ) 1 ( t ) 1
(6)
Exemplo: Cadeia de Markov de
dois estados
Resolvendo (4), (5) e (6), obtém-se:
0 (t)
1 ( t )
e
e
( ) t
( ) t
Exemplo: Cadeia de Markov de
dos estados
Resolvendo em estado estacionário, obtém-se:
0 ( t )
t
1 ( t )
t
0
0 1 0
(7)
0 1 0
(8)
0 1 1
(9)
Exemplo: Cadeia de Markov de
dois estados
Resolvendo (7), (8) e (9), obtém-se :
0
1
Observação:
Também pode chegar-se a este resultado através
das equações em estado transiente, fazendo
tender o parâmetro t a infinito.
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 0 com =4
0
=2
=5
=7
t
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 0 com =4
0
=7
=5
=2
t
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 1 com =4
1
=7
=5
=2
t
Exemplo: Cadeia de Markov de
dois estados
Gráfico de 1 com =4
1
=2
=5
=7
t
Problema 1
Seja uma cadeia de Markov de três estados
como se ilustra na figura:
01
10
1
0
02
20
2
Dado que acontece uma transição do estado 0,
determinar a probabilidade de que esta transição
seja para o estado 1.
Problema 1
Define-se:
t01:
tempo de permanência no estado 0 antes de
transitar para o estado 1, caso transite para o
estado 1
t02: tempo de permanência no estado 0 antes de
transitar para o estado 2, caso transite para o
estado 2
A probabilidade pedida é equivalente à
probabilidade de que a transição para o estado 1
ocorra antes da transição para o estado 2.
Problema 1
Portanto:
P( t 01 t 02 )
P( t
t 02 / t 02 s) P( t 02 s)ds
01
0
P( t
01
s) P( t 02 s) ds
0
(1 e
01s
0
01
01 02
) 02 e
02 s
ds
Problema 1
Estendendo o resultado anterior, para qualquer
número de estados, se tem que:
Pij
onde
ij
ik
k i
Pij: probabilidade de transitar do estado i para o
estado j, dado que acontece uma transição
ik: taxa média de saída do estado i para o
estado k
Problema 2
Dado que aconteceu uma transição do estado i,
qual é a probabilidade de que o próximo estado
seja i ?
Sabe-se que:
Pii 1 Pij
j i
Além disso:
Pij
ij
k i
ik
Problema 2
Portanto:
ij
Pii 1
j i
ik
k i
Pii 1
1
ik
k i
Pii 1 1 0
j i
ij
Problema 3
Dado que no instante zero o sistema está no
estado i, qual é a probabilidade de permanecer
neste estado até o instante t?
P{permanecer em estado i até t} = 1 - P{sair do estado i até t}
Dado que o tempo de permanência é exponencial:
Portanto:
P{sair do estado i até t} 1 e
P{permanecer no estado i até t}
ik t
k i
e
ik t
k i