CONTROLE ÓTIMO E ROBUSTO
(SISTEMAS LINEARES – ELE 2732)
Estas notas de aula são baseadas no livro de Kemin Zhou, John C. Doyle and Keith
Glover, ROBUST AND OPTIMAL CONTROL, Prentice Hall, 1995.
Este texto está no meu “site” http://www.fplf.org.br/pedro_varios/ .
Tanto o texto (“Notas de aula”), como os graus e os avisos para os alunos, estão na pasta
<Controle ótimo e robusto>. (Atenção: Existe uma pasta com o nome <Sistemas
lineares> com o texto do curso dado nos anos anteriores. O conteúdo do curso era bem
diferente, mas a consulta pode ser proveitosa).
1º. Capítulo – Teoria de Sistemas Lineares (conceitos básicos)
O que se segue, em grande parte, já deveria ter sido visto na Graduação. Será (re)passado
de forma um tanto rápida devido às nossa limitações de tempo.
1.1 Inversão de matrizes
⎡ A11 A12 ⎤
⎥ , onde A11 e A22 também são quadradas.
⎣ A21 A22 ⎦
Suponha primeiramente que A11 seja não-singular.
Seja a matriz quadrada e A = ⎢
A11−1 A12 ⎤
⎡ A11 A12 ⎤ ⎡ A11 0 ⎤ ⎡ I
Ora, ⎢
⎥;
⎥=⎢
⎥⎢
A22 ⎦
⎣ A21 A22 ⎦ ⎣ 0 I ⎦ ⎣ A21
0⎤ ⎡ I
⎤
A11−1 A12 ⎤ ⎡ I
A11−1 A12
⎡ I
mas ⎢
⎢
⎥=⎢
⎥ . Esta última corresponde a
⎥
A22 ⎦ ⎣0 A22 − A21 A11−1 A12 ⎦
⎣ − A21 I ⎦ ⎣ A21
operações elementares sobre as “linhas” (na realidade, blocos de linhas) da matriz
⎡ I
⎢
⎣ A21
A11−1 A12 ⎤
⎥ ; por outro lado,
A22 ⎦
−1
0⎤
⎡ I
⎡ I 0⎤
=⎢
⎢− A
⎥
⎥ , como se verifica
I
A
I
⎣ 21
⎦
⎣ 21
⎦
imediatamente.
Então, da primeira igualdade acima em vista das duas seguintes, temos
A12 ⎤ ⎡ A11 0 ⎤ ⎡ I 0 ⎤ ⎡ I
⎤
A11−1 A12
(1)
=⎢
⎢
⎥.
⎥
⎢
⎥
⎥
−1
A22 ⎦ ⎣ 0 I ⎦ ⎣ A21 I ⎦ ⎣0 A22 − A21 A11 A12 ⎦
Definindo ∆ := A22 − A21 A11−1 A12 e supondo que tenha inversa, temos da eq. de cima:
⎡ A11
⎢A
⎣ 21
⎡ A11
⎢A
⎣ 21
−1
A12 ⎤
⎡I
=⎢
⎥
A22 ⎦
⎣0
A11−1 A12 ⎤
⎥
∆ ⎦
1
1
⎡ I 0 ⎤ ⎡ A11 0 ⎤
⎢A
⎥ ⎢
⎥
⎣ 21 I ⎦ ⎣ 0 I ⎦
−1
1
Calculando, a inversa de cada fator e efetuando o produto, obtemos:
⎡ A11
⎢A
⎣ 21
−1
A12 ⎤
⎡ A11−1 + A11−1 A12 ∆ −1 A21 A11−1 − A11−1 A12 ∆ −1 ⎤
=⎢
⎥.
A22 ⎥⎦
−∆ −1 A21 A11−1
∆ −1
⎣
⎦
(2)
Observe-se que de (1), temos imediatamente
det[ A] = det[ A11 ]det[∆ ] = det[ A11 ]det[ A22 − A21 A11−1 A12 ] .
(3)
Suponha-se agora que A22 seja não-singular:
ˆ = A − A A−1 A .
Definamos ∆
11
11 22 21
Cálculos análogos (na realidade, simétricos, melhor ainda, duais) aos acima, nos dão:
⎡ A11
⎢A
⎣ 21
−1
⎡
A12 ⎤
∆ˆ −1
=
⎢ −1
ˆ −1
A22 ⎥⎦
⎣⎢ − A22 A21∆
⎤
−∆ˆ −1 A12 A22−1
⎥.
A22−1 + A22−1 A21∆ˆ −1 A12 A22−1 ⎥⎦
(4)
E alternativamente a (4),
det[ A] = det[ A22 ]det[∆ˆ ] = det[ A22 ]det[ A11 − A12 A22−1 A21 ] .
(5)
É claro que com as facilidades computacionais, ninguém iria calcular a inversa de uma
matriz grande ou com muitos elementos fracionários. Mas a importância das fórmulas
acima continua de pé, pois são usadas com freqüência em demonstrações.
1.2 Normas de vetores e matrizes
Seja o vetor x no espaço complexo (ou real) de n dimensões, isto é, x ∈ C n , ou x ∈ R n .
1/ p
⎛ n
p⎞
A norma p de x é definida como x p := ⎜ ∑ xi ⎟
⎝ i =1
⎠
Para p = 1, 2, ∞ , temos, respectivamente,
n
x 1 = ∑ xi ;
i =1
x2=
n
xi
∑
i =1
2
e
max xi
1≤i≤n
.
(6)
.
(7)
A norma-2 é chamada euclideana.
Quanto às matrizes, o conceito mais importante é o de norma induzida, a qual é
considerada como um operador sobre vetores. Seja a matriz A = ⎡⎣ a ij ⎤⎦ ∈ C m×n . Então a
norma induzida p é definida como sup
x≠0
Ax
x
p
.
(8)
p
Pode-se demonstrar que as normas induzidas 1, 2 e ∞ são dadas por:
m
A 1 = max ∑ aij ,
1≤ j ≤ n
i =1
A 2 = λmax ( A∗ A) e
n
A ∞ = lim ∑ aij ,
1≤i ≤ n
(9)
i =1
onde, na segunda expressão acima, λmax indica o maior auto-valor da matriz e A∗ é a
matriz transposta conjugada, ou seja, a transposta da matriz com todos os seus elementos
complexos substituídos pelos seus conjugados.
2
Uma outra norma importante, mas que não é norma induzida é a norma de Frobenius,
definida como A
F
:= Traço(A∗ A) .
(10a)
Recorda-se que o traço de uma matriz é a soma dos elementos da sua diagonal. Não é
difícil verificar que (faça um exemplo!): A
F
=
m
n
∑∑ a
i =1 j =1
ij
2
.
(10b)
(Mas neste curso só usaremos normas induzidas).
No que se segue o corpo F pode representar R (corpo dos reais) ou C (corpo dos
complexos). A letra F para representar corpo vem do inglês, cuja palavra para corpo é
“field”.
A norma euclideana tem propriedades importantes, dadas pelo:
(11)
Lema:
n
m
Sejam os vetores x ∈ F e y ∈ F .
1. Suponha que n ≥ m . Então x = y se só se existir uma matriz U ∈ Fn×m tal que
x = Uy e U *U = I , onde (⋅)* é a transposta conjugada da matriz se ela for complexa e
simplesmente transposta se ela for real.
2. Suponha que n = m. Então x* y ≤ x y , onde ⋅ indica o valor absoluto de um
escalar de F. Além disso, temos igualdade acima se x = α y , com α ∈ F ou se y = 0.
3. x ≤ y se só se existir uma matriz ∆ ∈ Fn×n , com ∆ ≤ 1 tal que x = ∆y . Além disso,
x < y se só se ∆ < 1 .
4. Ux = x para qualquer matriz unitária com dimensões apropriadas. (Recorda-se que
uma matriz quadrada complexa U é dita unitária (ortogonal, se a matriz for real) se
U *U = I = UU * . Observe-se que a matriz da primeira propriedade acima deste lema não é
unitária, porque não é quadrada).
A seguir temos a seguinte propriedade importante de normas induzidas:
Lema
Seja A uma matriz particionada em blocos de sub-matrizes:
A1q ⎤
⎡ A11 A12
⎢A
A22
A2 q ⎥⎥
21
.
A=⎢
⎢
⎥
⋅
⎢
⎥
Amq ⎥⎦
⎢⎣ Am1 Am 2
Então para toda norma induzida, temos
(12*)
3
⎡ A11
A12 p
A1q ⎤
p
p
⎢
⎥
⎢ A
A22 p
A2 q ⎥
21 p
p⎥
.
Ap≤ ⎢
⎢
⎥
⋅
⎢
⎥
⎢ Am1 p Am 2 p
Amq ⎥
p⎦
⎣
E temos uma igualdade entre os dois lados no caso da norma de Frobenius.
1.3 Valores singulares
O conceito de valor singular, σ i , é definido no teorema seguinte, onde F é um corpo,
por exemplo, o dos reais ou dos complexos, que são os dois corpos que nos interessam
neste curso, principalmente o primeiro.
(13a)
Teorema
Seja A ∈ Fm×n com posto p. Então existem matrizes unitárias
U = [u1 u2 ... um ] ∈ Fm×m
(13b)
V = [ v1 v2 ... vn ] ∈ Fn×n
(13c)
⎡σ 1 0
⎢0 σ
⎡Σ1 0 ⎤
2
∗
tais que A = U ΣV , sendo Σ = ⎢
e Σ1 = ⎢
⎥
⎢
⎣ 0 0⎦
⎢
⎣⎢ 0 0
onde σ 1 ≥ σ 2 ≥ ≥ σ p > 0 e p ≤ min{m, n} .
0⎤
0 ⎥⎥
.
⎥
⎥
σ p ⎦⎥
(13 d)
Prova: ZDG, pp. 32s. (ZDG são as iniciais dos autores do livro que é a base deste curso,
citado logo ao início).
•
Os vetores ui e v j são denominados vetores singulares à esquerda e à direita,
respectivamente, da matriz A.
AV = U Σ , ou seja,
De (13 d) temos
Avi = σ i ui ,
∗
∗
(14a)
∗
A = V ΣU , donde A U = V Σ , ou seja,
A∗ui = σ i vi .
(14b)
A∗ Avi = σ i A∗ui = σ i2vi
(15a)
D (14a) e (14b), temos
e, pelo mesmo método, AA ui = σ u .
(15b)
Estas duas expressões nos dão o método para calcular os valores singulares de uma dada
matriz, bem como os respectivos vetores singulares. Com efeito, para calcular os valores
singulares, das equações acima, vê- se que o quadrado de cada valor singular de A é o
∗
2
i i
4
auto-valor da matriz A∗ A e também da matriz AA∗ . E de (15b) vemos que cada vetor
singular à direita de A é igual ao auto-vetor (à direita) de AA∗ , enquanto que de (15a),
vemos que cada vetor singular à esquerda de A é igual ao autor-vetor (à direita) de
A∗ A .
Adotaremos a seguinte notação padrão:
σ ( A) = σ max ( A) = σ1 = maior valor singular da matriz A.
σ ( A) = σ min ( A) = σ p = menor valor singular da matriz A.
E temos as seguintes propriedades do maior e menor valores singulares:
σ ( A) = max x =1 Ax = A 2 ,
a segunda igualdade acima vindo de (9) e (15);
σ ( A) = min x =1 Ax
Segue-se outro resultado importante:
Lema:
Suponha que as matrizes A e ∆ sejam quadradas. Então,
(i) σ ( A + ∆ ) − σ ( A) ≤ σ (∆ ) ;
(15*)
(ii) σ ( A∆ ) ≥ σ ( A)σ (∆ ) ;
(iii) σ ( A−1 ) =
1
σ ( A)
se A tiver inversa.
Prova:
(i): σ ( A + ∆) = min x =1 ( A + ∆ ) x
≥ min x =1 { Ax − ∆x }
≥ min x =1 Ax − max x =1 ∆x
= σ ( A) − σ (∆) .
Portanto, −σ (∆) ≤ σ ( A + ∆ ) − σ ( A) .
A outra desigualdade, σ ( A + ∆) − σ ( A) ≤ σ (∆) , é obtida substituindo A por A + ∆ e ∆
por - ∆ na prova acima.
(ii) σ ( A∆) := min x =1 A∆x
=
min x =1 x*∆* A* A∆x
≥ σ ( A) min x =1 ∆x = σ ( A)σ (∆) ;
(iii) Seja A = U ΣV * , donde A−1 = V Σ −1U * .
Portanto, σ ( A−1 ) = σ (Σ −1 ) = 1/ σ (Σ) = 1/ σ ( A) ,
a segunda igualdade se devendo à estrutura diagonal de Σ .
•
Os resultados do próximo lema são fáceis de provar:
5
Lema:
(15**)
m×n
*
Seja A ∈ F , sejam U e V tais que A = U ΣV , sejam ui e v j as colunas de U e V,
respectivamente e os valores singulares sejam definidos como
σ 1 ( A) ≥ σ 2 ( A) ≥ .... ≥ σ r ( A) > σ r +1 ( A) = .... = 0 , com r ≤ min(m, n) .
Então,
1. Posto(A) = r;
2. Ker( A) = span(vr +1 , vr + 2 , ....vn ) e (Ker( A)) ⊥ = span(v1 , v2 ,....vr ) ;
3. Im( A) = span(u1 , u2 , ....ur ) e (Im( A)) ⊥ = span(ur +1 , ur + 2 , ....um ) ;
r
4. A tem uma expansão diádica, isto é, A = ∑ σ i ui vi* = U r Σ rVr* , onde
U r = [u1 u2
5. A
2
F
ur ] , Vr = [ v1 v2
i =1
vr ] e Σ r = diag(σ 1 , σ 2 ,...., σ r ) ;
= σ 12 + σ 22 + .... + σ r2 ;
6. A = σ 1 ;
7. σ i (U 0 AV0 ) = σ i ( A), i = 1, 2,..., p = min {m, n} , para matrizes unitárias apropriadas
U 0 e V0 ;
(Na 6ª. propriedade acima, trata-se da norma-2 induzida, como será costume neste texto:
•
quando não se diz que norma é, será a 2).
Outros resultados úteis são os seguintes:
Teorema:
(15***)
⎡X
Suponha γ > 0 . As soluções X de ⎢
⎣C
B⎤
≤ γ são dadas por:
A⎥⎦
X = −YA*Z + γ ( I − YY * )1/ 2 W ( I − ZZ * )1/ 2 , onde A* é a transposta conjugada da matriz
A, W é uma contração arbitrária, isto é, W ≤ 1 , Y e Z com Y ≤ 1 e Z ≤ 1 são
soluções das seguintes eqs. lineares:
B = Y (γ 2 I − A* A)1/ 2 e C = (γ 2 I − AA* )1/ 2 Z .
Prova: ZDG, p. 42.
•
Lema:
(15#)
m×n
k ×n
*
*
Sejam B ∈ F
e C ∈ F . Suponha que m ≥ k e B B = C C . Então eixste uma matriz
m×k
U ∈ F tal que U *U = I e B = UC.
•
Prova: ZDG, p. 37
Pode-se definir a raiz quadrada de uma matriz positiva semi-definida A por
A1/ 2 = ( A1/ 2 )* ≥ 0 tal que A = A1/ 2 A1/ 2 .
6
A raiz quadrada de uma matriz pode ser calculada facilmente se a matriz for
diagonalizável, isto é, se existir uma matriz U tal que UAU * = Λ , onde Λ é uma matriz
diagonal constituida pelos auto-valores da matriz A. Então, se fizermos A1/ 2 = U Λ1/ 2U * ,
obtemos efetivamente A = U Λ1/ 2U *U Λ1/ 2U * = U ΛU * .
(15##)
Teorema de Parrott:
⎡X
Defina-se γ 0 := min X ⎢
⎣C
Prova: ZDG, pp. 41s.
⎧⎪
B⎤
. Então, γ 0 = max ⎨ [C
⎥
A⎦
⎪⎩
⎡ B ⎤ ⎫⎪
A] , ⎢ ⎥ ⎬ .
⎣ A⎦ ⎭⎪
Outro resultado que sreá muito útil mais ao fim do curso:
Teorema:
(15$)
⎡ X B⎤
Seja γ > 0 . Então as soluções X tais que ⎢
⎥ ≤ γ são dadas por
⎣ C A⎦
X = −YA* Z + γ ( I − YY * )1/ 2W ( I − Z * Z )1/ 2 ,
onde W é uma “contração” ( W ≤ 1 ) arbitrária, enquanto que Y e Z, com
Y ≤ 1 e Z ≤ 1 são soluções das segintes eqs.
B = Y (γ 2 I − A* A)1/ 2 e C = (γ 2 I − AA* )1/ 2 Z .
Prova: ZDG, p. 42.
•
1.4 Equações de estado e Matrizes de transferência em Sistemas Lineares
Consideraremos neste curso apenas sistemas lineares invariantes no tempo e de tempo
contínuo. Parece muito restritiva esta opção, mas é a maneira de se tratar um grande
número de problemas reais. Efetivamente, caso o sistema real não seja linear, ele pode ser
linearizado, com boa aproximação, na vizinhança de “ponto de operação”. E quanto ao
fato de os controladores modernos serem programas de computador, muitas vezes microprocessadores, e portanto de tempo discreto, de novo eles podem ser aproximados, cada
vez mais, a sistemas de tempo continuo, dada a velocidade cada vez maior destes
processadores.
Seja o sistema definido para t ≥ t0 :
x(t ) = Ax(t ) + Bu (t ) , x(t0 ) = x0
e
y (t ) = Cx(t ) + Du (t ) ,
onde x(t ) , u (t ) e y (t ) são vetores com elementos reais, representando,
(16a)
(16b)
respectivamente, o estado, a entrada (ou controle) e a resposta (ou saída) do sistema.
Qualquer equação diferencial em y (t ) , e suas derivadas, e u (t ) , pode ser colocado na
forma acima. Se a ordem da eq. diferencial for n , então a dimensão do vetor x(t )
também será n.
As matrizes multiplicando x(t ) , u (t ) e y (t ) têm as dimensões apropriadas.
7
(Faça exemplos para se convencer da equivalência da representação dada em (16) e uma
equação diferencial, caso isso seja novidade para você. Comece com caso bem simples,
por exemplo, com x(t ) de dimensão dois e a matriz A diagonal. Aliás, esta é sempre a
melhor maneira de entender alguma coisa em matemática: fazer exemplos, começando
com os mais simples.)
Denotemos por xˆ ( s ) a transformada de Laplace de x(t ) e analogamente para u (t ) e
y (t ) . Suponha x0 = 0 . Aplicando transformada de Laplace a (16), temos
(17a)
sxˆ ( s ) = Axˆ ( s ) + Buˆ ( s ) ,
yˆ ( s ) = Cxˆ ( s ) + Duˆ ( s ) ,
(17b)
o que nos dá imediatamente
(18a)
yˆ ( s ) = (C ( sI − A) −1 B + D)uˆ ( s ) .
−1
ou seja, H ( s ) := C ( sI − A) B + D é a matriz de transferência do sistema.
(18b)
A expressão entre ( ) acima é a chamada matriz de transferência, às vezes também
chamada função de transferência, especialmente quando o sistema é escalar, isto é, tanto
y como u são escalares (não vetores).
Exemplo: Calcular a matriz de transferência do sistema em que
⎡ −1 2 ⎤
⎡1 ⎤
A=⎢
, B = ⎢ ⎥ , C = [1 1] , D = 0 .
⎥
⎣ 0 1⎦
⎣0⎦
Solução:
−1
⎡ s + 1 −2 ⎤
⎡ s − 1 2 ⎤ ⎡1 ⎤
1
1
H ( s ) = [1 1] ⎢
= [1 1]
=
. A realização de
⎥
⎢
⎥
⎢
⎥
s − 1⎦
s + 1⎦ ⎣ 0 ⎦ s + 1
( s + 1)( s − 1) ⎣ 0
⎣ 0
ordem mínima desta função de transferência será dada por
A = −1, B e C tais que BC = 1
A realização de uma matriz (função) de transferência é a dimensão da sua matriz “A”, ou
então a dimensão do espaço de estado correspondente de acordo com (16a). Dissemos
que a segunda realização à direita é de ordem mínima, porque é de odem 1. Menor que
esta seria uma realização de ordem zero, um ganho puro, o que não é o caso. Veremos
adiante uma maneira de saber se uma realização é mínima sem ter que calculá-la
É fácil verificar que a função de transferência, no caso escalar, é a transformada de
Laplace da resposta, quando a entrada é um impulso. (Para provar isto, basta lembrar que
a transformada de Laplace de um impulso é igual a um).
A matriz de transferência será representada quase sempre da forma do lado direito da eq.:
⎡A B⎤
C ( sI − A) −1 B + D = ⎢
⎥
⎣C D ⎦
(18c)
⎡A
Usam-se os separadores horizontal e vertical para diferenciar da matriz ⎢
⎣C
B⎤
.
D ⎥⎦
8
No exemplo acima podemos então escrever:
⎡ −1 2 1 ⎤
⎡ −1 B ⎤
H ( s ) = ⎢⎢ 0 1 0 ⎥⎥ = ⎢
⎥ , B e C tais que BC = 1
C 0⎦
⎣
⎢⎣ 0 1 0 ⎥⎦
Esta igualdade parece estranha, mas não tem nada de estranho, pois o que está entre [ ]
não são matrizes, mas funções de transferência, anotadas de modo não convencional. Esta
notação alem de ser compacta, mostra claramente de que realização se trata. É claro que o
modo convencional de indicar a igualdade acima é
−1
⎡ s + 1 −2 ⎤ ⎡1 ⎤ BC
.
H ( s ) = [ 0 1] ⎢
=
s − 1⎥⎦ ⎢⎣0 ⎥⎦ s + 1
⎣ 0
- Recorda-se que a solução de (16a) é dada por
t
x(t ) = e A( t −t0 ) x(t0 ) + ∫ e A( t −τ ) Bu (τ )dτ .
(19)
t0
Comparando esta com (17a), que supõe nulo o estado inicial, conclui-se facilmente
t
∫
que a transformada de Laplace de e A( t −τ ) Bu (τ ) dτ é ( sI − A) −1 Buˆ ( s ) . E da mesma
t0
forma, pode-se conferir que a transformada de Laplace de e A( t −t0 ) x(t0 ) é
( sI − A) −1 x(t0 ) .
(19*)
De (19) e de (16b), temos então
y (t ) = Ce
A ( t − t0 )
t
x(t0 ) + C ∫ e A(t −τ ) Bu (τ )dτ + Du (t ) ,
(20a)
t0
esta sendo a resposta total no domínio do tempo.
E a resposta total no domínio da chamada frequência complexa é, em vista de (18a) e de
(19*):
yˆ ( s ) = (C ( sI − A) −1 B + D)uˆ ( s ) + C ( sI − A) −1 x(t0 ) = C ( sI − A)−1 ( Buˆ ( s ) + x(t0 )) + Duˆ ( s )
(20b)
1.5 Controlabilidade e observabilidade / Estabilizabilidade e detectabilidade
Definição:
(21)
O sistema dado por (16a) é dito controlável se para quaisquer estados iniciais x0 , tempo
final t1 e estado final x1 existir um controle seccionalmente contínuo u (⋅) tal que a
solução de (16a) satisfaça a x(t1 ) = x1 . Do contrário, o sistema é dito incontrolável.
(Frequentemente, ao invés da expressão “sistema dado em (16a) controlável /
incontrolável”, diz-se abreviadamente “(A, B) controlável / incontrolável”).
9
Observação: Daqui para frente a dimensão da matriz A será sempre n , a não ser que
seja expressamente escrito o contrário.
Teorema: As seguintes afirmações são equivalentes:
i) (A,B) é controlável;
t
ii) A matriz Wc (t ) = ∫ e Aτ BBT e A τ dτ
T
(22)
é positiva definida para todo t > 0.
0
C
(Esta matriz é denominada gramiano de controlabilidade).
An −1 B ⎤⎦ tem posto cheio,
= ⎡⎣ B AB A2 B
iii) A matriz de controlabilidade
isto é, n.
iv) A matriz [ A − λ I B ] tem posto cheio (igual a n) para todo λ em C , o plano
complexo.
v) Se λ for um auto-valor de A e x for o respectivo auto-vetor à esquerda, isto, é,
x∗ A = x∗λ , então x∗ B ≠ 0 .
vi) Os auto-valores de A + BF podem ser arbitrariamente escolhidos (com a restrição
que os auto-valores complexos aparecem sempre em pares conjugados) por meio de uma
escolha apropriada da matriz F .
•
Prova: ZDG, pp. 48s.
Exemplo:
Verificar se o sistema em que A e B são dadas a seguir é controlável.
⎡1 −1 2 ⎤
⎡1 1 ⎤
⎢
⎥
A = ⎢0 1 1 ⎥ , B = ⎢⎢0 1 ⎥⎥
⎣⎢0 0 2 ⎦⎥
⎣⎢1 0 ⎦⎥
(22*)
Solução:Vamos usar o método (iii) do teorema acima. Temos que verificar se o posto de
⎡⎣ B AB A2 B ⎤⎦ é igual ou inferior a 3.
Ora, efetuando, verifica-se que não é necessário calcular A2 B , pois
⎡1 1 3 0 ⎤
[ B AB ] = ⎢⎢0 1 1 1 ⎥⎥ e nesta matriz a 2ª. a 3ª. e a 4ª. colunas são l.i, portanto o
⎢⎣1 0 2 0 ⎥⎦
sistema é controlável.
O método acima, usando a matriz de controlabilidade, é, de longe, o mais usado, sendo
também de fácil aplicação quando se usa computador, ainda que por sua natureza possa
ter problemas quando o computador não consegue distinguir valores muito próximos,
mas diferentes, de zero.
Para resolver rapidamente o problema de verificar a controlabilidade por simples
inspeção, ou quase, o 4º. método é muito conveniente, como se pode ver no seguinte
Exemplo:
10
⎡1 2 −3 4 ⎤
⎡1 −5⎤
⎢ 0 −1 0 3 ⎥
⎢
⎥
⎢
⎥ , B = ⎢2 2 ⎥ .
⎢1 2 1 0 ⎥
⎢4 4 ⎥
⎢
⎥
⎢
⎥
⎣0 0 0 2⎦
⎣0 0 ⎦
Solução: usando o método (iv), temos
3
−4 1 −5⎤
⎡ λ − 1 −2
⎢ 0
λ +1 0
−3 2 2 ⎥⎥
⎢
−
=
λ
I
A
B
. E é claro que se λ = 2 , a úllima
[
] ⎢
−1
−2 λ − 1
0
4 4⎥
⎢
⎥
λ −2 0 0 ⎦
0
0
⎣ 0
linha desta matriz se anula, e portanto o sistema não é controlável.
A seguir, temos resultado importante, demonstrado há mais de 40 anos e que já foi
enunciado como vi) do Teorema (22), mas que vale enfatizar:
Teorema:
(22**)
É possivel posicionar arbitrariamente os autovalores do sistema (16a) através de
realimentação do estado, u=Fx , se só se o sistema for controlável.
•
Note-se que através de realimentação de estado, a eq. de estado do sistema se torna
x = ( A + BF ) x . Os autovalores do sistema passam a ser os da matriz A+BF.
O que este teorema diz é que através da realimentação de estado os autovalores da matriz
A+BF podem ser escolhidos arbitrariamente através de matriz F apropriada se só se o
sistema (16a) for controlável.
(É claro que o posicionamento arbitrário dos autovalores deve respeitar o fato de que os
autovalores complexos devem aparecer aos pares conjugados, uma vez que todas as
matrizes envolvidas são, por hipótese, de números reais).
Exemplo
⎡1 2 ⎤
⎡1⎤
Seja o sistema (16a) com A = ⎢
, B = ⎢ ⎥ . Realimentando o estado com
⎥
⎣0 2⎦
⎣1⎦
⎡1 + f1 2 + f 2 ⎤
⎡1 2 ⎤ ⎡1⎤
. Então temos que
+ ⎢ ⎥ [ f1 f 2 ] = ⎢
F = [ f1 f 2 ] , temos A + BF = ⎢
⎥
2 + f 2 ⎥⎦
⎣0 2 ⎦ ⎣1⎦
⎣ f1
os autovalores do sistema realimentado são dados pelas raízes do polinômio
⎛ ⎡λ − 1 − f1 −2 − f 2 ⎤ ⎞
2
det ⎜ ⎢
⎥ ⎟ = λ − (1 + f1 + f 2 )λ + f 2 + 2 . Escolhidos os autovalores do
λ
2
f
f
−
−
−
1
2⎦⎠
⎝⎣
sistema com realimentação de estado, os coeficientes do polinômio acima ficam definidos
de modo único. Sejam a e b estes coeficientes. Então obtemos as eqs.
−(1 + f1 + f 2 ) = a e f 2 + 2 = b , o que nos dá f 2 = b − 2 e f1 = −(a + b) + 1 .
11
Vale observar que se a solução foi única neste caso, isto não ocorre em geral quando o
controle u tem mais de uma componente
(23)
Definição:
Um sistema x(t ) = Ax(t ) é dito assintoticamente estável se todos os autovalores de A
estiverem no semi-plano aberto da esquerda, ou seja, se Re[λ ( A)] < 0 .
(23*)
Definição:
Os autovalores da matriz A, chamada por alguns autores de matriz do sistema, são
chamados polos do sistema.
Exemplo:
Vejamos se o sistema do exemplo (22*) é estável. Para isso, temos que calcular os
autovalores da matriz A:
⎛ ⎡λ − 1 1
−2 ⎤ ⎞
⎜⎢
⎟
det(λ I − A) = det ⎜ ⎢ 0
λ − 1 −1 ⎥⎥ ⎟ = (λ − 1)2 (λ − 2) . Donde se vê que o sistema não
⎜⎢ 0
0
λ − 2 ⎥⎦ ⎟⎠
⎝⎣
é assintoticamente estável, pois tem 3 autovalores da matriz A (ou polos do sistema) fora
do semiplano aberto da esquerda, bastaria um.
Observação: ao longo do texto o advérbio assintoticamente será às vezes omitido, e
diremos simplemente que o sistema é estável se ele satisfizer à condicao acima. Mas isto
é um abuso de linguagem, como se vê na seguinte análise:
Considere o seguinte sistema:
x(t ) = 1 , cuja solução é x(t ) = t + a, sendo a uma costante, um número real qualquer . É
claro que este sistema não é asssintoticamente estável, pois seu único polo é igual a 1.
Mais ainda, ele é instável no sentido que o estado tende a infinito com o tempo.
Considere agora este outro sistema:
x(t ) = 0 . A solução desta eq. diferencial é x(t ) = constante ∀t .
Ora, este sistema não é assintoticamente estável de acordo com a definição (23), pois seu
único polo, igual a zero, não está no semiplano aberto da esquerda. Mas ele é instável?
Não no sentido usual da palavra, pois não “explode”, seu estado não vai para infinito.
Sistemas como este são ditos marginalmente estáveis.
Considere este outro sistema:
⎡ 0 1⎤
2
x=⎢
⎥ x . Seus polos são dados pela eq. λ + 1 = 0 , cujas raízes são λ = ± j ,
−
1
0
⎣
⎦
onde j = + −1 . Portanto o sistema não é assintoticamente estável de acordo com a
definição (23). Ora, é fácil verificar que a solução das eqs. diferenciais do sitema é
x1 (t ) = asent + b cos t , x2 (t ) = a cos t − bsent , com a e b números reais quaisquer.
12
Verifica-se assim que este sistema, mesmo não sendo assintoticamente estável, não é
instável, pois seu estado não “explode”, tal como no exemplo anterior. Ele é, tal como o
outro, marginalmente estável.
Como caracterizar, em termos de autovalores da matriz A estes sistemas que nem são
instáveis nem assintoticamente estáveis e sim marginalmente estáveis?
Deste exemplo e do anterior poderíamos concluir que os sistemas marginalmente estáveis
são aqueles que têm pelo menos um polo no eixo imaginário?
Efetivamente, todo sistema marginalmente estável tem pelo menos um polo no eixo
imaginário e nenhum polo no semiplano aberto da direita. Mas como veremos agora, nem
todo sistema que satisfaz a esta dupla condição é marginamente estável.
Com efeito, considere os sistemas
⎡0 0⎤
⎡0 a ⎤
x=⎢
x e x=⎢
⎥
⎥ x , com a sendo qualquer número real diferente de zero.
⎣0 0⎦
⎣0 0 ⎦
É imediato verificar que ambos os sistemas têm um polo duplo na origem, ou seja, λ = 0 ,
⎡b ⎤
com grau de multiplicidade 2. Integrando o primeiro sistema, obtemos: x = ⎢ ⎥ , b e c
⎣c ⎦
⎡ aet + f ⎤
sendo constantes, números reais quaisquer. Mas o segundo sistema nos dá x = ⎢
⎥,
⎣ e ⎦
com e e f constantes, números reais quaisquer. Ora, este sistema não é portanto
marginalmente estável (onde, é claro, e, alem de a, é diferente de zero), ele é instável,
seu estado tendendo a infinito com o tempo.
Para caracterizar os sistemas marginalmente estáveis, recordamos que uma matriz A é
diagonalizável se existir, como o nome sugere, uma matriz não singular T tal que
0⎤
⎡λ1 0
⎢0 λ
0 ⎥⎥
n
2
A := T −1 AT = diag(λi ) i =1 = ⎢
.
⎢
⎥
⎢
⎥
λn ⎦
⎣0 0
(Matrizes A e A que satisfaçam a A = T −1 AT são ditas similares).
Ora nem toda matriz é diagonalizável, como se pode verificar na segunda matriz do
último exemplo.
Para ver isto, suponha que a dita matriz seja diagonalizável, ou seja, suponha que exista
uma matriz T (escolhendo, sem perda de generalidade, a = 1 na matriz acima), tal que
⎡0 1 ⎤
⎡0 0⎤
⎡a b ⎤
. Seja então T = ⎢
T −1 ⎢
T =⎢
⎥
⎥
⎥ . Então,
⎣0 0 ⎦
⎣0 0⎦
⎣c d ⎦
1 ⎡ d −b ⎤ ⎡0 1 ⎤ ⎡ a b ⎤ ⎡ 0 0 ⎤
.
=
ad − bc ⎢⎣ −c a ⎥⎦ ⎢⎣0 0 ⎥⎦ ⎢⎣ c d ⎥⎦ ⎢⎣ 0 0 ⎥⎦
Calculando, obtemos
bd = 0, bc = 0, cd = 0, d 2 = 0 ∴ d = 0 .
13
⎡a 0⎤
Mas da segunda igualdade acima, se b = 0, então T = ⎢
⎥ , que não tem inversa, e se
⎣ c 0⎦
⎡a b⎤
c = 0, temos T = ⎢
⎥ , que também não tem inversa, donde se conclui que a matriz
⎣0 0⎦
⎡0 1 ⎤
⎢ 0 0 ⎥ não é efetivamente diagonalizável.
⎣
⎦
- Mas se uma matriz não é diagonalizavel, ela pode ser tansformada em matriz bloco
diagonal da seguinte forma:
0⎤
⎡ J1 0
⎢0 J
0 ⎥⎥
q
2
−1
⎢
, onde cada bloco da matriz ao lado tem a
A = T AT = diag J i i =1 =
⎢
⎥
⎢
⎥
J q ⎦⎥
⎣⎢ 0 0
0⎤
⎡λi 1 0
⎢0 λ 1
0 ⎥⎥
i
⎢
forma: J i = ⎢ 0 0 λi
0 ⎥ , onde este bloco, que é chamado bloco de Jordan, tem
⎢
⎥
1⎥
⎢
⎢⎣ 0 0 0
λi ⎥⎦
na sua diagonal o auto-valor correspondente e 1’s na primeira sobre-diagonal.
E o resultado seguinte caracteriza os sistemas marginalmente estáveis.
(24)
Teorema:
Um sistema é marginalmente esstável se só se não tiver polo no semiplano aberto da
direita e tiver pelo menos um polo no eixo imaginario e cada polo neste eixo com grau de
multiplicidade maior do que 1 não pertencer a bloco de Jordan com ordem maior ou igual
a dois.
•
⎡0 1 ⎤
O exemplo acima com A = ⎢
⎥ é um bloco de Jordan de ordem 2 e, como vimos, o
⎣0 0 ⎦
estado apresenta o “modo” t , alem de constante
⎡0 1 0⎤
Se A = ⎢⎢0 0 1 ⎥⎥ , temos um bloco de Jordan de ordem três, cujo estado apresentará o
⎢⎣0 0 0 ⎥⎦
“modo” t 2 , alem de t e constante.
14
0 0 0⎤
⎡0 1
⎢0 0
0 0 0 ⎥⎥
⎢
⎢
⎥
⋅
Se A = ⎢
⎥ , temos dois blocos de Jordan, um de ordem dois e o
0 1 0⎥
⎢0 0
⎢0 0
0 0 1⎥
⎢
⎥
0 0 0⎦
⎣0 0
outro de ordem três. (O tracejado dentro da matriz é para separar os blocos, não tem nada
a ver como matriz de transferência, claro...). O estado deste sistema apresentará os
modos t 2 , t e constante.
- Passamos a outro conceito importante:
Um sistema pode não ser controlável e, no entanto, ser estabilizável por meio de
realimentação de estado, como se vê no seguinte
Exemplo:
⎡ −1 0 ⎤
⎡0⎤
A=⎢
, B = ⎢ ⎥ . Este sistema tem um polo “bom”, igual a -1, que dá origem a um
⎥
⎣ 0 1⎦
⎣1 ⎦
modo “bom” igual a e − t , uma exponencial decrescente, e um polo “ruim”, igual a 1, que
dá origem a um modo “ruim”, igual a et , uma exponencial cresente.
Se realimentarmos o estado do sistema com u = Fx = [ f1 f 2 ] x , obtemos
0 ⎤
⎡ −1
A + BF = ⎢
⎥ . E os polos do sistema com realimentação de estado são dados
⎣ f1 f 2 + 1⎦
pelas raízes de (λ + 1)(λ − f 2 − 1) . Observe-se que uma das raízes deste polinômio é fixa,
igual a -1, um polo “bom”. Podemos escolher o outro polo arbitrarimante igual a a < 0,
fazendo f 2 + 1 = a , donde f 2 = a − 1 .
E assim temos a motivação para a
(25a)
Definição:
O sistema (16a), ou mais compactamente, o par (A, B) é dito estabilizável se existir uma
realimentação u = Fx tal que o sistema seja estável, isto é, A + BF seja estável. Esta
estabilizabilidade é chamada de “estabilizabilidade por realimentação de estado”.
Obtem-se o seguinte resultado:
Teorema:
As seguintes proposições são equivalentes:
i) (A, B) é estabilizável.
ii) A matriz [ A − λ I B ] tem posto cheio (igual a n) para todo Re[λ ] ≥ 0 .
(25b)
iii) Se λ for um autovalor de A tal que Re[λ ] ≥ 0 e x∗ for o respectivo auto-vetor à
esquerda, isto, é, x∗ A = x∗λ , então x∗ B ≠ 0 .
Exemplo:
No exemplo antes da definição (25a), testando a condição ii) acima, temos
15
0
0⎤
⎡λ + 1
é evidentemente cheio para todo λ no semiplano fechado da
Posto ⎢
λ − 1 1 ⎥⎦
⎣ 0
direita, e portanto o par (A, B) é estabilizável.
E passamos ao estudo da propriedade que é dual da controlabilidade:
Definição:
(26)
O sistema (16), ou mais simplesmente, o par (C, A) é dito observável se para algum
t1 > 0 o estado inicial x(0) puder ser determinado conhecendo-se u(t) e y(t) no
intervalo [0, t1 ]. Do contrário, o sistema é dito não-observável.
Teorema:
As seguintes proposições são equivalentes:
i) (C, A) é observável.
t
ii) A matriz Wo (t ) = ∫ e A τ C T Ce Aτ dτ
T
(27)
é positiva definida para todo t > 0. (Esta matriz é
0
o gramiano de observabilidade).
O
⎡ C ⎤
⎢ CA ⎥
⎢
⎥
:= ⎢ CA2 ⎥ tem posto cheio (igual a n).
⎢
⎥
⎢
⎥
⎢⎣CAn −1 ⎥⎦
iii) A matriz de observabilidade
⎡A − λI ⎤
iv) A matriz ⎢
⎥ tem posto cheio (igual a n) para todo λ complexo.
⎣ C ⎦
v) Sejam λ e y um auto-valor qualquer de A e seu respectivo auto-vetor à direita, ou
seja, Ay = λ y. Então Cy ≠ 0 .
vi) Os auto-valores de A + LC podem ser escolhidos arbitrariamente por meio de uma
escolha apropriada de L, com a restrição de que a todo auto-valor complexo deve
corresponder um outro, que é seu complexo conjugado.
vii) ( AT , C T ) é controlável.
A proposição vii) logo acima explica o que é entendido como “dualidade”.
Prova: equivalência entre (i) e (iii):
Com u = 0, temos
y (0) = Cx(0), y (0) = Cx(0) = CAx(0), y (0) = Cx(0) = CA2 x(0), ...,
y ( n−1) (0) = Cx ( n−1) (0) = CAn−1 x(0) .
Ou seja,
16
⎡ y (0) ⎤ ⎡ C ⎤
⎢ y (0) ⎥ ⎢ CA ⎥
⎢
⎥ ⎢
⎥
⎢ y (0) ⎥ = ⎢ CA2 ⎥ x(0)
⎢
⎥ ⎢
⎥
⎢
⎥ ⎢
⎥
⎢⎣ y ( n −1) (0) ⎥⎦ ⎢⎣CAn −1 ⎥⎦
Ora, por hipótese, conhecemos y e todas as suas derivadas no instante t = 0. Se a matriz
acima tiver posto cheio, podemos determinar x(0) e se não tiver posto cheio, não
podemos.
A equivalência das outras condições pode ser demonstrada por dualidade com as
condições de controlabilidade do teorema (22).
•
Observação:
(28)
De posse da definição de observabilidade acima, podemos acrescentar uma sétima
proposição equivalente ao Teorema (22), a saber,
vii) ( BT , AT ) é observável.
E definimos a propriedade dual da estabilizabilidade (25a):
Definição:
(C, A) é detectável se A + LC for estável para alguma matriz L.
(29)
(30)
Teorema:
As seguintes proposições são equivalentes:
i) (C, A) é detectável.
⎡ A − λI ⎤
ii) A matriz ⎢
⎥ tem posto cheio (igual a n) para todo Re[λ ] ≥ 0 .
⎣ C ⎦
iii) Se λ for um auto-valor de A tal que Re[λ ] ≥ 0 e x for o respectivo auto-vetor à
direita, isto, é, Ax = λ x , então Cx ≠ 0 .
iv) ( AT , C T ) é estabilizável.
Observação: À luz da definição de detectabilidade acima, podemos acrescentar uma
quinta proposição ao Teorema (25), a saber,
iv) ( BT , AT ) é detectável.
1.6 Observadores e Controladores baseados em Observadores
Na seção anterior vimos que a realimentação do estado do sistema permite o
posicionamento arbitrário dos polos do sistema. Mas, e se não tivermos acesso ao estado
do sistema para realimentá-lo? (Isto ocorre com frequência na prática). Uma alternativa é
estimar o estado, ou “observá-lo”. A expressão “observar o estado do sistema” é menos
feliz, como veremos, do que “estimar o estado do sistema”. Mas ela tem a ver como
veremos, com sistema observável.
Consideremos novamente o sistema dado pelas eqs. (16):
17
x = Ax + Bu
y = Cx + Du
(16 bis)
(Supomos, como usual, que a matriz A é de ordem n).
Um observador é um outro sistema com entrada (u, y) e cuja resposta deve estimar (num
sentido definido logo adiante) o estado x de (16). Chamemos esta estimativa de x̂ .
Sejam então as eqs. do observador, cujo estado é q:
q = Mq + Nu − Ly
(31a)
x̂ = Qq + Ru + Sy
(31b)
M, N, L,Q, R e S devem ser escolhidos de tal forma que tenhamos
xˆ (t ) → x(t ) quando t → ∞ .
Vejamos as condições de possibilidade para isto:
Teorema:
(31*)
Existe um observador (que estime o estado de (16)) se só se (C, A) for detectável. Se isto
ocorrer, existe um observador de ordem n (chamado de “observador de Luenberger”)
dado por M = A + LC, N =B + LD, Q = I, R = 0, S = 0.
Ou seja, as eqs. do observador de Luenberger são
q = ( A + LC )q + ( B + LD)u − Ly
x̂ = q ,
onde L é qualquer matriz tal que A + LC seja estável.
(Observe-se que, como vimos, a existência de L satisfazendo à última condição é
garantida pela detectabilidade de (C, A)).
Prova:
Para provar a suficiência da condição de detectabilidade de (C, A), basta construir um
observador que satisfaça a esta condição. E vamos verificar agora que o observador de
Luenberger satisfaz efetivamente à condição. Substituindo y dado em (16b) na eq. acima
do observador, temos
q = ( A + LC )q + ( B + LD)u − LCx − LDu = ( A + LC )q + Bu − LCx .
(31**)
Definamos o erro: e = xˆ − x = q – x.
Então temos da eq. acima do observador e de (16 bis)
e = (A +LC)q + Bu – LCx – Ax - Bu
= (A + LC)q – (A + LC)x = (A + LC)e.
Ou seja, e(t ) → 0, quando t → ∞ e portanto xˆ (t ) → x(t ) quando t → ∞ , como
desejado.
Para provar a necessidade, suponha que (C, A) não seja detectável.
Considere um estado não nulo x(0) no subespaço não detectável. Pode-se demonstrar que
este espaço é invariante sob A, ou seja, se x estiver neste subespaço, Ax também estará.
Um observador deve ser capaz de estimar o estado da planta, qualquer que seja o controle
u e qualquer que seja o estado inicial do mesmo observador. Então, seja q(0) = 0 e u(t)
= 0 para todo t. As eqs. da planta (16) e do observador (31) se tornam
x = Ax ,
q = Mq − LCx ,
18
x̂ = Qq + SCx .
Ora, como x(0) está por hipótese no subespaço não detectavel, temos Cx(0) = 0 e como
este subespaço é invariante sob A, temos da 1ª. eq. acima que C x(t) = 0 para todo t.
Então da 2ª. eq. acima temos q(t) = 0 para todo t. E da 3ª. eq. acima concluímos que o
estado estimado x̂ é nulo para todo t, e portanto diferente de x(t).
•
Vejamos um
Exemplo: Projetar um observador para o seguinte sistema
⎡1 0 ⎤
⎡1 ⎤
x=⎢
x + ⎢ ⎥ u , y = [1 0]x.
⎥
⎣3 −1⎦
⎣2⎦
Solução: Vamos ver primeiramente se o problema tem solução: temos que verificar se o
sistema é detectável. Ora,
0 ⎤
⎡λ − 1
⎡ λ I − A⎤
⎢
Posto ⎢
=Posto ⎢ −3 λ + 1⎥⎥ é claramente igual a 2 para qualquer λ no
⎥
⎣ C ⎦
0 ⎦⎥
⎣⎢ 1
semiplano fechado da direita: basta verificar que se λ =1, o posto é dois e para qualquer
outro λ no semiplano fechado da direita o posto também é dois com mais forte razão.
Então o sistema é detectável.
Um dos autovalores de A +LC é igual a -1 e não pode ser mudado, qualque que seja L.
Escolhamos o outro autovalor também igual a -1. Então devemos ter
det(λ I − A − LC ) = (λ + 1) 2 = λ 2 + 2λ + 1 .
⎡ l +1 0 ⎤
⎡l ⎤
⎡1 0 ⎤ ⎡ l1 ⎤
Seja L =: ⎢ 1 ⎥ . Então, A + LC = ⎢
+ ⎢ ⎥ [1 0] = ⎢ 1
⎥.
⎥
⎣3 −1⎦ ⎣l2 ⎦
⎣l2 + 3 −1⎦
⎣l2 ⎦
⎛ ⎡λ − l1 − 1
0 ⎤⎞
2
Então, devemos ter det ⎜ ⎢
⎟ = λ + 2λ + 1 ,
⎥
⎝ ⎣ −l2 − 3 λ + 1⎦ ⎠
0⎤
⎡ −1
o que nos dá l1 = −2, l2 qualquer número real . Donde que A + LC = ⎢
⎥.
⎣l2 + 3 −1⎦
E do Teorema (31*) temos as eqs. do observador:
0⎤
⎡ −1
⎡ −2 ⎤
⎡1 ⎤
+
−
q=⎢
q
u
⎥
⎢ l ⎥ y , l2 sendo um número real qualquer, e
⎢2⎥
⎣ ⎦
⎣l2 + 3 −1⎦
⎣ 2⎦
x̂ = q .
- O observador acima tem a mesma ordem da planta, n. Há, como veremos agora, certa
redundância, o observador pode ter ordem menor. A ideia de um observador de ordem
mínima é a seguinte:
Através de uma transformação de similaridade, ou o que é o mesmo, de mudança de base
para o estado, fazemos C ter a forma
19
C = [I
0] . E o estado de planta pode ser particionado correspondentemente como
⎡x ⎤
x = ⎢ 1 ⎥ . Donde que Cx = x1 , bastando estimar, através de observador, a componente
⎣ x2 ⎦
x2 .
- Como vimos na seção anterior, realimentado o estado de um sistema, podemos
posicionar os seus polos onde bem desejarmos caso o sistema seja controlável. Mas para
isso, é preciso que os polos possam ser acessados e medidos, o que não acontece muitas
vezes.
Vamos então realimentar o estado estimado através do observador de Luenberger, dado
pela eq. do teorema (31*).
Seja então
u = Fxˆ .
Então, da eq. (31**), obtemos
xˆ = ( A + LC + BF ) xˆ − LCx .
E substituindo u = Fxˆ na eq. de estado da planta, (16a), temos
⎡ x⎤ ⎡ A
⎢ ⎥=⎢
⎣ xˆ ⎦ ⎣ − LC
BF
⎤ ⎡ x⎤
.
A + BF + LC ⎥⎦ ⎢⎣ xˆ ⎥⎦
Ou ainda, substituindo x = xˆ − e na primeira eq. acima, temos
⎡ e ⎤ ⎡ A + LC
⎢ ⎥=⎢
⎣ xˆ ⎦ ⎣ − LC
0 ⎤ ⎡e⎤
.
A + BF ⎥⎦ ⎢⎣ xˆ ⎥⎦
Esta última eq. mostra que os pólos do SMF, composto de planta e observador, são a
união dos polos de A + LC e os de A + BF. Ora, se a planta for controlável e
observável, podemos posicionar arbitrariamente os polos do SMF mediante escolha
apropriada das matrizes F e L.
E note-se que se ao invés de a planta ser controlável e observável, ela for estabilizável e
detectável, poderemos sempre estabilizar o SMF, mas neste caso os polos estáveis da
planta ficam fixos, não podendo ser posicionados arbitrariamente, como vimos em
exemplo.
Substituindo u = Fxˆ em (31**), lembrando que x̂ = q e que Cx = y – Du , temos
xˆ = ( A + LC ) xˆ + BFxˆ + LDFxˆ − Ly = ( A + BF + LC + LDF ) xˆ − Ly .
Aplicando transformada de Laplace com condições nulas a esta eq., temos, com um
pequeno, mas usual, abuso de notação, usando xˆ ( s ) para a transformada de xˆ (t ) :
xˆ ( s ) = ( sI − A − BF − LC − LDF ) −1 (− L) y ( s ) .
Mas u ( s ) = Fxˆ ( s ) , donde
u ( s ) = F ( sI − A − BF − LC − LDF ) −1 (− L) y ( s ) .
A matriz de transferência entre u(s) e y(s) dada acima é a do controlador com base em
observador. Denotemo-la por K(s). Então, temos
20
⎡ A + BF + LC + LDF
K (s) = ⎢
F
⎣
−L⎤
0 ⎥⎦
1.8 Sistemas em cascata, em paralelo e com realimentação. Conjugados e inversos.
Sejam dois sistemas cujas matrizes de transferência são G1 e G2 dadas por
⎡A
G1 ( s ) = ⎢ 1
⎣C1
B1 ⎤
⎡ A2
, G2 ( s ) = ⎢
⎥
D1 ⎦
⎣ C2
B2 ⎤
D2 ⎥⎦
Considere a associação dos dois sistemas indicada no diagrama de blocos abaixo. Tal
associação é chamada em cascata ou em série.
G1
G2
Figura 1
Observe-se que para que esta associação seja possível, o número de entradas de G1 deve
ser igual ao de saídas de G2 .
A matriz de transferência da associação acima é G1 G2 .
No caso multi-variável, mesmo que o produto G2 G1 seja possível, tem-se em geral
G1G2 ≠ G2G1 . E isto porque o produto de matrizes não é, em geral, comutativo.
Temos as seguintes fórmulas compactas:
⎡ A1
G1 ( s )G2 ( s ) = ⎢⎢ 0
⎢⎣C1
B1C2
A2
D1C2
B1D2 ⎤ ⎡ A2
B2 ⎥⎥ = ⎢⎢ B1C2
D1D2 ⎥⎦ ⎢⎣ D1C2
0
A1
C1
B2 ⎤
B1D2 ⎥⎥
D1D2 ⎥⎦
(32a)
Prova da 1ª. igualdade (a prova da 2ª. igualdade é em tudo semelhante):
Vamos escrever a matriz de transferência da primeira igualdade na forma usual e
denotemo-la por X(s):
−1
⎡ sI − A1 − B1C2 ⎤ ⎡ B1 D2 ⎤
(*)
+ D1 D2 ;
X ( s ) = [C1 D1C2 ] ⎢
sI − A2 ⎥⎦ ⎢⎣ B2 ⎥⎦
⎣ 0
21
−1
−1
⎤ ⎡ I −( sI − A1 ) −1 B1C2 ⎤ ⎞
⎢
⎥ ⎟⎟
sI − A2 ⎦⎥ ⎣0
I
⎦⎠
−1
−1
⎤
⎡ I ( sI − A1 ) B1C2 ⎤ ⎡( sI − A1 )
0
=
=⎢
⎥⎢
−1 ⎥
sI
A
0
(
)
−
I
0
⎣
⎦⎣
⎦
2
−1
−1
−1
⎡( sI − A1 )
( sI − A1 ) B1C2 ( sI − A2 ) ⎤
⎢
⎥ . Então de (*), três linhas acima, vem
0
( sI − A2 ) −1
⎣
⎦
−1
−1
X ( s ) = C1 ( sI − A1 ) B1 D2 + C1 ( sI − A1 ) B1C2 ( sI − A2 ) −1 B2 + D1C2 ( sI − A2 ) −1 B2 + D1 D2 . (#)
Por outro lado, temos
⎡ sI − A1
mas ⎢
⎣ 0
(
⎛ ⎡ sI − A1
− B1C2 ⎤
=⎜⎢
⎥
⎜
sI − A2 ⎦
⎝⎣
G1 ( s )G2 ( s ) = C1 ( sI − A1 ) −1 B1 + D1
)( C (sI − A )
2
−1
2
B2 + D2
)
= C1 ( sI − A1 ) −1 B1C2 ( sI − A2 ) −1 B2 + D1C2 ( sI − A2 ) −1 B2 + C1 ( sI − A1 ) −1 B1 D2 + D1 D2
= X(s) dado em (#), quatro linha acima.
•
Exemplo:
Calcular a associação em cascata das matrizes de transferência, que têm as seguintes
realizações:
⎡1 8 2⎤
⎡1 2 ⎤
⎢
⎥
1 ⎥ , B1 = ⎢⎢1 −1⎥⎥ , C1 = [ 2 0 4] e D1 = [5 −1] ,
A1 = −2 3
⎢
⎢⎣ 4 −2 −1⎥⎦
⎢⎣0 1 ⎥⎦
⎡ −1 2 ⎤
⎡ 0 −10 ⎤
⎡ 0 −10 ⎤
, B2 = ⎢
, C2 = ⎢
⎥
⎥
⎥ e D2 = 02×2 .
⎣ 5 4⎦
⎣4 1 ⎦
⎣4 1 ⎦
Para exprimir a matriz de transferência G1 ( s )G2 ( s ) de forma compacta, efetuamos os
A2 = ⎢
⎡ 8 −8 ⎤
produtos: B1C2 = ⎢⎢ −4 −11⎥⎥ , B1 D2 = 03×2 , D1C2 = [ −4 −49] , D1 D2 = 01×2 .
⎢⎣ 4
1 ⎥⎦
Então, temos:
⎡ 1 8 2 8 −8
⎢ −2 3 1 −4 −11
⎢
⎢ 4 −2 −1 4
1
G1 ( s )G2 ( s ) = ⎢
⎢ 0 0 0 −1 2
⎢0 0 0 5
4
⎢
⎣ 2 0 4 −4 −49
0
0
0
0
4
0
0 ⎤
0 ⎥⎥
0 ⎥
⎥
−10 ⎥
1 ⎥
⎥
0 ⎦
Considere agora a associação em paralelo:
(Observe-se que quando não há indicação no somador, os sinais de entrada são positivoa)
22
G1
y
u
G2
É claro que
y ( s ) = G1 ( s )u ( s ) + G2 ( s )u ( s ) = ( G1 ( s ) + G2 ( s ) ) u ( s )
Obtem-se a matriz de transferência equivalente:
⎡ A1 0
G1 ( s ) + G2 ( s ) = ⎢⎢ 0 A2
⎢⎣C1 C2
⎤
B2 ⎥⎥
D1 + D2 ⎥⎦
B1
(32b)
Prova:
O segundo lado da igualdade acima é
−1
0 ⎤ ⎡ B1 ⎤
⎡ sI − A1
[C1 C2 ] ⎢ 0 sI − A ⎥ ⎢ B ⎥ + D1 + D2
⎣
⎣ 2⎦
2⎦
−1
−1
C1 ( sI − A1 ) B1 + C2 ( sI − A2 ) B2 + D1 + D2 = C1 ( sI − A1 ) −1 B1 + D1 + C2 ( sI − A2 ) −1 B2 + D2
= G1 ( s ) + G2 ( s ) .
•
Exemplo:
É claro que na associação em paralelo as duas matrizes de transferência têm que ter as
mesmas dimensões. Seja
⎡ −1 5 ⎤
⎡1 ⎤
, B1 = ⎢ ⎥ , C1 = [ −3 2] e D1 = 2
A1 = ⎢
⎥
⎣ 4 8⎦
⎣ 4⎦
⎡1 −2 ⎤
⎡ −1⎤
, B2 = ⎢ ⎥ , C2 = [3 1] e D2 = 1 .
⎥
⎣4 7 ⎦
⎣3⎦
Portanto,
A2 = ⎢
⎡ −1
⎢4
⎢
G1 + G2 = ⎢ 0
⎢
⎢0
⎢⎣ −3
5 0
8 0
0 1
0 4
2 3
1⎤
0 4 ⎥⎥
−2 −1⎥
⎥
7 3⎥
1 3 ⎥⎦
0
23
- Considere-se agora a associação em realimentação na figura abaixo:
v = u − G2G1v ∴ v = ( I + G2G1 ) −1 u ∴ y = G1v = G1 ( I + G2G1 ) −1 u . Ou seja, a matriz de
transferência entre y e u é G1 ( I + G2G1 ) −1 = ( I + G1G2 ) −1 G1 .
Esta última igualdade se deve ao fato que ( I + G1G2 )G1 = G1 ( I + G2G1 ) .
y
(32c)
u
G1
v
_
G2
Figura 3
Obtemos a seguinte matriz de transferência T(s), cuja demonstração é omitida posto que
bastante trabalhosa. De (32c), o primeiro passo da demonstração é calcular I + G1G2
usando (32a) e (32b). A seguir, temos a parte mais trabalhosa da demonstração, que é
calcular ( I + G1G2 ) −1 , que é feito primeiramente transformando a matriz “A” em produto
de matrizes bloco-diagonais, cujas inversas são imediatas. Este é o “pulo do gato”. O
resto é rotina trabalhosa.Last not least, premultiplicar ( I + G1G2 ) −1 por G1 , usando
novamente (32a). Obtem-se:
⎡ A1 − B1D2 R12−1C1
⎢
T = ⎢ B2 R12−1C1
⎢
R12−1C1
⎣
− B1R12−1C2
A2 − B2 D1R21−1C2
− R12−1D1C2
B1R21−1 ⎤
⎥
B2 D1R21−1 ⎥
D1R21−1 ⎥⎦
(32d)
onde R12 = I + D1 D2 e R21 = I + D2 D1 .
Exemplo:
Sejam os sistemas A1 = −1, B1 = 2, C1 = 3, D1 = 0; A2 = −2, B2 = 1, C2 = 2, D2 = 0 .
Vamos calcular a matriz de transferência equivalente pelos dois métodos:
6
2
, donde
e G2 =
De (32c), temos G1 ( I + G2G1 ) −1 . Mas G1 =
s +1
s+2
6
1
6 ( s + 2)( s + 1)
6s + 12
.
=
= 2
G1 ( I + G2G1 ) −1 =
2
2
6
s + 1 1+
s + 1 s + 3s + 14 s + 3s + 14
s + 2 s +1
24
E por outro lado, da expressão de T acima, vem
⎡ −1 −4 2 ⎤
T = ⎢⎢ 3 −2 0 ⎥⎥
⎢⎣ 3 0 0 ⎥⎦
E portanto,
−1
4 ⎤ ⎡ 2⎤
⎡s + 1
⎡ s + 2 −4 ⎤ ⎡ 2 ⎤
1
T = [3 0] ⎢
= [3 0] 2
⎥
⎢
⎥
s + 1⎥⎦ ⎢⎣ 0 ⎥⎦
s + 3s + 14 ⎢⎣ 3
⎣ −3 s + 2 ⎦ ⎣ 0 ⎦
⎡ 2s + 4⎤
1
6s + 12
, conferindo com o resultado encontrado
= [3 0] 2
= 2
⎢
⎥
s + 3s + 14 ⎣ 6 ⎦ s + 3s + 14
acima.
Definição:
O sistema conjugado de G(s) é definido por
(33)
G ~ ( s ) = G T (− s ) = BT (− sI − AT ) −1 C T + DT
⎡ − AT
=⎢ T
⎣B
−C T ⎤
⎥
DT ⎦
(33*)
Teorema:
†
Seja D a inversa à direita (esquerda) de D. Então a inversa à direita (esquerda) de G(s)
é dada por
⎡ A − BD †C
G† = ⎢
⎣
D †C
− BD † ⎤
⎥
D† ⎦
Prova:
Vamos provar este resultado só para a inversa à direita, o procedimento é em tudo
semelhante para a inversa a esquerda. Vamos calcular o produto GG † usando (32a):
⎡A
⎢
†
GG = ⎢ 0
⎢C
⎣
BD †C
A − BD †C
DD †C
BD † ⎤
⎥
− BD† ⎥
DD † ⎥⎦
Mas DD † = I , donde
⎡A
⎢
†
GG = ⎢ 0
⎢C
⎣
BD †C
A − BD †C
C
BD † ⎤
⎥
− BD† ⎥
I ⎥⎦
25
Agora observe- se que para um sistema qualquer, C ( sI − A) −1 B = CT −1T ( sI − A) −1T −1TB
(
= CT −1 T ( sI − A)T −1
)
−1
(
TB = CT −1 sI − TAT −1
⎡I
Para o sistema acima com T = ⎢
⎣0
BD †C ⎤ ⎡ I − I ⎤
⎡I I ⎤ ⎡ A
⎢0 I ⎥ ⎢
⎥=
† ⎥⎢
⎣
⎦ ⎣ 0 A − BD C ⎦ ⎣ 0 I ⎦
[C
)
−1
TB .
I⎤
⎡I
, temos T −1 = ⎢
⎥
I⎦
⎣0
0
⎡A
⎤ ⎡I
⎢ 0 A − BD †C ⎥ , ⎢0
⎣
⎦ ⎣
−I ⎤
,
I ⎥⎦
I ⎤ ⎡ BD † ⎤ ⎡ 0 ⎤
,
⎢
⎥=
I ⎥⎦ ⎣ − BD † ⎦ ⎢⎣ − BD † ⎥⎦
⎡I −I ⎤
C]⎢
⎥ = [C 0] . Então, temos
⎣0 I ⎦
⎡A
GG = ⎢⎢ 0
⎢⎣C
†
0
A − BD C
†
0
0 ⎤
− BD† ⎥⎥
I ⎥⎦
−1
0
⎡ sI − A
⎤ ⎡ 0 ⎤
= [ C 0] ⎢
+I
† ⎥
sI − A + BD C ⎦ ⎢⎣ − BD † ⎥⎦
⎣ 0
= I.
•
1.9 Realizações de matrizes de transferência no espaço de estado
Dada uma matriz de transferência G(s), uma realização desta matriz é uma quádrupla
ordenada (A, B, C, D) satisfazendo às eqs. (16) e tal que
G ( s ) = C ( sI − A) −1 B + D
Definição:
A ordem de uma realização de uma matriz de transferência é a dimensão da matriz A.
Definição:
Uma realização é de ordem mínima se ela tiver a menor ordem possível.
Exemplo
Seja a função de transferência G(s)= 1/s. É fácil verificar que ela tem as seguintes
realizações, entre inúmeras outras:
⎡0 0 ⎤
⎡1 ⎤
A1 = −0, B1 = 1, C1 = 1 e D1 = 0 , A2 = ⎢
B2 = ⎢ ⎥ , C2 = [1 2] e D2 = 0 .
⎥
⎣0 1 ⎦
⎣0⎦
Claro que a primeira realização é de ordem mínima, igual a 1. Observe-se que a mesma
função de transferência tem uma infinidade de realizações. Assim, por exemplo, o
segundo elemento de C2 pode ser qualquer número real. E na primeira realização, basta
que o produto B1C1 seja igual a 1.
Note-se que a ordem da realização de ordem mínima de uma função de transferência é
igual ao grau do polinômio característico da função de transferência (= denominador da
26
função de transferência). Mas para matrizes de transferência, como veremos, a coisa é um
pouco mais complicada, ou melhor, o polinômio característico não é determinável de
modo tão simples.
Uma realização de ordem 1 é seguramente de ordem mínima. Mas se ela não for de
ordem 1, como saber se é mínima? A resposta nos é dada no importante
Teorema:
(33**)
Uma realização (A, B, C, D) no espaço de estado de uma matriz de transferência G(s) é
de ordem mínima se só se (A, B) for controlável e (C , A) for observável.
Prova:
(Somente se): Pode-se demonstrar que se o sistema não for controlável, existe uma
transformação de similaridade, com uma matriz não singular T tal que
⎡ A11 A12 ⎤
⎡B ⎤
TAT −1 = ⎢
e TB = ⎢ 1 ⎥ . Seja CT −1 = [C1 C2 ] .
⎥
⎣0⎦
⎣ 0 A22 ⎦
Ora a matriz de transferência do sistema é
C ( sI − A) −1 B + D = CT −1T ( sI − A) −1 T −1TB + D
= CT −1 (T ( sI − A)T −1 ) TB + D = CT −1 ( sI − TAT −1 ) TB + D
−1
−1
⎡( sI − A11 ) −1
⎡( sI − A11 ) −1 B1 ⎤
− A12 ⎤ ⎡ B1 ⎤
= [C1 C2 ] ⎢
⎥ ⎢ ⎥ + D = [C1 C2 ] ⎢
⎥+D
0
( sI − A22 ) −1 ⎦ ⎣ 0 ⎦
0
⎣
⎦
⎣
−1
= C1 ( sI − A11 ) B1 + D . Mas esta realização é de ordem menor que a original, pois é claro
que a dimensão de A11 é menor que a de A. E portanto a controlabilidade é necessária
para que a realização seja de ordem mínima.
Para a necessidade da observabilidade procede-se de modo dual, sendo possível
demonstrar que se um sistema for não observável, existe matriz T tal que
⎡ A11 0 ⎤
−1
TAT −1 = ⎢
⎥ e CT = [C1 0] . E procede-se em seguida do mesmo modo como
A
A
⎣ 21
22 ⎦
acima.
(Se): Suponha que a realização (A, B, C, D) seja controlável e observável, mas não seja
mínima. Seja uma outra realização da mesma matriz de transferência que seja mínima:
( Am , Bm , Cm , D) . Então,
C ( sI − A) −1 B + D = Cm ( sI − Am ) −1 Bm + D , ou seja, C ( sI − A) −1 B = Cm ( sI − Am ) −1 Bm . (*)
Mas ( sI − A) −1 = Is −1 + As −2 + A2 s −3 + ... , supondo que a série convirja, ou seja, que a
matriz A seja assintoticamente estável.
(**)
−1
e da mesma forma para ( sI − Am ) .
Então de (*), duas linhas acima, temos
CB = Cm Bm , CAB = Cm ABm , CA2 B = Cm A2 Bm ,...
(#)
Ora, lembramos que as matrizes de controlabilidade e observabilidade são
27
⎡ C ⎤
⎢ CA ⎥
⎥ , respectivamnete.
C = [ B, AB, ..., An −1 B] e O = ⎢
⎢
⎥
⎢ n −1 ⎥
⎣CA ⎦
⎡ Cm ⎤
⎢C A ⎥
Definamos C m := [ Bm , Am Bm , ..., Amn −1 Bm ] e O m := ⎢ m m ⎥ .
⎢
⎥
⎢
n −1 ⎥
⎣Cm Am ⎦
Mas destas duas e de (#), quatro linhas acima, temos
(##)
OC = O m C m .
Mas das desigualdades de Sylvester, temos
Posto[ O] + Posto[C] − n ≤ Posto[ O C] ≤ min{Posto[ O], Posto[C]} .
Mas como a realização (A, B, C, D) é controlável e observável por hipótese,
temos da dupla desigualdade acima que Posto[ O C] = n .
Mas visto que a realização ( Am , Bm , Cm , D) é por hipotese minima, ela é controlável e
observável, de acordo com a necessidade, já demonstrada do teorema. Seja k o posto de
Cm e de O m . Então, aplicando as desigualdades de Sylvester a O m Cm , concluimos que
•
seu posto é igual a k. E de (##), concluimos que k = n.
Observação:
Se o sistema (A, B, C, D) não for controlável, ao efetuarmos o produto ( sI − A) −1 B , há
cancelamento de polo. E se o sistema não for observável, ao efetuarmos o produto
C ( sI − A) −1 , também há cancelamento de polo.
Exemplo:
⎡ −1 0 ⎤
⎡0 ⎤
Suponha que um sistema tenha A = ⎢
, B = ⎢ ⎥ . Este sistema não é controlavel,
⎥
⎣ 0 1⎦
⎣1 ⎦
⎡ s + 1 0 0⎤
pois Posto[ sI − A, B] = Posto ⎢
= 1 < 2 ∀s ∈ C .
s -1 1 ⎥⎦
⎣ 0
⎡( s + 1) −1
0 ⎤ ⎡0⎤ ⎡ 0 ⎤
Ora, ( sI − A) −1 B = ⎢
. Ou seja, o polo -1 efetivamente
⎥⎢ ⎥ = ⎢
−1 ⎥
( s − 1) −1 ⎦ ⎣1 ⎦ ⎣( s − 1) ⎦
⎣ 0
foi cancelado no produto. E observe-se que o sistema com este par (A,B) é estabilizável,
⎡ s + 1 0 0⎤
pois Posto[ sI − A, B ] = Posto ⎢
= 2 ∀s ∈ C+ . Ou seja, como visto acima,
s -1 1 ⎥⎦
⎣ 0
num sistema estabilizável , mas não controlável, há sempre cancelamento de um modo
“bom”, no caso acima, s = -1.
28
Se com a mesma matriz A, tivermos C = [ 0 1] , obteremos C ( sI − A) −1 = ⎡⎣0 ( s − 1) −1 ⎤⎦
e, de novo, o mesmo modo “bom” foi cancelado no produto C ( sI − A) −1 , o sistema sendo
detectável.
Se o sistema tiver as matrizes A, B e C acima, ele não será nem controlável, nem
observável (mas será estabilizável e detectável).
Teorema:
Sejam ( A1 , B1 , C1 , D) e ( A2 , B2 , C2 , D) duas realizações mínimas de uma mesma matriz
de transferência. Então existe uma única matriz não singular T tal que
−1
A2 = TAT
, B2 = TB1 , e C2 = C1T −1 . Alem disso, sejam C1 , C 2 , O1 e O 2 as respectivas
1
matrizes de controlabilidade e observabilidade, respectivamente. Então, T é dada por
T = (O*2 O 2 ) −1 (O*2 O 2 ) = (C2 C*2 )(C 2C*2 ) −1 . (E observe-se que T = T −1 , ou seja, T é uma
matriz unitária, ou ortogonal, sendo as matrizes reais)
Prova: omitida.
- Realizações de matrizes de transferência:
⎡ G ( s ) G2 ( s ) ⎤
1. Seja a matriz de transferência G ( s ) = ⎢ 1
⎥ , onde as realizações dos blocos
⎣G3 ( s ) G4 ( s ) ⎦
são
⎡ Ai
Gi ( s) = ⎢
Bi ⎤
⎥ , i = 1, 2, 3 e 4
Di ⎦⎥
⎣⎢Ci
Então uma realização de G(s) é dada por
⎡ A1 0
⎢0 A
2
⎢
⎢0 0
G(s) = ⎢
⎢0 0
⎢C1 C2
⎢
⎣⎢ 0 0
0
0
0
0
B1
0
A3
0
0
A4
B3
0
0
0
D1
C3
C4
D3
0⎤
B2 ⎥⎥
0⎥
⎥
B4 ⎥
D2 ⎥
⎥
D4 ⎦⎥
A prova deste resultado é imediata.
Vejamos a chamada realização de Gilbert, que pode ser usada quando os polos da matriz
de transferência são reais e distintos:
Seja G(s) uma matriz de transferência própria, p × m .
Separamos a parte estritamente própria da constante:
G ( s ) = D + Gsp ( s )
Seja d(s) o mínimo múltiplo comum dos denominadores de G(s).
Então, temos d ( s ) = ( s − λ1 )( s − λ2 ) ( s − λr ) .
Podemos escrever:
29
Gsp ( s ) =
1
1
W1 +
W2 +
s − λ1
s − λ2
+
1
Wr ,
s − λr
onde Wi ∈ R p×m , i = 1, 2, r, são os chamados resíduos (que são matriciais).
Temos então:
r
Wi
.
G (s) = D + ∑
i =1 s − λi
(*)
Suponha que o posto de cada Wi é ki e sejam matrizes Bi ∈ R ki ×m e Ci ∈ R p×ki tais que
Wi = Ci Bi .
1
Realizamos cada
Wi como Ci ( s − λi ) I ki Bi
s − λi
Então é fácil verificar desta e de (*), três linhas acima, que uma realização de G(s) é dada
por
(
⎡λ1 I k1
⎢
G (s) = ⎢
⎢ 0
⎢
⎢⎣ C1
0
λr I k
Cr
r
)
B1 ⎤
⎥
⎥
Br ⎥
⎥
D ⎥⎦
Aplicando o teste PBH do posto, vê-se “imediatamente” que esta realização é controlável
e observável.
Exemplo
Achar a realização de Gilbert da seguinte matriz de transferência
⎡ 2s 2
1 ⎤
⎢ 2
⎥
2
G ( s ) = ⎢ s + 3s + 2 s − 1 ⎥ .
s −1 ⎥
⎢ s −1
⎢⎣ s 2 + s
s − 2 ⎥⎦
Solução: Primeiramente separamos as partes estritamente própria e constante
(independentemente de s) e fatoramos os denominadores:
1
⎡ −6 s − 4
⎤
⎢
⎡ 2 0 ⎤ ( s + 1)( s + 2) ( s + 1)( s − 1) ⎥
⎥.
G (s) = ⎢
⎥+⎢
0
1
s
−
1
1
⎢
⎥
⎣
⎦
⎢ s ( s + 1)
⎥
s−2
⎣
⎦
Agora “parcelamos” cada elemento estritamente próprio, utilizando o cálculo dos
resíduos:
−6 s − 4
2
8
1
1
1
s −1
2
1
=
−
=
−
=
− .
,
,
( s + 1)( s + 2) s + 1 s + 2 ( s + 1)( s − 1) 2( s − 1) 2( s + 1) s ( s + 1) s + 1 s
Então, temos
30
8
1
1 ⎤
⎡ 2
−
−
⎢
⎡ 2 0 ⎤ s + 1 s + 2 2( s − 1) 2( s + 1) ⎥
⎥,
G (s) = ⎢
⎥+⎢
1
⎥
⎣0 1 ⎦ ⎢ 2 − 1
⎢⎣ s + 1 s
⎥⎦
s−2
ou seja,
⎡2 0⎤ 1 ⎡ 0 0⎤
1 ⎡ 2 −1/ 2 ⎤
1 ⎡ 0 1/ 2 ⎤
1 ⎡0 0⎤
G (s) = ⎢
+ ⎢
+
+
+
⎥
⎥
⎢
⎥
⎢
⎥
0 ⎦ ( s − 1) ⎣ 0 0 ⎦ s − 2 ⎢⎣ 0 1 ⎥⎦
⎣ 0 1 ⎦ s ⎣ −1 0 ⎦ s + 1 ⎣ 2
⎡ 2 0⎤ 1 ⎡ 0 ⎤
1 ⎡ 2 −1/ 2 ⎤
1 ⎡1/ 2 ⎤
1 ⎡0⎤
= ⎢
+ ⎢ ⎥ [1 0] +
I2 +
[ 0 1] +
⎥
⎢
⎥
⎢
⎥
⎢ ⎥ [ 0 1] .
0 ⎦
( s − 1) ⎣ 0 ⎦
s + 1 ⎣2
s − 2 ⎣1 ⎦
⎣ 0 1 ⎦ s ⎣ −1⎦
Donde temos a matriz de transferência na forma compacta procurada que nos dá, por
simples inspeção, a realização que é mínima:
⎡s
⎢
s +1
⎢
⎢
s +1
⎢
G (s) = ⎢
s −1
⎢
s−2
⎢
−1/ 2 1/ 2
2
0
⎢0
⎢ −1 2
0
0
1
⎣
1 0⎤
1 0 ⎥⎥
0 1⎥
⎥
0 1⎥
0 1⎥
⎥
2 0⎥
0 1 ⎥⎦
1.10 Equações de Lyapunov
Considere a seguinte equação de Lyapunov
(34)
AT X + XA + Q = 0 ,
onde A e Q são matrizes de números reais.
Pode-se demonstrar que esta eq. tem solução única se só se λi ( A) + λ j ( A) ≠ 0 ∀i, j ,
onde λi (⋅) indica autovalor de uma matriz e λ j (⋅) indica o complexo conjugado do
respectivo autovalor.
Lema:
(35)
Com referência à eq. (34), suponha que A seja estável. Então, sua solução tem as
seguintes propriedades:
∞
∫
T
(i) X = e A t Qe At dt ;
0
(ii) X > 0 se Q > 0 e X ≥ 0 se Q ≥ 0 ;
(iii) suponha Q ≥ 0 ; então (Q1/ 2 , A) é observável se só se X > 0.
Observação: O gramiano de observabilidade é definido como
31
∞
Lo = ∫ e A t C T Ce At dt .
T
0
Então verifica-se que ele satisfaz à eq. de Lyapunov, a saber,
AT Lo + Lo A + C T C = 0 .
Mais ainda, de acordo com (iii) do Lema, um par (C, A) é observável se só se ele
satisfizer à eq. acima.
Dualmente, um par (A, B) é controlável se seu gramiano, definido como
∞
Lc = ∫ e At BBT e A t dt ,
T
0
satisfizer à eq. de Lyapunov
ALc + Lc AT + BBT = 0 .
Exemplo:
Achar os gramianos de controlabilidade e de observabilidade do seguinte sistema
⎡ −1 1 ⎤
⎡1 ⎤
A=⎢
, B = ⎢ ⎥ , C = [1 3] , D qualquer matriz dois por dois de reais.
⎥
⎣ 0 −2 ⎦
⎣ 2⎦
Solução:
ALc + Lc AT + BBT = 0 .
⎡l
⎣n
⎡ −1 1 ⎤ ⎡ l
⎢ 0 −2 ⎥ ⎢ n
⎣
⎦⎣
⎡ −l + n
donde ⎢
⎣ −2n
m⎤
. Substituindo, vem
p ⎥⎦
m ⎤ ⎡ l m ⎤ ⎡ −1 0 ⎤ ⎡ 1 ⎤
⎡0 0⎤
+⎢
+ ⎢ ⎥ [1 2] = ⎢
⎥
⎥
⎢
⎥
⎥,
p ⎦ ⎣ n p ⎦ ⎣ 1 −2 ⎦ ⎣ 2⎦
⎣0 0⎦
− m + p ⎤ ⎡ −l + m −2m ⎤ ⎡ 1 2 ⎤ ⎡ 0 0 ⎤
,
+
+
=
−2 p ⎥⎦ ⎢⎣ − n + p −2 p ⎥⎦ ⎢⎣ 2 4 ⎥⎦ ⎢⎣ 0 0 ⎥⎦
que nos dá 4 eqs.: m + n − 2l + 1 = 0, p − 3n + 2 = 0, p − 3m + 2 = 0 e − 4 p + 4 = 0 .
⎡3/ 2 1⎤
Donde obtemos m = n = p = 1, l = 3/2, ou seja, Lc = ⎢
⎥.
⎣ 1 1⎦
Seja Lc =: ⎢
O gramiano de observavilidade é calculado de forma semelhante.
1.11 Polos e zeros em sistemas multivariaveis
Polos de uma função de transferência (escalar) são as raizes do seu denominador,
enquanto que os zeros são as raízes do seu numerador.
Os polos de uma função de transferência definem a sua estabilidade, ou não. E os zeros
estão associados ao seu regime transitório. Como vimos, os autovalores da matriz do
sistema, a matriz “A” definem se o sistema é assintoticamente estável, marginalmente
estável ou instável. Vimos também que os autovalores da matriz podem ser cancelados
32
quando se efetuam os produtos para constiuir a função de transferência. São cancelados,
como vimos, os “modos” incontroláveis e/ou inobserváveis.
Após os cancelamentos ficamos com uma função de transferência com menos polos do
que os autovalores da matriz “A”.
Para funções de transferência, o conceito de estabilidade é o de BIBO-estabilidade, BIBO
significando “bounded input / bounded output”:
Definição:
Uma função de transferência é BIBO se para todo sinal de entrada limitado, a sua
resposta também será um sinal limitado.
(36)
E o resultado bem conhecido para funções racionais é:
Teorema:
(37)
Uma função de transferência é BIBO – estável se só se não tiver polo no semi-plano
fechado da direita.
A prova deste fato é simples, bastando lembrar que a transformada de Laplace de sinais
limitados tem seus polos no semiplano fechado da esquerda, sendo que os polos no eixo
imaginário são simples, isto é, com grau de multiplicidade igua a 1.
•
Exemplo:
Considere a função de transferência G ( s ) =
1
. Se a entrada for um sinal limitado, a
s +1
resposta conterá este mesmo sinal limitado, além de uma exponencial decrescente, que
tende para zero. Assim, por exemplo, se a entrada for um “degrau” aplicado no instante t
= 0, isto é, u ( s ) =
1
1 1
1
1
, então a resposta é y ( s ) =
= y(s) = −
, esta última
s
s +1 s
s s +1
igualdade sendo obtida pelo familiar cálculo dos resíduos. Ora, a transformada inversa
desta é y (t ) = 1 − e − t , t ≥ 0 , ou seja, um degrau diminuido de uma exponencial
decrescente, ou seja, a resposta é BIBO
Considere agora a função de transferência G ( s ) =
1
, que tem o polo fora do semiplano
s
aberto da esquerda, mas na “fronteira”. Suponha que a entrada seja a mesma do caso
anterior. Então a resposta será y ( s ) =
1
, cuja trasformada inversa é y (t ) = t , t ≥ 0 ,
s2
uma “rampa”, trata-se de um sinal que evidentemente não é limitado, e portanto esta
função de transferência não é BIBO, como previsto pelo Teorema (37).
- No caso de matrizes de transferência, isto é, de sistemas multivariáveis, a definição de
polos não é tão simples quanto aos polos com grau de multiplicidade maior que 1.
Se os polos são simples, supondo que cada elemento da matriz de transferência seja
irredutível, isto é, não haja cancelamento entre fator comun no numerador e
denominador, então todo polo de qualquer elemento da matriz também será polo da
matriz de transferência. E se houver polo múltiplo em algum elemento da matriz de
33
transferência, ele também será polo da matriz, mas o grau de multiplicidade do polo da
matriz não será necessariamente igual ao grau no elemento.
Os polos de uma matriz de transferência são definidos primeriamente através de seu
polinômio característico, que é definido agora:
Definição:
(38)
Supondo que todos os elementos de uma matriz de transferência sejam irredutíveis, seu
polinômio característico é definido como o mínimo múltiplo comum (m.m.c.) dos
denominadores de todos seus menores.
Lembra-se que os menores de uma matriz de transferência são os determinantes que se
podem formar com os elementos da matriz, como explicado neste exemplo, onde será
calculado o polinômio característico:
Exemplo: Considere a matriz de transferência
⎡ 1
⎢ s
G( s) = ⎢
⎢ 1
⎢ s +1
⎣
0
1
s ( s + 1)
s +1 ⎤
( s − 1) 2 ⎥
⎥.
s ⎥
s 2 + 2 s ⎥⎦
Antes de calcular o polin. careact., observe-se que o elemento de ordem (2,3) não é
irredutível. Procedendo-se ao cancelamento correspondente, temos
⎡ 1
⎢ s
G( s) = ⎢
⎢ 1
⎢ s +1
⎣
0
1
s ( s + 1)
s +1 ⎤
( s − 1) 2 ⎥
⎥.
1 ⎥
s + 2 ⎥⎦
Os menores de ordem 1 são os elementos da matriz, cujos denominadores são
s, (s − 1)2 , s + 1, s ( s + 1) e s + 2 .
(39a)
Os menores de ordem 2 são obtidos pelo cruzamento das duas linhas com duas colunas:
1ª. e 2ª., 1ª. e 3ª., 2ª. e 3ª.
Quando se fazem produtos e somas no cálculo de menores de ordem 2 ou de ordem
maior, podem ser cancelados fatores. Ou seja, em geral não dá para escrever os
denominadores desses menores por simple inspeção como foi feito no caso dos menores
de ordem 1.
Neste caso, temos os menores de ordem 2:
1
1
1
s−2
1
,
−
=
e
.
2
2
s ( s + 1) s ( s + 2) ( s − 1)
s+2
s ( s − 1) 2 ( s + 1)
Os denominadores destes menores são portanto
s 2 ( s + 1), s + 2 e s ( s − 1) 2 ( s + 1) .
(39b)
Desta e de (39a) temos o polinômio característico de acordo com (38):
s 2 ( s − 1) 2 ( s + 1)( s + 2)
34
Isto posto temos a definição de polos em matrizes de tranferência:
Definição:
(40)
Os polos de uma matriz de transferência, com seus respectivos graus de multiplicidade,
são as raízes de seu polinômio característico.
No exemplo acima temos polo duplo na origem e em 1 e polo simples em -1 e -2. Vale
observar que o polo duplo na origem não aparece em nenhum dos elementos.
- Para definir zeros em sistemas multivariáveis temos que definir o que são matrizes de
MacMillan, tb. chamadas de Smith-MacMillan.
Antes porem, temos a
Definição:
Uma matriz polinomial em s, quadrada, é dita unimodular se seu determinante for
independente de s.
(41)
E temos a muito utilizada Forma de Smith dada pelo
Teorema (Forma de Smith)
(42a)
Dada uma matriz polinomial P(s), existem matrizes unimodulares U(s) e V(s) tais que
0
0
0⎤
⎡γ 1 ( s )
⎢ 0
γ 2 (s)
0
0 ⎥⎥
⎢
⎥ =: S ( s ) ,
U ( s ) P ( s )V ( s ) = ⎢
⎢
⎥
0
γ r (s) 0⎥
⎢ 0
⎢⎣ 0
0
0
0 ⎥⎦
onde os γ i ( s ) são tais que cada γ i ( s ) é fator de γ i +1 ( s ) ; γ i ( s ) são chamados
(42b)
polinomios invariantes da matriz P(s).
Na matriz acima γ 1 ( s ) é o m.d.c. (máximo divisor comum) de todos os elementos da
matriz P(s), γ 2 ( s ) é o m.d.c. dos menores de ordem 2 da matriz P(s) dividido por γ 1 ( s ) ,
etc...
Na matriz acima r é o chamado posto normal da matriz P(s), que é definido como o
maior dos postos da matriz para pelo menos um valor de s.
Esta definição de posto normal é geral, valendo também para matrizes irracionais. No
caso de matrizes polinomiais (como também no caso de matrizes racionais, aliás toda
matriz polinomial é tb. racional), o posto normal é a ordem do menor de maior ordem não
indenticamente nulo.
A demonstração da forma de Smith que será omitida aqui, é feita através de operações
elementares e da aplicação da fórmula de Binet-Cauchy que dá o menor do produto de
35
matrizes em função dos menores dos fatores. Esta demonstração está, por exemplo, nas
pp. 47ss (numeração embaixo da página) do meu texto “Sistemas Lineares” que se
encontra no meu site.
Mas o conceito de operações elementares tem que ser explicado para sabermos como
calcular a forma de Smith de uma matriz.
São três as operações elementares tanto sobre as linhas como sobre as colunas:
1. Multiplicação de uma linha (coluna) por um número real diferente de zero;
2. Permutação de duas linhas (colunas);
3. Adição de uma linha (coluna) multiplicada por um polinômio a uma outra linha
(coluna).
Vejamos exemplos destas três operações:
⎡ s
s +1
s3 ⎤
Dada a matriz P ( s ) = ⎢
;
2⎥
⎣ s − 1 s − 4 ( s − 4) ⎦
1. Multplicando a 2ª. linha por 2, obtemos
⎡ s
s +1
s3 ⎤ ⎡ s
s +1
s3 ⎤
. Note-se que isto equivale a
∼
⎢
⎢
2⎥
2⎥
⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣ 2( s − 1) 2( s − 4) 2( s − 4) ⎦
⎡1 0 ⎤
premultiplicar a matriz P(s) por ⎢
⎥ , que é uma matriz unimodular pela definição
⎣0 2⎦
acima. Para obter esta matriz, basta efetuar a operação elementar sobre a matriz
identidade
2. Permutando a 2ª. e 3ª. colunas, obtemos
⎡ s
s +1
s3 ⎤ ⎡ s
s3
∼⎢
⎢
2⎥
2
⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣ ( s − 1) ( s − 4)
⎡1
equivalente à posmultiplicação de P(s) por ⎢ 0
⎢
⎢⎣0
s + 1⎤
⎥ , notando-se que esta operação é
s − 4⎦
0 0⎤
0 1 ⎥⎥ , de novo uma matriz unimodular,
1 0 ⎥⎦
obtida, tal como no caso anterior, por aplicação da operação à matriz identidade
3. Adicionando à 2ª. coluna a primeira multiplicada pelo polinômio s, obtemos
⎡ s
s +1
s3 ⎤ ⎡ s
s 2 + s + 1 s + 1⎤
∼⎢
⎢
⎥ . E este resultado, tal como nos
2⎥
s2 − 4
s − 4⎦
⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣( s − 1)
casos anteriores, pode ser obtido, posmultiplicando a matriz P(s) pela matriz que é o
resultado da aplicação da mesma operação elementar à matriz identidade, ou seja, pela
⎡1 s 0 ⎤
matriz ⎢ 0 1 0 ⎥ .
⎢
⎥
⎢⎣0 0 1 ⎥⎦
36
Como acabamos de constatar, toda operação elementar, seja aplicada às linhas, seja às
colunas, é equivalente, respectivamente, à premultiplicação ou posmultiplicação por uma
matriz unimodular.
Mas o produto de matrizes unimodulares é unimodular. (Para ver isto, basta considerar
que o produto dos determinantes delas é independente de s). Consequentemente, uma
sequência de operações elementares é equivalente à pré- (ou pós-) multiplicação por
matrizes unimodulares. E a recíproca também é verdadeira, ou seja, toda matriz
unimodular que pré (pós)- multiplique outra matriz pode ser decomposta como o produto
de matrizes unimodulares simples (dos tipos das 3 acima), e portanto é equivalente a uma
sequência de operações elementares.
A demonstração da Forma de Smith se faz aplicando um algoritmo, com numero
necessariamente finito de passos, cada passo constituindo uma operação elementar.
Vamos mostrar isto através de um exemplo, calculando a Forma de Smith da matriz P(s)
acima.
A primeira coisa que se faz é, por permutação de linhas e coluna, colocar o elemento de
mais alto grau na posição (1,1). No caso presente, ele já está lá.
A seguir, zeram-se todos os elementos da 1ª. linha e primeira coluna, utilizando-se as
operações elementares que forem necessárias. No caso presente, temos
⎡ s
⎤
s +1
s3 ⎤ ⎡ s s + 1
s3
P(s) = ⎢
∼
⎥
⎢
⎥
2
3
2
⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣ −1 −5 − s + s − 9 s + 16 ⎦
⎡ −1 −5 − s 3 + s 2 − 9 s + 16 ⎤ ⎡1 5
s 3 − s 2 + 9s − 16 ⎤
∼⎢
∼
⎥ ⎢
⎥
s3
s3
⎣ s s +1
⎦ ⎣s s + 1
⎦
0
0
0
0
⎡1
⎤ ⎡1
⎤
∼⎢
∼⎢
⎥
⎥.
4
3
2
4
3
2
⎣ s −4 s + 1 − s + 2 s − 8s + 16 s ⎦ ⎣ 0 −4 s + 1 − s + 2s − 8s + 16s ⎦
Chegados a este ponto, coloca-se em (2,2) o elemento de mais baixo grau, que já está lá e
fazem-se operações elementares para zerar todos os elementos da 2ª. linha e da 2ª.
coluna, à exceção do elemento (2,2), claro. Ou seja:
0
0
0
0
⎡1
⎤ ⎡1
⎤
∼⎢
∼
⎥
⎢
⎥
4
3
2
3
2
⎣0 s − 1/ 4 s − 2 s + 8s − 16 s ⎦ ⎣ 0 s − 1/ 4 (−7 / 4) s + 8s − 16s ⎦
0
0
0
0
⎡1
⎤ ⎡1
⎤
∼⎢
∼⎢
⎥
⎥
3
2
2
⎣0 s − 1/ 4 (7 / 4) s − 8s + 16s ⎦ ⎣0 s − 1/ 4 (−121/16) s − 16s ⎦
0
0
0
0
⎡1
⎤ ⎡1
⎤
∼⎢
∼
⎥
⎢
⎥
2
⎣0 s − 1/ 4 (121/16) s + 16 s ⎦ ⎣0 s − 1/ 4 (1145 / 64) s ⎦
0
0 ⎤ ⎡1
0
0 ⎤ ⎡1
0
0 ⎤ ⎡1
0
0⎤
⎡1
∼⎢
∼⎢
∼⎢
∼⎢
⎥
⎥
⎥
⎥
⎣0 s − 1/ 4 s ⎦ ⎣ 0 s − 1/ 4 1/ 4 ⎦ ⎣ 0 −1/ 4 1/ 4⎦ ⎣ 0 −1/ 4 0⎦
⎡1 0 0 ⎤
⎢0 1 0 ⎥ , que é a forma de Smith.
⎣
⎦
37
Claro que poderíamos parar na matriz anterior. Mas por convenção, todos os polinômios
da diagonal da forma de Smith, os polinômios invariantes, devem ser mônicos, ou seja,
com os coeficientes do termo de mais alto grau igual a 1.
Como se vê neste exemplo, o cálculo da forma de Smith pode ser bastante trabalhoso,
mesmo quando a matriz é simples, se bem que no cálculo acima, poder-se-ia ter cortado
caminho. As operações feitas acima foram mais complicadas para se seguir o algoritmo
da demonstração da forma de Smith, conforme mencionado acima.
Entretanto, como já foi mencionado, o primeiro polinômio invariante é o m.d.c. de todos
os elemnetos da matriz. Ora, é claro que, neste caso, os elementos são todos primos entre
si e, portanto, o primeiro polinômio invariante é igual a 1.
E o segundo polinômio invariante é o resultado da divisão do m.d.c dos menores de
ordem 2 pelo primeiro polinômio invariante. Neste caso, há três menores de ordem 2,
formados com a 1ª. e 2ª. colunas, com a 1ª. e a 3ª. e com a 2ª. e a 3ª.
Calculando, obtem-se para o primeiro menor: s 2 − 4 s − s 2 + 1 = −4 s + 1 ∼ 4 s − 1 ;
o segundo menor:
s 3 − 8s 2 + 16 s − s 4 + s 3 = − s 4 + 2 s 3 − 8s 2 + 16 s ∼ s ( s 3 − 2 s 2 + 8s − 16) .
Ora, é imediato ver que s = 1/ 4 , raiz do primeiro menor, não é raiz do segundo,
consequentemente o m.d.c. destes dois menores é 1. Donde obtemos a forma de Smith
acima, pelo primeiro método, muito mais trabalhoso e sujeito a erros.
Não se deveria concluir porem que isto sempre acontece, pois quando se trata de
polinômios de graus elevado, tem-se que calcular suas raízes pelo segundo método, o que
não ocorre no primeiro.
- Os zeros de uma matriz polinomial são definidos pelas raízes do menor de maior ordem
não identicamente nulo. Ora o determinante de um produto de matrizes é o produto dos
seus determinantes.
Ora, em (42b) as matrizes U e V são unimodulares, portanto as raízes de P são as
mesmas, contadas as multiplicidades, que as da matriz S.
r
Ou seja, os zeros da matriz P são as raízes de
∏ γ (s) .
i =1
i
Mas as matrizes que interessam mais em Teoria de Controles são as matrizes racionais,
pois são nelas que são expressas as matrizes de transferência de um sistema.
Passamos portanto ao estudo da Forma de (Smith)-MacMillan, que são as formas
canônicas mais importantes para as matrizes racionais, assim como a Forma deSmith é a
forma canônica mais importante para as matrizes polinomiais.
Seja portanto G(s) uma matriz racional com coeficientes reais, que são, como vimos
antes, as matrizes de transferência que surgem quando estudamos sitemas linerares
invariantes no tempo regidos por eqs. diferenciais ordinárias.
Teorema
(43a)
Seja G(s) uma matriz racional própria . Então existem matrizes polinomiais unimodulares
U(s) e V(s) tais que:
38
⎡ α1 ( s )
⎤
0
0
0⎥
⎢ β (s)
⎢ 1
⎥
α
(
s
)
⎢
⎥
2
0
0⎥
⎢ 0
β 2 (s)
⎥ =: M ( s ) ,
(43b)
U ( s )G ( s )V ( s ) = ⎢
⎢
⎥
⎢
⎥
α r (s) ⎥
⎢ 0
0
0
⎢
β r ( s) ⎥
⎢
⎥
0
0
0⎦
⎣ 0
onde cada α i ( s ) é fator de α i +1 ( s ) , enquanto que cada β i +1 ( s ) é fator de β i ( s ) ; alem
disso, β1 ( s ) =d(s).
Prova:
Suponha, sem perda de generalidade, que cada elemento de G(s) esteja na forma
irredutível. Seja d(s) o m.m.c. dos denominadores de G(s) e seja N(s) matriz polinomial
tal que G ( s ) =
N (s)
. Agora aplicamos operações elementares a N(s) de modo a
d (s)
transformá-la na forma de Smith, de acordo com o teorema (42):
0
⎡γ 1 ( s )
⎢ 0
γ 2 (s)
⎢
U ( s ) N ( s )V ( s ) = ⎢
⎢
0
⎢ 0
⎢⎣ 0
0
0⎤
0 ⎥⎥
⎥ =: S ( s ) .
⎥
γ r (s) 0⎥
0
0 ⎥⎦
0
0
Definamos agora
⎡ γ 1 (s)
⎤
0
0
0⎥
⎢ d (s)
⎢
⎥
γ 2 (s)
⎢
⎥
0
0⎥
⎢ 0
d (s)
S (s) ⎢
⎥ . Cancelando agora os fatores comuns
=
M (s) =
⎥
d (s) ⎢
⎢
⎥
(
s
)
γ
r
⎢ 0
0
0⎥
d (s)
⎢
⎥
⎢ 0
0
0
0 ⎥⎦
⎣
entre γ i ( s ) e d(s), chegamos a (43b). Observe-se em seguida que, como vimos, cada
γ i ( s ) é fator de γ i +1 ( s ) , portanto cada α i ( s ) é fator de α i +1 ( s ) , pois cada α i ( s ) está
sendo dividido pelo mesmo d(s). E por outro lado, ao cancelarmos os fatores de α i ( s ) e
d(s), sobra no denominador β i ( s ) que é fator de β i −1 ( s ) . β1 (s) = d (s) , pois se houvesse
39
cancelamento de fator comum entre α1 ( s ) e d(s), isto signficaria um cancelamento entre
o m.d.c. dos elementos de N(s) e o m.m.c. dos denominadores de G(s), ou seja, isto
significaria que os elementos de G(s) não seriam irredutíveis, contra a hipótese inicial. •
Definição:
(44)
r
O grau de MacMillan de uma matriz racional é definido como
∑ grau(β (s)) .
i =1
i
Esta noção é importante porque se pode demonstrar que a ordem de uma realização
mínima de uma matriz de transferência é exatamente o grau de McMillan da matriz de
transferência.
A partir da forma de McMillan, podemos agora definir os zeros de uma matriz de
transferência, lembrando que os polos já o foram.
Definição:
Os zeros de uma matriz de transferência, mais comumente chamados de zeros de
(45)
r
transmissão, são as raízes de
∏α (s) .
i =1
i
Como vemos, os zeros de transmissão são os valores de s que diminuem o posto da
matriz de transferência.
Outro conceito de zero de uma matriz de transferência talvez tão, ou mais, utilizado na
prática quanto o anterior é o de zero de bloqueio.
Definição:
(46)
Os zeros de bloqueio de uma matriz de transferência são as raízes, contadas as
multiplicidades, do m.d.c. dos numeradores da matriz de transferência. (Aqui, como
usual, cada elemento da matriz de transferência é suposto irredutível).
Esta definição de zero de uma matriz de transferência pareceria mais apropriada do que a
anterior, se tivéssemos que escolher uma das duas. Com efeito, zero de uma função é o
valor da variável no domínio da função que a torna nula. No caso de uma função racional
escalar ou no caso de um polinômio isto é claro. E é claro também no caso de uma matriz
racional, se for usada a definição de zero de bloqueio; mas esta propriedade não se realiza
se for usada a outra noção, a de zero de transmissão.
O conceito de zero de bloqueio é usado no problema do servomecanismo e, alem disso,
no problema da chamada estabilização forte de um sistema em malha fechada, isto é,
quando o controlador é um sistema estável.
Os polos da matriz de transferência podem ser computados também a partir da sua forma
de McMillan, a saber:
Definição:
(47)
40
Os polos de uma matriz de transferência, cuja forma de McMillan é dada por (43b) são as
r
raízes, contados os graus de multiplicidade, de
∏ β (s) .
i =1
i
Observação: Pode-se demonstrar que esta definição é equivalente à definição (40)
Vamos ilustrar os conceitos acima através de um
Exemplo: Considere a seguinte matriz de transferência
1
⎡
⎢ ( s + 1)( s + 2)
⎢
⎢
1
G(s) = ⎢
2
⎢ ( s + 1)
⎢
1
⎢
2
⎣ ( s + 1) ( s + 2)
2s + 1
( s + 1)( s + 2)
s 2 + 5s + 3
( s + 1) 2
2s + 1
( s + 1) 2 ( s + 2)
s
⎤
( s + 1)( s + 2) ⎥
⎥
⎥
s
⎥ . Confere-se primeiramente
2
( s + 1)
⎥
⎥
s
⎥
2
( s + 1) ( s + 2) ⎦
que todos os elementos da matriz são irredutíveis. O m.m.c. dos denominadores é
d ( s ) = ( s + 1) 2 ( s + 2) .
(2 s + 1)( s + 1)
s ( s + 1) ⎤
⎡ s +1
N (s)
⎢
2
Donde que G ( s ) =
, com N ( s ) = s + 2 ( s + 2)( s + 5s + 3) s ( s + 2) ⎥ .
⎢
⎥
d (s)
⎢⎣ 1
2s + 1
s ⎥⎦
Passamos ao cálculo da Froma de Smith desta matriz:
O m.d.c. dos elementos de N(s) é claramente 1, portanto o primeiro polinômio invariante
de G(s), que é α1 ( s ) na sua forma de Smith, é igual a 1.
A seguir, observe-se que a 1ª. e 3ª. linhas acima são l.d., efetivamente a 1ª. linha é a 3ª.
multiplicada por s + 1.
Então adicionando à primeira linha a terceira multiplicada por -(s + 1), temos
0
0 ⎤
⎡ 0
⎢
2
N ( s ) ∼ ⎢ s + 2 ( s + 2)( s + 5s + 3) s ( s + 2) ⎥⎥ . Ora, à primeira vista, temos três
⎢⎣ 1
2s + 1
s ⎥⎦
menores de ordem 2, não identicamente nulos, nesta matriz. Mas calculando, verifica-se
que um deles é nulo e os outros dois são iguais a
( s + 2)( s 2 + 5s + 3 − 2s − 1) = ( s + 2)( s 2 + 3s + 2) = ( s + 1)( s + 2) 2 .
Consequentemente, a forma de Smith de N(s) é
41
0
0⎤
⎡1
S ( s ) = ⎢⎢ 0 ( s + 1)( s + 2) 2 0 ⎥⎥ . E a forma de McMillan é obtida dividindo-se esta por
⎢⎣ 0
0
0 ⎥⎦
1
⎡
⎤
0
0⎥
⎢ ( s + 1) 2 ( s + 2)
⎢
⎥
s+2
⎢
⎥
d(s): M ( s ) = ⎢
0
0⎥ .
s +1
⎢
⎥
0
0
0⎥
⎢
⎢
⎥
⎣
⎦
Então verificamos que G(s) tem um zero de transmissão em -2, um polo também em -2 e
um polo em -1 com grau de multiplicidade 3.
Para encerrar esta seção, é preciso tratar ainda dos zeros e polos no infinito.
Uma função racional estritamente própria se anula quando a variável s é igual a infinito.
E se a diferença entre o grau do denominador e o do numerador for p, podemos (e
devemos) dizer que o grau de multiplicidade do zero no infinito é p.
E por outro lado, dizemos que uma função de transferência imprópria tem polo no
infinito, porque quando s é igual a infinito, o valor da função também o é. E o grau de
multiplicidade do polo no infinito é igual à diferença entre os graus do numerador e do
denominador.
Mas quando se passa a matrizes de transferência, já não podemos usar a forma de
McMillan acima para determinar se a matriz tem polos no infinito e nem para determinar
os graus de multiplicidade do zero no infinito.
Por que? Como vemos de (43b), para obtermos a forma de McMillan de uma matriz, prée pós- multiplicamo-la por matrizes unimodulares. Ora, as matrizes unimodulares são
impróprias e, em geral, têm polos no infinito. Portanto, há em geral uma introdução de
polos no infinito na matriz original. E assim, sendo a matriz original própria, sua forma
de McMillan pode ser imprópria.
Para verificar zeros e polos no infnito de uma matriz, substituímos s por 1/z na sua
forma de McMillan e verificamos se esta matriz tem, e quantos, zeros e polos na origem.
Exemplo:
⎡1 s ⎤
G(s) = ⎢
⎥ , Esta é uma matriz polinomial, e aliás unimodular. Mas a consideramos
⎣0 1⎦
aqui como uma matriz racional imprópria. Substituindo s por 1/z, temos
42
⎡1 1/ z ⎤ 1 ⎡ z 1 ⎤
G (1/ z ) = ⎢
⎥= ⎢
⎥ . Ora, para calcular a forma de Smith desta matriz,
⎣0 1 ⎦ z ⎣0 z ⎦
vemos que o m.d.c. de seus elementos é 1, enquanto que seu determinante é z 2 .
1 ⎡1 0 ⎤ ⎡1/ z 0 ⎤
, que tem um zero e
Então a forma de Mcmillan da matriz em z é ⎢
=
z ⎣0 z 2 ⎥⎦ ⎢⎣ 0 z ⎥⎦
um polo na origem. Portanto a matriz original G(s) tem um zero e um polo no infinito.
Esta conclusão é surpreendente: que a matriz G(s) tenha um polo no infinito, não é de se
admirar, uma vez que ela é imprópria. Mas um zero no infinito? Eis um resultado não
intuitivo.
2º. Capítulo: Especificações de Desempenho
2.1 Os espaços de Hardy
H2 e H∞
[ZDG, pp. 91ss]
[ZDG, pp. 97ss]
Seja S um conjunto aberto no domínio dos complexos, isto é, S ⊂ C e seja f(s) uma
função definida em S, isto é, f ( s ) : S → C .
Dizemos que f é analítica em um ponto z0 se ela for diferenciável em z0 e em todos os
pontos de alguma vizinhança de z0 . Demonstra-se que se f for analítica em z0 , então
ela tem derivadas continuas de todas as ordens em z0 . Além disso, f é analítica em z0
se só se tiver uma representação em serie de potências em z0 .
A função é dita analítica em S se ela for analítica em todos os pontos de S.
Teorema do Maximum Modulus:
(1)
Se f(s) for definida e contínua em um conjunto fechado e limitado S e analítica no
interior de S, então o máximo de f ( s ) é obtido na fronteira de S , isto é,
max f ( s ) = max f ( s ) ,
s∈S
s∈∂S
onde ∂S é a fronteira de S.
Vejamos alguns espaços importantes neste curso:
- Espaço L2 (j R ), onde R é o corpo dos reais, é um espaço de Hilbert definido pelo
conjunto de todas as matrizes F tais que a integral abaixo é limitada
∞
∫ Traço[F
∗
( jω ) F ( jω )]dω < ∞ ,
(2)
-∞
onde F* indica a transposta conjugada de F.
É claro que os elementos de L2 (j R ) não podem ter polo no eixo imaginário, pois do
contrário a integral não convergiria.
Lembra-se que o traço de uma matriz é a soma dos elementos da sua diagonal. É fácil
verificar que o integrando de (2) é a soma dos quadrados das partes real e imaginária de
todos os elementos de F ( jω ) .
43
O produto interno deste espaço de Hilbert é definido como:
F , G :=
1
2π
∞
∫ Traço[F
∗
( jω )G ( jω )]dω < ∞ .
(3)
-∞
Este produto interno induz uma norma dada por
F 2 :=
F, F .
(4)
Como exemplo, o conjunto de todas as funções racionais, com coeficientes reais e
estritamente próprias constitui um subespaço não fechado de L2 (j R ), que denotaremos
por
RL2 (j R ), ou simplesmente RL2 .
- O espaço de Hardy H 2 é um subespaço fechado de L2 (j R ) cujos elementos são
funções (matriciais) F(s) analíticas em Re[s] > 0.
A norma correspondente é definida como
⎛ 1 ∞
⎞
2
F 2 := sup ⎜
Traço[F ∗ (σ + jω ) F (σ + jω )dω ⎟
∫
σ > 0 ⎝ 2π −∞
⎠
Pode-se demonstrar, utilizando o teorema do maximum modulus, que
F
2
2
=
1
2π
∞
∫ Traço[F
∗
( jω ) F ( jω )]d ω
(5)
-∞
Comparando-se esta com (2), verifica-se que são idênticas, ou seja, se F ∈ H 2 , sua
norma é a mesma que se estivesse em L2 (j R ).
Como exemplo, o conjunto de todas as funções reais racionais estritamente próprias e
estáveis pertence a este espaço. Ele é denotado por RH 2 .
- O espaço
H 2⊥
é o complemento ortogonal de
fechado de funções em
subespaço de
H 2⊥
L2
H2
em
L2 , ou seja, é o subespaço
que são analíticas no semiplano aberto da esquerda. O
constituído por todas as funções reais racionais estritamente próprias
com todos os polos no semiplano aberto da direita será denotado por RH 2⊥ . (Funções
racionais com todos os pólos no semiplano aberto da direita são chamadas de antiestaveis).
Pode-se verificar que se G for uma matriz real racional estritamente própria e estável,
então G ∈ H 2 e G ~ ∈ H 2⊥ .
L2 definidos acima no domínio da frequência ( ω ) podem ser relacionados
aos espaços L2 definidos no domínio do tempo. Como vimos logo acima, o espaço no
domínio da freqência foi denotado por L2 (j R ). E o respectivo espaço no domínio do
- Os espaços
44
tempo será denotado por L2 (- ∞ , ∞ ). Pode-se provar que existe um isomorfismo entre
este espaço e o anterior, ou seja,
(6)
L2 (- ∞ , ∞ ) ≅ L2 (j R ).
- Mais ainda, os seguintes isomorfismos são obtidos:
(7)
L2 [0, ∞ ] ≅ H 2 , L2 (- ∞ , 0] ≅ H 2⊥ .
As três relações acima são conhecidas como de Parseval e também como Teorema de
Plancherel.
- Como consequência destes isomorfismos, temos o seguinte:
Seja g(t) ∈ L2 (- ∞ , ∞ ) e seja sua transformada de Fourier dada por
G ( jω ) ∈ L2 ( jR ) . Então, temos a igualdade das normas:
G2= g2 .
(8)
A igualdade acima é conhecida como Teorema de Parseval, frequentemente apresentada
com um fator 1
2π
do lado esquerdo da igualdade. Tal fator às vezes não aparece, não
havendo contradição, pois se trata de diferença na definição da transformada de Fourier.
L∞ ( jR ) definido como um
espaço de Banach de funções ou matrizes que são essencialmente limitadas em jR com
- O próximo espaço que nos interessará neste curso é o
norma
F ∞ := ess sup σ [ F ( jω )]
ω∈R
(9),
onde, como vimos no capítulo anterior, σ (⋅) denota o maior valor singular de uma
matriz.
Observe-se que é definido também o espaço L∞ no domínio do tempo, o qual é usado,
geralmente, para definir sinais, ao passo que o no domínio da frequência, L∞ ( jR ) , é
usado geralmente para matrizes ou funções de transferência e, mais geralmente,
operadores.
- Em vista disso, definimos o espaço H ∞ , que é um subespaço fechado de L∞ , cujas
funções são analíticas e limitadas no semiplano complexo aberto da direita e cuja norma é
definida como
(10)
F ∞ := sup σ [ F ( s)] = sup σ [ F ( jω )]
Re[ s ]> 0
ω∈R
(A segunda igualdade é devida a uma generalização do teorema do maximum modulus).
Analogamente aos casos anteriores, denotaremos por RH ∞ o subespaço das funções (ou
matrizes) racionais com coeficientes reais, próprias e estáveis.
O espaço H ∞ é um subespaço fechado de L∞ , constituído por funções (ou matrizes) que
são analíticas e fechadas no semiplano complexo da esquerda. A norma deste espaço é
definida como
_
45
F
:= sup σ [ F ( s)] = sup σ [ F ( jω )] ,
∞
ω∈R
Re[ s ]< 0
que, como se vê, é identical a (10).
Analogamente aos casos anteriores, RH ∞ denota o subconjunto das funções (matrizes)
racionais com coeficientes reais que são próprias e têm todos seus pólos no semiplano
complexo da direita.
_
Os fatos abaixo são importantes:
i) Se G(s) ∈ L∞ , então G(s) L2 := { G(s) f(s) : f(s) ∈ L2 } ⊂ L2 ,
(11)
ii) Se G(s) ∈ H ∞ , então G(s) H 2 := { G(s) f(s) : f(s)∈ H 2 } ⊂ H 2 ,
(12)
iii) Se G(s) ∈ H ∞ , então G(s) H 2⊥ := { G(s) f(s) : f(s)∈ H 2⊥ } ⊂ H 2⊥ .
(13)
_
2.2 Ganhos induzidos de sistemas
[ZDG, pp. 104ss]
A palavra “ganho”, usada em teoria de operadores, será para nós a matriz (ou função) de
transferência.
O problema que nos ocupa agora é o seguinte: se soubermos quão “grande” a entrada (um
distúrbio) é, quão grande a resposta será para um dado sistema dinâmico?
Seja um sistema de dimensão finita com matriz de transferência G(s) ∈ RH ∞ . Mais
ainda, suporemos que G(s) seja estritamente própria, isto é, G( ∞ ) = 0, o que ocorre com
muita frequência na prática.
Seja u a entrada de um sistema G e z sua saída. Seja g a resposta do sistema, no
domínio do tempo, a um impulso unitário aplicado no instante t = 0, também chamada de
“resposta impulsional” do sistema. Como sabemos, a relação entre a saída z e a entrada
u , no domínio do tempo, é dada pela convolução de g e u , isto é,
(14a)
z = g ∗u ,
t
z (t ) = ∫ g (t − τ )u (τ )dτ .
ou seja,
(14b)
0
Suponha que u seja um vetor com q componentes
Pode-se demonstrar o seguinte:
i) Seja u(t) = u0δ (t ) , com u0 ∈ R q , sendo δ (t ) o impulso unitário aplicado no instante t
= 0.
Então,
(15a)
z 2 = Gu0 2 = gu0 2 ,
z
∞
= gu0
∞
.
(15b)
ii) Seja agora u (t ) = u0 senω0t , u0 ∈ R q . Sejam Gi ( s ) as linhas de G(s) . Então,
z 2 =∞,
lim sup max zi (t ) = G ( jω0 )u0
t →∞
t
i
lim sup z (t ) = G ( jω0 )u0 .
t →∞
(16a)
∞
= max Gi ( jω0 )u0 ,
i
(16b)
(16c)
t
46
Prova de (15) e (16): ver ZDG, pp. 105s.
Nas expressões acima, u é tipicamente um distúrbio a ser rejeitado ou um sinal a ser
rastreado; se se tratar de distúrbio a ser rejeitado, z é a resposta do sistema e se se tratar
de sinal a ser rastreado, z é o erro, ou seja, a diferença entre a resposta do sistema e o
sinal a ser rastreado.
Dizemos que o sistema tem bom desempenho se z(t) for pequeno em algum sentido, por
exemplo, se lim sup z (t ) for pequeno.
t →∞
- Note-se que lim sup z (t ) = G ( jω0 )u0 (ver (16c)) vale para u0 ∈ R q e ω0 fixados. É
t →∞
importante saber o que acontece se eles não são fixados. Efetivamente, a frequência da
senoide pode variar dentro de certos limites e a amplitude da senoide também. A tabela
abaixo responde a esta pergunta:
Entrada u(t)
Resposta z(t)
Norma da entrada
Norma induzida
L2
L2
L∞
L∞
L∞
L∞
∞
u2=
∫u
2
G
dt
∞
0
u
u
∞
∞
= sup max ui (t )
t
i
= sup u (t )
t
max gi
i
1
∞
≤ ∫ g (t ) dt
0
Tabela 1
Observe-se que as normas que aparecem dos lados direitos das igualdades acima são
normas euclideanas, isto é, a raiz quadrada da soma dos quadrados das componentes do
vetor.
Prova dos resultados acima: ZDG, pp. 108ss.
- Vamos agora calcular majorantes, que serão muito úteis, para as normas em H ∞ e L1 .
Seja a matriz de transferência, com dimensões não especificadas, mas compatíveis
⎡A B⎤
G(s) = ⎢
⎥ ∈ RH ∞
⎣C D ⎦
(16a)
Suponha que a realização (A, B, C) seja “balanceada”, ou seja, existe
Σ = diag(σ 1 ,σ 2 ,...σ n ) , com σ 1 ≥ σ 2 ≥ ≥ σ n ≥ 0 e tal que AΣ + ΣA∗ + BB∗ = 0 e
A∗Σ + ΣA + C ∗C = 0 .
Então temos o seguinte
(17)
(18)
Teorema:
σ1 ≤ G
∞
∞
n
0
i =1
≤ ∫ g (t ) dt ≤ 2∑ σ i .
47
Observação: g(t) é uma matriz, igual, como se sabe, a Ce At B . A norma dentro do
integrando é a norma euclidiana.
Prova do teorema (18): ZDG, pp. 111s.
2.3 Cálculo das normas em L2 e H 2
Seja G(s) ∈ L2 . Recorda-se que sua norma é
G2=
1
2π
∞
∫ Traço[G ( jω )G ( jω )]dω =
∗
[ZDG, pp, 112 ss]
g
−∞
2
1
2π
=
∞
∫ Traço[ g
∗
(t ) g (t )]dt . (19)
−∞
É fácil verificar que a norma acima é limitada se só se a matriz de transferência G(s) for
estritamente própria, isto é, G (∞) = 0 .
s −1
, temos
s +1
− jω − 1 jω − 1 1 + ω 2
G* ( jω )G ( jω ) =
=
= 1 , donde que a integral acima diverge.
− jω + 1 jω + 1 1 + ω 2
Com efeito, se por exemplo, G ( s ) =
E isto também se aplica para norma definida em
tratar de norma
própria.
L2
ou
H 2 , suporemos que a matriz de transferência seja estritamente
- Uma primeira maneira de se calcular a norma
G2=
2
1
2π
∞
H 2 . Consequentemente, quando se
1
L2
é
∫ Traço[G ( jω )G( jω )]dω = 2π j ∫ Traço[G
∗
~
( s )G ( s )]ds
(20)
−∞
A segunda integral é calculada ao longo do eixo imaginário e de um semicírculo de raio
infinito no semiplano complexo da esquerda, notando-se que a contribuição da integral
neste semicírculo é nula, pois a matriz de transferência é suposta estritamente própria,
como dito antes, por hipótese, sem a qual a norma não é definida, donde a igualdade
acima.
- Alternativamente, para o cálculo da norma em L2 , temos:
(21)
Teorema:
Seja a matriz de transferência G(s), suposta estável (isto é, BIBO estável) dada em
(16a) com D = 0. Sejam Lc e Lo os gramianos de controlabilidade e observabilidade,
respectivamente, que podem ser obtidos através das seguintes equações de Lyapunov:
(22)
ALc + Lc AT + BBT = 0 ,
AT Lo + Lo A + C T C = 0 .
Então o quadrado da norma em
L2
é dado por
G 2 = Traço( B Lo B) = Traço(CLcC T ) .
2
T
(23)
Prova: Como G é estável, temos para t maior ou igual a zero:
g (t ) , a transformada de Laplace inversa de G(s), é dada por Ce At B . Portanto,
48
∞
∞
0
∞
0
G 2 = ∫ Traço ( g * (t ) g (t ) ) dt = ∫ Traço ( g (t ) g * (t ) ) dt
2
=
∞
A*t
At
At
A*t
∫ Traço ( B * e C * Ce B ) dt = ∫ Traço ( Ce BB * e C *) dt .
0
0
A demonstração é concluída lembrando que os gramianos de controlabilidade e
observabilidade são definidos respectivamente por
∞
∞
Lc = ∫ e BB * e dt e Lo = ∫ e A*t C * Ce At dt ,
At
A*t
0
0
sendo que, como já vimos, estes gramianos podem ser calculados por (22).
Exemplo:
Calcular a norma em
•
L2
do sistema em que A = -1, B = C = 1, D = 0.
Solução: vamos calcular a norma pelos dois métodos:
1
Utilizando primeiramente (19), temos que G ( s ) =
, donde
s +1
1
. E das primeiras igualdades de (19) ou (20), temos
G* ( jω )G ( jω ) =
1+ ω2
∞
∞
1
π ⎛ π⎞
+∞
∗
=
Traço[
G
(
j
ω
)
G
(
j
ω
)]
d
ω
∫−∞
∫−∞ 1 + ω 2 dω = arctg(ω ) −∞ = 2 − ⎜⎝ − 2 ⎟⎠ = π ,
1
2
portanto G 2 = .
2
Agora vamos à eq. (23): Como B = C, os dois gramianos são iguais. Denominemo1
2
lo por L. Então temos de (22): - L – L +1 = 0, donde L = ½ e de (23), G 2 = .
2
2.4 Cálculo das normas em
L∞
e
H∞
Recorda-se que a norma de uma matriz de transferência em
ess sup σ {G ( jω} .
ω
[ZDG, pp. 114ss]
L∞ é dada por
(24)
O cálculo desta norma é bastante trabalhoso no caso de matriz de transferência.
No caso de uma função de transferência escalar, é claro que a norma é o mais alto valor
da magnitude no diagrama de Bode e é também a maior distância à origem do diagrama
de Nyquist. Portanto, no caso de função de transferência escalar, a norma pode ser obtida
graficamente.
- Mas em geral, mesmo no caso multiváriavel, pode-se obter uma estimativa da norma
por método simples, a saber, escolhe-se um conjunto de frequências relativamente
próximas umas das outras, {ω1 , ω2 ,..., ω N } , e então uma (relativamente) boa estimativa
da norma será
49
max σ {G ( jωk } .
(25)
1≤k ≤N
- No caso em que a matriz (ou função) de transferência é racional, o que ocorre com
frequência, a norma pode ser computada a partir da sua realização no espaço de estado,
como no Lema abaixo.
(26)
Lema:
Seja γ > 0 e a matriz dada em (16a).
Então G
∞
< γ se só se σ ( D ) < γ e a matriz H abaixo não tiver autovalor no eixo
⎡
imaginário H := ⎢
A + BR −1DT C
−1
⎣ −C ( I + DR D )C
onde R = γ I − DT D
T
T
⎤
⎥,
−( A + BR D C ) ⎦
BR −1BT
−1
T
T
2
Prova: ZDG, p. 115.
O lema anterior sugere o seguinte algoritmo para calcular a norma em L∞
Algoritmo:
(a) Escolher um limitante superior γ u e um limitante inferior γ l tal que γ l ≤ G
(b) Se
γu −γl
for menor ou igual ao nível especificado, pare, obtendo G
γl
∞
≈
(27)
∞
≤ γu ;
γu + γl
.
γl
Em caso contrario, ir ao passo seguinte;
(c) γ =
γu + γl
γl
(d) Testar se G
∞
< γ usando o Lema, isto é, conferindo se σ ( D ) < γ e se H não tem
autovalor no eixo imaginário com este valor de γ ;
(e) Se H tiver algum autovalor no eixo imaginário, fazer γ l = γ ; em caso contrario,
fazer γ u = γ ; em qualquer caso, voltar ao passo (b).
Em vista do teorema do maximum modulus, a norma em
forma.
H∞
é calculada da mesma
3º. Capítulo: Estabilidade e desempenho em sistemas com realimentação
[ZDG, pp. 117 ss]
Em virtualmente todos os sistemas bem sucedidos, sejam da natureza, sejam aqueles
construídos pelo engenho humano, existem malhas de realimentação. Efetivamente, a
realimentação é o mecanismo pelo qual se compara a resposta do sistema com um sinal
desejado. Mais ainda, a realimentação aumenta a robustez da estabilidade de um sistema.
Em vista disso, a realimentação é um conceito central em qualquer curso de controle.
Com efeito, trata-se de “controle automático”, o qual é obtido graças à realimentação.
50
Consideremos o diagrama de blocos abaixo, que é a configuração padrão quando se fala
em sistema com realimentação.
di
d
K
r
P
u
y
up
_
n
Figura 1
Na figura acima, como nas que se seguirão, nos somadores, o sinal é o (+) a não ser que
conste o contrario, como o sinal (–) à esquerda na figura.
3.1 Sistemas com realimentação “bem postos”
[ZDG, pp. 119 ss]
Suponha que no diagrama acima P e K sejam matrizes racionais. Então a primeira
pergunta que se põe é saber se o diagrama de blocos faz sentido, isto é, se é fisicamente
realizável.
s −1
e K =1, ambas funções racionais
s+2
s+2
s −1
próprias. É fácil verificar que u =
(r − n − d ) −
di . Ou seja, a função de
3
3
Considere por exemplo o caso em que P = −
transferência entre a saída de K e os sinais exógenos é uma função de transferência
imprópria. É costume dizer que tais funções de transferência não são fisicamente
realizáveis. O que se quer dizer é que se, por exemplo, um sinal exógeno é um degrau, a
saída em K , que é u, será um impulso. Mas um impulso é um “centelhamento” que
“queima” qualquer dispositivo, por isso se diz que tal função de transferência não é
realizável.
Temos então a
Definição:
(28)
Um sistema com realimentação é dito bem posto se todas as funções (matrizes) de
transferência no sistema são bem definidas e próprias.
É fácil verificar, por simples inspeção e pequenos cálculos, que se, por exemplo, as
funções de transferência entre a entrada de K e cada sinal exógeno for bem definida e
própria, então todas as outras matrizes de transferência também o serão.
Alternativamente, é fácil ver também que se as matrizes de transferência entre u e os
sinais exógenos di e d forem bem definidas e próprias, as outras duas entre u e os
sinais exógenos r e n também o serão.
E o mesmo vale para qualquer sinal no interior da malha.
51
Como consequência, para saber se um sistema é bem posto, basta verificar se a função
⎡ di ⎤
(matriz) de transferência entre u e ⎢ ⎥ existe e é própria.
⎣d ⎦
Para ser coerente com a notação posterior do curso, definamos K̂ = - K . Reagrupando os
sinais exógenos, temos o diagrama de blocos equivalente na figura abaixo
w1
P
y2
e1
y1
e2
K̂
w2
Figura 2
Em vista do que foi dito antes, o sistema é bem posto se só se a função (matriz) de
⎡ w1 ⎤
⎥ e e1 (ou e2 ou y1 ou y2 ) existe e é própria.
⎣ w2 ⎦
transferência entre ⎢
Lema:
O sistema da figura 2 é bem posto se só se I − Kˆ (∞) P (∞) tiver inversa.
(29)
Prova:
Do diagrama de blocos temos imediatamente
ˆ , e = w + Pe .
e1 = w1 + Ke
2
2
2
1
Destas duas eqs., temos
ˆ )e = w + Kw
ˆ
( I − KP
1
1
2
Ora, para que exista solução para esta eq. para todo w1 e w2 , é necessário e suficiente
ˆ seja não singular, ou seja, tenha inversa. Mas para que isto
que a matriz I − KP
aconteça, é necessário e suficiente que ela seja não singular em qualquer ponto do plano
complexo. E para que a inversa seja própria, é necessário e suficiente que a matriz exista
•
no ponto { ∞ }.
Observações:
1) Vamos verificar que a condição do Lema (29) é equivalente a cada uma das duas
seguintes:
⎡ I
− Kˆ (∞) ⎤
⎢
⎥ e
−
∞
P
(
)
I
⎣
⎦
ˆ
I − P (∞) K (∞) têm inversa.
(30)
52
Prova:
⎡ I
0 ⎤ ⎡ I − Kˆ (∞) P (∞) − Kˆ (∞) ⎤
− Kˆ (∞) ⎤ ⎡ I
⎢
⎥⎢
⎥ . Claro que o lado
⎥=⎢
∞
P
(
)
I
−
∞
P
(
)
I
0
I
⎣
⎦
⎣
⎦
⎣
⎦
⎡ I
− Kˆ (∞) ⎤
esquerdo desta eq. tem inversa se só se ⎢
⎥ tiver, enquanto que o lado
−
∞
P
(
)
I
⎣
⎦
direito tem inversa se só se I − Kˆ (∞) P (∞) tiver.
Por outro lado,
⎤
− Kˆ (∞)
0⎤ ⎡ I
⎡ I
− Kˆ (∞) ⎤ ⎡ I
=
⎥ . E exatamente o mesmo
⎥ ⎢
⎢ P (∞ ) I ⎥ ⎢
I ⎦ ⎣⎢0 I − P (∞) Kˆ (∞) ⎦⎥
⎣
⎦ ⎣ − P (∞ )
raciocínio que na eq. acima conclui a prova.
•
2) Para verificar se um sistema é bem posto, podemos também usar uma realização no
espaço de estado.
Com efeito, seja
⎡ Aˆ Bˆ ⎤
⎡A B⎤ ˆ
P( s) = ⎢
⎥ , K (s) = ⎢ ˆ ˆ ⎥
⎣C D ⎦
⎢⎣C D ⎥⎦
(31)
Ora, é claro que P (∞) = D e Kˆ (∞ ) = Dˆ . Portanto, a condição (30) é:
⎡ I − Dˆ ⎤
(32)
⎥ tem inversa.
−
D
I
⎣
⎦
Ocorre que a planta P é frequentemente estritamente própria, pois a maioria dos sistemas
a matriz ⎢
que queremos controlar tem alguma “inércia” (mecânica, térmica,...). Mas isto significa
que frequentemente temos D = 0 e portanto a condição (32) é satisfeita para todo D̂ .
3.2 Estabilidade interna
[ZDG, pp. 121 ss]
Considere o diagrama de blocos da figura 2 e suponha que as realizações das matrizes de
transferência dadas em (31) sejam estabilizaveis e detectáveis.
Sejam x e x̂ os estados de P e K̂ , respectivamente.
Então podemos escrever
x = Ax + Be1 ;
e2 = Cx + De1;
ˆ ˆ + Be
ˆ ;
xˆ = Ax
(33)
2
ˆ ˆ + De
ˆ .
e1 = Cx
2
(34)
Definição:
Suponha que o sistema da figura 2 seja bem posto. Ele é dito internamente estável se a
origem do espaço de estado constituído pelos dois estados, ( x, xˆ ) = (0,0) , for
53
assintoticamente estável, isto é, se os estados ( x, xˆ ) tenderem a zero a partir de quaisquer
condições iniciais, com w1 = 0 e w2 = 0.
Da 2ª. e 4ª. eqs. de (33), vem
−1
⎡ e1 ⎤ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤ ⎡ x ⎤
⎥⎢ ⎥.
⎥ ⎢
⎢e ⎥ = ⎢
⎣ 2 ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦ ⎣ xˆ ⎦
Observe-se que a existência da inversa acima é garantida pelo fato de o sistema ser bem
posto.
Substituindo isto na 1ª. e 3ª. eqs, de (33), temos
⎡ x⎤
⎡ x⎤
⎢ ⎥ = A ⎢ ⎥ , onde
⎣ xˆ ⎦
⎣ xˆ ⎦
−1
⎡ A 0 ⎤ ⎡B 0 ⎤ ⎡ I
− Dˆ ⎤ ⎡ 0 Cˆ ⎤
+
A=⎢
⎥.
⎥ ⎢
ˆ⎥ ⎢
ˆ⎥⎢
⎣ 0 A ⎦ ⎣ 0 B ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦
(34*)
É claro que estabilidade interna é equivalente à condição que a matriz A seja Hurwitz, ou
seja, tenha todos os seus autovalores no semiplano complexo aberto da esquerda.
Formalizamos isto no
Lema:
O sistema da figura 2 é internamente estável se só se a matriz A for Hurwitz.
(35)
Observe-se que na figura 2 a matriz de transferência entre os “erros” e os sinais exógenos
é
−1
⎡ e1 ⎤ ⎡ I − Kˆ ⎤ ⎡ w1 ⎤
⎥ ⎢ ⎥
⎢e ⎥ = ⎢
⎣ 2 ⎦ ⎣ − P I ⎦ ⎣ w2 ⎦
(36)
A seguir temos o importante resultado
(37)
Lema:
O sistema da figura 2 é internamente estável se só se a matriz de transferência dada em
−1
⎡ I − Kˆ ⎤
(36), ⎢
⎥ , pertencer a
P
I
−
⎣
⎦
RH ∞ .
Prova:
Em primeiro lugar note-se que dizer que uma matriz racional pertence a RH ∞ é
equivalente a afirmar que seus polos estão no semiplano aberto da esquerda.
A seguir, observe-se que
0 ⎤
⎡ I 0 ⎤ ⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤ ⎡ I
=
⎢
⎥
⎢
⎥
⎢
⎥.
⎢P I ⎥
⎣
⎦ ⎣ − P I ⎦ ⎣ 0 I ⎦ ⎣ 0 I − PKˆ ⎦
54
Portanto,
⎡ I − Kˆ ⎤
⎢
⎥=
⎣−P I ⎦
−1
0 ⎤
⎡ I 0⎤ ⎡ I
⎥
⎢P I ⎥ ⎢
⎣
⎦ ⎣ 0 I − PKˆ ⎦
−1
⎡ I Kˆ ⎤
⎢
⎥ .
⎣0 I ⎦
Ou seja,
−1
0
⎡ I − Kˆ ⎤
⎡ I Kˆ ⎤ ⎡ I
⎤ ⎡ I 0⎤
=
⎢
⎥
⎢
⎥⎢
⎥⎢
⎥
−
1
⎣−P I ⎦
⎣ 0 I ⎦ ⎣ 0 ( I − PKˆ ) ⎦ ⎣ P I ⎦
⎡ I + Kˆ ( I − PKˆ ) −1 P Kˆ ( I − PKˆ ) −1 ⎤
= ⎢
⎥.
−1
( I − PKˆ ) −1 ⎥⎦
⎢⎣ ( I − PKˆ ) P
(38a)
E é imediato (ou quase...) obter-se a seguinte fórmula:
−1
ˆ ) −1
⎡ ( I − KP
⎡ I − Kˆ ⎤
=
⎢
⎢
⎥
ˆ ) −1
⎢⎣ P ( I − KP
⎣−P I ⎦
Kˆ ( I − PKˆ ) −1 ⎤
⎥.
( I − PKˆ ) −1 ⎦⎥
(38b)
Sejam
⎡ ˆ ˆ⎤
⎡A B⎤
ˆ (s) = ⎢ A B ⎥
e
P(s) = ⎢
K
⎥
⎣C D ⎦
⎢⎣Cˆ Dˆ ⎥⎦
realizações estabilizáveis e detectáveis de P e K̂ , respectivamente, ou seja, não há
cancelamento de modos instáveis nem em P nem em K̂ .
Seja y1 a saída de P e y2 a saída de K̂ . Então temos as eqs.
⎡ x ⎤ ⎡ A 0 ⎤ ⎡ x ⎤ ⎡ B 0 ⎤ ⎡ e1 ⎤
+
⎢ ˆ⎥ = ⎢
ˆ ⎥ ⎢⎣ xˆ ⎥⎦ ⎢ 0 Bˆ ⎥ ⎢⎣ e2 ⎥⎦
x
A
0
⎣ ⎦ ⎣
⎣
⎦
⎦
⎡ y1 ⎤ ⎡C 0 ⎤ ⎡ x ⎤ ⎡ D 0 ⎤ ⎡ e1 ⎤
⎥⎢ ⎥+⎢
⎥⎢ ⎥
⎢y ⎥ = ⎢
⎣ 2 ⎦ ⎣ 0 Cˆ ⎦ ⎣ xˆ ⎦ ⎣ 0 Dˆ ⎦ ⎣ e2 ⎦
⎡ e1 ⎤ ⎡ w1 ⎤ ⎡0 I ⎤ ⎡ y1 ⎤
⎢e ⎥ = ⎢ w ⎥ + ⎢ I 0⎥ ⎢ y ⎥
⎦⎣ 2⎦
⎣ 2⎦ ⎣ 2⎦ ⎣
(39)
Para simplificar a notação no desenvolvimento, seja
⎡e ⎤
⎡w ⎤
⎡y ⎤
e := ⎢ 1 ⎥ , w := ⎢ 1 ⎥ , y := ⎢ 1 ⎥ .
⎣ e2 ⎦
⎣ w2 ⎦
⎣ y2 ⎦
(40)
Substituindo a 2ª. eq. de (39) na 3ª., temos
⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎡ 0 Dˆ ⎤
⎡ 0 I ⎤ ⎛ ⎡C 0 ⎤ ⎡ x ⎤ ⎡ D 0 ⎤ ⎞
=
e = w+ ⎢
e
+
+
w
⎜
⎟
⎢
⎥⎢ ⎥+⎢
⎥⎢ ⎥ ⎢
⎥e .
⎥
⎥ ⎢
⎣ I 0 ⎦ ⎜⎝ ⎣ 0 Cˆ ⎦ ⎣ xˆ ⎦ ⎣ 0 Dˆ ⎦ ⎟⎠
⎣C 0 ⎦ ⎣ xˆ ⎦ ⎣ D 0 ⎦
E, portanto,
55
⎡ I − Dˆ ⎤ ⎡ e1 ⎤ ⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎡ w1 ⎤
⎥⎢ ⎥+ ⎢ ⎥.
⎢
⎥⎢ ⎥ = ⎢
⎣ − D I ⎦ ⎣e2 ⎦ ⎣C 0 ⎦ ⎣ xˆ ⎦ ⎣ w2 ⎦
(Somente se): Sendo o sistema internamente estável, ele é bem posto, o que implica que
I − DDˆ = ( I − PKˆ )(∞) tem inversa e, portanto, I − PKˆ tem inversa. Mais ainda, de
acordo com o lema anterior, os autovalores de A , dada em (34*), estão no semiplano
aberto da esquerda. Donde se segue que a matriz de transferência (36) (ou (38)), está em
RH ∞ .
(Se): Se a matriz (38) está em
RH ∞ , então, em particular o bloco (2,2) de (38a),
−1
( I − PKˆ ) , é própria, o que implica que I − P (∞) Kˆ (∞) = I − DDˆ é não singular.
− Dˆ ⎤
⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I
Mas ⎢
=
⎥.
⎥ ⎢
⎥⎢
⎣ D I ⎦ ⎣ − D I ⎦ ⎢⎣ 0 I − DDˆ ⎥⎦
⎡ I − Dˆ ⎤
Consequentemente, D := ⎢
⎥ é não singular.
⎣−D I ⎦
A seguir, pode-se provar que a matriz de transferência entre
⎡ e1 ⎤ ⎡ w1 ⎤
⎢e ⎥ e ⎢ w ⎥ em termos das realizações no espaço de estado é
⎣ 2⎦ ⎣ 2⎦
⎛ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤
⎡ B 0 ⎤ ⎞ −1
D −1 ⎜ ⎢
( sI − A) −1 ⎢
+⎢
⎥
⎥
⎥ ⎟⎟ D ,
⎜ −D I
ˆ
B
0
C
0
⎦ ⎣
⎣
⎦⎠
⎦
⎝⎣
onde A é dada em (34*).
Mas por hipótese esta matriz de transferência pertence a
RH ∞ , donde se segue que a
⎡0
⎡B 0 ⎤
Cˆ ⎤
−1
⎥ ( sI − A) ⎢
⎥ pertence a RH ∞ . Mas sendo
ˆ
0
B
C
0
⎣
⎦
⎣
⎦
⎛ ⎡ B 0 ⎤ ⎡ 0 Cˆ ⎤ ⎞
,
( A, B, C ) e ( Aˆ , Bˆ , Cˆ ) estabilizaveis e detectáveis, ⎜ Aˆ , ⎢
⎥ ⎟⎟ também é
⎜
ˆ⎥ ⎢
⎝ ⎣ 0 B ⎦ ⎣C 0 ⎦ ⎠
matriz de transferência ⎢
estabilizável e detectável.
Donde se conclui que A tem os seus autovalores no semiplano aberto da esquerda e,
•
portanto, o sistema da figura 2 é internamente estável.
Observação:
O Lema (37), cuja prova é bastante macetosa, exprime uma realidade simples e já
conhecida, mas generalizando-a. Com efeito, sabemos que se uma planta for estabilizável
e detectável, ela será assintoticamente estável se só se sua matriz de transferência for
BIBO estável. Ora, no caso presente, a “planta” do sistema em malha fechada tem por
56
−1
⎡ I − Kˆ ⎤
matriz de transferência a que é dada no Lema, a saber, ⎢
⎥ , que é a matriz de
P
I
−
⎣
⎦
⎡ e1 ⎤ ⎡ w1 ⎤
transferência entre ⎢ ⎥ e ⎢ ⎥ .
⎣e2 ⎦ ⎣ w2 ⎦
E o que o Lema diz é que se os “componentes” desta “planta”, a saber, as realizações no
espaço de estado de P e K̂ dadas pelas duas primeiras de (39) forem estabilizáveis e
detectáveis, então a realização no espaço de estado da “planta” é assintoticamente estável
se só se sua matriz de transferência for BIBO estável.
Observação:
O Lema diz que para checar a estabilidade interna é preciso conferir a estabilidade de
quatro matrizes de transferência. Mas ao invés das quatro do Lema, podem-se checar as
⎡ w1 ⎤
⎥ e as respostas da
⎣ w2 ⎦
(outras quatro) matrizes de transferência entre os sinais exógenos ⎢
⎡ y1 ⎤
⎥.
⎣ y2 ⎦
planta e compensador, ⎢
Observação:
É comum (ou seria melhor dizer que era comum?) entre os “práticos”, achar que o
sistema em malha fechada é estável se a matriz de transferência entre a saída da planta e
o primeiro sinal exógeno, tipicamente um sinal a ser rastreado, o for. Isto é falso, como
mostra o Lema (37), há que conferir quatro matrizes de transferência.
Corolário:
(41)
Suponha que K̂ ∈ RH ∞ . Então o sistema da figura 2 é internamente estável se só se
ˆ ) −1 ∈ RH .
for bem posto e P ( I − KP
∞
Prova: A necessidade é obvia a partir do bloco (2,1) de (38b). Para provar a suficiência,
comparar (38a) e (38b) e, a partir (38a), vemos que basta provar que ( I − PKˆ ) −1 ∈ RH ∞ .
Ora, ( I − PKˆ ) −1 ( I − PKˆ ) = I ; donde ( I − PKˆ ) −1 − ( I − PKˆ ) −1 PKˆ = I , ou seja,
ˆ ) −1 Kˆ , que pertence a
( I − PKˆ ) −1 = I + ( I − PKˆ ) −1 PKˆ = I + P ( I − KP
com as hipóteses.
RH ∞ , de acordo
•
(42)
Corolário:
Suponha que P ∈ RH ∞ . Então o sistema da figura 2 é internamente estável se só se for
bem posto e Kˆ ( I − PKˆ ) −1 ∈ RH ∞ .
Prova: análoga à do Corolário anterior.
57
Corolário:
Suponha que tanto P como K̂ pertençam a
(43)
RH ∞ . Então o sistema da figura 2 é
internamente estável se só se ( I − PKˆ ) ∈ RH ∞ .
Prova: como as anteriores, mas mais fácil.
•
No caso geral, temos:
Teorema:
(44)
Seja nk := numero de polos de K̂ no semiplano fechado da direita e n p := numero de
polos de P no semiplano fechado da direita.
Então o sistema da figura 2 é internamente estável se só se ele for bem posto e
(i) o número de polos de P (s) K̂ (s) no semiplano fechado da direita for nk + n p ;
(ii) φ ( s ) := det[ I − P ( s ) Kˆ ( s )] tiver todos seus zeros no semiplano aberto da esquerda, o
que é equivalente à estabilidade de [ I − P ( s ) Kˆ ( s )]−1 .
Prova:
Usando as fórmulas de associação de matrizes de transferência (32a) e (32b) do primeiro
capítulo, temos imediatamente
⎡ A BCˆ
⎢
PKˆ = ⎢ 0
Aˆ
⎢
ˆ
⎢⎣C DC
⎡ A
BDˆ ⎤
⎥
⎢
Bˆ ⎥ e I − PKˆ = ⎢ 0
⎥
⎢
DDˆ ⎥⎦
⎢⎣ −C
BCˆ
Aˆ
− DCˆ
BDˆ ⎤
⎥
Bˆ ⎥
⎥
I − DDˆ ⎥⎦
Para calcularmos ( I − PKˆ ) −1 , usamos (32d), do 1º. Capitulo, relativo à figura 3, com
G = I e G = PKˆ . Obtem-se, após muitas contas (e com grande probabalidade de erros
1
2
na longa dedução).
⎡A B⎤
( I − PKˆ ) −1 = ⎢
⎥
⎣C D ⎦
onde
⎡ A BCˆ ⎤ ⎡ BDˆ ⎤
−1
A=⎢
⎥ + ⎢ ⎥ ( I − DDˆ ) ⎡⎣C DCˆ ⎤⎦ ,
ˆ
ˆ
⎣⎢ 0 A ⎥⎦ ⎢⎣ B ⎦⎥
C = ( I − DDˆ ) −1 ⎡⎣C DCˆ ⎤⎦ , D = ( I − DDˆ ) −1 .
⎡ BDˆ ⎤
B = ⎢ ⎥ ( I − DDˆ ) −1 ,
⎣⎢ Bˆ ⎦⎥
(#)
É sempre bom confereir, multiplicando a inversa por I − PKˆ para verificar se se obtem a
matriz identidade.
Vamos verificar que A = A dada em (34*) acima. Para isso, repetimos (34*):
58
−1
⎡ A 0 ⎤ ⎡ B 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤
A=⎢
+
⎥
⎥ ⎢
ˆ⎥ ⎢
ˆ⎥⎢
⎣ 0 A ⎦ ⎣ 0 B ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦
(*)
− Dˆ ⎤ ⎡ I − Dˆ ⎤ ⎡ I 0 ⎤ ⎡ I
− Dˆ ⎤
⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I
Ora, ⎢
=
∴
=
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎥
⎢
⎥
⎣ D I ⎦ ⎣ − D I ⎦ ⎣⎢0 I − DDˆ ⎦⎥ ⎣ − D I ⎦ ⎣ − D I ⎦ ⎣⎢0 I − DDˆ ⎦⎥
0 ⎤ ⎡ I − Dˆ ⎤
⎡ I 0⎤ ⎡ I
=⎢
⎢
⎥⎢
⎥ , donde
⎥
⎣ − D I ⎦ ⎣0 I − DDˆ ⎦ ⎣0 I ⎦
−1
0
⎡ I − Dˆ ⎤
⎡ I Dˆ ⎤ ⎡ I
⎤ ⎡ I 0 ⎤ ⎡ I + Dˆ ( I − DDˆ ) −1 D Dˆ ( I − DDˆ ) −1 ⎤
=
⎥.
⎢
⎥
⎢
⎥⎢
⎥= ⎢
−1 ⎥ ⎢
−1
( I − DDˆ ) −1 ⎥⎦
⎣−D I ⎦
⎣0 I ⎦ ⎣ 0 ( I − DDˆ ) ⎦ ⎣ D I ⎦ ⎢⎣ ( I − DDˆ ) D
Substituindo isto em (*) acima, concluimos efetivamente A = A .
Portanto, o SMF é internamente estável se só se A = A tiver todos os auto-valores no
semiplano aberto da esquerda.
Ora, sendo o sistema internamente estável, ( I − PKˆ ) −1 ∈ RH ∞ , o que implica que todos
os zeros de det( I − PKˆ ) −1 estão no semiplano aberto da esquerda.
Portanto só nos resta provar que, dada a condição (ii), a condição (i) é necessária e
suficiente para a estabilidade interna. Observe-se que a condição (i) afirma que não há
cancelamento de modos instáveis no produto P (s) K̂ (s).
Agora observe-se de (#) acima que
⎡ A BCˆ ⎤
A=⎢
⎥ + B ⎡⎣C DCˆ ⎤⎦ , donde
ˆ
A
0
⎣⎢
⎦⎥
⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤
⎤
ˆ⎤
⎡
[ sI − A B ] = ⎢ ⎢
B
C
DC
B
−
−
⎥
⎢
⎥
⎥
⎣
⎦
⎢⎣ ⎣ 0 sI ⎦ ⎣⎢ 0 Aˆ ⎦⎥
⎥⎦
0⎤
I
⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤
⎤⎡
ˆ⎤
⎡
⎢
⎥
∼ ⎢⎢
−
−
B
C
DC
B
⎥
⎢
⎥
⎥
⎣
⎦
⎢⎣ ⎣ 0 sI ⎦ ⎣⎢ 0 Aˆ ⎦⎥
⎥⎦ ⎢⎣ ⎣⎡C DCˆ ⎦⎤ I ⎥⎦
⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤
⎤ ⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤
⎡ BDˆ ⎤ ⎤
=
= ⎢⎢
−
B
−
⎥
⎢
⎥
⎥
⎢ ⎥⎥ .
⎥ ⎢
⎢
⎥ ⎢
⎢⎣ ⎣ 0 sI ⎦ ⎢⎣ 0 Aˆ ⎥⎦
⎥⎦ ⎢⎣ ⎣ 0 sI ⎦ ⎢⎣ 0 Aˆ ⎥⎦
⎢⎣ Bˆ ⎥⎦ ⎥⎦
⎛ ⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ ⎞
Portanto, o par ( A, B ) é estabilizável se só se ⎜ ⎢
⎥ , ⎢ ⎥ ⎟ o for.
⎜ ⎢ 0 Aˆ ⎥ ⎢ Bˆ ⎥ ⎟
⎦ ⎣ ⎦⎠
⎝⎣
Pelo mesmo método é fácil provar que ( C , A ) é detectável se só se
⎛
⎡ A BCˆ ⎤ ⎞
⎜ ⎡C DCˆ ⎤ , ⎢
⎟
⎦ 0 Aˆ ⎥ ⎟ o for.
⎜⎣
⎢
⎥
⎣
⎦⎠
⎝
Ora, estas duas condições são equivalentes à condição (i) do teorema, isto é, não há
cancelamento no produto PKˆ .
•
59
Com este resultado, fica fácil a demonstração da versão multivariável do critério de
Nyquist:
(45)
Teorema da estabilidade de Nyquist:
O sistema é internamente estável se só se for bem posto, a condição (i) do teorema
anterior for satisfeita e o diagrama de Nyquist de φ ( jω ) (dado em (ii) do teorema
anterior) para −∞ ≤ ω ≤ ∞ envolver a origem do plano complexo, (0,0), nk + n p vezes
no sentido anti-horário.
Prova: imediata do teorema anterior e do conceito do diagrama de Nyquist.
•
3.3 Fatorações coprimas em RH ∞
Recorda-se que dois polinômios com coeficientes reais, m( s ) e n( s ) , são coprimos se só
se o maior divisor comum deles for um (ou, geralmente, um número real qualquer);
equivalentemente, se eles não tiverem algum zero em comum; e ainda, equivalentemente,
se existirem polinômios x( s ) e y ( s ) tais que x( s )m( s ) + y ( s )n( s ) = 1 ,
(ou igual a um número real qualquer em vez de um).
A equação acima é uma equação diofantina e a igualdade acima é chamada de identidade
de Bezout.
Esta idéia é estendida para varias outras estruturas algébricas, inclusive para a que nos
interessa neste curso, RH ∞ .
Lembramos que as matrizes próprias e estáveis pertencem a
enorme da estrutura
RH ∞
daí a importância
RH ∞ .
Ou seja, duas funções m( s ) e n( s ) em
RH ∞ são coprimas se só se existirem funções
x( s ) e y ( s ) em RH ∞ tais que
(46)
x ( s ) m( s ) + y ( s ) n( s ) = 1
Equivalentemente, m( s ) e n( s ) são coprimas se só se todo divisor comum de m( s ) e
n( s ) em RH ∞ tiver inversa também em RH ∞ , ou seja:
Para todo h em RH ∞ tal que h, mh −1 , nh −1 ∈ RH ∞ tenhamos h −1 ∈ RH ∞ .
E para o caso multivariável, temos
Definição:
Duas matrizes M e N em
(47)
(48)
se elas tiverem
RH ∞ são coprimas à direita (c.d.) em RH ∞
o mesmo número de colunas e existirem matrizes X r e Yr em RH ∞ tais que
⎡M ⎤
(49a)
Yr ] ⎢ ⎥ = X r M + Yr N = I .
N
⎣ ⎦
De modo semelhante, M e N em RH ∞ são coprimas à esquerda (c.e.) em RH ∞ se
elas tiverem o mesmo número de linhas e existirem matrizes X l e Yl tais que
[Xr
60
⎡⎣ M
⎡X ⎤
N ⎤⎦ ⎢ l ⎥ = MX l + NYl = I .
⎣ Yl ⎦
(49b)
⎡M ⎤
Observe-se que a primeira definição acima é equivalente a afirmar que a matriz ⎢ ⎥
⎣N⎦
RH ∞ , enquanto que a segunda é equivalente a dizer que a
⎡⎣ M N ⎤⎦ tem inversa à direita em RH ∞ .
tem inversa à esquerda em
matriz
Seja agora P uma matriz racional com coeficientes reais. Uma fatoração coprima à
direita (f.c.d.) de P é uma fatoração P = NM −1 , onde M e N são coprimas à direita
em RH ∞ . De modo semelhante, uma fatoração coprima à esquerda (f.c.e.) tem a forma
P = M −1 N , onde M e N são coprimas à esquerda em
RH ∞ .
R P ( s) o conjunto das matrizes racionais próprias com coeficientes reais.
Dizemos que P ∈ R P ( s ) tem uma dupla fatoração coprima se P tiver uma f.c.d.
P = NM −1 e uma f.c.e. P = M −1 N e se existirem matrizes X r , Yr , X l , Yl ∈ RH ∞ tais
Denotemos por
que
⎡ Xr
⎢− N
⎣
Yr ⎤ ⎡ M
M ⎥⎦ ⎢⎣ N
−Yl ⎤
=I.
X l ⎥⎦
(50a)
Claro que na igualdade acima, uma matriz é a inversa da outra, ambas sendo quadradas,
como se pode verificar facilmente. Donde, comutando o produto,
⎡M
⎢N
⎣
−Yl ⎤ ⎡ X r
X l ⎥⎦ ⎢⎣ − N
Yr ⎤
=I.
M ⎥⎦
(50b)
As duas igualdades acima nos oferecem, cada qual, quatro equações.
É claro que em todo este desenvolvimento, estamos supondo que M e M sejam
matrizes quadradas. (Tal não ocorre em outras aplicações desta teoria).
Teorema:
Seja P ( s ) uma matriz racional própria com coeficientes reais:
(51)
⎡A B⎤
P( s) = ⎢
⎥,
⎣C D ⎦
onde a realização indicada é estabilizavel e detectável. Sejam F e L tais que A + BF e
A + LC sejam estáveis. Definam-se
61
⎡M
⎢N
⎣
⎡ Xr
⎢
⎣− N
⎡ A + BF
−Yl ⎤ ⎢
F
=
X l ⎥⎦ ⎢
⎢⎣C + DF
⎡ A + LC
Yr ⎤ ⎢
F
=
M ⎥⎦ ⎢
⎢⎣ C
−L⎤
0 ⎥⎥ ,
I
− D I ⎥⎦
B
− ( B + LD )
I
−D
(52)
L⎤
0 ⎥⎥ .
I ⎥⎦
(53)
Então P = NM −1 = M −1 N são f.c.d. e f.c.e., respectivamente. Além disso, as igualdades
(50) são satisfeitas.
Prova (esboço de esboço):
Vamos verificar que P = NM −1 é efetivamente uma f.c.d. Que M −1 N seja uma f.c.e.
prova-se de modo dual. Ora, de (50a) ou (49a) devemos ter
X r M + Yr N = I . Mas de (53) e (52), temos
X r M + Yr N =
⎡ A + LC
⎢ F
⎣
−( B + LD) ⎤ ⎡ A + BF
⎥⎢ F
I
⎦⎣
B ⎤ ⎡ A + LC
+
I ⎥⎦ ⎢⎣ F
L ⎤ ⎡ A + BF
0 ⎥⎦ ⎢⎣C + DF
B⎤
D ⎥⎦
Agora reportamo-nos para o produto de duas matrizes de transferência, em (32a) do 1º.
Capítulo, obtendo
⎡ A + LC
⎢ 0
⎢
⎢⎣ F
−( B + LD) F
A + BF
F
−( B + LD ) ⎤ ⎡ A + LC
⎥+⎢ 0
B
⎥ ⎢
⎥⎦ ⎢⎣ F
I
L(C + DF ) LD ⎤
A + BF
B ⎥⎥
0
0 ⎥⎦
E agora usamos a fórmula da soma de duas matrizes de transferência, dada em (32b) do
1º Capítulo, obtendo
⎡ A + LC
⎢ 0
⎢
X r M + Yr N = ⎢ 0
⎢
⎢ 0
⎢⎣ F
−( B + LD) F
0
A + BF
0
0
A + LC
0
F
0
F
−( B + LD) ⎤
⎥
0
B
⎥
L(C + DF )
LD ⎥
⎥
A + BF
B
⎥
⎥⎦
I
0
0
Definamos como A, B, C e D = I as matrizes acima, ou seja,
62
(
X r M + Yr N = C sI − A
)
−1
B+I ;
a seguir, pré-multiplicamos a matriz B por uma matriz T não singular e
tendo que posmultiplicar a matriz C por T −1 , pois
(
C sI − A
)
−1
(
B + I = CT −1T sI − A
)
−1
(
T −1TB + I = CT −1 sI − TAT −1
)
−1
TB + I .
Como vemos, A tem que ser pré-multiplicada por T e pós-multiplicada por T −1 .
(
Através de escolha de T conveniente, obtem-se C sI − A
)
−1
B = 0, e portanto
efetivamente, temos X r M + Yr N = I.
A prova do teorema inclui ainda a demonstração das outras três igualdades de (50a). •
Observação:
Observe-se que se P for estável, então as eqs. (52) e (53) são satisfeitas com
X r = X l = I , Yr = Yl = 0 , N = N = P , M = I , M = I .
(54)
As fatorações coprimas têm uma interpretação em termos de realimentação, como se
segue:
Sejam as eqs. de estado de um sistema:
x = Ax + Bu ,
y = Cx + Du .
Façamos uma realimentação de estado neste sistema: u= Fx+v.
Ou seja,
x = ( A + BF ) x + Bv ,
y = (C + DF ) x + Dv .
Abusando a notação, isto é, usando a mesma letra para a variável e sua transformada de
Laplace, temos da eq. diferencial
( sI − A − BF ) x = Bv ∴ x = ( sI − A − BF ) −1 Bv e de u= Fx+v, obtemos a matriz de
transferência entre u e v:
⎡ A + BF
M (s) = ⎢
⎣ F
B⎤
,
I ⎥⎦
(55)
que aparece em (52), enquanto que a matriz de transferência de v para y é:
⎡ A + BF
N (s) = ⎢
⎣ C + DF
B⎤
.
D ⎥⎦
(56)
que também aparece em (52).
De modo que
u = Mv , y = Nv.
63
Considere de novo o diagrama de blocos da figura 2. Sejam as fatorações coprimas à
direita e à esquerda de P como definidas antes e de K̂ :
K̂ = UV −1 = V −1U .
(57)
Lema:
(58)
Considere o sistema da figura 2. As seguintes condições são equivalentes:
(i) O sistema é internamente estável;
⎡M
U⎤
tem inversa em RH ∞ ;
V ⎥⎦
⎡ V −U ⎤
(iii) ⎢
⎥ tem inversa em RH ∞ ;
⎣− N M ⎦
(ii) ⎢
⎣N
RH ∞ ;
tem inversa em RH ∞ .
(iv) MV − NU tem inversa em
(v) VM − UN
Prova:
Como vimos, estabilidade interna é equivalente a
−1
−1
⎡ I − Kˆ ⎤
⎡ I Kˆ ⎤
⎥ ∈ RH ∞ .
⎢
⎥ ∈ RH ∞ , ou seja, ⎢
⎣P I ⎦
⎣−P I ⎦
⎡ I Kˆ ⎤ ⎡ I
UV −1 ⎤ ⎡ M U ⎤ ⎡ M −1 0 ⎤
Ora, ⎢
⎥=⎢
⎥=⎢
⎥.
⎥⎢
−1
I ⎦ ⎣ N V ⎦ ⎣ 0 V −1 ⎦
⎣ P I ⎦ ⎣ NM
−1
⎡ I Kˆ ⎤
⎡M
Donde, ⎢
⎥ =⎢
⎣0
⎣P I ⎦
0 ⎤ ⎡M
V ⎥⎦ ⎢⎣ N
−1
U⎤
.
V ⎥⎦
(59)
Agora se observe que
⎡I
⎢0
⎢
⎢−I
⎢
⎣0
0 0⎤ ⎡ M
0 0 ⎥⎥ ⎢⎢ 0
I 0⎥ ⎢ M
⎥⎢
0 I⎦⎣N
0
I
0
−I
0 ⎤ ⎡M
V ⎥⎥ ⎢⎢ 0
=
U⎥ ⎢ 0
⎥ ⎢
V⎦ ⎣N
0⎤
V ⎥⎥
.
U⎥
⎥
0⎦
Note que a segunda matriz do lado esquerdo é composta das matrizes “numerador” e
“denominador” de (59). A primeira matriz do lado esquerdo desta tem posto cheio e,
portanto, ao pósmultiplicá-la pela segunda matriz, o posto desta não se altera. Ora, a
matriz do lado direito tem claramente posto cheio, pelo fato de os pares (M, N) e (V, U)
serem c. d. Portanto, a segunda matriz do lado esquerdo também tem posto cheio e,
portanto as matrizes do lado direito de (59) são c. d.
Daí que o sistema é internamente estável se só se
⎡M
⎢N
⎣
−1
U⎤
∈ RH ∞ , o que prova a equivalência das condições (i) e (ii).
V ⎥⎦
A equivalência das condições (i) e (iii) é provada de forma semelhante.
64
Agora observe que
⎡V
⎢
⎣− N
−U ⎤ ⎡ M
⎥⎢
M ⎦⎣N
U ⎤ ⎡VM − UN
=⎢
V ⎥⎦ ⎣
0
⎤
0
⎥.
MV − NU ⎦
Ora, o lado esquerdo desta eq. tem inversa em RH ∞ , consequentemente o lado direito
também, provando as condições (iv) e (v).
Para concluir, vamos provar que (v) ⇒ (i). Ora,
−1
−1
⎡ I Kˆ ⎤
⎡ I
V −1U ⎤
=
⎢
⎥
⎢
⎥ ;
−1
NM
I
P
I
⎣
⎦
⎣
⎦
−1
−1
⎡ I
0 ⎤ ⎡VM
V U ⎤ ⎡V
=
mas ⎢
⎥
⎢
⎥⎢
−1
I ⎦ ⎣ 0 I⎦⎣ N
⎣ NM
−1
⎡ I
V −1U ⎤
⎡M
donde ⎢
⎥ =⎢
−1
I ⎦
⎣0
⎣ NM
(60)
U ⎤ ⎡ M −1 0 ⎤
⎥⎢
⎥,
I⎦
I ⎦⎣ 0
0 ⎤ ⎡VM
⎢
I ⎥⎦ ⎣ N
−1
U ⎤ ⎡V
⎥ ⎢
I ⎦ ⎣0
0⎤
⎥.
I⎦
Em vista disso e de (60), vemos que (i) ocorre se só se
−1
⎡VM
⎢
⎣ N
U⎤
⎥ ∈ RH ∞ .
I⎦
⎡VM
⎣ N
Mas ⎢
⎡I
ou seja, ⎢
⎣N
U⎤⎡ I
⎥⎢
I ⎦ ⎣− N
0 ⎤ ⎡VM
⎢
I ⎥⎦ ⎣ N
(61)
0 ⎤ ⎡VM − UN U ⎤
=⎢
⎥,
I ⎥⎦ ⎣
0
I⎦
−1
⎡ (VM − UN ) −1 0 ⎤
U⎤
=
⎥
⎢
⎥.
I⎦
I⎦
0
⎣
Em vista desta e de (61), concluímos que (i) ocorre se só se (v) ocorre.
•
Claro que este lema estabelece também, o que já deveria estar claro a esta altura, que K̂
é um controlador que estabiliza o SMF.
3.4 Propriedades da realimentação
Considere a figura 1, que repetimos aqui:
65
di
r
d
K
P
u
y
up
_
n
Figura 1 bis
Na figura acima, P é a planta, dada, K é um controlador (ou compensador) a ser
projetado, y é a resposta da planta, r é tipicamente um sinal de referencia a ser rastreado
pela resposta da planta, n é tipicamente um ruído (frequentemente, um sinal estocástico) a
ser rejeitado na resposta da planta, e os outros dois sinais exógenos são tipicamente
distúrbios (usualmente, determinísticos) a serem rejeitados na resposta da planta.
Definamos Li = KP e Lo = PK ,
(66)
que são denominadas matriz de transferência de entrada da malha e matriz de
transferência de resposta da malha, respectivamente. Com efeito, a primeira é obtida,
partindo-se a malha no ponto u, enquanto que a segunda é obtida partindo-se a malha no
ponto y, as matrizes sendo calculadas na direção das setas.
A matriz de sensibilidade de entrada, é definida como a matriz de transferência de di
para u p , ou seja, u p = Si di .
Ora, do diagrama de blocos temos
u p = di − KPu p ∴ ( I + KP)u p = di ∴ u p = ( I + KP) −1 di . Donde,
(67a)
Si = ( I + Li ) −1 .
Analogamente, a matriz de sensibilidade de resposta é definida como y = So d , obtendose
So = ( I + Lo ) −1 .
(67b)
As matrizes de sensibilidade complementares da entrada e da resposta são,
respectivamente, definidas como
(68a)
Ti = I − Si = Li ( I + Li ) −1 ,
To = I − So = Lo ( I + Lo ) −1 .
(68b)
A palavra complementar é usada em vista de T ser o “complemento” de S, a saber,
T =I – S.
Ora, se o sistema for internamente estável, então as inversas acima existem e podemos
obter facilmente as seguintes equações:
(69a)
y = To (r − n) + So Pdi + So d ,
(69b)
r − y = So (r − d ) + To n − So Pdi ,
(69c)
u = KSo (r − n) − KSo d − Ti d i ,
(69 d)
u p = KSo (r − n) − KSo d + Si di .
66
Estas quatro equações resumem as propriedades benéficas da realimentação. Com efeito:
- Por exemplo, a primeira mostra que o efeito do distúrbio d na resposta da planta pode
ser feito “pequeno” se fizermos a matriz de sensibilidade da resposta, So , pequena.
Por “pequeno” se entende pequeno na faixa de frequência de interesse. Assim, se o sinal
exógeno puder ser aproximado por degraus, cuja transformada de Laplace é 1/s, então
So (0) deve ser pequeno, e frequentemente é feito nulo, utilizando integrador no
controlador, sua transformada de Laplace sendo também 1/s: o s do denominador do
integrador aparece no numerador de So .
De um modo geral, a noção de matriz “pequena” associada a um dado espectro de
frequências de interesse pode ser explicitada pelo maior valor singular, como, por
exemplo, σ ( So ) < 1 : neste caso, esta desigualdade significa que dentro de dado espectro
de frequências o efeito do distúrbio d sobre a resposta da planta é pequeno, de acordo
com (69a). Note-se que o lado direito da desigualdade, um, é usualmente normalizado,
através de matrizes de “peso” e por isso parece que não é “pequeno”.
- De modo semelhante, da quarta equação, vemos que o efeito do distúrbio di pode ser
diminuído se fizermos a sensibilidade de entrada, Si , pequena.
Portanto, boa rejeição dos distúrbios d e d i na resposta da planta implica,
respectivamente, que os seguintes valores singulares sejam pequenos, de acordo com
(69a):
1
,
σ ( I + PK )
σ ( So P) = σ (( I + PK ) −1 P) = σ ( PSi ) .
σ ( So ) = σ (( I + PK ) −1 ) =
(70a)
(70b)
- Por outro lado, boa rejeição dos distúrbios d e d i na entrada da planta, u P , requer,
respectivamente, de acordo com (69d), que os seguintes sejam pequenos:
1
,
σ ( I + KP )
σ ( Si K ) = σ (( I + KP ) −1 K ) = σ ( KSo ) .
σ ( Si ) = σ (( I + KP ) −1 ) =
(70c)
(70 d)
- Agora, tenham-se em vista as seguintes propriedades dos valores singulares que valem
para quaisquer matrizes quadradas:
σ ( PK ) − 1 ≤ σ ( I + PK ) ≤ σ ( PK ) + 1 ,
(71a)
σ ( KP) − 1 ≤ σ ( I + KP) ≤ σ ( KP) + 1 .
(71b)
Destas desigualdades e das igualdades anteriores, temos
1
1
se σ ( PK ) > 1 ,
≤ σ ( So ) ≤
σ ( PK ) + 1
σ ( PK ) − 1
1
1
se σ ( KP ) > 1
≤ σ ( Si ) ≤
σ ( KP ) + 1
σ ( KP) − 1
(72a)
(72b)
Estas inequações implicam
σ ( So )
σ ( Si )
1 ⇔ σ ( PK )
1 ⇔ σ ( KP )
1,
1.
(73a)
(73b)
67
Supondo que P e K tenham inversas, temos
{σ ( PK )
1 ou σ ( KP )
1} ⇔ σ ( So P ) = σ (( I + PK ) −1 P ) ≈ σ ( K −1 ) =
1
,
σ (K )
(74a)
{σ ( PK )
1 ou σ ( KP )
1} ⇔ σ ( KSo ) = σ ( K ( I + PK ) −1 ) ≈ σ ( P −1 ) =
1
.
σ ( P)
(74b)
Assim, por exemplo, a rejeição de distúrbios implica grandes ganhos na malha aberta,
traduzidos por
σ ( PK ) 1 e σ ( KP ) 1 .
Mas a afirmação acima não deveria ser interpretada como se o projeto de um sistema de
malha fechada fosse algo trivial.
Efetivamente, há sempre “compromissos” (“trade-offs”) a serem obtidos.
Assim, por exemplo, de (69a), obtem-se boa rejeição de distúrbios d e di com So
pequeno; mas isto implica que To é grande e, portanto a rejeição do distúrbio n não é
satisfatória. Mais ainda, de (69b), se r for um sinal de referência a ser rastreado pela
resposta da planta, então o erro, que se deseja pequeno, será grande para To grande, ou
seja, o erro será sensível ao distúrbio n.
Outro ponto da necessidade de compromisso é que os ganhos em malha aberta não
podem ser grandes em espectro muito largo de frequências, conforme explicação a
seguir:
Suponha que a planta seja perturbada, isto é, P → ( I + ∆ ) P , com ∆ estável. Suponha
que o sistema nominal (isto é, com ∆ = 0) seja internamente estável. O sistema
perturbado é internamente estável se só se
det( I + ( I + ∆ ) PK ) não tiver zero no semiplano da direita. Ora,
( I + ( I + ∆ ) PK ) = ( I + PK + ∆PK ) = ( I + PK + ∆PK )( I + PK ) −1 ( I + PK )
= ( I + ∆PK ( I + PK ) −1 )( I + PK ) = ( I + ∆T0 )( I + PK ) . Donde
det( I + ( I + ∆ ) PK ) = det( I + ∆T0 )det ( I + PK )
(75)
Para que este produto de funções racionais no lado direito da igualdade acima não tenha
zero no semiplano da direita, é necessário, em geral, que ∆PK seja pequeno, ou seja,
que ∆To seja pequeno, isto é, que σ (To ) seja bem pequeno nas frequências em que
∆ é grande. Mas esta condição conflita, como já vimos, com uma boa redução de
distúrbios.
Há ainda outras situações de conflito, indicadas em ZDG, p. 133.
3.5 O conceito de “loop shaping”
Os conceitos da seção anterior nos levam a estudar brevemente um método muito usado
de projeto de controlador, a “loop shaping” (“construindo o sistema em malha fechada”).
Trata-se de achar um controlador K que permita que a função de transferência (caso
escalar) em malha aberta L fique dentro da faixa permitida pelas restrições que proveem
68
do desempenho (tipicamente, de baixas frequências) e de robustez (tipicamente, de altas
frequências). Ou seja, temos que encontrar K tal que σ ( L) e σ ( L ) fiquem dentro dos
limites impostos pelas restrições, como ilustrado na figura abaixo.
σ ( L)
ωh
ωl
σ ( L)
Figure 3
Na figura 3 os valores nos eixos horizontal (frequência) e vertical (módulo do valor
singular de L) são lançados, tipicamente, em logaritmos decimais e em decibéis,
respectivamente, decibéis sendo 20 vezes o logaritmo decimal. Observe-se ainda que os
gráficos dos valores singulares são, na realidade, de suas assíntotas, que fornecem
aproximação razoável para a maioria dos casos.
Loop shaping no caso escalar (sistemas SISO= single input, single output)
1) Observe-se inicialmente que no caso escalar só há um valor singular de L, o qual
coincide com o proprio L, ou seja, na figura 3 as duas curvas (na realidade, as assíntotas
delas) coincidem. Trata-se, como vimos, de achar uma função racional estritamente
própria L que contenha todos os polos e zeros no semiplano fechado da direita da planta
P e de tal modo que L fique dentro das especificações impostas pelas restrições de
baixa frequência (desempenho) e de alta frequência (robustez). É claro que se L não
tiver todos os polos e zeros ruins de P, haverá cancelamento de modos ruins no produto
PK, o que por sua vez implica instabilidade. Estas especificações de L são obtidas
usando as relações (70) a (74), principalmente (73) e (74), acima. Isto é garantido se L
ficar dentro das especificações. Isto é feito por “tentativa e erro”.
Alem disso, L deve ser escolhido de tal modo que 1 + L tenha todos os seus zeros no
semiplano aberto da esquerda; para obter isso, temos a seguinte “receita de bolo”: em
geral, L deve ser “bem comportada” na chamada frequência de “cross over”, que é a
frequência onde L( jω ) = 1 (ou seja, seu logaritmo é nulo). “Bem comportada” aqui
quer dizer que L não deve decrescer muito rapidamente na dita região.
2) A função de transferência do controlador é simplesmente K = L / P.
69
Loop shaping no caso multivariável (sistemas MIMO = multiple input and output)
O loop shaping é feito de modo semelhante, quando se tomam os valores singulares, a
saber:
1) Achar uma função racional estritamente própria L que contenha todos os polos e zeros
no semiplano fechado da direita da planta P, conferindo se P −1 Lo (ou Li P −1 ) não tem
cancelamento de pólos e / ou zeros. Constróem-se os lugares dos valores singulares
máximo e mínimo como na figura 3, usando especialmente (73) e (74) acima, conferindo
que eles não ultrapassem as restrições impostas pelo desempenho e robustez. Se qualquer
um ultrapassar em algum ponto, deve ser corrigido. Além disso, L deve ser tal que det(I
+ L) tenha todos seus zeros no semiplano aberto da esquerda.
2) O controlador é dado por P −1 Lo , ou Li P −1 , conforme se tenha escolhido uma ou outra
matriz de transferência do sistema em malha aberta.
Seja dito que o método do “loop shaping” é muito usado no caso de sistemas SISO, bem
menos nos sistemas MIMO, a tentativa e erro na escolha de L sendo bastante trabalhosa,
tendo em vista também que:
i) Este método só leva em consideração o desempenho e a robustez da estabilidade. Ora,
no caso multivariável, podem existir outras especificações, e diferentes, nos diversos
canais. A coisa se agrava se houver incerteza no modelo da planta. Com efeito, seja
P∆ = ( I + ∆ ) P , onde P é a planta nominal e ∆ é o erro multiplicativo de modelagem
(desconhecido). Seja a normalização do erro ∆ = ∆Wt , com σ ( ∆ ) < 1. Para robustez,
desejamos σ ( ∆WtTo ) < 1, ou σ (WtTo ) ≤ 1. Ora, precisamos de um majorante no caso
multivariável, como segue, σ (WtTo ) ≤ σ (Wt )σ (To ) ≤ σ (Wt )
σ ( Lo )
, se σ ( Lo ) < 1.
1 − σ ( Lo )
Por outro lado, a estabilidade robusta é obtida se
σ ( Lo )
1
1
, se σ ( Lo ) < 1.
σ ( Lo ) ≤
≈
1 − σ ( Lo )
σ (Wt ) + 1 σ (Wt )
(76a)
De modo semelhante, se as especificações de desempenho como, por exemplo, a rejeição
de distúrbio, não forem especificadas uniformemente em todos os canais e sim através de
uma matriz de peso Ws de tal modo que σ (Ws So ) ≤ 1 então é necessário limitar por cima
σ (Ws So ) a fim de aplicar as técnicas de loop shaping:
σ (Ws So ) ≤ σ (Ws )σ ( So ) ≤ σ (Ws )
σ (Ws )
, se σ ( Lo ) < 1.
σ − 1( Lo )
E obtem-se o desempenho satisfazendo às condições se
(76b)
σ ( Lo ) ≥ σ (Ws ) + 1 ≈ σ (Ws ) ,
se σ ( Lo ) > 1.
E é possível que os limites para o loop shaping se contradigam um ao outro, como na
figura 5 abaixo, mas isto não significa que não haja controle que satisfaça às
especificações de robustez da estabilidade e desempenho, a não ser em problemas
escalares.
70
Vejamos como a contradição mencionada pode acontecer em exemplo bem simples:
1 ⎡1 α ⎤
, as matrizes de “peso” (ponderação) sendo dadas por
s + 1 ⎢⎣ 0 1 ⎥⎦
α
⎡ 1
⎤
⎡ s + 2 α ( s + 1) ⎤
P(s) =
⎢ s + 1 ( s + 1)( s + 2) ⎥
⎢ s + 10 ( s + 10) ⎥
⎥ , Wt = ⎢
⎥.
Ws = ⎢
1
s+2 ⎥
⎢
⎥
⎢
⎢⎣ 0
⎥⎦
⎢⎣ 0
s + 10 ⎥⎦
s +1
Pode-se verificar que os valores singulares extremos dos “pesos” são dados na figura 5
quando α é grande.
σ (Ws )
log ω
1
σ (Wt )
Figura 5
Donde se vê que neste caso não se pode aplicar a técnica de loop shaping. Por outro lado,
pode-se conferir que se usarmos o controlador K = I , obtemos
⎡ 1
⎤
⎡ 1
⎤
0 ⎥
0 ⎥
⎢s + 2
⎢ s + 10
Ws S = ⎢
⎥ , WtT = ⎢
⎥ , os critérios de desempenho e robustez na
1 ⎥
1 ⎥
⎢ 0
⎢ 0
⎢⎣
⎢⎣
s + 2 ⎥⎦
s + 10 ⎥⎦
estabilidade sendo satisfeitos.
3.6 Desempenho com “pesos” em H 2 e H ∞
Vimos na seção 3.4 como especificar o desempenho em função sensibilidade S ( jω ) e de
seu complemento T ( jω ) .
Às vezes uma destas funções (ou as duas) deve ficar entre valores diferentes,
dependendo da faixa de frequência, como por exemplo, no caso de um problema escalar,
71
S ( jω ) ≤ α < 1, para todo ω ≤ ω0 ;
S ( jω ) ≤ β > 1 , para todo ω > ω0 .
Ao invés desta forma, é mais conveniente usar funções de peso apropriadas. Assim, ao
invés do problema acima, usa-se geralmente o equivalente
Ws ( jω ) S ( jω ) ≤ 1 para todo ω , com
Ws ( jω ) =
α −1 , ∀ω ≤ ω0
.
β −1 , ∀ω > ω0
Em geral, usa-se Ws ( jω ) racional. E assim para as outras funções de peso. Então, ao
invés do diagrama de blocos da figura 1 (ou 1bis), usa-se o seguinte:
Figura 6
As vantagens de usar pesos são multiplas, especialmente em sistemas multivariáveis. Em
primeiro lugar, algumas componentes do sinal são mais importantes que outras; em
segundo lugar, as componentes quase sempre são medidas em métricas diferentes,
quando, por exemplo, umas são medidas em metros e outras em volts. As funções de peso
são então essenciais para tornar estas medidas comparáveis. Outra razão é que muitas
vezes estamos interessados em rejeição de distúrbios numa certa gama de frequências e
não em outras.
Desempenho em
H2
Suponha que o distúrbio d possa ser modelado aproximadamente pelo impulso
d (t ) = ηδ (t ) , onde η é um vetor aleatório com E[ηη ∗ ] = I , onde E denota o operador
expectância. Queremos minimizar a energia do erro devido ao distúrbio, ou seja,
queremos minimizar
72
⎧∞ 2 ⎫
2
=
E
⎨ ∫ e dt ⎬ = We SoWd 2 ,
2
⎩0
⎭
com escolha apropriada das matrizes de ponderação We e Wd .
Em geral, um controlador minimizando somente o índice de desempenho acima pode dar
origem a um controle u muito grande, que levaria à saturação nos atuadores da planta.
Portanto, um projeto de controlador realista deve incluir o controle no índice de
desempenho, ou seja, deve ser da forma
{ }
E e
{
2
E e 2+ρ u
2
2
2
2
}
2
⎡ WSW ⎤
= ⎢ e o d ⎥ , com escolhas apropriadas da matriz de peso Wu e do
⎣ ρWu KSoWd ⎦ 2
escalar ρ .
Com efeito, suponhamos que se queira minimizar
sup e 2 = We SoWd ∞ ,
d ≤1
2
sujeito à restrição na energia do controle ou da banda de frequências do controle:
sup u 2 = Wu KSoWd
d ≤1
∞
.
2
Mais frequentemente se introduz um parâmetro ρ e um critério misto:
{
sup e 2 + ρ u
d ≤1
2
2
2
2
2
}
⎡ WSW ⎤
= ⎢ e o d ⎥
⎣⎢ ρWu KSoWd ⎦⎥
2
, como indicado acima.
∞
4º. Capitulo: Incerteza de modelos e robustez
4.1 Incerteza do modelo
Os projetos de controladores são modelos matemáticos. Ora, um modelo é sempre uma
aproximação. A coisa se complica em vista do fato que nunca sabemos quão “distante” o
modelo é da realidade, uma vez que esta não é conhecida com exatidão.
Suponha-se, por exemplo, que o modelo de uma planta seja dado por
(1)
P∆ ( s ) = P ( s ) + W1 ( s )∆ ( s )W2 ( s ) , com σ [∆ ( jω )] < 1 para todo ω ≥ 0 ,
onde W1 e W2 , os “pesos”, são matrizes de transferência estáveis que caracterizam a
incerteza como função da frequência. Esta caracterização confina a matriz P∆ ( s ) em certa
vizinhança do modelo nominal P. No caso escalar em que W1 = 1 e W2 = w(s), então
P∆ descreve um círculo centrado em P e raio w( jω ) , variando a cada frequência,
conforme a figura 7.
73
Figura 7
A incerteza ∆ pode ser causada por mudanças dos parâmetros ou por se ter desprezado
no modelo alguma dinâmica ou por outras razões.
Uma alternativa a (1) é dada pela assim chamada forma multiplicativa:
(2)
P∆ ( s ) = ( I + W1 ( s )∆ ( s )W2 ( s )) P ( s ) .
Este modelo confina a planta “real” P∆ a uma vizinhança normalizada do modelo.
As representações (1) e (2) das incertezas têm sido muito empregadas tanto em teoria
como nos problemas práticos. Há que considerar, porem, que a escolha das matrizes de
peso W1 e W2 não é algo trivial.
Inicialmente focalizaremos a expressão (2). Nesta expressão suporemos que a planta
nominal P é estritamente própria, o que é o mais comum, pois as plantas que queremos
controlar quase sempre têm “inércia” (mecânica, térmica....). Mais ainda, suporemos
também que a planta perturbada, P∆ , permaneça estritamente própria, o que quase
sempre ocorre, porque ∆ é quase sempre própria e só um masoquista escolheria W1 e /
ou W2 impróprios.
As matrizes de peso são usualmente tais que se obtém a figura 8, que mostra que o ganho
das matrizes de peso é “pequeno” ( 1) em baixas frequências e aumenta, passando de 1
à medida que a frequência aumenta.
74
Figura 8
Aqui e adiante usaremos as seguintes definições:
(3)
Definição:
Dada a descrição de um modelo de incerteza Π e um conjunto de objetivos de
desempenho, suponha que P ∈ Π seja o modelo nominal da planta e que K é o
controlador para esta planta nominal. Então o sistema tem:
Estabilidade nominal (NS = nominal stability) se K estabilizar o modelo da planta, P ;
Estabilidade robusta (RS) se K estabilizar toda planta em Π ;
Desempenho nominal (NP = nominal performance) se os objetivos de desempenho são
satisfeitos para a planta nominal;
Desempenho robusto (RP) se os objetivos de desempenho são satisfeitos para toda planta
em Π .
4.2 Teorema do pequeno ganho
Esta seção e a seguinte consideram o teste de estabilidade de um sistema nominalmente
estável sujeito a perturbações não estruturadas.
O resultado básico usado é o (famoso) teorema do pequeno ganho.
Considere o sistema da figura 9:
e1
∆
w1
y2
y1
w2
M
e2
Figura 9
75
Teorema do pequeno ganho
(4)
Suponha que M ∈ RH ∞ e seja γ > 0. Então o sistema em malha fechada da figura 9 é
bem posto e internamente estável para todo ∆( s) ∈ RH ∞ com:
1
(a) ∆ ∞ ≤ se só se M ( s ) ∞ < γ ;
γ
(b) ∆
∞
<
1
γ
se só se M ( s )
∞
≤γ .
Prova:
Provaremos só a suficiência. (A prova da necessidade, mais trabalhosa, está em ZDG, pp.
218s).
Claro que M ( s )∆( s ) é estável, pois cada fator o é. Ora, das condições (a) e (b) temos
que M ∞ ∆ ∞ < 1 . Mas isto implica, a fortiori, M ∆ ∞ < 1 , o que por sua vez implica,
usando o critério de Nyquist, Teorema (45) do Capítulo 3, que det( I − M ∆ ) não tem zero
no semi-plano fechado da direita, ou seja, o sistema em malha fechada é estável.
Exemplo:
A
1
e ∆ = , onde A é um número real. Verificar se o SMF da fig. 9,
s +1
A
acima, é internamente estável .
1
A
A
, ∆ ∞ = . Nenhuma das condições
Solução: M ∞ = supω
= supω
=
A
A
1 + jω
1+ ω2
do teorema é satisfeita, logo o SMF não é internamente estável. (Na realidade, basta
conferir se uma delas é ou não satisfeita, a outra será ou não, tal como a primeira).
1
Vamos conferir o polinômio característico do SMF: s + 1 − A = s , que não é um
A
polinômio Hurwitz, portanto o SMF não é internamente estável, confirmando a aplicação
do teorema anterior.
Seja M ( s) =
Este teorema é um resultado muito geral, não valendo somente para os sistemas tratados,
em que as matrizes de transferência são racionais. Efetivamente, ele pode ser
demonstrado também para sistemas de dimensão infinita (que correspondem a equações
diferenciais com derivadas parciais). Isto é afirmado formalmente no resultado abaixo:
(5)
Corolário:
As seguintes afirmações são equivalentes com relação ao diagrama de blocos da figura 9:
1
(i) O sistema é bem posto e internamente estável para todo ∆ ∈ H ∞ com ∆ ∞ < .
γ
(ii) O sistema é bem posto e internamente estável para todo ∆ ∈ RH ∞ com ∆
∞
(iii) O sistema é bem posto e internamente estável para todo ∆ ∈ C q× p com ∆
∞
<
<
1
γ
1
γ
;
;
76
(iv) M ( s )
∞
≤γ .
Observação: Pode-se demonstrar que a condição do teorema é suficiente mesmo que ∆
seja não linear ou variante no tempo, mas estável.
O lema seguinte mostra que se M
> γ , então existe ∆ com ∆ ∞ <
∞
1
γ
que
desestabiliza o sistema:
Lema:
Suponha que M ∈ RH ∞ e que M
σ ∈ [0,σ 0 ] existe ∆ com ∆ ∞ <
1
γ
∞
> γ . Então existe σ 0 > 0 tal que para todo
(6)
tal que det( I − M ( s ) ∆ ( s )) tenha zero em σ .
Prova: ZDG, pp. 220s.
4.3 Estabilidade sob perturbações estáveis e não estruturadas
Nesta seção usaremos bastante o teorema do pequeno ganho para estudar a estabilidade
em várias situações. O erro de modelagem, ∆ , será, como usual, suposto estável. Mas há
que notar que os resultados a seguir, na sua maioria, podem ser estendidos, com pequenas
restrições adicionais, para sistemas em que o erro de modelagem ∆ é instável.
Suporemos que ∆ seja devidamente ponderado com os “pesos” W1 e W2 , que são
matrizes.
Consideraremos o diagrama de blocos padrão da figura 10. Π é uma planta
arbitrariamente perturbada, satisfazendo a Π ∈ Π , onde Π é o conjunto de todas as
plantas possíveis. Seja P a planta nominal, que também, claro, satisfaz a.
P ∈Π.
Π
K
_
Figura 10
As matrizes de sensibilidade e de sensibilidade complementar são definidas para a planta
nominal por
(7a)
So = ( I + PK ) −1 , To = I − So ,
Si = ( I + KP ) −1 , Ti = I − Si .
(7b)
77
Lembramos que o sistema da figura 10 é bem posto e internamente estável se só se
⎡ I
⎢ −Π
⎣
−1
−1
K ⎤ ⎡ ( I + K Π ) −1 − K ( I + ΠK ) −1 ⎤
=
⎥ ∈ RH ∞ para todo Π ∈Π .
I ⎥⎦ ⎢⎣ ( I + ΠK ) −1 Π
( I + Π K ) −1 ⎦
Incertezas aditivas
Consideremos primeiramente as perturbações (ou incertezas) aditivas, a saber,
Π := {P + W1∆W2 : ∆ ∈ RH ∞ } .
(7c)
(8)
(9a)
Teorema:
Seja Π definido acima e seja K um controlador estabilizador para a planta nominal P.
Então o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∞ < 1
se só se W2 KSoW1
∞
≤1
Prova: Vamos provar incialmente que
−1
⎡
K⎤
( I + KSoW1∆W2 ) −1 Si
− KSo ( I + W1∆W2 KSo ) −1 ⎤
=
. (9b)
⎢
−1
−1 ⎥
I ⎥⎦
(
I
S
W
W
K
)
S
(
P
W
W
)
S
(
I
W
W
KS
)
+
∆
+
∆
+
∆
2
1
2
1
2
o 1
o
o
o
⎣
⎦
(9c)
Definamos, de acordo com (8), Π = P + W1∆W2
⎡ I
⎢ −Π
⎣
Comparando (9b) com (7c), devemos ter:
Bloco (1,1): ( I + KSoW1∆W2 ) −1 Si = ( I + K Π ) −1 . Ora, se esta igualdade for verdadeira,
devemos ter ( I + KS oW1∆W2 )( I + K Π ) −1 = Si ∴ I + KS oW1∆W2 = Si ( I + K Π ) .
Usando (7a) e (7b), temos desta última igualdade
I + K ( I + PK ) −1W1∆W2 = ( I + KP ) −1 ( I + K Π )
∴ I + ( I + KP ) −1 KW1∆W2 = ( I + KP ) −1 ( I + K Π ) . Pré-multiplicando ambos os lados por
I + KP , obtemos ∴ I + KP + KW1∆W2 = ( I + K Π ) , concluindo a prova, tendo em vista a
definição de Π em (9c).
(Observe-se que a demonstração formal parte desta última igualdade, revertendo os
passos. Esta observação vale também para as demonstrações que se seguem).
Bloco (1,2): De (9b) e (7c) temos que provar que
− KS o ( I + W1∆W2 KS o ) −1 = − K ( I + Π K ) −1 = −( I + K Π ) −1 K
∴ ( I + K Π ) KSo = K ( I + W1∆W2 KSo ) , em vista da def. de Π ,
∴ ( I + K Π ) K ( I + PK ) −1 = K ( I + W1∆W2 K ( I + PK ) −1 )
∴ ( I + K Π ) K ( I + PK ) −1 = K ( I + PK + W1∆W2 K )( I + PK ) −1
∴ ( I + K Π ) K = K ( I + PK + W1∆W2 K ) ∴ K Π K = K ( P + W1∆W2 ) K ,
esta última sendo uma identidade em vista da def. de Π .
Bloco (2,1): temos que provar agora que
( I + S oW1∆W2 K ) −1 S o ( P + W1∆W2 ) = ( I + Π K ) −1 Π
∴ ( I + SoW1∆W2 K ) −1 So ( P + W1∆W2 ) = Π ( I + K Π ) −1
78
∴ So ( P + W1∆W2 )( I + K Π ) = ( I + SoW1∆W2 K )Π
∴ ( I + PK ) −1 ( P + W1∆W2 )( I + K Π ) = ( I + ( I + PK ) −1W1∆W2 K )Π
∴ ( I + PK ) −1 ( P + W1∆W2 )( I + K Π ) = ( I + PK ) −1 ( I + PK + W1∆W2 K )Π
∴ Π ( I + K Π ) = ( I + ΠK )Π , que é uma identidade óbvia.
Bloco (2,2): agora temos que provar que
S o ( I + W1∆W2 KSo ) −1 = ( I + Π K ) −1 ∴ ( I + ΠK ) S o = I + W1∆W2 KSo
∴ ( I + ΠK )( I + PK ) −1 = I + W1∆W2 K ( I + PK ) −1 ∴ I + ΠK = I + PK + W1∆W2 K , que é
uma identidade.
Agora, note-se que dadas duas matrizes X e Y, cujos produtos XY e YX sejam matrizes
quadradas, temos
⎛ ⎡I
⎛⎡ I Y⎤⎞
⎛ ⎡Y
Y ⎤⎞
⎟ = det ⎜ ⎢
⎟ = det ⎜ ⎢
⎥
⎥
⎝ ⎣ 0 I + XY ⎦ ⎠
⎝ ⎣− X I ⎦ ⎠
⎝⎣I
⎛⎡I
0 ⎤⎞
−X ⎤⎞
⎟ = det ⎜ ⎢
⎥
⎥ ⎟ = det( I + YX ) .
I ⎦⎠
Y
I
YX
+
⎣
⎦⎠
⎝
det( I + XY ) = det ⎜ ⎢
⎛⎡I
= det ⎜ ⎢
⎝ ⎣Y
I ⎤⎞
⎟
− X ⎥⎦ ⎠
Ora, podemos aplicar este tipo de operações a todos os denominadores das matrizes de
(9b). Assim por exemplo, o denominador do bloco (1,1) é I + KSoW1∆W2 , enquanto que
o do bloco (1,2) é I + W1∆W2 KSo . Então permutando KSo e W1∆W2 , vemos que os dois
determinantes são iguais. E assim cada matriz de (9b) será estável se só se uma delas o
for. Mais ainda, de acordo com a mesma propriedade acima, cada uma delas será estável
se só se ( I + ∆W2 KSoW1 ) −1 ∈ RH ∞ . E isto é garantido se ∆W2 KSoW1 ∞ < 1 , de acordo
com o teorema do pequeno ganho, provando a suficiência do presente teorema.
(Necessidade): o bloco (1,2) de (7c) tem que ser estável, ou seja,
K ( I + Π K ) −1 ∈ RH ∞ para todo ∆ admissível e isto, por sua vez, implica
∆W2 K ( I + Π K ) −1W1 ∈ RH ∞ ;
(*)
−1
ora, I + Π K = I + PK + W1∆W2 K = ( I + PK )( I + ( I + PK ) W1∆W2 K ) ; donde,
( I + Π K ) −1 = ( I + ( I + PK ) −1W1∆W2 K ) −1 ( I + PK ) −1
= ( I + PK ) −1 ( I + W1∆W2 K ( I + PK ) −1 ) −1 = So ( I + W1∆W2 KSo ) −1 ;
donde a expressão em (*) acima é ∆W2 K ( I + Π K ) −1W1 = ∆W2 KS o ( I + W1∆W2 KS o ) −1W1
= ∆W2 KSoW1 ( I + ∆W2 KS oW1 ) −1 = ( I + ∆W2 KS oW1 − I )( I + ∆W2 KSoW1 ) −1
= I − ( I + ∆W2 KS oW1 ) −1
Então, (*) acima é sastisfeita somente se ( I + ∆W2 KSoW1 ) −1 ∈ RH ∞ .
E pelo teorema do pequeno ganho esta última é verdade para todo ∆ ∈ RH ∞ com
∆
∞
< 1 se só se W2 KSoW1
∞
≤ 1 , concluindo a prova.
•
Incertezas multiplicativas:
79
Suporemos agora que
Π = {( I + W1∆W2 ) P : ∆ ∈ RH ∞ } ,
(10)
conforme a figura 10*, onde W1 , W2 , ∆ ∈ RH ∞ , observando-se que estamos tratando do
problema da estabilidade e portanto podemos ignorar os sinais exógenos da figura.
W2
z
dm
∆
W1
w
P
K
r
Wd
d
_
d
y
e
We
Figura 10*
(11)
Teorema:
Seja Π definido em (10) e seja K um controlador estabilizador para a planta nominal P.
Então
(i) o sistema em malha fechada é bem posto e internamente estável para todo
∆ ∈ RH ∞ com ∆ ∞ < 1 se só se W2ToW1 ∞ ≤ 1 ;
(ii) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞
com ∆
∞
≤ 1 se W2ToW1
∞
< 1;
(iii) a estabilidade robusta do sistema em malha fechada com ∆
necessariamente que W2ToW1
∞
∞
≤ 1 não implica
< 1;
(iv) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞
com ∆
∞
≤ 1 somente se W2ToW1
∞
≤ 1;
(v) se nem P nem K tiverem pólo no eixo imaginário, então o sistema em malha fichada
é internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ ≤ 1 se só se W2ToW1 ∞ < 1 .
Prova: ver ZDG, pp. 223s.
80
Observação: É digna de nota a falta de simetria entre (i) e (ii), isto é, enquanto que (i) é
condição necessária e suficiente, (ii) é condição suficiente apenas; observe-se que a
condição (iv) é mais fraca do que a condição de necessidade da condição . E caso a planta
e o controlador não tenham polo no eixo imaginário, então retomamos a necessidade da
condição que esperaríamos em (ii).
Exemplo:
Seja P ( s ) =
(12)
1
, K = 1, W1 = W2 = 1 .
s
Solução: Diante dos valores iguais a 1 acima, temos de (i) do teorema: ∆
∞
< 1 se só se
PK
1/ s
1
.
=
=
1 + PK 1 + 1/ s s + 1
1
1
Donde To ∞ = sup
= sup
= 1, satisfazendo á condição (i) do teorema.
ω 1 + jω
ω
1+ ω2
To
∞
≤ 1 . Ora, To =
Observe-se que não é trivial chegar a esta conclusão utilizando o polinômio característico
do SMF. Com efeito, se forem N ∆ ( s ) e D∆ (s) o numerador e denominador de ∆ ( s )
numa fatoração coprima, o polinômio característico do SMF será
sD∆ (s)+N ∆ ( s ) + D∆ (s) . E daí?
Incertezas nos fatores coprimos
Consideramos agora que os numeradores e denominadores coprimos são perturbados de
acordo com
P = M −1 N → ( M + ∆ M ) −1 ( N + ∆ N ) .
Vamos agora demonstrar que o diagrama de blocos abaixo reproduz a expressão da
planta perturbada, o que não é nada óbvio à primeira vista.
_
z1
∆N
∆M
w
r
K
N
M −1
y
_
Figura 11
y = M −1 ( Nz1 + w) = M −1 ( Nz1 − ∆ M y + ∆ N z1 ) = M −1 ( N + ∆ N ) z1 − M −1∆ M y
∴ ( I + M −1∆ M ) y = M −1 ( N + ∆ N ) z1 ∴ M −1 ( M + ∆ M ) y = M −1 ( N + ∆ N ) z1
81
∴ y = ( M + ∆ M ) −1 ( N + ∆ N ) z1 , que é o que queríamos provar.
(14)
(15)
Teorema:
Seja Π = ( M + ∆ M ) −1 ( N + ∆ N ) ,
com M , N , ∆ M , ∆ N ∈ RH ∞ . A planta nominal tem fatoração c.e. P = M −1 N e K
estabiliza internamente o SMF com a planta nominal. Definamos ∆ = ⎡⎣ ∆ N
Então o SMF é bem posto e internamente estável para todo ∆
⎡K ⎤
−1
−1
⎢ I ⎥ ( I + PK ) M
⎣ ⎦
∞
∆ M ⎤⎦ .
< 1 se só se
≤ 1.
∞
Prova:
Seja o controlador com uma fatoração c.d. K = UV −1 sobre
(
é estável se só se ( N + ∆ N )U + ( M + ∆ M )V
)
−1
RH ∞ . Sabemos que o SMF
∈ RH ∞ .
(*)
Mas como o controlador estabiliza por hipótese a planta nominal, temos
( NU + MV ) −1 ∈ RH ∞ .
Ora, de (*) acima, temos ( NU + MV + ∆ NU + ∆ M V ) −1 ∈ RH ∞
((
)
∴ I + (∆ NU + ∆ M V )( NU + MV ) −1 ( NU + MV )
(
∴ I + (∆ NU + ∆ M V )( NU + MV ) −1
⎛
∴ ⎜ I + ⎣⎡ ∆ N
⎝
)
−1
)
−1
∈ RH ∞
∈ RH ∞ ,
−1
⎞
⎡U ⎤
∆ M ⎦⎤ ⎢ ⎥ ( NU + MV ) −1 ⎟ ∈ RH ∞ .
⎣V ⎦
⎠
Ora, de acordo com o teorema do pequeno ganho, a expressão anterior vale para todo
∆
∞
⎡U ⎤
< 1 se só se ⎢ ⎥ ( NU + MV ) −1
⎣V ⎦
≤ 1.
(**)
∞
−1 ⎡ K ⎤
⎡UV ⎤
⎡U ⎤
−1
−1
−1
−1
Mas ⎢ ⎥ ( NU + MV ) −1 = ⎢
⎥ V M M NUV + I V = ⎢ ⎥ ( I + PK ) M ,
⎣V ⎦
⎣I ⎦
⎣ I ⎦
concluindo a prova, em vista de (**) acima.
⎡K ⎤
•
E note-se que se ∆ ∞ ≤ 1 , teremos ⎢ ⎥ ( I + PK ) −1 M −1 < 1 .
⎣I ⎦
∞
−1
( (
) )
A tabela abaixo nos dá vários outros tipos de perturbações com os respectivos testes de
estabilidade robusta.
Na Tebela supomos, como já mencionado:
W1 , W2 e ∆ ∈ RH ∞ , ∆ ∞ < 1
82
Tipo de perturbação do Modelo
( I + W1∆W2 ) P
Teste de estabilidade robusta
W2ToW1 ∞ ≤ 1
P( I + W1∆W2 )
W2TW
i 1
−1
≤1
∞
≤1
( I + W1∆W2 ) P
W2 SoW1
∞
P ( I + W1∆W2 ) −1
W2 SiW1
∞
P + W1∆W2
W2 KSoW1
∞
P( I + W1∆W2 P) −1
W2 So PW1
∞
( M + ∆ M ) −1 ( N + ∆ N )
⎡K ⎤
−1
⎢ I ⎥ So M
⎣ ⎦
∞
M −1 S i [ K
I]
( N + ∆ N )( M + ∆ M ) −1
≤1
≤1
≤1
≤1
∞
≤1
(16)
Exemplo:
Seja o sistema cujas perturbações fazem variar o número de polos no semiplano fechado
1
1
⎧ 1
⎫
como P2 =
: δ ∈ R , δ ≤ 1⎬ . Vê-se que tanto P1 =
s −1
s +1
⎩s −δ
⎭
são elementos de Pδ , um instável e o outro estável. Observe-se agora que o conjunto Pδ
da direita: Pδ = ⎨
{
satisfaz a Pδ ⊂ Π := P (1 + ∆P ) −1 : ∆ ∈ RH ∞ , ∆
∞
≤ 1} . Escolhemos como planta
nominal a que está no meio entre os dois extremos, ou seja, P =
1
s
. Podemos usar o
sexto tipo de perturbações da tabela acima: com efeito, com W1 = W2 = 1 , temos
P
1/ s
1
= Pδ com ∆ < 1 . E de acordo com a tabela, a condição de
1 + ∆P 1 + ∆ / s s + ∆
estabilidade robusta é S o P ∞ ≤ 1 .
=
Mas So P =
1
s+K
=
P
1 + PK
=
1/ s
1+ K / s
=
1
s+K
. Então a condição de estabilidade robusta é
≤ 1.
∞
Exemplo:
Considere o seguinte conjunto de plantas:
P∆ =
(17)
s +1+ α
, com α ≤ 2 .
( s + 1)( s + 2)
Solução: Vamos verificar que caímos no sétimo caso (ou oitavo, pois o sistema é escalar)
da tabela acima com
⎧ s + 1 + 2δ
⎫
s +1
P∆ ⊂ Π := ⎨
, δ ∈ RH ∞ , δ ∞ ≤ 1⎬ . A planta nominal é P =
( s + 1)( s + 2)
⎩ ( s + 1)( s + 2)
⎭
83
1
.
s+2
Calculemos uma fatoração coprima sobre
=
RH ∞ de P. Isto é feito, por exemplo,
dividindo-se numerador e denominador de P por ( s + 1) 2 . Com isto, o numerador e
1/ s + 1
denominador são próprios e estáveis. Então, temos P =
; donde
( s + 2) /( s + 1)
s+2
s +1
1
s+2
s +1
; ora, So =
.
∴ M −1 =
=
∴ So M −1 =
s +1
s+2
1 + PK K + s + 2
K +s+2
⎡K ⎤ s +1
E a condição de estabilidade é portanto ⎢ ⎥
≤ 1.
⎣1⎦ K +s+2 ∞
M =M =
Estabilidade robusta versus Desempenho nominal
Um problema de estabilidade robusta pode ser visto como um problema de desempenho
nominal. Por exemplo, o problema de estabilidade robusta com perturbação
multiplicativa conforme a figura 10* pode ser tratado como um problema de rejeição de
ruído como na figura 12, e vice versa.
K
P
W2
e
_
W1
n
Figura 12
O sistema da figura 10* é robustamente estável para ∆
∞
< 1 se só se a norma em
H ∞ da
matriz de transferência entre w e z for menor ou igual a 1.
Mas como Tzw na figura 10* é igual a Ten na figura 12, nós temos a equivalência.
4.4 Desempenho robusto com perturbações não estruturadas
Considere o sistema da figura 13, o conjunto dos modelos perturbados sendo descritos
por Π .
84
Wd
d
d
P∆ ∈ Π
K
We
r
e
_
y
Figura 13
Suponha que as matrizes de ponderação Wd , We ∈ RH ∞ e o objetivo do desempenho
seja obter o erro e tão pequeno quanto possível para todos os modelos pertencentes ao
conjunto Π .
Em geral este conjunto pode ser ou parametrizado ou não estruturado. Conforme já
vimos, dependendo do objetivo, deseja-se minimizar a norma em L1 , H 2 , ou H ∞ .
Nesta seção serão focalizados os projetos em
Desempenho robusto em
Seja T
ed
H2 e H∞.
H2
a matriz de transferência entre e e d , reportando-nos à figura 13. Então,
Ted = We ( I + P∆ K ) −1Wd , P∆ ∈ Π .
O problema do desempenho em
H2
sup Ted
P∆ ∈Π
(14)
consiste em achar
2
Exemplo:
Suponha-se o sistema escalar com Wd = 1, We = ws , P = p e seja o modelo dado pela
incerteza multiplicativa
Π = {(1 + wtδ ) p : δ ∈ RH ∞ , δ ∞ < 1} .
Suponha que o sistema seja robustamente estabilizável por um controlador k. Então, da
figura 13 com as notações quatro linhas acima, temos:
ws
ws
d
d , donde Ted =
e = ws y, y = d − P∆ ky ∴ y =
∴e =
1 + P∆ k
1 + (1 + wtδ ) pk
1 + (1 + wtδ ) pk
sup Ted = sup δ ≤1
ws
.
(15)
1 + (1 + wtδ ) pk ∞
A análise exata do problema multivariável (matricial) é difícil, mas podem-se obter
majorantes, como faremos para o problema no H ∞ . Entretanto os majorantes no presente
P∆ ∈Π
2
85
caso dão pouca intuição sobre o problema e por isso esta abordagem do problema será
omitida.
Desempenho robusto em H ∞ com incerteza multiplicativa
Suponha que o objetivo seja obter o erro menor possível em termos de “energia”,
qualquer que seja o distúrbio d com energia nunca maior que 1. (É claro que postular a
energia menor ou igual a 1 para o distúrbio não torna o problema menos geral, bastando
definir convenientemente a unidade de energia. O mesmo pode ser obtido escolhendo We
conveniente). Ou seja, queremos
sup e 2 ≤ ε ,
d ≤1
2
sendo ε convenientemente pequeno.
Usando fator de escala, podemos supor ε = 1
Portanto o problema é resolvido se
Ted ≤ 1, ∀P∆ ∈ Π .
∞
(16)
O modelo perturbado pode ser descrito por
Π := {( I + W1∆W2 ) P : ∆ ∈ RH ∞ , ∆
∞
< 1} ,
com W1 ,W2 ∈ RH ∞ .
Reportando-nos à figura 10*, temos
T = We So ( I + W1∆W2To ) −1Wd .
ed
(17)
(17*)
Mas det( I + W1∆W2To ) = det( I + ∆W2ToW1 ) .
Consequentemente, o desempenho robusto será satisfeito, de acordo com o teorema do
pequeno ganho, se só se
(18)
W2ToW1 ≤ 1 e ∀∆ ∈ RH ∞ , ∆ ∞ < 1 .
A análise exata deste problema será dada mais adiante.
Entretanto podem ser obtidas de modo razoavelmente fácil algumas condições
suficientes, como veremos a seguir, condições que lançam alguma luz sobre a natureza
deste problema.
Suporemos no que se segue, como usual, que o controlador K estabiliza a planta nominal
P.
Recorda-se que o número condicionante (= de condicionamento) de uma matriz,
representado por κ (⋅) , é a relação entre o maior e menor valor singular da matriz,
recordando-se que o primeiro é a norma- ∞ da matriz e o segundo é a norma da inversa
da matriz.
Ou seja, κ ( A) = A A−1 . Quando κ ( A) ≈ 1 , a matriz A é dita bem condicionada; se
κ ( A) 1 ela é mal condicionada. Observe-se que temos sempre κ ( A) ≥ 1; com efeito,
κ ( A) = A A−1 ≥ AA−1 = 1 .
Reportamo-nos novamente à figura (10*) que repetimos para na leitura :
86
W2
z
K
dm
∆
w
W1
P
r
Wd
d
_
d
y
e
We
Figura 10* bis
Teorema
Suponha que P∆ ∈ ( I + W1∆W2 ) P : ∆ ∈ RH ∞ , ∆
{
∞
< 1} e que K estabilize
(19)
internamente a planta nominal P, ou seja, estabilize internamente a malha com a planta
nominal P. Então obtem-se desempenho robusto se uma das condições seguintes for
satisfeita:
(i) para cada frequência ω , σ (Wd )σ (We So ) + σ (W1 )σ (W2To ) ≤ 1
(20)
(ii) para cada frequência ω , κ (W1−1Wd )σ (We SoWd ) + σ (W2ToW1 ) ≤ 1 ,
onde W1 e Wd são supostas não singulares.
(21)
Prova:
Tanto a condição (20) como a (21) garantem que W2ToW1 ≤ 1 . Com efeito, em (21) isto
é imediato, lembrando que W2ToW1 = σ (W2ToW1 ) e que a parcela à esquerda de
σ (W2ToW1 ) é positiva; em (20) tenha-se em vista que σ (W2ToW1 ) ≤ σ (W1 )σ (W2To ) e que a
parcela à esquerda de σ (W1 )σ (W2To ) é positiva.
O desempenho robusto é equivalente a: T
ed
Ora, para cada ω , temos de (17*)
T = We So ( I + W1∆W2To ) −1Wd ,
2
≤ 1, ∀∆ ∈ RH ∞ , ∆
∞
< 1.
ed
e portanto,
87
σ (Ted ) ≤ σ (We So )σ ⎡⎣( I + W1∆W2To ) −1 ⎤⎦ σ (Wd ) =
≤
σ (We So )σ (Wd )
.
1 − σ (W1 )σ (W2To )σ (∆)
σ (We So )σ (Wd )
σ (We So )σ (Wd )
≤
σ ( I + W1∆W2To ) 1 − σ (W1∆W2To )
(22)
Portanto a condição (20), isto é, σ (Wd )σ (We So ) + σ (W1 )σ (W2To ) ≤ 1 , ou seja,
σ (Wd )σ (We So ) ≤ 1 − σ (W1 )σ (W2To ) , garante
σ (Ted ) ≤ 1, ∀∆ ∈ RH ∞ , ∆ ∞ < 1 para cada frequência.
Por outro lado, podemos escrever
We SoWd (W1−1Wd ) −1 ( I + ∆W2ToW1 ) −1W1−1Wd = We SoW1 ( I + ∆W2ToW1 ) −1W1−1Wd
= We So ( I + W1∆W2To ) −1W1W1−1Wd = We So ( I + W1∆W2To ) −1Wd
= Ted , de acordo com (17*).
Ou seja, Ted
= We SoWd (W1−1Wd )−1 ( I + ∆W2ToW1 )−1W1−1Wd
( ed )
donde, σ T
≤
σ (We SoWd )κ (W1−1Wd )
.
1 − σ (W2ToW )σ (∆ )
(*)
Mas da condição (21), temos imediatamente
κ (W1−1Wd )σ (We SoWd ) ≤ 1 − σ (W2ToW1 ) ,
κ (W1−1Wd )σ (We SoWd )
donde
≤ 1 , e com mais forte razão,
1 − σ (W2ToW1 )
κ (W1−1Wd )σ (We SoWd )
≤ 1 . Comparando esta com (*) acima, concluimos
1 − σ (W2ToW1 )σ (∆ )
( )
σ Ted ≤ 1, ∀∆ ∈ RH ∞ , ∆
∞
< 1 , para cada frequência.
•
(23)
Observação
Pode-se provar que as condições do teorema são necessárias se o sistema for escalar.
Observação:
(24)
Em vista da equivalência, verificada antes, entre estabilidade robusta e desempenho
nominal, é razoável conjecturar que o problema de desempenho robusto é equivalente ao
problema de estabilidade robusta na figura 10*, com o modelo de incerteza dado por
Π := ( I + Wd ∆ eWe ) −1 ( I + W1∆W2 ) P, ∆ e ∞ < 1, ∆ ∞ < 1 ,
{
}
tal como na figura 14.
88
W2
W2
∆
w
z
K
r
W1
d
Wd
P
We
_
e
∆e
Figura 14
Observação:
Suponha que W1 e Wd tenham inversas. Então temos
We SoWd ( I + (W1−1Wd ) −1 ∆W2ToW1 (W1−1Wd ) )
−1
= We SoWdWd−1W1 ( (W1−1Wd ) −1 + (W1−1Wd )−1 ∆W2ToW1 )
(
= We SoW1 Wd−1W1 + Wd−1W1∆W2ToW1
(
= We SoW1W1−1 Wd−1 ( I + W1∆W2To )
=T
ed
)
)
(25)
(25*)
−1
−1
−1
= We So ( I + W1∆W2To )−1Wd
, de acordo com (17*).
Consequentemente, em vista de (25*), uma alternativa para condição suficiente de
desempenho robusto é
σ (We SoWd ) + κ (W1−1Wd )σ (W2ToW1 ) ≤ 1 .
Número condicionante da planta e especificações diferentes
Consideremos agora o caso em que a incerteza e o desempenho não são medidos no
mesmo ponto. Concretamente, supomos agora, por exemplo, que o desempenho é ainda
medido pela sensibilidade da resposta, mas a incerteza do modelo é em termos da forma
multiplicativa da entrada, isto é,
Π := P ( I + W1∆W2 ) : ∆ ∈ RH ∞ , ∆ ∞ < 1 .
{
}
O diagrama de blocos correspondente é mostrado na figura 15 abaixo.
89
d
w
z
∆
Wd
W2
W1
e
K
We
P
_
Figura 15
Para esta posição do problema, vimos que:
a condição de estabilidade robusta é W2TW
i 1
∞
≤1 .
e a condição de desempenho nominal é We SoWd
∞
≤ 1.
Vamos calcular a matriz de transferência de d a e:
Seja y a entrada de We e seja u a saída de K. Então, temos
y = Wd d + P (u + W1∆W2 u ) = Wd d − P ( I + W1∆W2 u ) Ky
y = ( I + PK + PW1∆W2 K ) −1Wd d ;
mas I + PK + PW1∆W2 K = ( I + PW1∆W2 K ( I + PK ) −1 ) ( I + PK ) , donde
(
y = ( I + PK ) −1 I + PW1∆W2 K ( I + PK ) −1
)
−1
Wd d = So ( I + PW1∆W2 KS o ) −1Wd d , donde
Ted = We S o ( I + PW1∆W2 KSo ) −1Wd .
(25**)
Suponha agora que W1 , Wd e P tenham inversas. Então, temos
Ted = We S oWd ( ( I + PW1∆W2 KS o )Wd ) Wd = We SoWd (Wd + PW1∆W2 KS oWd ) Wd
−1
−1
(
) = W S W (I +W
= W S W ( I + W PW ∆W K ( I + PK ) W ) )
= W S W ( I + W PW ∆W K ( I + PK ) PP W ) )
= W S W ( I + W PW ∆W KP ( I + KP ) P W ) )
= W S W ( I + W PW ∆W TW W P W ) ) , donde
T = W S W ( I + (W PW ) ∆ (W TW )(W PW ) ) .
−1
= We SoWd Wd−1 (Wd + PW1∆W2 KS oWd )
ed
e
o
d
−1
d
1
2
e
o
d
−1
d
1
2
e
o
d
−1
d
1
2
e
o
d
−1
d
1
2 i
e
o
d
e
)
−1
−1
d PW1∆W2 KS oWd
d
−1
−1
−1
d
−1
1
d
−1
−1
−1
d
o
−1
−1
d
1
−1
1
−1
2 i
1
−1
d
−1
d
−1 −1
1
(25***)
Se, alem disso, W2 também tiver inversa, pode-se demonstrar que
90
(
Ted = We S oWd (W1−1Wd ) −1 I + (W1−1PW1 ) ∆ (W2 P −1W2−1 )(W2ToW1 )
)
−1
(W1−1Wd ) .
(25#)
Baseados nestes resultados, temos
Teorema
Seja P∆ ∈ Π = P ( I + W1∆W2 ) : ∆ ∈ RH ∞ , ∆
{
∞
(26a)
< 1 com K estabilizando internamente
}
o sistema nominal. Suponha que P, W1 , W2 e Wd sejam quadradas e inversíveis. Então
obtemos desempenho robusto se uma das seguintes condições for satisfeita
(i) para cada frequência ω , σ (We SoWd ) + κ (Wd−1 PW1 )σ (W2TW
(26b)
i 1) ≤ 1 ,
(ii) para cada frequência ω ,
κ (W1−1Wd )σ (We SoWd ) + σ (W1−1 PW1 )σ (W2 P −1W2−1 )σ (W2ToW1 ) ≤ 1 .
(26c)
Prova:
(i) vem de (25***) e (ii) vem de (25#).
•
(27)
Observação:
Se as hipóteses de inversibilidade das matrizes não forem satisfeitas, obtem-se pelo
mesmo tipo de raciocinio, usando (25**), isto é, Ted = We So ( I + PW1∆W2 KSo ) −1Wd , a
seguinte condição suficiente alternativa:
σ (Wd )σ (We So ) + σ ( PW1 )σ (W2 KSo ) ≤ 1 .
(28)
Observação:
(29)
É importante notar que enquanto a condição de estabilidade robusta é dada em função de
Li = KP , a condição para o desempenho nominal é dado em função de Lo = PK . Esta
classe de problemas é dita “skewed” (“torta”). Como em geral PK ≠ KP , a margem para
estabilidade robusta na entrada da planta é em geral diferente daquela na saída da planta.
Observação:
(29*)
Se o modelo nominal ponderado for mal condicionado no espectro de frequências
considerado, então as condições de desempenho robusto podem ser bem mais restritivas
do que aquelas de estabilidade e desempenho nominais. Assim, por exemplo, se
W1 = I , Wd = I e W2 = wt I , onde wt ∈ RH ∞ é uma função escalar, a condição (26b), isto
é, σ (We SoWd ) + κ (Wd−1 PW1 )σ (W2TW
i 1 ) ≤ 1 , se torna σ (We S o ) + κ ( P )σ ( wt To ) ≤ 1, ∀ω .
Comparando este resultado com os obtidos para os problemas “non-skewed”, vemos que
a condição para estabilidade, isto é, a desigualdade acima fica dificil de ser satisteita se
κ ( P) for grande. Este problema será discutido com mais detalhe no capitulo seis.
Observação:
Se K tiver inversa, temos de (25**), que repetimos:
T
ed
(
= We So ( I + PW1∆W2 KSo )−1Wd = We So ( So−1K −1 + PW1∆W2 ) KSo
(
= We K −1 So−1 K −1 + PW1∆W2
)
−1
(
(30)
)
Wd = We K −1 So−1 K −1 ( I + KSo PW1∆W2 )
−1
)
Wd
−1
Wd
91
(
= We K −1 ( I + KSo PW1∆W2 ) KSoWd = We K −1 I + K ( I + PK ) −1 PW1∆W2
−1
(
= We K −1 I + ( I + KP ) −1 KPW1∆W2
)
−1
)
−1
KS oWd
KSoWd = We K −1 ( I + TW
i 1∆W2 ) KS oWd
−1
−1
−1
−1
= We K −1 ( I + TW
i 1∆W2 ) K ( I + PK ) Wd = We K ( I + TW
i 1∆W2 ) ( I + KP ) KWd .
Donde, finalmente,
−1
Ted = We K −1 ( I + TW
(30*)
i 1∆W2 ) Si KWd .
−1
−1
Suponha que We = I , Wd = ws I , W2 = I , onde ws ∈ RH ∞ é uma função escalar. Então
obtemos da expressão acima
−1
Ted = K −1 ( I + TW
i 1 ) ≤ 1 , para todo ω .
i 1∆ ) ws Si K , donde κ ( K )σ ( Si ws ) + σ (TW
E vemos que a desiguladade não será satisfeita se o número condicionante do controlador
for grande, ou seja, se ele for mal condicionado.
O fato de o número condicionante ter aparecido no teste de desempenho robusto em
problemas “skewed” tem outra interpretação, considerando dois conjuntos de plantas
como na figura 16 abaixo:
A do lado esquerdo: Π1 := {P ( I + wt ∆ ) : ∆ ∈ RH ∞ , ∆ ∞ < 1} ,
e a do lado direito: Π2 := {( I + wt ∆ ) P : ∆ ∈ RH ∞ , ∆
∞
< 1} , onde wt e wt ∈ RH ∞ , de
resto qualquer.
wt
wt
∆
P
∆
P
Figura 16
Se P tiver inversa, temos
Π2 ⊇ Π1 se wt ≥ wt κ ( P ) ∀ω . Com efeito,
P( I + wt ∆) = P ( I + wt ∆P −1P ) = ( I + wt P∆P −1 ) P , donde
P ( I + wt ∆ ) = ( I + wt P∆P −1 ) P .
Como dito antes, o número de condicionamento pode crescer bastante com a frequência
ω . A título de ilustração, temos o seguinte problema típico do ponto de vista industrial.
92
⎡ 0, 2 0,1 1
⎢ −0, 05 0 0
⎢
P( s) = ⎢ 0
0 −1
⎢
0 0
⎢ 1
⎢⎣ 0
1
0
0 1 ⎤
0 0, 7 ⎥⎥
1 0 ⎥
⎥
0 0 ⎥
0 0 ⎥⎦
( s + 1)( s + 0,07) ⎤
1 ⎡ s
,
a ( s ) ⎢⎣ −0,05 ( s + 1)( s + 0,13) ⎥⎦
onde a ( s ) = ( s + 1)( s + 0,1707)( s + 0,02929)
=
Na figura 17 temos o número de condicionamento para esta planta.
Figura 17
Vemos que para frequências altas o número de condicionament o torna-se alto.
O problema “skewed” tem reconhecidamente solução mais complicada que o outro, mas
faz sentido em vários problemas.
Considere, por exemplo, o caso em que
−W2 KSoWd ⎤
⎡ w⎤
⎡ −W2TW
⎡z⎤
i 1
,
(30**)
⎢ e ⎥ = G ( s ) ⎢ ⎥ , onde G ( s ) = ⎢
We S oWd ⎥⎦
⎣ ⎦
⎣We So PW1
⎣d ⎦
⎡ −W2 ( I + KP ) −1 KPW1
ou seja, G ( s ) = ⎢
We So PW1
⎣
−W2 KSoWd ⎤
We S oWd
⎡ −W2 KSo PW1 −W2 KSoWd ⎤
⎥ = ⎢ W S PW
We SoWd ⎥⎦
⎦ ⎣ e o 1
93
⎡ −W2
= ⎢
⎣ 0
0 ⎤ ⎡ KSo P KSo ⎤ ⎡W1 0 ⎤ ⎡ −W2 0 ⎤ ⎡ K ⎤
=
S [P
We ⎥⎦ ⎢⎣ So P
We ⎥⎦ ⎢⎣ I ⎥⎦ o
So ⎥⎦ ⎢⎣ 0 Wd ⎥⎦ ⎢⎣ 0
0⎤
⎡W
I ]⎢ 1
⎥
⎣ 0 Wd ⎦
0 ⎤ ⎡K ⎤
0⎤
⎡ −W
⎡W
= ⎢ 2
( I + PK ) −1 [ P I ] ⎢ 1
⎥
⎥.
⎢
⎥
⎣ 0 We ⎦ ⎣ I ⎦
⎣ 0 Wd ⎦
Objetivo comum num projeto é fazer G ( s) ∞ pequeno. Em vista de (30**), vemos que
isto implica em fazer Ti , KSo , So P e So pequenos na faixa mais relevante de
frequências. E da última expressão, vê-se que PK deve ser grande.
4.5 Margens de ganho e de fase
As margens de ganho e de fase são parâmetros muito populares entre os “práticos”. E,
efetivamente, são bastante úteis na grande maioria dos problemas escalares. Entretanto,
como veremos num exemplo, elas constituem um conjunto de parâmetros menos que
satisfatórios, mesmo em sistemas escalares, para julgar da robustez da estabilidade de um
sistema.
Considere a figura 18, com função de transferência escalar.
L( s )
_
Figura 18
Suponha que o sistema nominal L0 ( s) seja estável.
Margem de ganho: Diz-se que o SMF acima tem margem de ganho [ kmin , kmax ] se o SMF
for estável para todo L ( s ) = kL0 ( s ) , com kmin < k < kmax , mas instável com
L( s ) = kmax L0 ( s ) e com L( s ) = kmin L0 ( s ) , onde 0 ≤ kmin ≤ 1 e kmax ≥ 1 .
Margem de fase: O SMF tem margem de fase [φmin , φmax ] se ele for estável para todo
L( s ) = e − jφ L0 ( s ) com φmin < φ < φmax , mas instável se L( s ) = e − jφmax L0 ( s ) ou se
L ( s ) = e − jφmin L0 ( s ) , onde −π ≤ φmin ≤ 0 e 0 ≤ φmax ≤ π .
Estas margens de estabilidade nos são dadas diretamente do digrama de Nyquist do
sistema em malha aberta, como indicado na figura 19.
94
Figura 19
Na figura da esquerda, kmax e kmin indicam quanto o ganho pode ser aumentado e
diminuído, respectivamente, sem provocar instabilidade da malha.
E na figura da direita φmax e φmin representam quanto o atraso de fase, e o avanço de fase,
respectivamente, podem ser tolerados sem produzir instabilidade.
Entretanto, como veremos agora, as margens de ganho e de fase podem não ser um
indicador suficiente da robustez de um sistema. Considere-se o sistema muito simples
P( s) =
a−s
b+s
, a > 1, com um controlador K ( s ) =
, b > 0.
as − 1
s +1
O polinômio característico do SMF é
(as − 1)( s + 1) + (a − s )(b + s ) = (a − 1) s 2 + (2a − b − 1) s + ab − 1 .
Para que este polinômio seja Hurwitz é necessário e suficiente que
a − 1 > 0, 2a − b − 1 > 0 e ab − 1 > 0 .
Da primeira desigualdade, temos a > 1 e desta com a 3ª. temos b > 0 .
Para achar a margem de ganho, calcula-se o módulo de L, e iguala-se a 1, isto é,
L ( jω ) = kL0 ( jω ) = 1 , deteminando os valores máximo e mínimo em função de k .
Para o cálculo da margem de fase, achar os ωφ tais que
Fase( L ( jω )) = −φ + Fase( L0 ( jω )) = π , e daí calculo as fases correspondentes aos dois
valores de ωφ que maximizam e minimizam a fase, respectivamenmte.
Se houver mais de um valor da frequência que maximize / minimize o ganho ou a fase,
toma-se o menor, se se trata de máximo, e o maior, se se trata de mínimo: reportar-se à
figura acima.
Consideraremos três casos:
95
a−s
, portanto,
as − 1
k (a − s)
k (a − jω ) k (a − jω )(−1 − jaω )
. Donde L( jω ) =
=
L( s ) =
jaω − 1
1 + a 2ω 2
as − 1
(i) b = 1. Neste caso, temos imediatamente K 0 = 1 e L0 ( s ) =
k (− a − aω 2 + j (− a 2ω + ω ))
k 2 a 2 (1 + ω 2 ) 2 k 2ω 2 (1 − a 2 ) 2
2
∴ L( jω ) =
+
=1
=
a 2ω 2 + 1
(a 2ω 2 + 1) 2
(a 2ω 2 + 1) 2
∴ k 2 a 2 (1 + 2ω 2 + ω 4 ) + k 2ω 2 (1 − 2a 2 + a 4 ) = a 4ω 4 + 2a 2ω 2 + 1
a 4ω 4 + 2a 2ω 2 + 1
a 4ω 4 + 2a 2ω 2 + 1
=
.
∴k2 = 2
a (1 + 2ω 2 + ω 4 ) + ω 2 (1 − 2a 2 + a 4 ) a 2ω 4 + (a 4 + 1)ω 2 + a 2
(*)
Ora, as frequências que maximizam / minimizam k, são as mesmas que maximizam /
minimizam k 2 . Então, para achar estes valores das frequências, vamos calcular
dk 2 (4a 4ω 3 + 4a 2ω )(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) − (a 4ω 4 + 2a 2ω 2 + 1)(4a 2ω 3 + 2(a 4 + 1)ω )
=
dω
(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) 2
= 0, donde
4ω (a 4ω 2 + a 2 )(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) = (a 4ω 4 + 2a 2ω 2 + 1)2ω (2a 2ω 2 + (a 4 + 1)) ;
vemos que ω = 0 é uma solução desta eq. Substituindo em (*), obtem-se o valor do
ganho correspondente k = 1/ a
Eliminando-se ω , temos uma eq. do 6º. grau, biquadrada . Resolvida esta equação,
teremos três raízes. Das 4 raizes, calculando-se, obtemos de acordo com ZDG, p. 239,
kmin =
1
e kmax = a .
a
Para o cálculo da margem de fase, temos
e − jφ (a − s )
e − jφ (a − jω )
, donde L ( jω ) =
; obtemos, de acordo com ZDG,
as − 1
jaω − 1
2
-1 ⎛ a − 1 ⎞
= −π e φmax = sen ⎜ 2
⎟ =: θ .
⎝ a +1⎠
L( s) =
φmin
Claro que tanto a margem de ganho como a de fase tornam-se muito altas quando a é
grande;
1
< b < a e b → a . Neste caso, obtem-se de acordo com o livro,
a
1
1
kmin =
→ 2 , kmax = ab → a 2 , φmin = −π e φmax → 0 .
ab
a
(ii)
Ou seja, neste caso temos margem de ganho muito grande e margem de fase
arbitrariamente pequena.
(iii)
kmin
1
1
< b < a e b → . Neste caso, temos novamente de acordo com o livro,
a
a
1
=
→ 1, kmax = ab → 1, φmin = −π e φmax → 2θ .
ab
96
Obtemos neste caso margem de fase muito grande e margem de ganho arbitrariamente
pequena.
O ponto que se quis ilustrar com este exemplo é que às vezes as margens de ganho e de
fase juntas não são suficientes para indicar a robustez de um sistema.
Por exemplo, é possível construir um controlador (complicado) tal que
kmin <
1
, kmax > a, φmin = −π e φmax > θ .
a
Neste sistema, pode-se conferir que o diagrama de Nyquist se aproxima arbitrariamente
do ponto (-1; 0).
Um controlador que dá estes valores é
K=
s + 3,3 s + 0,55 1,7 s 2 + 1,5s + 1
.
3,3s + 1 0,55s + 1 s 2 + 1,5s + 1,7
Pode-se verificar que este sistema tem pelo menos as mesmas margens de ganho e de fase
que o sistema com controlador K = 1, mas o diagrama de Nyquist aproxima-se mais do
ponto (-1; 0). Consquentemente este sistema é menos robusto quando o ganho e a fase
são perturbados simultaneamente.
4.6 Deficiência do controle clássico para sistemas MIMO (Esta seção pode ser
omitida)
Nesta seção é mostrado, através de um exemplo, que a teoria de controle clássica pode
não ser confiável quando aplicada a projeto de sistemas MIMO.
Considere um massa inercial em forma cilindria, que gira em torno do seu eixo vertical,
que denominaremos de eixo z.
A “entrada” do sistema é constituída por dois “momenta” (torques) T1 e T2 aplicados nos
eixos no plano horizontal, x e y , respectivamente. A velocidade angular do cilindro em
torno do eixo z é constante e igual a Ω . Os momentos de inércia do cilindro com
relação aos três eixos são I1 , I 2 = I1 e I 3 , respectivamente. Sejam ω1 e ω2 as
velocidades angulares com relação aos eixos x e y , respectivamente.
Então as eqs. de Euler são
I1ω1 − ω2 Ω( I1 − I 3 ) = T1 ,
I1ω2 − ω1Ω( I 3 − I1 ) = T2 .
Definamos
⎡ u1 ⎤ ⎡ T1 / I1 ⎤
⎢u ⎥ := ⎢T / I ⎥ , a := (1 − I 3 / I1 )Ω .
⎣ 2 ⎦ ⎣ 2 1⎦
Obtemos as seguintes eqs. de estado do sistema:
⎡ ω1 ⎤ ⎡ 0 a ⎤ ⎡ ω1 ⎤ ⎡ u1 ⎤
⎢ω ⎥ = ⎢ − a 0 ⎥ ⎢ω ⎥ + ⎢u ⎥ .
⎦⎣ 2⎦ ⎣ 2⎦
⎣ 2⎦ ⎣
Suponha agora que ω1 e ω2 sejam medidas em coordenadas tais que
⎡ y1 ⎤
1
⎢ y ⎥ = cos θ
⎣ 2⎦
⎡ cos θ
⎢ −senθ
⎣
senθ ⎤ ⎡ ω1 ⎤ ⎡ 1 a ⎤ ⎡ ω1 ⎤
.
=
cos θ ⎥⎦ ⎢⎣ω2 ⎥⎦ ⎢⎣ − a 1 ⎥⎦ ⎢⎣ω2 ⎥⎦
97
⎡ y1 ⎤
⎡u ⎤
Definindo u = ⎢ 1 ⎥ e Y = ⎢ ⎥ ,
⎣ u2 ⎦
⎣ y2 ⎦
obtemos a equação em função da matriz de transferência
a ( s + 1) ⎤
1 ⎡ s2 − a2
Y ( s ) = P ( s )u ( s ) , com P ( s ) = 2
⎥.
2 ⎢
s + a ⎣ − a ( s + 10 s − a 2 ⎦
suponhamos que a lei de controle seja
u = K1r − y ,
onde
1 ⎡ 1 −a ⎤
.r
K1 =
1 + a 2 ⎢⎣ a 1 ⎥⎦
r
P
y
K1
r
u
_
Figura 21
A matriz de transferência do sistema acima é dada por
1 ⎡1 0 ⎤
Y (s) =
R( s) .
s + 1 ⎢⎣ 0 1 ⎥⎦
As matrizes de sensibilidade e de sensibilidade complementar são dadas por
1 ⎡ 1 a⎤
1 ⎡ s −a ⎤
e T = P( I + P) −1
.
S = ( I + P ) −1 =
⎢
⎥
s + 1 ⎢⎣ −a 1 ⎥⎦
s + 1 ⎣a s ⎦
Como vemos, este controle desaclopa as malhas, cada malha aberta tendo função de
transferência 1/s .
Pode-se verificar que cada malha tem margem de fase dada por φmax = −φmin = 900 e
margem de ganho kmin = 0 e kmax = ∞ .
Suponha agora que uma das malhas é perturbada de acordo com a figura 22:
98
Figura 22
Definamos
z (s)
1
= −T11 = −
.
w( s )
s +1
É claro que a máxima perturbação será: δ
∞
<
1
T11
= 1 , que é independente de a .
∞
Por simetria, esta é também a máxima perturbação permitida na outra malha.
Veremos agora que se ambas as malhas forem perturbadas simultaneamente a
perturbação máxima permitida é muito menor, como mostrado abaixo.
Considere uma perturbação multivariável, mostrada na figura 23:
Figura 23
δ12 ⎤
⎡δ
Temos P∆ = ( I + ∆ ) P , sendo ∆ = ⎢ 11
⎥ ∈ RH ∞ .
⎣δ 21 δ 22 ⎦
99
Então, de acordo com o teorema do pequeno ganho, o sistema é robustamente estável
para todo ∆ ∞ < γ se só se
1
1
=
, o qual será muito menor que 1 se a for muito maior que 1.
T ∞
1 + a2
Considere o caso particular
0⎤
⎡δ
∆ = ∆ d = ⎢ 11
⎥.
⎣ 0 δ 22 ⎦
γ≤
Neste caso, o sistema em malha fechada é estável para todo ∆
∞
< γ se só se
1
( s 2 + (2 + δ11 + δ 22 ) s + 1 + δ11 + δ 22 + (1 + a 2 )δ11δ 22 ) não tiver zero no
( s + 1) 2
semiplano fechado da direita.
Portanto, a região de estabilidade é dada por
2 + δ11 + δ 22 > 0 ,
det( I + T ∆ d ) =
1 + δ11 + δ 22 + (1 + a 2 )δ11δ 22 > 0 .
É fácil verificar que o sistema é instável se δ11 = −δ 22 =
1
1+ a
2
.
Isto mostra como no caso de sistemas multivariáveis o uso de métodos apropriados para
sistemas escalares pode levar a resultados errados.
100
Download

Notas de aula 1