CONTROLE ÓTIMO E ROBUSTO (SISTEMAS LINEARES – ELE 2732) Estas notas de aula são baseadas no livro de Kemin Zhou, John C. Doyle and Keith Glover, ROBUST AND OPTIMAL CONTROL, Prentice Hall, 1995. Este texto está no meu “site” http://www.fplf.org.br/pedro_varios/ . Tanto o texto (“Notas de aula”), como os graus e os avisos para os alunos, estão na pasta <Controle ótimo e robusto>. (Atenção: Existe uma pasta com o nome <Sistemas lineares> com o texto do curso dado nos anos anteriores. O conteúdo do curso era bem diferente, mas a consulta pode ser proveitosa). 1º. Capítulo – Teoria de Sistemas Lineares (conceitos básicos) O que se segue, em grande parte, já deveria ter sido visto na Graduação. Será (re)passado de forma um tanto rápida devido às nossa limitações de tempo. 1.1 Inversão de matrizes ⎡ A11 A12 ⎤ ⎥ , onde A11 e A22 também são quadradas. ⎣ A21 A22 ⎦ Suponha primeiramente que A11 seja não-singular. Seja a matriz quadrada e A = ⎢ A11−1 A12 ⎤ ⎡ A11 A12 ⎤ ⎡ A11 0 ⎤ ⎡ I Ora, ⎢ ⎥; ⎥=⎢ ⎥⎢ A22 ⎦ ⎣ A21 A22 ⎦ ⎣ 0 I ⎦ ⎣ A21 0⎤ ⎡ I ⎤ A11−1 A12 ⎤ ⎡ I A11−1 A12 ⎡ I mas ⎢ ⎢ ⎥=⎢ ⎥ . Esta última corresponde a ⎥ A22 ⎦ ⎣0 A22 − A21 A11−1 A12 ⎦ ⎣ − A21 I ⎦ ⎣ A21 operações elementares sobre as “linhas” (na realidade, blocos de linhas) da matriz ⎡ I ⎢ ⎣ A21 A11−1 A12 ⎤ ⎥ ; por outro lado, A22 ⎦ −1 0⎤ ⎡ I ⎡ I 0⎤ =⎢ ⎢− A ⎥ ⎥ , como se verifica I A I ⎣ 21 ⎦ ⎣ 21 ⎦ imediatamente. Então, da primeira igualdade acima em vista das duas seguintes, temos A12 ⎤ ⎡ A11 0 ⎤ ⎡ I 0 ⎤ ⎡ I ⎤ A11−1 A12 (1) =⎢ ⎢ ⎥. ⎥ ⎢ ⎥ ⎥ −1 A22 ⎦ ⎣ 0 I ⎦ ⎣ A21 I ⎦ ⎣0 A22 − A21 A11 A12 ⎦ Definindo ∆ := A22 − A21 A11−1 A12 e supondo que tenha inversa, temos da eq. de cima: ⎡ A11 ⎢A ⎣ 21 ⎡ A11 ⎢A ⎣ 21 −1 A12 ⎤ ⎡I =⎢ ⎥ A22 ⎦ ⎣0 A11−1 A12 ⎤ ⎥ ∆ ⎦ 1 1 ⎡ I 0 ⎤ ⎡ A11 0 ⎤ ⎢A ⎥ ⎢ ⎥ ⎣ 21 I ⎦ ⎣ 0 I ⎦ −1 1 Calculando, a inversa de cada fator e efetuando o produto, obtemos: ⎡ A11 ⎢A ⎣ 21 −1 A12 ⎤ ⎡ A11−1 + A11−1 A12 ∆ −1 A21 A11−1 − A11−1 A12 ∆ −1 ⎤ =⎢ ⎥. A22 ⎥⎦ −∆ −1 A21 A11−1 ∆ −1 ⎣ ⎦ (2) Observe-se que de (1), temos imediatamente det[ A] = det[ A11 ]det[∆ ] = det[ A11 ]det[ A22 − A21 A11−1 A12 ] . (3) Suponha-se agora que A22 seja não-singular: ˆ = A − A A−1 A . Definamos ∆ 11 11 22 21 Cálculos análogos (na realidade, simétricos, melhor ainda, duais) aos acima, nos dão: ⎡ A11 ⎢A ⎣ 21 −1 ⎡ A12 ⎤ ∆ˆ −1 = ⎢ −1 ˆ −1 A22 ⎥⎦ ⎣⎢ − A22 A21∆ ⎤ −∆ˆ −1 A12 A22−1 ⎥. A22−1 + A22−1 A21∆ˆ −1 A12 A22−1 ⎥⎦ (4) E alternativamente a (4), det[ A] = det[ A22 ]det[∆ˆ ] = det[ A22 ]det[ A11 − A12 A22−1 A21 ] . (5) É claro que com as facilidades computacionais, ninguém iria calcular a inversa de uma matriz grande ou com muitos elementos fracionários. Mas a importância das fórmulas acima continua de pé, pois são usadas com freqüência em demonstrações. 1.2 Normas de vetores e matrizes Seja o vetor x no espaço complexo (ou real) de n dimensões, isto é, x ∈ C n , ou x ∈ R n . 1/ p ⎛ n p⎞ A norma p de x é definida como x p := ⎜ ∑ xi ⎟ ⎝ i =1 ⎠ Para p = 1, 2, ∞ , temos, respectivamente, n x 1 = ∑ xi ; i =1 x2= n xi ∑ i =1 2 e max xi 1≤i≤n . (6) . (7) A norma-2 é chamada euclideana. Quanto às matrizes, o conceito mais importante é o de norma induzida, a qual é considerada como um operador sobre vetores. Seja a matriz A = ⎡⎣ a ij ⎤⎦ ∈ C m×n . Então a norma induzida p é definida como sup x≠0 Ax x p . (8) p Pode-se demonstrar que as normas induzidas 1, 2 e ∞ são dadas por: m A 1 = max ∑ aij , 1≤ j ≤ n i =1 A 2 = λmax ( A∗ A) e n A ∞ = lim ∑ aij , 1≤i ≤ n (9) i =1 onde, na segunda expressão acima, λmax indica o maior auto-valor da matriz e A∗ é a matriz transposta conjugada, ou seja, a transposta da matriz com todos os seus elementos complexos substituídos pelos seus conjugados. 2 Uma outra norma importante, mas que não é norma induzida é a norma de Frobenius, definida como A F := Traço(A∗ A) . (10a) Recorda-se que o traço de uma matriz é a soma dos elementos da sua diagonal. Não é difícil verificar que (faça um exemplo!): A F = m n ∑∑ a i =1 j =1 ij 2 . (10b) (Mas neste curso só usaremos normas induzidas). No que se segue o corpo F pode representar R (corpo dos reais) ou C (corpo dos complexos). A letra F para representar corpo vem do inglês, cuja palavra para corpo é “field”. A norma euclideana tem propriedades importantes, dadas pelo: (11) Lema: n m Sejam os vetores x ∈ F e y ∈ F . 1. Suponha que n ≥ m . Então x = y se só se existir uma matriz U ∈ Fn×m tal que x = Uy e U *U = I , onde (⋅)* é a transposta conjugada da matriz se ela for complexa e simplesmente transposta se ela for real. 2. Suponha que n = m. Então x* y ≤ x y , onde ⋅ indica o valor absoluto de um escalar de F. Além disso, temos igualdade acima se x = α y , com α ∈ F ou se y = 0. 3. x ≤ y se só se existir uma matriz ∆ ∈ Fn×n , com ∆ ≤ 1 tal que x = ∆y . Além disso, x < y se só se ∆ < 1 . 4. Ux = x para qualquer matriz unitária com dimensões apropriadas. (Recorda-se que uma matriz quadrada complexa U é dita unitária (ortogonal, se a matriz for real) se U *U = I = UU * . Observe-se que a matriz da primeira propriedade acima deste lema não é unitária, porque não é quadrada). A seguir temos a seguinte propriedade importante de normas induzidas: Lema Seja A uma matriz particionada em blocos de sub-matrizes: A1q ⎤ ⎡ A11 A12 ⎢A A22 A2 q ⎥⎥ 21 . A=⎢ ⎢ ⎥ ⋅ ⎢ ⎥ Amq ⎥⎦ ⎢⎣ Am1 Am 2 Então para toda norma induzida, temos (12*) 3 ⎡ A11 A12 p A1q ⎤ p p ⎢ ⎥ ⎢ A A22 p A2 q ⎥ 21 p p⎥ . Ap≤ ⎢ ⎢ ⎥ ⋅ ⎢ ⎥ ⎢ Am1 p Am 2 p Amq ⎥ p⎦ ⎣ E temos uma igualdade entre os dois lados no caso da norma de Frobenius. 1.3 Valores singulares O conceito de valor singular, σ i , é definido no teorema seguinte, onde F é um corpo, por exemplo, o dos reais ou dos complexos, que são os dois corpos que nos interessam neste curso, principalmente o primeiro. (13a) Teorema Seja A ∈ Fm×n com posto p. Então existem matrizes unitárias U = [u1 u2 ... um ] ∈ Fm×m (13b) V = [ v1 v2 ... vn ] ∈ Fn×n (13c) ⎡σ 1 0 ⎢0 σ ⎡Σ1 0 ⎤ 2 ∗ tais que A = U ΣV , sendo Σ = ⎢ e Σ1 = ⎢ ⎥ ⎢ ⎣ 0 0⎦ ⎢ ⎣⎢ 0 0 onde σ 1 ≥ σ 2 ≥ ≥ σ p > 0 e p ≤ min{m, n} . 0⎤ 0 ⎥⎥ . ⎥ ⎥ σ p ⎦⎥ (13 d) Prova: ZDG, pp. 32s. (ZDG são as iniciais dos autores do livro que é a base deste curso, citado logo ao início). • Os vetores ui e v j são denominados vetores singulares à esquerda e à direita, respectivamente, da matriz A. AV = U Σ , ou seja, De (13 d) temos Avi = σ i ui , ∗ ∗ (14a) ∗ A = V ΣU , donde A U = V Σ , ou seja, A∗ui = σ i vi . (14b) A∗ Avi = σ i A∗ui = σ i2vi (15a) D (14a) e (14b), temos e, pelo mesmo método, AA ui = σ u . (15b) Estas duas expressões nos dão o método para calcular os valores singulares de uma dada matriz, bem como os respectivos vetores singulares. Com efeito, para calcular os valores singulares, das equações acima, vê- se que o quadrado de cada valor singular de A é o ∗ 2 i i 4 auto-valor da matriz A∗ A e também da matriz AA∗ . E de (15b) vemos que cada vetor singular à direita de A é igual ao auto-vetor (à direita) de AA∗ , enquanto que de (15a), vemos que cada vetor singular à esquerda de A é igual ao autor-vetor (à direita) de A∗ A . Adotaremos a seguinte notação padrão: σ ( A) = σ max ( A) = σ1 = maior valor singular da matriz A. σ ( A) = σ min ( A) = σ p = menor valor singular da matriz A. E temos as seguintes propriedades do maior e menor valores singulares: σ ( A) = max x =1 Ax = A 2 , a segunda igualdade acima vindo de (9) e (15); σ ( A) = min x =1 Ax Segue-se outro resultado importante: Lema: Suponha que as matrizes A e ∆ sejam quadradas. Então, (i) σ ( A + ∆ ) − σ ( A) ≤ σ (∆ ) ; (15*) (ii) σ ( A∆ ) ≥ σ ( A)σ (∆ ) ; (iii) σ ( A−1 ) = 1 σ ( A) se A tiver inversa. Prova: (i): σ ( A + ∆) = min x =1 ( A + ∆ ) x ≥ min x =1 { Ax − ∆x } ≥ min x =1 Ax − max x =1 ∆x = σ ( A) − σ (∆) . Portanto, −σ (∆) ≤ σ ( A + ∆ ) − σ ( A) . A outra desigualdade, σ ( A + ∆) − σ ( A) ≤ σ (∆) , é obtida substituindo A por A + ∆ e ∆ por - ∆ na prova acima. (ii) σ ( A∆) := min x =1 A∆x = min x =1 x*∆* A* A∆x ≥ σ ( A) min x =1 ∆x = σ ( A)σ (∆) ; (iii) Seja A = U ΣV * , donde A−1 = V Σ −1U * . Portanto, σ ( A−1 ) = σ (Σ −1 ) = 1/ σ (Σ) = 1/ σ ( A) , a segunda igualdade se devendo à estrutura diagonal de Σ . • Os resultados do próximo lema são fáceis de provar: 5 Lema: (15**) m×n * Seja A ∈ F , sejam U e V tais que A = U ΣV , sejam ui e v j as colunas de U e V, respectivamente e os valores singulares sejam definidos como σ 1 ( A) ≥ σ 2 ( A) ≥ .... ≥ σ r ( A) > σ r +1 ( A) = .... = 0 , com r ≤ min(m, n) . Então, 1. Posto(A) = r; 2. Ker( A) = span(vr +1 , vr + 2 , ....vn ) e (Ker( A)) ⊥ = span(v1 , v2 ,....vr ) ; 3. Im( A) = span(u1 , u2 , ....ur ) e (Im( A)) ⊥ = span(ur +1 , ur + 2 , ....um ) ; r 4. A tem uma expansão diádica, isto é, A = ∑ σ i ui vi* = U r Σ rVr* , onde U r = [u1 u2 5. A 2 F ur ] , Vr = [ v1 v2 i =1 vr ] e Σ r = diag(σ 1 , σ 2 ,...., σ r ) ; = σ 12 + σ 22 + .... + σ r2 ; 6. A = σ 1 ; 7. σ i (U 0 AV0 ) = σ i ( A), i = 1, 2,..., p = min {m, n} , para matrizes unitárias apropriadas U 0 e V0 ; (Na 6ª. propriedade acima, trata-se da norma-2 induzida, como será costume neste texto: • quando não se diz que norma é, será a 2). Outros resultados úteis são os seguintes: Teorema: (15***) ⎡X Suponha γ > 0 . As soluções X de ⎢ ⎣C B⎤ ≤ γ são dadas por: A⎥⎦ X = −YA*Z + γ ( I − YY * )1/ 2 W ( I − ZZ * )1/ 2 , onde A* é a transposta conjugada da matriz A, W é uma contração arbitrária, isto é, W ≤ 1 , Y e Z com Y ≤ 1 e Z ≤ 1 são soluções das seguintes eqs. lineares: B = Y (γ 2 I − A* A)1/ 2 e C = (γ 2 I − AA* )1/ 2 Z . Prova: ZDG, p. 42. • Lema: (15#) m×n k ×n * * Sejam B ∈ F e C ∈ F . Suponha que m ≥ k e B B = C C . Então eixste uma matriz m×k U ∈ F tal que U *U = I e B = UC. • Prova: ZDG, p. 37 Pode-se definir a raiz quadrada de uma matriz positiva semi-definida A por A1/ 2 = ( A1/ 2 )* ≥ 0 tal que A = A1/ 2 A1/ 2 . 6 A raiz quadrada de uma matriz pode ser calculada facilmente se a matriz for diagonalizável, isto é, se existir uma matriz U tal que UAU * = Λ , onde Λ é uma matriz diagonal constituida pelos auto-valores da matriz A. Então, se fizermos A1/ 2 = U Λ1/ 2U * , obtemos efetivamente A = U Λ1/ 2U *U Λ1/ 2U * = U ΛU * . (15##) Teorema de Parrott: ⎡X Defina-se γ 0 := min X ⎢ ⎣C Prova: ZDG, pp. 41s. ⎧⎪ B⎤ . Então, γ 0 = max ⎨ [C ⎥ A⎦ ⎪⎩ ⎡ B ⎤ ⎫⎪ A] , ⎢ ⎥ ⎬ . ⎣ A⎦ ⎭⎪ Outro resultado que sreá muito útil mais ao fim do curso: Teorema: (15$) ⎡ X B⎤ Seja γ > 0 . Então as soluções X tais que ⎢ ⎥ ≤ γ são dadas por ⎣ C A⎦ X = −YA* Z + γ ( I − YY * )1/ 2W ( I − Z * Z )1/ 2 , onde W é uma “contração” ( W ≤ 1 ) arbitrária, enquanto que Y e Z, com Y ≤ 1 e Z ≤ 1 são soluções das segintes eqs. B = Y (γ 2 I − A* A)1/ 2 e C = (γ 2 I − AA* )1/ 2 Z . Prova: ZDG, p. 42. • 1.4 Equações de estado e Matrizes de transferência em Sistemas Lineares Consideraremos neste curso apenas sistemas lineares invariantes no tempo e de tempo contínuo. Parece muito restritiva esta opção, mas é a maneira de se tratar um grande número de problemas reais. Efetivamente, caso o sistema real não seja linear, ele pode ser linearizado, com boa aproximação, na vizinhança de “ponto de operação”. E quanto ao fato de os controladores modernos serem programas de computador, muitas vezes microprocessadores, e portanto de tempo discreto, de novo eles podem ser aproximados, cada vez mais, a sistemas de tempo continuo, dada a velocidade cada vez maior destes processadores. Seja o sistema definido para t ≥ t0 : x(t ) = Ax(t ) + Bu (t ) , x(t0 ) = x0 e y (t ) = Cx(t ) + Du (t ) , onde x(t ) , u (t ) e y (t ) são vetores com elementos reais, representando, (16a) (16b) respectivamente, o estado, a entrada (ou controle) e a resposta (ou saída) do sistema. Qualquer equação diferencial em y (t ) , e suas derivadas, e u (t ) , pode ser colocado na forma acima. Se a ordem da eq. diferencial for n , então a dimensão do vetor x(t ) também será n. As matrizes multiplicando x(t ) , u (t ) e y (t ) têm as dimensões apropriadas. 7 (Faça exemplos para se convencer da equivalência da representação dada em (16) e uma equação diferencial, caso isso seja novidade para você. Comece com caso bem simples, por exemplo, com x(t ) de dimensão dois e a matriz A diagonal. Aliás, esta é sempre a melhor maneira de entender alguma coisa em matemática: fazer exemplos, começando com os mais simples.) Denotemos por xˆ ( s ) a transformada de Laplace de x(t ) e analogamente para u (t ) e y (t ) . Suponha x0 = 0 . Aplicando transformada de Laplace a (16), temos (17a) sxˆ ( s ) = Axˆ ( s ) + Buˆ ( s ) , yˆ ( s ) = Cxˆ ( s ) + Duˆ ( s ) , (17b) o que nos dá imediatamente (18a) yˆ ( s ) = (C ( sI − A) −1 B + D)uˆ ( s ) . −1 ou seja, H ( s ) := C ( sI − A) B + D é a matriz de transferência do sistema. (18b) A expressão entre ( ) acima é a chamada matriz de transferência, às vezes também chamada função de transferência, especialmente quando o sistema é escalar, isto é, tanto y como u são escalares (não vetores). Exemplo: Calcular a matriz de transferência do sistema em que ⎡ −1 2 ⎤ ⎡1 ⎤ A=⎢ , B = ⎢ ⎥ , C = [1 1] , D = 0 . ⎥ ⎣ 0 1⎦ ⎣0⎦ Solução: −1 ⎡ s + 1 −2 ⎤ ⎡ s − 1 2 ⎤ ⎡1 ⎤ 1 1 H ( s ) = [1 1] ⎢ = [1 1] = . A realização de ⎥ ⎢ ⎥ ⎢ ⎥ s − 1⎦ s + 1⎦ ⎣ 0 ⎦ s + 1 ( s + 1)( s − 1) ⎣ 0 ⎣ 0 ordem mínima desta função de transferência será dada por A = −1, B e C tais que BC = 1 A realização de uma matriz (função) de transferência é a dimensão da sua matriz “A”, ou então a dimensão do espaço de estado correspondente de acordo com (16a). Dissemos que a segunda realização à direita é de ordem mínima, porque é de odem 1. Menor que esta seria uma realização de ordem zero, um ganho puro, o que não é o caso. Veremos adiante uma maneira de saber se uma realização é mínima sem ter que calculá-la É fácil verificar que a função de transferência, no caso escalar, é a transformada de Laplace da resposta, quando a entrada é um impulso. (Para provar isto, basta lembrar que a transformada de Laplace de um impulso é igual a um). A matriz de transferência será representada quase sempre da forma do lado direito da eq.: ⎡A B⎤ C ( sI − A) −1 B + D = ⎢ ⎥ ⎣C D ⎦ (18c) ⎡A Usam-se os separadores horizontal e vertical para diferenciar da matriz ⎢ ⎣C B⎤ . D ⎥⎦ 8 No exemplo acima podemos então escrever: ⎡ −1 2 1 ⎤ ⎡ −1 B ⎤ H ( s ) = ⎢⎢ 0 1 0 ⎥⎥ = ⎢ ⎥ , B e C tais que BC = 1 C 0⎦ ⎣ ⎢⎣ 0 1 0 ⎥⎦ Esta igualdade parece estranha, mas não tem nada de estranho, pois o que está entre [ ] não são matrizes, mas funções de transferência, anotadas de modo não convencional. Esta notação alem de ser compacta, mostra claramente de que realização se trata. É claro que o modo convencional de indicar a igualdade acima é −1 ⎡ s + 1 −2 ⎤ ⎡1 ⎤ BC . H ( s ) = [ 0 1] ⎢ = s − 1⎥⎦ ⎢⎣0 ⎥⎦ s + 1 ⎣ 0 - Recorda-se que a solução de (16a) é dada por t x(t ) = e A( t −t0 ) x(t0 ) + ∫ e A( t −τ ) Bu (τ )dτ . (19) t0 Comparando esta com (17a), que supõe nulo o estado inicial, conclui-se facilmente t ∫ que a transformada de Laplace de e A( t −τ ) Bu (τ ) dτ é ( sI − A) −1 Buˆ ( s ) . E da mesma t0 forma, pode-se conferir que a transformada de Laplace de e A( t −t0 ) x(t0 ) é ( sI − A) −1 x(t0 ) . (19*) De (19) e de (16b), temos então y (t ) = Ce A ( t − t0 ) t x(t0 ) + C ∫ e A(t −τ ) Bu (τ )dτ + Du (t ) , (20a) t0 esta sendo a resposta total no domínio do tempo. E a resposta total no domínio da chamada frequência complexa é, em vista de (18a) e de (19*): yˆ ( s ) = (C ( sI − A) −1 B + D)uˆ ( s ) + C ( sI − A) −1 x(t0 ) = C ( sI − A)−1 ( Buˆ ( s ) + x(t0 )) + Duˆ ( s ) (20b) 1.5 Controlabilidade e observabilidade / Estabilizabilidade e detectabilidade Definição: (21) O sistema dado por (16a) é dito controlável se para quaisquer estados iniciais x0 , tempo final t1 e estado final x1 existir um controle seccionalmente contínuo u (⋅) tal que a solução de (16a) satisfaça a x(t1 ) = x1 . Do contrário, o sistema é dito incontrolável. (Frequentemente, ao invés da expressão “sistema dado em (16a) controlável / incontrolável”, diz-se abreviadamente “(A, B) controlável / incontrolável”). 9 Observação: Daqui para frente a dimensão da matriz A será sempre n , a não ser que seja expressamente escrito o contrário. Teorema: As seguintes afirmações são equivalentes: i) (A,B) é controlável; t ii) A matriz Wc (t ) = ∫ e Aτ BBT e A τ dτ T (22) é positiva definida para todo t > 0. 0 C (Esta matriz é denominada gramiano de controlabilidade). An −1 B ⎤⎦ tem posto cheio, = ⎡⎣ B AB A2 B iii) A matriz de controlabilidade isto é, n. iv) A matriz [ A − λ I B ] tem posto cheio (igual a n) para todo λ em C , o plano complexo. v) Se λ for um auto-valor de A e x for o respectivo auto-vetor à esquerda, isto, é, x∗ A = x∗λ , então x∗ B ≠ 0 . vi) Os auto-valores de A + BF podem ser arbitrariamente escolhidos (com a restrição que os auto-valores complexos aparecem sempre em pares conjugados) por meio de uma escolha apropriada da matriz F . • Prova: ZDG, pp. 48s. Exemplo: Verificar se o sistema em que A e B são dadas a seguir é controlável. ⎡1 −1 2 ⎤ ⎡1 1 ⎤ ⎢ ⎥ A = ⎢0 1 1 ⎥ , B = ⎢⎢0 1 ⎥⎥ ⎣⎢0 0 2 ⎦⎥ ⎣⎢1 0 ⎦⎥ (22*) Solução:Vamos usar o método (iii) do teorema acima. Temos que verificar se o posto de ⎡⎣ B AB A2 B ⎤⎦ é igual ou inferior a 3. Ora, efetuando, verifica-se que não é necessário calcular A2 B , pois ⎡1 1 3 0 ⎤ [ B AB ] = ⎢⎢0 1 1 1 ⎥⎥ e nesta matriz a 2ª. a 3ª. e a 4ª. colunas são l.i, portanto o ⎢⎣1 0 2 0 ⎥⎦ sistema é controlável. O método acima, usando a matriz de controlabilidade, é, de longe, o mais usado, sendo também de fácil aplicação quando se usa computador, ainda que por sua natureza possa ter problemas quando o computador não consegue distinguir valores muito próximos, mas diferentes, de zero. Para resolver rapidamente o problema de verificar a controlabilidade por simples inspeção, ou quase, o 4º. método é muito conveniente, como se pode ver no seguinte Exemplo: 10 ⎡1 2 −3 4 ⎤ ⎡1 −5⎤ ⎢ 0 −1 0 3 ⎥ ⎢ ⎥ ⎢ ⎥ , B = ⎢2 2 ⎥ . ⎢1 2 1 0 ⎥ ⎢4 4 ⎥ ⎢ ⎥ ⎢ ⎥ ⎣0 0 0 2⎦ ⎣0 0 ⎦ Solução: usando o método (iv), temos 3 −4 1 −5⎤ ⎡ λ − 1 −2 ⎢ 0 λ +1 0 −3 2 2 ⎥⎥ ⎢ − = λ I A B . E é claro que se λ = 2 , a úllima [ ] ⎢ −1 −2 λ − 1 0 4 4⎥ ⎢ ⎥ λ −2 0 0 ⎦ 0 0 ⎣ 0 linha desta matriz se anula, e portanto o sistema não é controlável. A seguir, temos resultado importante, demonstrado há mais de 40 anos e que já foi enunciado como vi) do Teorema (22), mas que vale enfatizar: Teorema: (22**) É possivel posicionar arbitrariamente os autovalores do sistema (16a) através de realimentação do estado, u=Fx , se só se o sistema for controlável. • Note-se que através de realimentação de estado, a eq. de estado do sistema se torna x = ( A + BF ) x . Os autovalores do sistema passam a ser os da matriz A+BF. O que este teorema diz é que através da realimentação de estado os autovalores da matriz A+BF podem ser escolhidos arbitrariamente através de matriz F apropriada se só se o sistema (16a) for controlável. (É claro que o posicionamento arbitrário dos autovalores deve respeitar o fato de que os autovalores complexos devem aparecer aos pares conjugados, uma vez que todas as matrizes envolvidas são, por hipótese, de números reais). Exemplo ⎡1 2 ⎤ ⎡1⎤ Seja o sistema (16a) com A = ⎢ , B = ⎢ ⎥ . Realimentando o estado com ⎥ ⎣0 2⎦ ⎣1⎦ ⎡1 + f1 2 + f 2 ⎤ ⎡1 2 ⎤ ⎡1⎤ . Então temos que + ⎢ ⎥ [ f1 f 2 ] = ⎢ F = [ f1 f 2 ] , temos A + BF = ⎢ ⎥ 2 + f 2 ⎥⎦ ⎣0 2 ⎦ ⎣1⎦ ⎣ f1 os autovalores do sistema realimentado são dados pelas raízes do polinômio ⎛ ⎡λ − 1 − f1 −2 − f 2 ⎤ ⎞ 2 det ⎜ ⎢ ⎥ ⎟ = λ − (1 + f1 + f 2 )λ + f 2 + 2 . Escolhidos os autovalores do λ 2 f f − − − 1 2⎦⎠ ⎝⎣ sistema com realimentação de estado, os coeficientes do polinômio acima ficam definidos de modo único. Sejam a e b estes coeficientes. Então obtemos as eqs. −(1 + f1 + f 2 ) = a e f 2 + 2 = b , o que nos dá f 2 = b − 2 e f1 = −(a + b) + 1 . 11 Vale observar que se a solução foi única neste caso, isto não ocorre em geral quando o controle u tem mais de uma componente (23) Definição: Um sistema x(t ) = Ax(t ) é dito assintoticamente estável se todos os autovalores de A estiverem no semi-plano aberto da esquerda, ou seja, se Re[λ ( A)] < 0 . (23*) Definição: Os autovalores da matriz A, chamada por alguns autores de matriz do sistema, são chamados polos do sistema. Exemplo: Vejamos se o sistema do exemplo (22*) é estável. Para isso, temos que calcular os autovalores da matriz A: ⎛ ⎡λ − 1 1 −2 ⎤ ⎞ ⎜⎢ ⎟ det(λ I − A) = det ⎜ ⎢ 0 λ − 1 −1 ⎥⎥ ⎟ = (λ − 1)2 (λ − 2) . Donde se vê que o sistema não ⎜⎢ 0 0 λ − 2 ⎥⎦ ⎟⎠ ⎝⎣ é assintoticamente estável, pois tem 3 autovalores da matriz A (ou polos do sistema) fora do semiplano aberto da esquerda, bastaria um. Observação: ao longo do texto o advérbio assintoticamente será às vezes omitido, e diremos simplemente que o sistema é estável se ele satisfizer à condicao acima. Mas isto é um abuso de linguagem, como se vê na seguinte análise: Considere o seguinte sistema: x(t ) = 1 , cuja solução é x(t ) = t + a, sendo a uma costante, um número real qualquer . É claro que este sistema não é asssintoticamente estável, pois seu único polo é igual a 1. Mais ainda, ele é instável no sentido que o estado tende a infinito com o tempo. Considere agora este outro sistema: x(t ) = 0 . A solução desta eq. diferencial é x(t ) = constante ∀t . Ora, este sistema não é assintoticamente estável de acordo com a definição (23), pois seu único polo, igual a zero, não está no semiplano aberto da esquerda. Mas ele é instável? Não no sentido usual da palavra, pois não “explode”, seu estado não vai para infinito. Sistemas como este são ditos marginalmente estáveis. Considere este outro sistema: ⎡ 0 1⎤ 2 x=⎢ ⎥ x . Seus polos são dados pela eq. λ + 1 = 0 , cujas raízes são λ = ± j , − 1 0 ⎣ ⎦ onde j = + −1 . Portanto o sistema não é assintoticamente estável de acordo com a definição (23). Ora, é fácil verificar que a solução das eqs. diferenciais do sitema é x1 (t ) = asent + b cos t , x2 (t ) = a cos t − bsent , com a e b números reais quaisquer. 12 Verifica-se assim que este sistema, mesmo não sendo assintoticamente estável, não é instável, pois seu estado não “explode”, tal como no exemplo anterior. Ele é, tal como o outro, marginalmente estável. Como caracterizar, em termos de autovalores da matriz A estes sistemas que nem são instáveis nem assintoticamente estáveis e sim marginalmente estáveis? Deste exemplo e do anterior poderíamos concluir que os sistemas marginalmente estáveis são aqueles que têm pelo menos um polo no eixo imaginário? Efetivamente, todo sistema marginalmente estável tem pelo menos um polo no eixo imaginário e nenhum polo no semiplano aberto da direita. Mas como veremos agora, nem todo sistema que satisfaz a esta dupla condição é marginamente estável. Com efeito, considere os sistemas ⎡0 0⎤ ⎡0 a ⎤ x=⎢ x e x=⎢ ⎥ ⎥ x , com a sendo qualquer número real diferente de zero. ⎣0 0⎦ ⎣0 0 ⎦ É imediato verificar que ambos os sistemas têm um polo duplo na origem, ou seja, λ = 0 , ⎡b ⎤ com grau de multiplicidade 2. Integrando o primeiro sistema, obtemos: x = ⎢ ⎥ , b e c ⎣c ⎦ ⎡ aet + f ⎤ sendo constantes, números reais quaisquer. Mas o segundo sistema nos dá x = ⎢ ⎥, ⎣ e ⎦ com e e f constantes, números reais quaisquer. Ora, este sistema não é portanto marginalmente estável (onde, é claro, e, alem de a, é diferente de zero), ele é instável, seu estado tendendo a infinito com o tempo. Para caracterizar os sistemas marginalmente estáveis, recordamos que uma matriz A é diagonalizável se existir, como o nome sugere, uma matriz não singular T tal que 0⎤ ⎡λ1 0 ⎢0 λ 0 ⎥⎥ n 2 A := T −1 AT = diag(λi ) i =1 = ⎢ . ⎢ ⎥ ⎢ ⎥ λn ⎦ ⎣0 0 (Matrizes A e A que satisfaçam a A = T −1 AT são ditas similares). Ora nem toda matriz é diagonalizável, como se pode verificar na segunda matriz do último exemplo. Para ver isto, suponha que a dita matriz seja diagonalizável, ou seja, suponha que exista uma matriz T (escolhendo, sem perda de generalidade, a = 1 na matriz acima), tal que ⎡0 1 ⎤ ⎡0 0⎤ ⎡a b ⎤ . Seja então T = ⎢ T −1 ⎢ T =⎢ ⎥ ⎥ ⎥ . Então, ⎣0 0 ⎦ ⎣0 0⎦ ⎣c d ⎦ 1 ⎡ d −b ⎤ ⎡0 1 ⎤ ⎡ a b ⎤ ⎡ 0 0 ⎤ . = ad − bc ⎢⎣ −c a ⎥⎦ ⎢⎣0 0 ⎥⎦ ⎢⎣ c d ⎥⎦ ⎢⎣ 0 0 ⎥⎦ Calculando, obtemos bd = 0, bc = 0, cd = 0, d 2 = 0 ∴ d = 0 . 13 ⎡a 0⎤ Mas da segunda igualdade acima, se b = 0, então T = ⎢ ⎥ , que não tem inversa, e se ⎣ c 0⎦ ⎡a b⎤ c = 0, temos T = ⎢ ⎥ , que também não tem inversa, donde se conclui que a matriz ⎣0 0⎦ ⎡0 1 ⎤ ⎢ 0 0 ⎥ não é efetivamente diagonalizável. ⎣ ⎦ - Mas se uma matriz não é diagonalizavel, ela pode ser tansformada em matriz bloco diagonal da seguinte forma: 0⎤ ⎡ J1 0 ⎢0 J 0 ⎥⎥ q 2 −1 ⎢ , onde cada bloco da matriz ao lado tem a A = T AT = diag J i i =1 = ⎢ ⎥ ⎢ ⎥ J q ⎦⎥ ⎣⎢ 0 0 0⎤ ⎡λi 1 0 ⎢0 λ 1 0 ⎥⎥ i ⎢ forma: J i = ⎢ 0 0 λi 0 ⎥ , onde este bloco, que é chamado bloco de Jordan, tem ⎢ ⎥ 1⎥ ⎢ ⎢⎣ 0 0 0 λi ⎥⎦ na sua diagonal o auto-valor correspondente e 1’s na primeira sobre-diagonal. E o resultado seguinte caracteriza os sistemas marginalmente estáveis. (24) Teorema: Um sistema é marginalmente esstável se só se não tiver polo no semiplano aberto da direita e tiver pelo menos um polo no eixo imaginario e cada polo neste eixo com grau de multiplicidade maior do que 1 não pertencer a bloco de Jordan com ordem maior ou igual a dois. • ⎡0 1 ⎤ O exemplo acima com A = ⎢ ⎥ é um bloco de Jordan de ordem 2 e, como vimos, o ⎣0 0 ⎦ estado apresenta o “modo” t , alem de constante ⎡0 1 0⎤ Se A = ⎢⎢0 0 1 ⎥⎥ , temos um bloco de Jordan de ordem três, cujo estado apresentará o ⎢⎣0 0 0 ⎥⎦ “modo” t 2 , alem de t e constante. 14 0 0 0⎤ ⎡0 1 ⎢0 0 0 0 0 ⎥⎥ ⎢ ⎢ ⎥ ⋅ Se A = ⎢ ⎥ , temos dois blocos de Jordan, um de ordem dois e o 0 1 0⎥ ⎢0 0 ⎢0 0 0 0 1⎥ ⎢ ⎥ 0 0 0⎦ ⎣0 0 outro de ordem três. (O tracejado dentro da matriz é para separar os blocos, não tem nada a ver como matriz de transferência, claro...). O estado deste sistema apresentará os modos t 2 , t e constante. - Passamos a outro conceito importante: Um sistema pode não ser controlável e, no entanto, ser estabilizável por meio de realimentação de estado, como se vê no seguinte Exemplo: ⎡ −1 0 ⎤ ⎡0⎤ A=⎢ , B = ⎢ ⎥ . Este sistema tem um polo “bom”, igual a -1, que dá origem a um ⎥ ⎣ 0 1⎦ ⎣1 ⎦ modo “bom” igual a e − t , uma exponencial decrescente, e um polo “ruim”, igual a 1, que dá origem a um modo “ruim”, igual a et , uma exponencial cresente. Se realimentarmos o estado do sistema com u = Fx = [ f1 f 2 ] x , obtemos 0 ⎤ ⎡ −1 A + BF = ⎢ ⎥ . E os polos do sistema com realimentação de estado são dados ⎣ f1 f 2 + 1⎦ pelas raízes de (λ + 1)(λ − f 2 − 1) . Observe-se que uma das raízes deste polinômio é fixa, igual a -1, um polo “bom”. Podemos escolher o outro polo arbitrarimante igual a a < 0, fazendo f 2 + 1 = a , donde f 2 = a − 1 . E assim temos a motivação para a (25a) Definição: O sistema (16a), ou mais compactamente, o par (A, B) é dito estabilizável se existir uma realimentação u = Fx tal que o sistema seja estável, isto é, A + BF seja estável. Esta estabilizabilidade é chamada de “estabilizabilidade por realimentação de estado”. Obtem-se o seguinte resultado: Teorema: As seguintes proposições são equivalentes: i) (A, B) é estabilizável. ii) A matriz [ A − λ I B ] tem posto cheio (igual a n) para todo Re[λ ] ≥ 0 . (25b) iii) Se λ for um autovalor de A tal que Re[λ ] ≥ 0 e x∗ for o respectivo auto-vetor à esquerda, isto, é, x∗ A = x∗λ , então x∗ B ≠ 0 . Exemplo: No exemplo antes da definição (25a), testando a condição ii) acima, temos 15 0 0⎤ ⎡λ + 1 é evidentemente cheio para todo λ no semiplano fechado da Posto ⎢ λ − 1 1 ⎥⎦ ⎣ 0 direita, e portanto o par (A, B) é estabilizável. E passamos ao estudo da propriedade que é dual da controlabilidade: Definição: (26) O sistema (16), ou mais simplesmente, o par (C, A) é dito observável se para algum t1 > 0 o estado inicial x(0) puder ser determinado conhecendo-se u(t) e y(t) no intervalo [0, t1 ]. Do contrário, o sistema é dito não-observável. Teorema: As seguintes proposições são equivalentes: i) (C, A) é observável. t ii) A matriz Wo (t ) = ∫ e A τ C T Ce Aτ dτ T (27) é positiva definida para todo t > 0. (Esta matriz é 0 o gramiano de observabilidade). O ⎡ C ⎤ ⎢ CA ⎥ ⎢ ⎥ := ⎢ CA2 ⎥ tem posto cheio (igual a n). ⎢ ⎥ ⎢ ⎥ ⎢⎣CAn −1 ⎥⎦ iii) A matriz de observabilidade ⎡A − λI ⎤ iv) A matriz ⎢ ⎥ tem posto cheio (igual a n) para todo λ complexo. ⎣ C ⎦ v) Sejam λ e y um auto-valor qualquer de A e seu respectivo auto-vetor à direita, ou seja, Ay = λ y. Então Cy ≠ 0 . vi) Os auto-valores de A + LC podem ser escolhidos arbitrariamente por meio de uma escolha apropriada de L, com a restrição de que a todo auto-valor complexo deve corresponder um outro, que é seu complexo conjugado. vii) ( AT , C T ) é controlável. A proposição vii) logo acima explica o que é entendido como “dualidade”. Prova: equivalência entre (i) e (iii): Com u = 0, temos y (0) = Cx(0), y (0) = Cx(0) = CAx(0), y (0) = Cx(0) = CA2 x(0), ..., y ( n−1) (0) = Cx ( n−1) (0) = CAn−1 x(0) . Ou seja, 16 ⎡ y (0) ⎤ ⎡ C ⎤ ⎢ y (0) ⎥ ⎢ CA ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ y (0) ⎥ = ⎢ CA2 ⎥ x(0) ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢⎣ y ( n −1) (0) ⎥⎦ ⎢⎣CAn −1 ⎥⎦ Ora, por hipótese, conhecemos y e todas as suas derivadas no instante t = 0. Se a matriz acima tiver posto cheio, podemos determinar x(0) e se não tiver posto cheio, não podemos. A equivalência das outras condições pode ser demonstrada por dualidade com as condições de controlabilidade do teorema (22). • Observação: (28) De posse da definição de observabilidade acima, podemos acrescentar uma sétima proposição equivalente ao Teorema (22), a saber, vii) ( BT , AT ) é observável. E definimos a propriedade dual da estabilizabilidade (25a): Definição: (C, A) é detectável se A + LC for estável para alguma matriz L. (29) (30) Teorema: As seguintes proposições são equivalentes: i) (C, A) é detectável. ⎡ A − λI ⎤ ii) A matriz ⎢ ⎥ tem posto cheio (igual a n) para todo Re[λ ] ≥ 0 . ⎣ C ⎦ iii) Se λ for um auto-valor de A tal que Re[λ ] ≥ 0 e x for o respectivo auto-vetor à direita, isto, é, Ax = λ x , então Cx ≠ 0 . iv) ( AT , C T ) é estabilizável. Observação: À luz da definição de detectabilidade acima, podemos acrescentar uma quinta proposição ao Teorema (25), a saber, iv) ( BT , AT ) é detectável. 1.6 Observadores e Controladores baseados em Observadores Na seção anterior vimos que a realimentação do estado do sistema permite o posicionamento arbitrário dos polos do sistema. Mas, e se não tivermos acesso ao estado do sistema para realimentá-lo? (Isto ocorre com frequência na prática). Uma alternativa é estimar o estado, ou “observá-lo”. A expressão “observar o estado do sistema” é menos feliz, como veremos, do que “estimar o estado do sistema”. Mas ela tem a ver como veremos, com sistema observável. Consideremos novamente o sistema dado pelas eqs. (16): 17 x = Ax + Bu y = Cx + Du (16 bis) (Supomos, como usual, que a matriz A é de ordem n). Um observador é um outro sistema com entrada (u, y) e cuja resposta deve estimar (num sentido definido logo adiante) o estado x de (16). Chamemos esta estimativa de x̂ . Sejam então as eqs. do observador, cujo estado é q: q = Mq + Nu − Ly (31a) x̂ = Qq + Ru + Sy (31b) M, N, L,Q, R e S devem ser escolhidos de tal forma que tenhamos xˆ (t ) → x(t ) quando t → ∞ . Vejamos as condições de possibilidade para isto: Teorema: (31*) Existe um observador (que estime o estado de (16)) se só se (C, A) for detectável. Se isto ocorrer, existe um observador de ordem n (chamado de “observador de Luenberger”) dado por M = A + LC, N =B + LD, Q = I, R = 0, S = 0. Ou seja, as eqs. do observador de Luenberger são q = ( A + LC )q + ( B + LD)u − Ly x̂ = q , onde L é qualquer matriz tal que A + LC seja estável. (Observe-se que, como vimos, a existência de L satisfazendo à última condição é garantida pela detectabilidade de (C, A)). Prova: Para provar a suficiência da condição de detectabilidade de (C, A), basta construir um observador que satisfaça a esta condição. E vamos verificar agora que o observador de Luenberger satisfaz efetivamente à condição. Substituindo y dado em (16b) na eq. acima do observador, temos q = ( A + LC )q + ( B + LD)u − LCx − LDu = ( A + LC )q + Bu − LCx . (31**) Definamos o erro: e = xˆ − x = q – x. Então temos da eq. acima do observador e de (16 bis) e = (A +LC)q + Bu – LCx – Ax - Bu = (A + LC)q – (A + LC)x = (A + LC)e. Ou seja, e(t ) → 0, quando t → ∞ e portanto xˆ (t ) → x(t ) quando t → ∞ , como desejado. Para provar a necessidade, suponha que (C, A) não seja detectável. Considere um estado não nulo x(0) no subespaço não detectável. Pode-se demonstrar que este espaço é invariante sob A, ou seja, se x estiver neste subespaço, Ax também estará. Um observador deve ser capaz de estimar o estado da planta, qualquer que seja o controle u e qualquer que seja o estado inicial do mesmo observador. Então, seja q(0) = 0 e u(t) = 0 para todo t. As eqs. da planta (16) e do observador (31) se tornam x = Ax , q = Mq − LCx , 18 x̂ = Qq + SCx . Ora, como x(0) está por hipótese no subespaço não detectavel, temos Cx(0) = 0 e como este subespaço é invariante sob A, temos da 1ª. eq. acima que C x(t) = 0 para todo t. Então da 2ª. eq. acima temos q(t) = 0 para todo t. E da 3ª. eq. acima concluímos que o estado estimado x̂ é nulo para todo t, e portanto diferente de x(t). • Vejamos um Exemplo: Projetar um observador para o seguinte sistema ⎡1 0 ⎤ ⎡1 ⎤ x=⎢ x + ⎢ ⎥ u , y = [1 0]x. ⎥ ⎣3 −1⎦ ⎣2⎦ Solução: Vamos ver primeiramente se o problema tem solução: temos que verificar se o sistema é detectável. Ora, 0 ⎤ ⎡λ − 1 ⎡ λ I − A⎤ ⎢ Posto ⎢ =Posto ⎢ −3 λ + 1⎥⎥ é claramente igual a 2 para qualquer λ no ⎥ ⎣ C ⎦ 0 ⎦⎥ ⎣⎢ 1 semiplano fechado da direita: basta verificar que se λ =1, o posto é dois e para qualquer outro λ no semiplano fechado da direita o posto também é dois com mais forte razão. Então o sistema é detectável. Um dos autovalores de A +LC é igual a -1 e não pode ser mudado, qualque que seja L. Escolhamos o outro autovalor também igual a -1. Então devemos ter det(λ I − A − LC ) = (λ + 1) 2 = λ 2 + 2λ + 1 . ⎡ l +1 0 ⎤ ⎡l ⎤ ⎡1 0 ⎤ ⎡ l1 ⎤ Seja L =: ⎢ 1 ⎥ . Então, A + LC = ⎢ + ⎢ ⎥ [1 0] = ⎢ 1 ⎥. ⎥ ⎣3 −1⎦ ⎣l2 ⎦ ⎣l2 + 3 −1⎦ ⎣l2 ⎦ ⎛ ⎡λ − l1 − 1 0 ⎤⎞ 2 Então, devemos ter det ⎜ ⎢ ⎟ = λ + 2λ + 1 , ⎥ ⎝ ⎣ −l2 − 3 λ + 1⎦ ⎠ 0⎤ ⎡ −1 o que nos dá l1 = −2, l2 qualquer número real . Donde que A + LC = ⎢ ⎥. ⎣l2 + 3 −1⎦ E do Teorema (31*) temos as eqs. do observador: 0⎤ ⎡ −1 ⎡ −2 ⎤ ⎡1 ⎤ + − q=⎢ q u ⎥ ⎢ l ⎥ y , l2 sendo um número real qualquer, e ⎢2⎥ ⎣ ⎦ ⎣l2 + 3 −1⎦ ⎣ 2⎦ x̂ = q . - O observador acima tem a mesma ordem da planta, n. Há, como veremos agora, certa redundância, o observador pode ter ordem menor. A ideia de um observador de ordem mínima é a seguinte: Através de uma transformação de similaridade, ou o que é o mesmo, de mudança de base para o estado, fazemos C ter a forma 19 C = [I 0] . E o estado de planta pode ser particionado correspondentemente como ⎡x ⎤ x = ⎢ 1 ⎥ . Donde que Cx = x1 , bastando estimar, através de observador, a componente ⎣ x2 ⎦ x2 . - Como vimos na seção anterior, realimentado o estado de um sistema, podemos posicionar os seus polos onde bem desejarmos caso o sistema seja controlável. Mas para isso, é preciso que os polos possam ser acessados e medidos, o que não acontece muitas vezes. Vamos então realimentar o estado estimado através do observador de Luenberger, dado pela eq. do teorema (31*). Seja então u = Fxˆ . Então, da eq. (31**), obtemos xˆ = ( A + LC + BF ) xˆ − LCx . E substituindo u = Fxˆ na eq. de estado da planta, (16a), temos ⎡ x⎤ ⎡ A ⎢ ⎥=⎢ ⎣ xˆ ⎦ ⎣ − LC BF ⎤ ⎡ x⎤ . A + BF + LC ⎥⎦ ⎢⎣ xˆ ⎥⎦ Ou ainda, substituindo x = xˆ − e na primeira eq. acima, temos ⎡ e ⎤ ⎡ A + LC ⎢ ⎥=⎢ ⎣ xˆ ⎦ ⎣ − LC 0 ⎤ ⎡e⎤ . A + BF ⎥⎦ ⎢⎣ xˆ ⎥⎦ Esta última eq. mostra que os pólos do SMF, composto de planta e observador, são a união dos polos de A + LC e os de A + BF. Ora, se a planta for controlável e observável, podemos posicionar arbitrariamente os polos do SMF mediante escolha apropriada das matrizes F e L. E note-se que se ao invés de a planta ser controlável e observável, ela for estabilizável e detectável, poderemos sempre estabilizar o SMF, mas neste caso os polos estáveis da planta ficam fixos, não podendo ser posicionados arbitrariamente, como vimos em exemplo. Substituindo u = Fxˆ em (31**), lembrando que x̂ = q e que Cx = y – Du , temos xˆ = ( A + LC ) xˆ + BFxˆ + LDFxˆ − Ly = ( A + BF + LC + LDF ) xˆ − Ly . Aplicando transformada de Laplace com condições nulas a esta eq., temos, com um pequeno, mas usual, abuso de notação, usando xˆ ( s ) para a transformada de xˆ (t ) : xˆ ( s ) = ( sI − A − BF − LC − LDF ) −1 (− L) y ( s ) . Mas u ( s ) = Fxˆ ( s ) , donde u ( s ) = F ( sI − A − BF − LC − LDF ) −1 (− L) y ( s ) . A matriz de transferência entre u(s) e y(s) dada acima é a do controlador com base em observador. Denotemo-la por K(s). Então, temos 20 ⎡ A + BF + LC + LDF K (s) = ⎢ F ⎣ −L⎤ 0 ⎥⎦ 1.8 Sistemas em cascata, em paralelo e com realimentação. Conjugados e inversos. Sejam dois sistemas cujas matrizes de transferência são G1 e G2 dadas por ⎡A G1 ( s ) = ⎢ 1 ⎣C1 B1 ⎤ ⎡ A2 , G2 ( s ) = ⎢ ⎥ D1 ⎦ ⎣ C2 B2 ⎤ D2 ⎥⎦ Considere a associação dos dois sistemas indicada no diagrama de blocos abaixo. Tal associação é chamada em cascata ou em série. G1 G2 Figura 1 Observe-se que para que esta associação seja possível, o número de entradas de G1 deve ser igual ao de saídas de G2 . A matriz de transferência da associação acima é G1 G2 . No caso multi-variável, mesmo que o produto G2 G1 seja possível, tem-se em geral G1G2 ≠ G2G1 . E isto porque o produto de matrizes não é, em geral, comutativo. Temos as seguintes fórmulas compactas: ⎡ A1 G1 ( s )G2 ( s ) = ⎢⎢ 0 ⎢⎣C1 B1C2 A2 D1C2 B1D2 ⎤ ⎡ A2 B2 ⎥⎥ = ⎢⎢ B1C2 D1D2 ⎥⎦ ⎢⎣ D1C2 0 A1 C1 B2 ⎤ B1D2 ⎥⎥ D1D2 ⎥⎦ (32a) Prova da 1ª. igualdade (a prova da 2ª. igualdade é em tudo semelhante): Vamos escrever a matriz de transferência da primeira igualdade na forma usual e denotemo-la por X(s): −1 ⎡ sI − A1 − B1C2 ⎤ ⎡ B1 D2 ⎤ (*) + D1 D2 ; X ( s ) = [C1 D1C2 ] ⎢ sI − A2 ⎥⎦ ⎢⎣ B2 ⎥⎦ ⎣ 0 21 −1 −1 ⎤ ⎡ I −( sI − A1 ) −1 B1C2 ⎤ ⎞ ⎢ ⎥ ⎟⎟ sI − A2 ⎦⎥ ⎣0 I ⎦⎠ −1 −1 ⎤ ⎡ I ( sI − A1 ) B1C2 ⎤ ⎡( sI − A1 ) 0 = =⎢ ⎥⎢ −1 ⎥ sI A 0 ( ) − I 0 ⎣ ⎦⎣ ⎦ 2 −1 −1 −1 ⎡( sI − A1 ) ( sI − A1 ) B1C2 ( sI − A2 ) ⎤ ⎢ ⎥ . Então de (*), três linhas acima, vem 0 ( sI − A2 ) −1 ⎣ ⎦ −1 −1 X ( s ) = C1 ( sI − A1 ) B1 D2 + C1 ( sI − A1 ) B1C2 ( sI − A2 ) −1 B2 + D1C2 ( sI − A2 ) −1 B2 + D1 D2 . (#) Por outro lado, temos ⎡ sI − A1 mas ⎢ ⎣ 0 ( ⎛ ⎡ sI − A1 − B1C2 ⎤ =⎜⎢ ⎥ ⎜ sI − A2 ⎦ ⎝⎣ G1 ( s )G2 ( s ) = C1 ( sI − A1 ) −1 B1 + D1 )( C (sI − A ) 2 −1 2 B2 + D2 ) = C1 ( sI − A1 ) −1 B1C2 ( sI − A2 ) −1 B2 + D1C2 ( sI − A2 ) −1 B2 + C1 ( sI − A1 ) −1 B1 D2 + D1 D2 = X(s) dado em (#), quatro linha acima. • Exemplo: Calcular a associação em cascata das matrizes de transferência, que têm as seguintes realizações: ⎡1 8 2⎤ ⎡1 2 ⎤ ⎢ ⎥ 1 ⎥ , B1 = ⎢⎢1 −1⎥⎥ , C1 = [ 2 0 4] e D1 = [5 −1] , A1 = −2 3 ⎢ ⎢⎣ 4 −2 −1⎥⎦ ⎢⎣0 1 ⎥⎦ ⎡ −1 2 ⎤ ⎡ 0 −10 ⎤ ⎡ 0 −10 ⎤ , B2 = ⎢ , C2 = ⎢ ⎥ ⎥ ⎥ e D2 = 02×2 . ⎣ 5 4⎦ ⎣4 1 ⎦ ⎣4 1 ⎦ Para exprimir a matriz de transferência G1 ( s )G2 ( s ) de forma compacta, efetuamos os A2 = ⎢ ⎡ 8 −8 ⎤ produtos: B1C2 = ⎢⎢ −4 −11⎥⎥ , B1 D2 = 03×2 , D1C2 = [ −4 −49] , D1 D2 = 01×2 . ⎢⎣ 4 1 ⎥⎦ Então, temos: ⎡ 1 8 2 8 −8 ⎢ −2 3 1 −4 −11 ⎢ ⎢ 4 −2 −1 4 1 G1 ( s )G2 ( s ) = ⎢ ⎢ 0 0 0 −1 2 ⎢0 0 0 5 4 ⎢ ⎣ 2 0 4 −4 −49 0 0 0 0 4 0 0 ⎤ 0 ⎥⎥ 0 ⎥ ⎥ −10 ⎥ 1 ⎥ ⎥ 0 ⎦ Considere agora a associação em paralelo: (Observe-se que quando não há indicação no somador, os sinais de entrada são positivoa) 22 G1 y u G2 É claro que y ( s ) = G1 ( s )u ( s ) + G2 ( s )u ( s ) = ( G1 ( s ) + G2 ( s ) ) u ( s ) Obtem-se a matriz de transferência equivalente: ⎡ A1 0 G1 ( s ) + G2 ( s ) = ⎢⎢ 0 A2 ⎢⎣C1 C2 ⎤ B2 ⎥⎥ D1 + D2 ⎥⎦ B1 (32b) Prova: O segundo lado da igualdade acima é −1 0 ⎤ ⎡ B1 ⎤ ⎡ sI − A1 [C1 C2 ] ⎢ 0 sI − A ⎥ ⎢ B ⎥ + D1 + D2 ⎣ ⎣ 2⎦ 2⎦ −1 −1 C1 ( sI − A1 ) B1 + C2 ( sI − A2 ) B2 + D1 + D2 = C1 ( sI − A1 ) −1 B1 + D1 + C2 ( sI − A2 ) −1 B2 + D2 = G1 ( s ) + G2 ( s ) . • Exemplo: É claro que na associação em paralelo as duas matrizes de transferência têm que ter as mesmas dimensões. Seja ⎡ −1 5 ⎤ ⎡1 ⎤ , B1 = ⎢ ⎥ , C1 = [ −3 2] e D1 = 2 A1 = ⎢ ⎥ ⎣ 4 8⎦ ⎣ 4⎦ ⎡1 −2 ⎤ ⎡ −1⎤ , B2 = ⎢ ⎥ , C2 = [3 1] e D2 = 1 . ⎥ ⎣4 7 ⎦ ⎣3⎦ Portanto, A2 = ⎢ ⎡ −1 ⎢4 ⎢ G1 + G2 = ⎢ 0 ⎢ ⎢0 ⎢⎣ −3 5 0 8 0 0 1 0 4 2 3 1⎤ 0 4 ⎥⎥ −2 −1⎥ ⎥ 7 3⎥ 1 3 ⎥⎦ 0 23 - Considere-se agora a associação em realimentação na figura abaixo: v = u − G2G1v ∴ v = ( I + G2G1 ) −1 u ∴ y = G1v = G1 ( I + G2G1 ) −1 u . Ou seja, a matriz de transferência entre y e u é G1 ( I + G2G1 ) −1 = ( I + G1G2 ) −1 G1 . Esta última igualdade se deve ao fato que ( I + G1G2 )G1 = G1 ( I + G2G1 ) . y (32c) u G1 v _ G2 Figura 3 Obtemos a seguinte matriz de transferência T(s), cuja demonstração é omitida posto que bastante trabalhosa. De (32c), o primeiro passo da demonstração é calcular I + G1G2 usando (32a) e (32b). A seguir, temos a parte mais trabalhosa da demonstração, que é calcular ( I + G1G2 ) −1 , que é feito primeiramente transformando a matriz “A” em produto de matrizes bloco-diagonais, cujas inversas são imediatas. Este é o “pulo do gato”. O resto é rotina trabalhosa.Last not least, premultiplicar ( I + G1G2 ) −1 por G1 , usando novamente (32a). Obtem-se: ⎡ A1 − B1D2 R12−1C1 ⎢ T = ⎢ B2 R12−1C1 ⎢ R12−1C1 ⎣ − B1R12−1C2 A2 − B2 D1R21−1C2 − R12−1D1C2 B1R21−1 ⎤ ⎥ B2 D1R21−1 ⎥ D1R21−1 ⎥⎦ (32d) onde R12 = I + D1 D2 e R21 = I + D2 D1 . Exemplo: Sejam os sistemas A1 = −1, B1 = 2, C1 = 3, D1 = 0; A2 = −2, B2 = 1, C2 = 2, D2 = 0 . Vamos calcular a matriz de transferência equivalente pelos dois métodos: 6 2 , donde e G2 = De (32c), temos G1 ( I + G2G1 ) −1 . Mas G1 = s +1 s+2 6 1 6 ( s + 2)( s + 1) 6s + 12 . = = 2 G1 ( I + G2G1 ) −1 = 2 2 6 s + 1 1+ s + 1 s + 3s + 14 s + 3s + 14 s + 2 s +1 24 E por outro lado, da expressão de T acima, vem ⎡ −1 −4 2 ⎤ T = ⎢⎢ 3 −2 0 ⎥⎥ ⎢⎣ 3 0 0 ⎥⎦ E portanto, −1 4 ⎤ ⎡ 2⎤ ⎡s + 1 ⎡ s + 2 −4 ⎤ ⎡ 2 ⎤ 1 T = [3 0] ⎢ = [3 0] 2 ⎥ ⎢ ⎥ s + 1⎥⎦ ⎢⎣ 0 ⎥⎦ s + 3s + 14 ⎢⎣ 3 ⎣ −3 s + 2 ⎦ ⎣ 0 ⎦ ⎡ 2s + 4⎤ 1 6s + 12 , conferindo com o resultado encontrado = [3 0] 2 = 2 ⎢ ⎥ s + 3s + 14 ⎣ 6 ⎦ s + 3s + 14 acima. Definição: O sistema conjugado de G(s) é definido por (33) G ~ ( s ) = G T (− s ) = BT (− sI − AT ) −1 C T + DT ⎡ − AT =⎢ T ⎣B −C T ⎤ ⎥ DT ⎦ (33*) Teorema: † Seja D a inversa à direita (esquerda) de D. Então a inversa à direita (esquerda) de G(s) é dada por ⎡ A − BD †C G† = ⎢ ⎣ D †C − BD † ⎤ ⎥ D† ⎦ Prova: Vamos provar este resultado só para a inversa à direita, o procedimento é em tudo semelhante para a inversa a esquerda. Vamos calcular o produto GG † usando (32a): ⎡A ⎢ † GG = ⎢ 0 ⎢C ⎣ BD †C A − BD †C DD †C BD † ⎤ ⎥ − BD† ⎥ DD † ⎥⎦ Mas DD † = I , donde ⎡A ⎢ † GG = ⎢ 0 ⎢C ⎣ BD †C A − BD †C C BD † ⎤ ⎥ − BD† ⎥ I ⎥⎦ 25 Agora observe- se que para um sistema qualquer, C ( sI − A) −1 B = CT −1T ( sI − A) −1T −1TB ( = CT −1 T ( sI − A)T −1 ) −1 ( TB = CT −1 sI − TAT −1 ⎡I Para o sistema acima com T = ⎢ ⎣0 BD †C ⎤ ⎡ I − I ⎤ ⎡I I ⎤ ⎡ A ⎢0 I ⎥ ⎢ ⎥= † ⎥⎢ ⎣ ⎦ ⎣ 0 A − BD C ⎦ ⎣ 0 I ⎦ [C ) −1 TB . I⎤ ⎡I , temos T −1 = ⎢ ⎥ I⎦ ⎣0 0 ⎡A ⎤ ⎡I ⎢ 0 A − BD †C ⎥ , ⎢0 ⎣ ⎦ ⎣ −I ⎤ , I ⎥⎦ I ⎤ ⎡ BD † ⎤ ⎡ 0 ⎤ , ⎢ ⎥= I ⎥⎦ ⎣ − BD † ⎦ ⎢⎣ − BD † ⎥⎦ ⎡I −I ⎤ C]⎢ ⎥ = [C 0] . Então, temos ⎣0 I ⎦ ⎡A GG = ⎢⎢ 0 ⎢⎣C † 0 A − BD C † 0 0 ⎤ − BD† ⎥⎥ I ⎥⎦ −1 0 ⎡ sI − A ⎤ ⎡ 0 ⎤ = [ C 0] ⎢ +I † ⎥ sI − A + BD C ⎦ ⎢⎣ − BD † ⎥⎦ ⎣ 0 = I. • 1.9 Realizações de matrizes de transferência no espaço de estado Dada uma matriz de transferência G(s), uma realização desta matriz é uma quádrupla ordenada (A, B, C, D) satisfazendo às eqs. (16) e tal que G ( s ) = C ( sI − A) −1 B + D Definição: A ordem de uma realização de uma matriz de transferência é a dimensão da matriz A. Definição: Uma realização é de ordem mínima se ela tiver a menor ordem possível. Exemplo Seja a função de transferência G(s)= 1/s. É fácil verificar que ela tem as seguintes realizações, entre inúmeras outras: ⎡0 0 ⎤ ⎡1 ⎤ A1 = −0, B1 = 1, C1 = 1 e D1 = 0 , A2 = ⎢ B2 = ⎢ ⎥ , C2 = [1 2] e D2 = 0 . ⎥ ⎣0 1 ⎦ ⎣0⎦ Claro que a primeira realização é de ordem mínima, igual a 1. Observe-se que a mesma função de transferência tem uma infinidade de realizações. Assim, por exemplo, o segundo elemento de C2 pode ser qualquer número real. E na primeira realização, basta que o produto B1C1 seja igual a 1. Note-se que a ordem da realização de ordem mínima de uma função de transferência é igual ao grau do polinômio característico da função de transferência (= denominador da 26 função de transferência). Mas para matrizes de transferência, como veremos, a coisa é um pouco mais complicada, ou melhor, o polinômio característico não é determinável de modo tão simples. Uma realização de ordem 1 é seguramente de ordem mínima. Mas se ela não for de ordem 1, como saber se é mínima? A resposta nos é dada no importante Teorema: (33**) Uma realização (A, B, C, D) no espaço de estado de uma matriz de transferência G(s) é de ordem mínima se só se (A, B) for controlável e (C , A) for observável. Prova: (Somente se): Pode-se demonstrar que se o sistema não for controlável, existe uma transformação de similaridade, com uma matriz não singular T tal que ⎡ A11 A12 ⎤ ⎡B ⎤ TAT −1 = ⎢ e TB = ⎢ 1 ⎥ . Seja CT −1 = [C1 C2 ] . ⎥ ⎣0⎦ ⎣ 0 A22 ⎦ Ora a matriz de transferência do sistema é C ( sI − A) −1 B + D = CT −1T ( sI − A) −1 T −1TB + D = CT −1 (T ( sI − A)T −1 ) TB + D = CT −1 ( sI − TAT −1 ) TB + D −1 −1 ⎡( sI − A11 ) −1 ⎡( sI − A11 ) −1 B1 ⎤ − A12 ⎤ ⎡ B1 ⎤ = [C1 C2 ] ⎢ ⎥ ⎢ ⎥ + D = [C1 C2 ] ⎢ ⎥+D 0 ( sI − A22 ) −1 ⎦ ⎣ 0 ⎦ 0 ⎣ ⎦ ⎣ −1 = C1 ( sI − A11 ) B1 + D . Mas esta realização é de ordem menor que a original, pois é claro que a dimensão de A11 é menor que a de A. E portanto a controlabilidade é necessária para que a realização seja de ordem mínima. Para a necessidade da observabilidade procede-se de modo dual, sendo possível demonstrar que se um sistema for não observável, existe matriz T tal que ⎡ A11 0 ⎤ −1 TAT −1 = ⎢ ⎥ e CT = [C1 0] . E procede-se em seguida do mesmo modo como A A ⎣ 21 22 ⎦ acima. (Se): Suponha que a realização (A, B, C, D) seja controlável e observável, mas não seja mínima. Seja uma outra realização da mesma matriz de transferência que seja mínima: ( Am , Bm , Cm , D) . Então, C ( sI − A) −1 B + D = Cm ( sI − Am ) −1 Bm + D , ou seja, C ( sI − A) −1 B = Cm ( sI − Am ) −1 Bm . (*) Mas ( sI − A) −1 = Is −1 + As −2 + A2 s −3 + ... , supondo que a série convirja, ou seja, que a matriz A seja assintoticamente estável. (**) −1 e da mesma forma para ( sI − Am ) . Então de (*), duas linhas acima, temos CB = Cm Bm , CAB = Cm ABm , CA2 B = Cm A2 Bm ,... (#) Ora, lembramos que as matrizes de controlabilidade e observabilidade são 27 ⎡ C ⎤ ⎢ CA ⎥ ⎥ , respectivamnete. C = [ B, AB, ..., An −1 B] e O = ⎢ ⎢ ⎥ ⎢ n −1 ⎥ ⎣CA ⎦ ⎡ Cm ⎤ ⎢C A ⎥ Definamos C m := [ Bm , Am Bm , ..., Amn −1 Bm ] e O m := ⎢ m m ⎥ . ⎢ ⎥ ⎢ n −1 ⎥ ⎣Cm Am ⎦ Mas destas duas e de (#), quatro linhas acima, temos (##) OC = O m C m . Mas das desigualdades de Sylvester, temos Posto[ O] + Posto[C] − n ≤ Posto[ O C] ≤ min{Posto[ O], Posto[C]} . Mas como a realização (A, B, C, D) é controlável e observável por hipótese, temos da dupla desigualdade acima que Posto[ O C] = n . Mas visto que a realização ( Am , Bm , Cm , D) é por hipotese minima, ela é controlável e observável, de acordo com a necessidade, já demonstrada do teorema. Seja k o posto de Cm e de O m . Então, aplicando as desigualdades de Sylvester a O m Cm , concluimos que • seu posto é igual a k. E de (##), concluimos que k = n. Observação: Se o sistema (A, B, C, D) não for controlável, ao efetuarmos o produto ( sI − A) −1 B , há cancelamento de polo. E se o sistema não for observável, ao efetuarmos o produto C ( sI − A) −1 , também há cancelamento de polo. Exemplo: ⎡ −1 0 ⎤ ⎡0 ⎤ Suponha que um sistema tenha A = ⎢ , B = ⎢ ⎥ . Este sistema não é controlavel, ⎥ ⎣ 0 1⎦ ⎣1 ⎦ ⎡ s + 1 0 0⎤ pois Posto[ sI − A, B] = Posto ⎢ = 1 < 2 ∀s ∈ C . s -1 1 ⎥⎦ ⎣ 0 ⎡( s + 1) −1 0 ⎤ ⎡0⎤ ⎡ 0 ⎤ Ora, ( sI − A) −1 B = ⎢ . Ou seja, o polo -1 efetivamente ⎥⎢ ⎥ = ⎢ −1 ⎥ ( s − 1) −1 ⎦ ⎣1 ⎦ ⎣( s − 1) ⎦ ⎣ 0 foi cancelado no produto. E observe-se que o sistema com este par (A,B) é estabilizável, ⎡ s + 1 0 0⎤ pois Posto[ sI − A, B ] = Posto ⎢ = 2 ∀s ∈ C+ . Ou seja, como visto acima, s -1 1 ⎥⎦ ⎣ 0 num sistema estabilizável , mas não controlável, há sempre cancelamento de um modo “bom”, no caso acima, s = -1. 28 Se com a mesma matriz A, tivermos C = [ 0 1] , obteremos C ( sI − A) −1 = ⎡⎣0 ( s − 1) −1 ⎤⎦ e, de novo, o mesmo modo “bom” foi cancelado no produto C ( sI − A) −1 , o sistema sendo detectável. Se o sistema tiver as matrizes A, B e C acima, ele não será nem controlável, nem observável (mas será estabilizável e detectável). Teorema: Sejam ( A1 , B1 , C1 , D) e ( A2 , B2 , C2 , D) duas realizações mínimas de uma mesma matriz de transferência. Então existe uma única matriz não singular T tal que −1 A2 = TAT , B2 = TB1 , e C2 = C1T −1 . Alem disso, sejam C1 , C 2 , O1 e O 2 as respectivas 1 matrizes de controlabilidade e observabilidade, respectivamente. Então, T é dada por T = (O*2 O 2 ) −1 (O*2 O 2 ) = (C2 C*2 )(C 2C*2 ) −1 . (E observe-se que T = T −1 , ou seja, T é uma matriz unitária, ou ortogonal, sendo as matrizes reais) Prova: omitida. - Realizações de matrizes de transferência: ⎡ G ( s ) G2 ( s ) ⎤ 1. Seja a matriz de transferência G ( s ) = ⎢ 1 ⎥ , onde as realizações dos blocos ⎣G3 ( s ) G4 ( s ) ⎦ são ⎡ Ai Gi ( s) = ⎢ Bi ⎤ ⎥ , i = 1, 2, 3 e 4 Di ⎦⎥ ⎣⎢Ci Então uma realização de G(s) é dada por ⎡ A1 0 ⎢0 A 2 ⎢ ⎢0 0 G(s) = ⎢ ⎢0 0 ⎢C1 C2 ⎢ ⎣⎢ 0 0 0 0 0 0 B1 0 A3 0 0 A4 B3 0 0 0 D1 C3 C4 D3 0⎤ B2 ⎥⎥ 0⎥ ⎥ B4 ⎥ D2 ⎥ ⎥ D4 ⎦⎥ A prova deste resultado é imediata. Vejamos a chamada realização de Gilbert, que pode ser usada quando os polos da matriz de transferência são reais e distintos: Seja G(s) uma matriz de transferência própria, p × m . Separamos a parte estritamente própria da constante: G ( s ) = D + Gsp ( s ) Seja d(s) o mínimo múltiplo comum dos denominadores de G(s). Então, temos d ( s ) = ( s − λ1 )( s − λ2 ) ( s − λr ) . Podemos escrever: 29 Gsp ( s ) = 1 1 W1 + W2 + s − λ1 s − λ2 + 1 Wr , s − λr onde Wi ∈ R p×m , i = 1, 2, r, são os chamados resíduos (que são matriciais). Temos então: r Wi . G (s) = D + ∑ i =1 s − λi (*) Suponha que o posto de cada Wi é ki e sejam matrizes Bi ∈ R ki ×m e Ci ∈ R p×ki tais que Wi = Ci Bi . 1 Realizamos cada Wi como Ci ( s − λi ) I ki Bi s − λi Então é fácil verificar desta e de (*), três linhas acima, que uma realização de G(s) é dada por ( ⎡λ1 I k1 ⎢ G (s) = ⎢ ⎢ 0 ⎢ ⎢⎣ C1 0 λr I k Cr r ) B1 ⎤ ⎥ ⎥ Br ⎥ ⎥ D ⎥⎦ Aplicando o teste PBH do posto, vê-se “imediatamente” que esta realização é controlável e observável. Exemplo Achar a realização de Gilbert da seguinte matriz de transferência ⎡ 2s 2 1 ⎤ ⎢ 2 ⎥ 2 G ( s ) = ⎢ s + 3s + 2 s − 1 ⎥ . s −1 ⎥ ⎢ s −1 ⎢⎣ s 2 + s s − 2 ⎥⎦ Solução: Primeiramente separamos as partes estritamente própria e constante (independentemente de s) e fatoramos os denominadores: 1 ⎡ −6 s − 4 ⎤ ⎢ ⎡ 2 0 ⎤ ( s + 1)( s + 2) ( s + 1)( s − 1) ⎥ ⎥. G (s) = ⎢ ⎥+⎢ 0 1 s − 1 1 ⎢ ⎥ ⎣ ⎦ ⎢ s ( s + 1) ⎥ s−2 ⎣ ⎦ Agora “parcelamos” cada elemento estritamente próprio, utilizando o cálculo dos resíduos: −6 s − 4 2 8 1 1 1 s −1 2 1 = − = − = − . , , ( s + 1)( s + 2) s + 1 s + 2 ( s + 1)( s − 1) 2( s − 1) 2( s + 1) s ( s + 1) s + 1 s Então, temos 30 8 1 1 ⎤ ⎡ 2 − − ⎢ ⎡ 2 0 ⎤ s + 1 s + 2 2( s − 1) 2( s + 1) ⎥ ⎥, G (s) = ⎢ ⎥+⎢ 1 ⎥ ⎣0 1 ⎦ ⎢ 2 − 1 ⎢⎣ s + 1 s ⎥⎦ s−2 ou seja, ⎡2 0⎤ 1 ⎡ 0 0⎤ 1 ⎡ 2 −1/ 2 ⎤ 1 ⎡ 0 1/ 2 ⎤ 1 ⎡0 0⎤ G (s) = ⎢ + ⎢ + + + ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ 0 ⎦ ( s − 1) ⎣ 0 0 ⎦ s − 2 ⎢⎣ 0 1 ⎥⎦ ⎣ 0 1 ⎦ s ⎣ −1 0 ⎦ s + 1 ⎣ 2 ⎡ 2 0⎤ 1 ⎡ 0 ⎤ 1 ⎡ 2 −1/ 2 ⎤ 1 ⎡1/ 2 ⎤ 1 ⎡0⎤ = ⎢ + ⎢ ⎥ [1 0] + I2 + [ 0 1] + ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ [ 0 1] . 0 ⎦ ( s − 1) ⎣ 0 ⎦ s + 1 ⎣2 s − 2 ⎣1 ⎦ ⎣ 0 1 ⎦ s ⎣ −1⎦ Donde temos a matriz de transferência na forma compacta procurada que nos dá, por simples inspeção, a realização que é mínima: ⎡s ⎢ s +1 ⎢ ⎢ s +1 ⎢ G (s) = ⎢ s −1 ⎢ s−2 ⎢ −1/ 2 1/ 2 2 0 ⎢0 ⎢ −1 2 0 0 1 ⎣ 1 0⎤ 1 0 ⎥⎥ 0 1⎥ ⎥ 0 1⎥ 0 1⎥ ⎥ 2 0⎥ 0 1 ⎥⎦ 1.10 Equações de Lyapunov Considere a seguinte equação de Lyapunov (34) AT X + XA + Q = 0 , onde A e Q são matrizes de números reais. Pode-se demonstrar que esta eq. tem solução única se só se λi ( A) + λ j ( A) ≠ 0 ∀i, j , onde λi (⋅) indica autovalor de uma matriz e λ j (⋅) indica o complexo conjugado do respectivo autovalor. Lema: (35) Com referência à eq. (34), suponha que A seja estável. Então, sua solução tem as seguintes propriedades: ∞ ∫ T (i) X = e A t Qe At dt ; 0 (ii) X > 0 se Q > 0 e X ≥ 0 se Q ≥ 0 ; (iii) suponha Q ≥ 0 ; então (Q1/ 2 , A) é observável se só se X > 0. Observação: O gramiano de observabilidade é definido como 31 ∞ Lo = ∫ e A t C T Ce At dt . T 0 Então verifica-se que ele satisfaz à eq. de Lyapunov, a saber, AT Lo + Lo A + C T C = 0 . Mais ainda, de acordo com (iii) do Lema, um par (C, A) é observável se só se ele satisfizer à eq. acima. Dualmente, um par (A, B) é controlável se seu gramiano, definido como ∞ Lc = ∫ e At BBT e A t dt , T 0 satisfizer à eq. de Lyapunov ALc + Lc AT + BBT = 0 . Exemplo: Achar os gramianos de controlabilidade e de observabilidade do seguinte sistema ⎡ −1 1 ⎤ ⎡1 ⎤ A=⎢ , B = ⎢ ⎥ , C = [1 3] , D qualquer matriz dois por dois de reais. ⎥ ⎣ 0 −2 ⎦ ⎣ 2⎦ Solução: ALc + Lc AT + BBT = 0 . ⎡l ⎣n ⎡ −1 1 ⎤ ⎡ l ⎢ 0 −2 ⎥ ⎢ n ⎣ ⎦⎣ ⎡ −l + n donde ⎢ ⎣ −2n m⎤ . Substituindo, vem p ⎥⎦ m ⎤ ⎡ l m ⎤ ⎡ −1 0 ⎤ ⎡ 1 ⎤ ⎡0 0⎤ +⎢ + ⎢ ⎥ [1 2] = ⎢ ⎥ ⎥ ⎢ ⎥ ⎥, p ⎦ ⎣ n p ⎦ ⎣ 1 −2 ⎦ ⎣ 2⎦ ⎣0 0⎦ − m + p ⎤ ⎡ −l + m −2m ⎤ ⎡ 1 2 ⎤ ⎡ 0 0 ⎤ , + + = −2 p ⎥⎦ ⎢⎣ − n + p −2 p ⎥⎦ ⎢⎣ 2 4 ⎥⎦ ⎢⎣ 0 0 ⎥⎦ que nos dá 4 eqs.: m + n − 2l + 1 = 0, p − 3n + 2 = 0, p − 3m + 2 = 0 e − 4 p + 4 = 0 . ⎡3/ 2 1⎤ Donde obtemos m = n = p = 1, l = 3/2, ou seja, Lc = ⎢ ⎥. ⎣ 1 1⎦ Seja Lc =: ⎢ O gramiano de observavilidade é calculado de forma semelhante. 1.11 Polos e zeros em sistemas multivariaveis Polos de uma função de transferência (escalar) são as raizes do seu denominador, enquanto que os zeros são as raízes do seu numerador. Os polos de uma função de transferência definem a sua estabilidade, ou não. E os zeros estão associados ao seu regime transitório. Como vimos, os autovalores da matriz do sistema, a matriz “A” definem se o sistema é assintoticamente estável, marginalmente estável ou instável. Vimos também que os autovalores da matriz podem ser cancelados 32 quando se efetuam os produtos para constiuir a função de transferência. São cancelados, como vimos, os “modos” incontroláveis e/ou inobserváveis. Após os cancelamentos ficamos com uma função de transferência com menos polos do que os autovalores da matriz “A”. Para funções de transferência, o conceito de estabilidade é o de BIBO-estabilidade, BIBO significando “bounded input / bounded output”: Definição: Uma função de transferência é BIBO se para todo sinal de entrada limitado, a sua resposta também será um sinal limitado. (36) E o resultado bem conhecido para funções racionais é: Teorema: (37) Uma função de transferência é BIBO – estável se só se não tiver polo no semi-plano fechado da direita. A prova deste fato é simples, bastando lembrar que a transformada de Laplace de sinais limitados tem seus polos no semiplano fechado da esquerda, sendo que os polos no eixo imaginário são simples, isto é, com grau de multiplicidade igua a 1. • Exemplo: Considere a função de transferência G ( s ) = 1 . Se a entrada for um sinal limitado, a s +1 resposta conterá este mesmo sinal limitado, além de uma exponencial decrescente, que tende para zero. Assim, por exemplo, se a entrada for um “degrau” aplicado no instante t = 0, isto é, u ( s ) = 1 1 1 1 1 , então a resposta é y ( s ) = = y(s) = − , esta última s s +1 s s s +1 igualdade sendo obtida pelo familiar cálculo dos resíduos. Ora, a transformada inversa desta é y (t ) = 1 − e − t , t ≥ 0 , ou seja, um degrau diminuido de uma exponencial decrescente, ou seja, a resposta é BIBO Considere agora a função de transferência G ( s ) = 1 , que tem o polo fora do semiplano s aberto da esquerda, mas na “fronteira”. Suponha que a entrada seja a mesma do caso anterior. Então a resposta será y ( s ) = 1 , cuja trasformada inversa é y (t ) = t , t ≥ 0 , s2 uma “rampa”, trata-se de um sinal que evidentemente não é limitado, e portanto esta função de transferência não é BIBO, como previsto pelo Teorema (37). - No caso de matrizes de transferência, isto é, de sistemas multivariáveis, a definição de polos não é tão simples quanto aos polos com grau de multiplicidade maior que 1. Se os polos são simples, supondo que cada elemento da matriz de transferência seja irredutível, isto é, não haja cancelamento entre fator comun no numerador e denominador, então todo polo de qualquer elemento da matriz também será polo da matriz de transferência. E se houver polo múltiplo em algum elemento da matriz de 33 transferência, ele também será polo da matriz, mas o grau de multiplicidade do polo da matriz não será necessariamente igual ao grau no elemento. Os polos de uma matriz de transferência são definidos primeriamente através de seu polinômio característico, que é definido agora: Definição: (38) Supondo que todos os elementos de uma matriz de transferência sejam irredutíveis, seu polinômio característico é definido como o mínimo múltiplo comum (m.m.c.) dos denominadores de todos seus menores. Lembra-se que os menores de uma matriz de transferência são os determinantes que se podem formar com os elementos da matriz, como explicado neste exemplo, onde será calculado o polinômio característico: Exemplo: Considere a matriz de transferência ⎡ 1 ⎢ s G( s) = ⎢ ⎢ 1 ⎢ s +1 ⎣ 0 1 s ( s + 1) s +1 ⎤ ( s − 1) 2 ⎥ ⎥. s ⎥ s 2 + 2 s ⎥⎦ Antes de calcular o polin. careact., observe-se que o elemento de ordem (2,3) não é irredutível. Procedendo-se ao cancelamento correspondente, temos ⎡ 1 ⎢ s G( s) = ⎢ ⎢ 1 ⎢ s +1 ⎣ 0 1 s ( s + 1) s +1 ⎤ ( s − 1) 2 ⎥ ⎥. 1 ⎥ s + 2 ⎥⎦ Os menores de ordem 1 são os elementos da matriz, cujos denominadores são s, (s − 1)2 , s + 1, s ( s + 1) e s + 2 . (39a) Os menores de ordem 2 são obtidos pelo cruzamento das duas linhas com duas colunas: 1ª. e 2ª., 1ª. e 3ª., 2ª. e 3ª. Quando se fazem produtos e somas no cálculo de menores de ordem 2 ou de ordem maior, podem ser cancelados fatores. Ou seja, em geral não dá para escrever os denominadores desses menores por simple inspeção como foi feito no caso dos menores de ordem 1. Neste caso, temos os menores de ordem 2: 1 1 1 s−2 1 , − = e . 2 2 s ( s + 1) s ( s + 2) ( s − 1) s+2 s ( s − 1) 2 ( s + 1) Os denominadores destes menores são portanto s 2 ( s + 1), s + 2 e s ( s − 1) 2 ( s + 1) . (39b) Desta e de (39a) temos o polinômio característico de acordo com (38): s 2 ( s − 1) 2 ( s + 1)( s + 2) 34 Isto posto temos a definição de polos em matrizes de tranferência: Definição: (40) Os polos de uma matriz de transferência, com seus respectivos graus de multiplicidade, são as raízes de seu polinômio característico. No exemplo acima temos polo duplo na origem e em 1 e polo simples em -1 e -2. Vale observar que o polo duplo na origem não aparece em nenhum dos elementos. - Para definir zeros em sistemas multivariáveis temos que definir o que são matrizes de MacMillan, tb. chamadas de Smith-MacMillan. Antes porem, temos a Definição: Uma matriz polinomial em s, quadrada, é dita unimodular se seu determinante for independente de s. (41) E temos a muito utilizada Forma de Smith dada pelo Teorema (Forma de Smith) (42a) Dada uma matriz polinomial P(s), existem matrizes unimodulares U(s) e V(s) tais que 0 0 0⎤ ⎡γ 1 ( s ) ⎢ 0 γ 2 (s) 0 0 ⎥⎥ ⎢ ⎥ =: S ( s ) , U ( s ) P ( s )V ( s ) = ⎢ ⎢ ⎥ 0 γ r (s) 0⎥ ⎢ 0 ⎢⎣ 0 0 0 0 ⎥⎦ onde os γ i ( s ) são tais que cada γ i ( s ) é fator de γ i +1 ( s ) ; γ i ( s ) são chamados (42b) polinomios invariantes da matriz P(s). Na matriz acima γ 1 ( s ) é o m.d.c. (máximo divisor comum) de todos os elementos da matriz P(s), γ 2 ( s ) é o m.d.c. dos menores de ordem 2 da matriz P(s) dividido por γ 1 ( s ) , etc... Na matriz acima r é o chamado posto normal da matriz P(s), que é definido como o maior dos postos da matriz para pelo menos um valor de s. Esta definição de posto normal é geral, valendo também para matrizes irracionais. No caso de matrizes polinomiais (como também no caso de matrizes racionais, aliás toda matriz polinomial é tb. racional), o posto normal é a ordem do menor de maior ordem não indenticamente nulo. A demonstração da forma de Smith que será omitida aqui, é feita através de operações elementares e da aplicação da fórmula de Binet-Cauchy que dá o menor do produto de 35 matrizes em função dos menores dos fatores. Esta demonstração está, por exemplo, nas pp. 47ss (numeração embaixo da página) do meu texto “Sistemas Lineares” que se encontra no meu site. Mas o conceito de operações elementares tem que ser explicado para sabermos como calcular a forma de Smith de uma matriz. São três as operações elementares tanto sobre as linhas como sobre as colunas: 1. Multiplicação de uma linha (coluna) por um número real diferente de zero; 2. Permutação de duas linhas (colunas); 3. Adição de uma linha (coluna) multiplicada por um polinômio a uma outra linha (coluna). Vejamos exemplos destas três operações: ⎡ s s +1 s3 ⎤ Dada a matriz P ( s ) = ⎢ ; 2⎥ ⎣ s − 1 s − 4 ( s − 4) ⎦ 1. Multplicando a 2ª. linha por 2, obtemos ⎡ s s +1 s3 ⎤ ⎡ s s +1 s3 ⎤ . Note-se que isto equivale a ∼ ⎢ ⎢ 2⎥ 2⎥ ⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣ 2( s − 1) 2( s − 4) 2( s − 4) ⎦ ⎡1 0 ⎤ premultiplicar a matriz P(s) por ⎢ ⎥ , que é uma matriz unimodular pela definição ⎣0 2⎦ acima. Para obter esta matriz, basta efetuar a operação elementar sobre a matriz identidade 2. Permutando a 2ª. e 3ª. colunas, obtemos ⎡ s s +1 s3 ⎤ ⎡ s s3 ∼⎢ ⎢ 2⎥ 2 ⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣ ( s − 1) ( s − 4) ⎡1 equivalente à posmultiplicação de P(s) por ⎢ 0 ⎢ ⎢⎣0 s + 1⎤ ⎥ , notando-se que esta operação é s − 4⎦ 0 0⎤ 0 1 ⎥⎥ , de novo uma matriz unimodular, 1 0 ⎥⎦ obtida, tal como no caso anterior, por aplicação da operação à matriz identidade 3. Adicionando à 2ª. coluna a primeira multiplicada pelo polinômio s, obtemos ⎡ s s +1 s3 ⎤ ⎡ s s 2 + s + 1 s + 1⎤ ∼⎢ ⎢ ⎥ . E este resultado, tal como nos 2⎥ s2 − 4 s − 4⎦ ⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣( s − 1) casos anteriores, pode ser obtido, posmultiplicando a matriz P(s) pela matriz que é o resultado da aplicação da mesma operação elementar à matriz identidade, ou seja, pela ⎡1 s 0 ⎤ matriz ⎢ 0 1 0 ⎥ . ⎢ ⎥ ⎢⎣0 0 1 ⎥⎦ 36 Como acabamos de constatar, toda operação elementar, seja aplicada às linhas, seja às colunas, é equivalente, respectivamente, à premultiplicação ou posmultiplicação por uma matriz unimodular. Mas o produto de matrizes unimodulares é unimodular. (Para ver isto, basta considerar que o produto dos determinantes delas é independente de s). Consequentemente, uma sequência de operações elementares é equivalente à pré- (ou pós-) multiplicação por matrizes unimodulares. E a recíproca também é verdadeira, ou seja, toda matriz unimodular que pré (pós)- multiplique outra matriz pode ser decomposta como o produto de matrizes unimodulares simples (dos tipos das 3 acima), e portanto é equivalente a uma sequência de operações elementares. A demonstração da Forma de Smith se faz aplicando um algoritmo, com numero necessariamente finito de passos, cada passo constituindo uma operação elementar. Vamos mostrar isto através de um exemplo, calculando a Forma de Smith da matriz P(s) acima. A primeira coisa que se faz é, por permutação de linhas e coluna, colocar o elemento de mais alto grau na posição (1,1). No caso presente, ele já está lá. A seguir, zeram-se todos os elementos da 1ª. linha e primeira coluna, utilizando-se as operações elementares que forem necessárias. No caso presente, temos ⎡ s ⎤ s +1 s3 ⎤ ⎡ s s + 1 s3 P(s) = ⎢ ∼ ⎥ ⎢ ⎥ 2 3 2 ⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣ −1 −5 − s + s − 9 s + 16 ⎦ ⎡ −1 −5 − s 3 + s 2 − 9 s + 16 ⎤ ⎡1 5 s 3 − s 2 + 9s − 16 ⎤ ∼⎢ ∼ ⎥ ⎢ ⎥ s3 s3 ⎣ s s +1 ⎦ ⎣s s + 1 ⎦ 0 0 0 0 ⎡1 ⎤ ⎡1 ⎤ ∼⎢ ∼⎢ ⎥ ⎥. 4 3 2 4 3 2 ⎣ s −4 s + 1 − s + 2 s − 8s + 16 s ⎦ ⎣ 0 −4 s + 1 − s + 2s − 8s + 16s ⎦ Chegados a este ponto, coloca-se em (2,2) o elemento de mais baixo grau, que já está lá e fazem-se operações elementares para zerar todos os elementos da 2ª. linha e da 2ª. coluna, à exceção do elemento (2,2), claro. Ou seja: 0 0 0 0 ⎡1 ⎤ ⎡1 ⎤ ∼⎢ ∼ ⎥ ⎢ ⎥ 4 3 2 3 2 ⎣0 s − 1/ 4 s − 2 s + 8s − 16 s ⎦ ⎣ 0 s − 1/ 4 (−7 / 4) s + 8s − 16s ⎦ 0 0 0 0 ⎡1 ⎤ ⎡1 ⎤ ∼⎢ ∼⎢ ⎥ ⎥ 3 2 2 ⎣0 s − 1/ 4 (7 / 4) s − 8s + 16s ⎦ ⎣0 s − 1/ 4 (−121/16) s − 16s ⎦ 0 0 0 0 ⎡1 ⎤ ⎡1 ⎤ ∼⎢ ∼ ⎥ ⎢ ⎥ 2 ⎣0 s − 1/ 4 (121/16) s + 16 s ⎦ ⎣0 s − 1/ 4 (1145 / 64) s ⎦ 0 0 ⎤ ⎡1 0 0 ⎤ ⎡1 0 0 ⎤ ⎡1 0 0⎤ ⎡1 ∼⎢ ∼⎢ ∼⎢ ∼⎢ ⎥ ⎥ ⎥ ⎥ ⎣0 s − 1/ 4 s ⎦ ⎣ 0 s − 1/ 4 1/ 4 ⎦ ⎣ 0 −1/ 4 1/ 4⎦ ⎣ 0 −1/ 4 0⎦ ⎡1 0 0 ⎤ ⎢0 1 0 ⎥ , que é a forma de Smith. ⎣ ⎦ 37 Claro que poderíamos parar na matriz anterior. Mas por convenção, todos os polinômios da diagonal da forma de Smith, os polinômios invariantes, devem ser mônicos, ou seja, com os coeficientes do termo de mais alto grau igual a 1. Como se vê neste exemplo, o cálculo da forma de Smith pode ser bastante trabalhoso, mesmo quando a matriz é simples, se bem que no cálculo acima, poder-se-ia ter cortado caminho. As operações feitas acima foram mais complicadas para se seguir o algoritmo da demonstração da forma de Smith, conforme mencionado acima. Entretanto, como já foi mencionado, o primeiro polinômio invariante é o m.d.c. de todos os elemnetos da matriz. Ora, é claro que, neste caso, os elementos são todos primos entre si e, portanto, o primeiro polinômio invariante é igual a 1. E o segundo polinômio invariante é o resultado da divisão do m.d.c dos menores de ordem 2 pelo primeiro polinômio invariante. Neste caso, há três menores de ordem 2, formados com a 1ª. e 2ª. colunas, com a 1ª. e a 3ª. e com a 2ª. e a 3ª. Calculando, obtem-se para o primeiro menor: s 2 − 4 s − s 2 + 1 = −4 s + 1 ∼ 4 s − 1 ; o segundo menor: s 3 − 8s 2 + 16 s − s 4 + s 3 = − s 4 + 2 s 3 − 8s 2 + 16 s ∼ s ( s 3 − 2 s 2 + 8s − 16) . Ora, é imediato ver que s = 1/ 4 , raiz do primeiro menor, não é raiz do segundo, consequentemente o m.d.c. destes dois menores é 1. Donde obtemos a forma de Smith acima, pelo primeiro método, muito mais trabalhoso e sujeito a erros. Não se deveria concluir porem que isto sempre acontece, pois quando se trata de polinômios de graus elevado, tem-se que calcular suas raízes pelo segundo método, o que não ocorre no primeiro. - Os zeros de uma matriz polinomial são definidos pelas raízes do menor de maior ordem não identicamente nulo. Ora o determinante de um produto de matrizes é o produto dos seus determinantes. Ora, em (42b) as matrizes U e V são unimodulares, portanto as raízes de P são as mesmas, contadas as multiplicidades, que as da matriz S. r Ou seja, os zeros da matriz P são as raízes de ∏ γ (s) . i =1 i Mas as matrizes que interessam mais em Teoria de Controles são as matrizes racionais, pois são nelas que são expressas as matrizes de transferência de um sistema. Passamos portanto ao estudo da Forma de (Smith)-MacMillan, que são as formas canônicas mais importantes para as matrizes racionais, assim como a Forma deSmith é a forma canônica mais importante para as matrizes polinomiais. Seja portanto G(s) uma matriz racional com coeficientes reais, que são, como vimos antes, as matrizes de transferência que surgem quando estudamos sitemas linerares invariantes no tempo regidos por eqs. diferenciais ordinárias. Teorema (43a) Seja G(s) uma matriz racional própria . Então existem matrizes polinomiais unimodulares U(s) e V(s) tais que: 38 ⎡ α1 ( s ) ⎤ 0 0 0⎥ ⎢ β (s) ⎢ 1 ⎥ α ( s ) ⎢ ⎥ 2 0 0⎥ ⎢ 0 β 2 (s) ⎥ =: M ( s ) , (43b) U ( s )G ( s )V ( s ) = ⎢ ⎢ ⎥ ⎢ ⎥ α r (s) ⎥ ⎢ 0 0 0 ⎢ β r ( s) ⎥ ⎢ ⎥ 0 0 0⎦ ⎣ 0 onde cada α i ( s ) é fator de α i +1 ( s ) , enquanto que cada β i +1 ( s ) é fator de β i ( s ) ; alem disso, β1 ( s ) =d(s). Prova: Suponha, sem perda de generalidade, que cada elemento de G(s) esteja na forma irredutível. Seja d(s) o m.m.c. dos denominadores de G(s) e seja N(s) matriz polinomial tal que G ( s ) = N (s) . Agora aplicamos operações elementares a N(s) de modo a d (s) transformá-la na forma de Smith, de acordo com o teorema (42): 0 ⎡γ 1 ( s ) ⎢ 0 γ 2 (s) ⎢ U ( s ) N ( s )V ( s ) = ⎢ ⎢ 0 ⎢ 0 ⎢⎣ 0 0 0⎤ 0 ⎥⎥ ⎥ =: S ( s ) . ⎥ γ r (s) 0⎥ 0 0 ⎥⎦ 0 0 Definamos agora ⎡ γ 1 (s) ⎤ 0 0 0⎥ ⎢ d (s) ⎢ ⎥ γ 2 (s) ⎢ ⎥ 0 0⎥ ⎢ 0 d (s) S (s) ⎢ ⎥ . Cancelando agora os fatores comuns = M (s) = ⎥ d (s) ⎢ ⎢ ⎥ ( s ) γ r ⎢ 0 0 0⎥ d (s) ⎢ ⎥ ⎢ 0 0 0 0 ⎥⎦ ⎣ entre γ i ( s ) e d(s), chegamos a (43b). Observe-se em seguida que, como vimos, cada γ i ( s ) é fator de γ i +1 ( s ) , portanto cada α i ( s ) é fator de α i +1 ( s ) , pois cada α i ( s ) está sendo dividido pelo mesmo d(s). E por outro lado, ao cancelarmos os fatores de α i ( s ) e d(s), sobra no denominador β i ( s ) que é fator de β i −1 ( s ) . β1 (s) = d (s) , pois se houvesse 39 cancelamento de fator comum entre α1 ( s ) e d(s), isto signficaria um cancelamento entre o m.d.c. dos elementos de N(s) e o m.m.c. dos denominadores de G(s), ou seja, isto significaria que os elementos de G(s) não seriam irredutíveis, contra a hipótese inicial. • Definição: (44) r O grau de MacMillan de uma matriz racional é definido como ∑ grau(β (s)) . i =1 i Esta noção é importante porque se pode demonstrar que a ordem de uma realização mínima de uma matriz de transferência é exatamente o grau de McMillan da matriz de transferência. A partir da forma de McMillan, podemos agora definir os zeros de uma matriz de transferência, lembrando que os polos já o foram. Definição: Os zeros de uma matriz de transferência, mais comumente chamados de zeros de (45) r transmissão, são as raízes de ∏α (s) . i =1 i Como vemos, os zeros de transmissão são os valores de s que diminuem o posto da matriz de transferência. Outro conceito de zero de uma matriz de transferência talvez tão, ou mais, utilizado na prática quanto o anterior é o de zero de bloqueio. Definição: (46) Os zeros de bloqueio de uma matriz de transferência são as raízes, contadas as multiplicidades, do m.d.c. dos numeradores da matriz de transferência. (Aqui, como usual, cada elemento da matriz de transferência é suposto irredutível). Esta definição de zero de uma matriz de transferência pareceria mais apropriada do que a anterior, se tivéssemos que escolher uma das duas. Com efeito, zero de uma função é o valor da variável no domínio da função que a torna nula. No caso de uma função racional escalar ou no caso de um polinômio isto é claro. E é claro também no caso de uma matriz racional, se for usada a definição de zero de bloqueio; mas esta propriedade não se realiza se for usada a outra noção, a de zero de transmissão. O conceito de zero de bloqueio é usado no problema do servomecanismo e, alem disso, no problema da chamada estabilização forte de um sistema em malha fechada, isto é, quando o controlador é um sistema estável. Os polos da matriz de transferência podem ser computados também a partir da sua forma de McMillan, a saber: Definição: (47) 40 Os polos de uma matriz de transferência, cuja forma de McMillan é dada por (43b) são as r raízes, contados os graus de multiplicidade, de ∏ β (s) . i =1 i Observação: Pode-se demonstrar que esta definição é equivalente à definição (40) Vamos ilustrar os conceitos acima através de um Exemplo: Considere a seguinte matriz de transferência 1 ⎡ ⎢ ( s + 1)( s + 2) ⎢ ⎢ 1 G(s) = ⎢ 2 ⎢ ( s + 1) ⎢ 1 ⎢ 2 ⎣ ( s + 1) ( s + 2) 2s + 1 ( s + 1)( s + 2) s 2 + 5s + 3 ( s + 1) 2 2s + 1 ( s + 1) 2 ( s + 2) s ⎤ ( s + 1)( s + 2) ⎥ ⎥ ⎥ s ⎥ . Confere-se primeiramente 2 ( s + 1) ⎥ ⎥ s ⎥ 2 ( s + 1) ( s + 2) ⎦ que todos os elementos da matriz são irredutíveis. O m.m.c. dos denominadores é d ( s ) = ( s + 1) 2 ( s + 2) . (2 s + 1)( s + 1) s ( s + 1) ⎤ ⎡ s +1 N (s) ⎢ 2 Donde que G ( s ) = , com N ( s ) = s + 2 ( s + 2)( s + 5s + 3) s ( s + 2) ⎥ . ⎢ ⎥ d (s) ⎢⎣ 1 2s + 1 s ⎥⎦ Passamos ao cálculo da Froma de Smith desta matriz: O m.d.c. dos elementos de N(s) é claramente 1, portanto o primeiro polinômio invariante de G(s), que é α1 ( s ) na sua forma de Smith, é igual a 1. A seguir, observe-se que a 1ª. e 3ª. linhas acima são l.d., efetivamente a 1ª. linha é a 3ª. multiplicada por s + 1. Então adicionando à primeira linha a terceira multiplicada por -(s + 1), temos 0 0 ⎤ ⎡ 0 ⎢ 2 N ( s ) ∼ ⎢ s + 2 ( s + 2)( s + 5s + 3) s ( s + 2) ⎥⎥ . Ora, à primeira vista, temos três ⎢⎣ 1 2s + 1 s ⎥⎦ menores de ordem 2, não identicamente nulos, nesta matriz. Mas calculando, verifica-se que um deles é nulo e os outros dois são iguais a ( s + 2)( s 2 + 5s + 3 − 2s − 1) = ( s + 2)( s 2 + 3s + 2) = ( s + 1)( s + 2) 2 . Consequentemente, a forma de Smith de N(s) é 41 0 0⎤ ⎡1 S ( s ) = ⎢⎢ 0 ( s + 1)( s + 2) 2 0 ⎥⎥ . E a forma de McMillan é obtida dividindo-se esta por ⎢⎣ 0 0 0 ⎥⎦ 1 ⎡ ⎤ 0 0⎥ ⎢ ( s + 1) 2 ( s + 2) ⎢ ⎥ s+2 ⎢ ⎥ d(s): M ( s ) = ⎢ 0 0⎥ . s +1 ⎢ ⎥ 0 0 0⎥ ⎢ ⎢ ⎥ ⎣ ⎦ Então verificamos que G(s) tem um zero de transmissão em -2, um polo também em -2 e um polo em -1 com grau de multiplicidade 3. Para encerrar esta seção, é preciso tratar ainda dos zeros e polos no infinito. Uma função racional estritamente própria se anula quando a variável s é igual a infinito. E se a diferença entre o grau do denominador e o do numerador for p, podemos (e devemos) dizer que o grau de multiplicidade do zero no infinito é p. E por outro lado, dizemos que uma função de transferência imprópria tem polo no infinito, porque quando s é igual a infinito, o valor da função também o é. E o grau de multiplicidade do polo no infinito é igual à diferença entre os graus do numerador e do denominador. Mas quando se passa a matrizes de transferência, já não podemos usar a forma de McMillan acima para determinar se a matriz tem polos no infinito e nem para determinar os graus de multiplicidade do zero no infinito. Por que? Como vemos de (43b), para obtermos a forma de McMillan de uma matriz, prée pós- multiplicamo-la por matrizes unimodulares. Ora, as matrizes unimodulares são impróprias e, em geral, têm polos no infinito. Portanto, há em geral uma introdução de polos no infinito na matriz original. E assim, sendo a matriz original própria, sua forma de McMillan pode ser imprópria. Para verificar zeros e polos no infnito de uma matriz, substituímos s por 1/z na sua forma de McMillan e verificamos se esta matriz tem, e quantos, zeros e polos na origem. Exemplo: ⎡1 s ⎤ G(s) = ⎢ ⎥ , Esta é uma matriz polinomial, e aliás unimodular. Mas a consideramos ⎣0 1⎦ aqui como uma matriz racional imprópria. Substituindo s por 1/z, temos 42 ⎡1 1/ z ⎤ 1 ⎡ z 1 ⎤ G (1/ z ) = ⎢ ⎥= ⎢ ⎥ . Ora, para calcular a forma de Smith desta matriz, ⎣0 1 ⎦ z ⎣0 z ⎦ vemos que o m.d.c. de seus elementos é 1, enquanto que seu determinante é z 2 . 1 ⎡1 0 ⎤ ⎡1/ z 0 ⎤ , que tem um zero e Então a forma de Mcmillan da matriz em z é ⎢ = z ⎣0 z 2 ⎥⎦ ⎢⎣ 0 z ⎥⎦ um polo na origem. Portanto a matriz original G(s) tem um zero e um polo no infinito. Esta conclusão é surpreendente: que a matriz G(s) tenha um polo no infinito, não é de se admirar, uma vez que ela é imprópria. Mas um zero no infinito? Eis um resultado não intuitivo. 2º. Capítulo: Especificações de Desempenho 2.1 Os espaços de Hardy H2 e H∞ [ZDG, pp. 91ss] [ZDG, pp. 97ss] Seja S um conjunto aberto no domínio dos complexos, isto é, S ⊂ C e seja f(s) uma função definida em S, isto é, f ( s ) : S → C . Dizemos que f é analítica em um ponto z0 se ela for diferenciável em z0 e em todos os pontos de alguma vizinhança de z0 . Demonstra-se que se f for analítica em z0 , então ela tem derivadas continuas de todas as ordens em z0 . Além disso, f é analítica em z0 se só se tiver uma representação em serie de potências em z0 . A função é dita analítica em S se ela for analítica em todos os pontos de S. Teorema do Maximum Modulus: (1) Se f(s) for definida e contínua em um conjunto fechado e limitado S e analítica no interior de S, então o máximo de f ( s ) é obtido na fronteira de S , isto é, max f ( s ) = max f ( s ) , s∈S s∈∂S onde ∂S é a fronteira de S. Vejamos alguns espaços importantes neste curso: - Espaço L2 (j R ), onde R é o corpo dos reais, é um espaço de Hilbert definido pelo conjunto de todas as matrizes F tais que a integral abaixo é limitada ∞ ∫ Traço[F ∗ ( jω ) F ( jω )]dω < ∞ , (2) -∞ onde F* indica a transposta conjugada de F. É claro que os elementos de L2 (j R ) não podem ter polo no eixo imaginário, pois do contrário a integral não convergiria. Lembra-se que o traço de uma matriz é a soma dos elementos da sua diagonal. É fácil verificar que o integrando de (2) é a soma dos quadrados das partes real e imaginária de todos os elementos de F ( jω ) . 43 O produto interno deste espaço de Hilbert é definido como: F , G := 1 2π ∞ ∫ Traço[F ∗ ( jω )G ( jω )]dω < ∞ . (3) -∞ Este produto interno induz uma norma dada por F 2 := F, F . (4) Como exemplo, o conjunto de todas as funções racionais, com coeficientes reais e estritamente próprias constitui um subespaço não fechado de L2 (j R ), que denotaremos por RL2 (j R ), ou simplesmente RL2 . - O espaço de Hardy H 2 é um subespaço fechado de L2 (j R ) cujos elementos são funções (matriciais) F(s) analíticas em Re[s] > 0. A norma correspondente é definida como ⎛ 1 ∞ ⎞ 2 F 2 := sup ⎜ Traço[F ∗ (σ + jω ) F (σ + jω )dω ⎟ ∫ σ > 0 ⎝ 2π −∞ ⎠ Pode-se demonstrar, utilizando o teorema do maximum modulus, que F 2 2 = 1 2π ∞ ∫ Traço[F ∗ ( jω ) F ( jω )]d ω (5) -∞ Comparando-se esta com (2), verifica-se que são idênticas, ou seja, se F ∈ H 2 , sua norma é a mesma que se estivesse em L2 (j R ). Como exemplo, o conjunto de todas as funções reais racionais estritamente próprias e estáveis pertence a este espaço. Ele é denotado por RH 2 . - O espaço H 2⊥ é o complemento ortogonal de fechado de funções em subespaço de H 2⊥ L2 H2 em L2 , ou seja, é o subespaço que são analíticas no semiplano aberto da esquerda. O constituído por todas as funções reais racionais estritamente próprias com todos os polos no semiplano aberto da direita será denotado por RH 2⊥ . (Funções racionais com todos os pólos no semiplano aberto da direita são chamadas de antiestaveis). Pode-se verificar que se G for uma matriz real racional estritamente própria e estável, então G ∈ H 2 e G ~ ∈ H 2⊥ . L2 definidos acima no domínio da frequência ( ω ) podem ser relacionados aos espaços L2 definidos no domínio do tempo. Como vimos logo acima, o espaço no domínio da freqência foi denotado por L2 (j R ). E o respectivo espaço no domínio do - Os espaços 44 tempo será denotado por L2 (- ∞ , ∞ ). Pode-se provar que existe um isomorfismo entre este espaço e o anterior, ou seja, (6) L2 (- ∞ , ∞ ) ≅ L2 (j R ). - Mais ainda, os seguintes isomorfismos são obtidos: (7) L2 [0, ∞ ] ≅ H 2 , L2 (- ∞ , 0] ≅ H 2⊥ . As três relações acima são conhecidas como de Parseval e também como Teorema de Plancherel. - Como consequência destes isomorfismos, temos o seguinte: Seja g(t) ∈ L2 (- ∞ , ∞ ) e seja sua transformada de Fourier dada por G ( jω ) ∈ L2 ( jR ) . Então, temos a igualdade das normas: G2= g2 . (8) A igualdade acima é conhecida como Teorema de Parseval, frequentemente apresentada com um fator 1 2π do lado esquerdo da igualdade. Tal fator às vezes não aparece, não havendo contradição, pois se trata de diferença na definição da transformada de Fourier. L∞ ( jR ) definido como um espaço de Banach de funções ou matrizes que são essencialmente limitadas em jR com - O próximo espaço que nos interessará neste curso é o norma F ∞ := ess sup σ [ F ( jω )] ω∈R (9), onde, como vimos no capítulo anterior, σ (⋅) denota o maior valor singular de uma matriz. Observe-se que é definido também o espaço L∞ no domínio do tempo, o qual é usado, geralmente, para definir sinais, ao passo que o no domínio da frequência, L∞ ( jR ) , é usado geralmente para matrizes ou funções de transferência e, mais geralmente, operadores. - Em vista disso, definimos o espaço H ∞ , que é um subespaço fechado de L∞ , cujas funções são analíticas e limitadas no semiplano complexo aberto da direita e cuja norma é definida como (10) F ∞ := sup σ [ F ( s)] = sup σ [ F ( jω )] Re[ s ]> 0 ω∈R (A segunda igualdade é devida a uma generalização do teorema do maximum modulus). Analogamente aos casos anteriores, denotaremos por RH ∞ o subespaço das funções (ou matrizes) racionais com coeficientes reais, próprias e estáveis. O espaço H ∞ é um subespaço fechado de L∞ , constituído por funções (ou matrizes) que são analíticas e fechadas no semiplano complexo da esquerda. A norma deste espaço é definida como _ 45 F := sup σ [ F ( s)] = sup σ [ F ( jω )] , ∞ ω∈R Re[ s ]< 0 que, como se vê, é identical a (10). Analogamente aos casos anteriores, RH ∞ denota o subconjunto das funções (matrizes) racionais com coeficientes reais que são próprias e têm todos seus pólos no semiplano complexo da direita. _ Os fatos abaixo são importantes: i) Se G(s) ∈ L∞ , então G(s) L2 := { G(s) f(s) : f(s) ∈ L2 } ⊂ L2 , (11) ii) Se G(s) ∈ H ∞ , então G(s) H 2 := { G(s) f(s) : f(s)∈ H 2 } ⊂ H 2 , (12) iii) Se G(s) ∈ H ∞ , então G(s) H 2⊥ := { G(s) f(s) : f(s)∈ H 2⊥ } ⊂ H 2⊥ . (13) _ 2.2 Ganhos induzidos de sistemas [ZDG, pp. 104ss] A palavra “ganho”, usada em teoria de operadores, será para nós a matriz (ou função) de transferência. O problema que nos ocupa agora é o seguinte: se soubermos quão “grande” a entrada (um distúrbio) é, quão grande a resposta será para um dado sistema dinâmico? Seja um sistema de dimensão finita com matriz de transferência G(s) ∈ RH ∞ . Mais ainda, suporemos que G(s) seja estritamente própria, isto é, G( ∞ ) = 0, o que ocorre com muita frequência na prática. Seja u a entrada de um sistema G e z sua saída. Seja g a resposta do sistema, no domínio do tempo, a um impulso unitário aplicado no instante t = 0, também chamada de “resposta impulsional” do sistema. Como sabemos, a relação entre a saída z e a entrada u , no domínio do tempo, é dada pela convolução de g e u , isto é, (14a) z = g ∗u , t z (t ) = ∫ g (t − τ )u (τ )dτ . ou seja, (14b) 0 Suponha que u seja um vetor com q componentes Pode-se demonstrar o seguinte: i) Seja u(t) = u0δ (t ) , com u0 ∈ R q , sendo δ (t ) o impulso unitário aplicado no instante t = 0. Então, (15a) z 2 = Gu0 2 = gu0 2 , z ∞ = gu0 ∞ . (15b) ii) Seja agora u (t ) = u0 senω0t , u0 ∈ R q . Sejam Gi ( s ) as linhas de G(s) . Então, z 2 =∞, lim sup max zi (t ) = G ( jω0 )u0 t →∞ t i lim sup z (t ) = G ( jω0 )u0 . t →∞ (16a) ∞ = max Gi ( jω0 )u0 , i (16b) (16c) t 46 Prova de (15) e (16): ver ZDG, pp. 105s. Nas expressões acima, u é tipicamente um distúrbio a ser rejeitado ou um sinal a ser rastreado; se se tratar de distúrbio a ser rejeitado, z é a resposta do sistema e se se tratar de sinal a ser rastreado, z é o erro, ou seja, a diferença entre a resposta do sistema e o sinal a ser rastreado. Dizemos que o sistema tem bom desempenho se z(t) for pequeno em algum sentido, por exemplo, se lim sup z (t ) for pequeno. t →∞ - Note-se que lim sup z (t ) = G ( jω0 )u0 (ver (16c)) vale para u0 ∈ R q e ω0 fixados. É t →∞ importante saber o que acontece se eles não são fixados. Efetivamente, a frequência da senoide pode variar dentro de certos limites e a amplitude da senoide também. A tabela abaixo responde a esta pergunta: Entrada u(t) Resposta z(t) Norma da entrada Norma induzida L2 L2 L∞ L∞ L∞ L∞ ∞ u2= ∫u 2 G dt ∞ 0 u u ∞ ∞ = sup max ui (t ) t i = sup u (t ) t max gi i 1 ∞ ≤ ∫ g (t ) dt 0 Tabela 1 Observe-se que as normas que aparecem dos lados direitos das igualdades acima são normas euclideanas, isto é, a raiz quadrada da soma dos quadrados das componentes do vetor. Prova dos resultados acima: ZDG, pp. 108ss. - Vamos agora calcular majorantes, que serão muito úteis, para as normas em H ∞ e L1 . Seja a matriz de transferência, com dimensões não especificadas, mas compatíveis ⎡A B⎤ G(s) = ⎢ ⎥ ∈ RH ∞ ⎣C D ⎦ (16a) Suponha que a realização (A, B, C) seja “balanceada”, ou seja, existe Σ = diag(σ 1 ,σ 2 ,...σ n ) , com σ 1 ≥ σ 2 ≥ ≥ σ n ≥ 0 e tal que AΣ + ΣA∗ + BB∗ = 0 e A∗Σ + ΣA + C ∗C = 0 . Então temos o seguinte (17) (18) Teorema: σ1 ≤ G ∞ ∞ n 0 i =1 ≤ ∫ g (t ) dt ≤ 2∑ σ i . 47 Observação: g(t) é uma matriz, igual, como se sabe, a Ce At B . A norma dentro do integrando é a norma euclidiana. Prova do teorema (18): ZDG, pp. 111s. 2.3 Cálculo das normas em L2 e H 2 Seja G(s) ∈ L2 . Recorda-se que sua norma é G2= 1 2π ∞ ∫ Traço[G ( jω )G ( jω )]dω = ∗ [ZDG, pp, 112 ss] g −∞ 2 1 2π = ∞ ∫ Traço[ g ∗ (t ) g (t )]dt . (19) −∞ É fácil verificar que a norma acima é limitada se só se a matriz de transferência G(s) for estritamente própria, isto é, G (∞) = 0 . s −1 , temos s +1 − jω − 1 jω − 1 1 + ω 2 G* ( jω )G ( jω ) = = = 1 , donde que a integral acima diverge. − jω + 1 jω + 1 1 + ω 2 Com efeito, se por exemplo, G ( s ) = E isto também se aplica para norma definida em tratar de norma própria. L2 ou H 2 , suporemos que a matriz de transferência seja estritamente - Uma primeira maneira de se calcular a norma G2= 2 1 2π ∞ H 2 . Consequentemente, quando se 1 L2 é ∫ Traço[G ( jω )G( jω )]dω = 2π j ∫ Traço[G ∗ ~ ( s )G ( s )]ds (20) −∞ A segunda integral é calculada ao longo do eixo imaginário e de um semicírculo de raio infinito no semiplano complexo da esquerda, notando-se que a contribuição da integral neste semicírculo é nula, pois a matriz de transferência é suposta estritamente própria, como dito antes, por hipótese, sem a qual a norma não é definida, donde a igualdade acima. - Alternativamente, para o cálculo da norma em L2 , temos: (21) Teorema: Seja a matriz de transferência G(s), suposta estável (isto é, BIBO estável) dada em (16a) com D = 0. Sejam Lc e Lo os gramianos de controlabilidade e observabilidade, respectivamente, que podem ser obtidos através das seguintes equações de Lyapunov: (22) ALc + Lc AT + BBT = 0 , AT Lo + Lo A + C T C = 0 . Então o quadrado da norma em L2 é dado por G 2 = Traço( B Lo B) = Traço(CLcC T ) . 2 T (23) Prova: Como G é estável, temos para t maior ou igual a zero: g (t ) , a transformada de Laplace inversa de G(s), é dada por Ce At B . Portanto, 48 ∞ ∞ 0 ∞ 0 G 2 = ∫ Traço ( g * (t ) g (t ) ) dt = ∫ Traço ( g (t ) g * (t ) ) dt 2 = ∞ A*t At At A*t ∫ Traço ( B * e C * Ce B ) dt = ∫ Traço ( Ce BB * e C *) dt . 0 0 A demonstração é concluída lembrando que os gramianos de controlabilidade e observabilidade são definidos respectivamente por ∞ ∞ Lc = ∫ e BB * e dt e Lo = ∫ e A*t C * Ce At dt , At A*t 0 0 sendo que, como já vimos, estes gramianos podem ser calculados por (22). Exemplo: Calcular a norma em • L2 do sistema em que A = -1, B = C = 1, D = 0. Solução: vamos calcular a norma pelos dois métodos: 1 Utilizando primeiramente (19), temos que G ( s ) = , donde s +1 1 . E das primeiras igualdades de (19) ou (20), temos G* ( jω )G ( jω ) = 1+ ω2 ∞ ∞ 1 π ⎛ π⎞ +∞ ∗ = Traço[ G ( j ω ) G ( j ω )] d ω ∫−∞ ∫−∞ 1 + ω 2 dω = arctg(ω ) −∞ = 2 − ⎜⎝ − 2 ⎟⎠ = π , 1 2 portanto G 2 = . 2 Agora vamos à eq. (23): Como B = C, os dois gramianos são iguais. Denominemo1 2 lo por L. Então temos de (22): - L – L +1 = 0, donde L = ½ e de (23), G 2 = . 2 2.4 Cálculo das normas em L∞ e H∞ Recorda-se que a norma de uma matriz de transferência em ess sup σ {G ( jω} . ω [ZDG, pp. 114ss] L∞ é dada por (24) O cálculo desta norma é bastante trabalhoso no caso de matriz de transferência. No caso de uma função de transferência escalar, é claro que a norma é o mais alto valor da magnitude no diagrama de Bode e é também a maior distância à origem do diagrama de Nyquist. Portanto, no caso de função de transferência escalar, a norma pode ser obtida graficamente. - Mas em geral, mesmo no caso multiváriavel, pode-se obter uma estimativa da norma por método simples, a saber, escolhe-se um conjunto de frequências relativamente próximas umas das outras, {ω1 , ω2 ,..., ω N } , e então uma (relativamente) boa estimativa da norma será 49 max σ {G ( jωk } . (25) 1≤k ≤N - No caso em que a matriz (ou função) de transferência é racional, o que ocorre com frequência, a norma pode ser computada a partir da sua realização no espaço de estado, como no Lema abaixo. (26) Lema: Seja γ > 0 e a matriz dada em (16a). Então G ∞ < γ se só se σ ( D ) < γ e a matriz H abaixo não tiver autovalor no eixo ⎡ imaginário H := ⎢ A + BR −1DT C −1 ⎣ −C ( I + DR D )C onde R = γ I − DT D T T ⎤ ⎥, −( A + BR D C ) ⎦ BR −1BT −1 T T 2 Prova: ZDG, p. 115. O lema anterior sugere o seguinte algoritmo para calcular a norma em L∞ Algoritmo: (a) Escolher um limitante superior γ u e um limitante inferior γ l tal que γ l ≤ G (b) Se γu −γl for menor ou igual ao nível especificado, pare, obtendo G γl ∞ ≈ (27) ∞ ≤ γu ; γu + γl . γl Em caso contrario, ir ao passo seguinte; (c) γ = γu + γl γl (d) Testar se G ∞ < γ usando o Lema, isto é, conferindo se σ ( D ) < γ e se H não tem autovalor no eixo imaginário com este valor de γ ; (e) Se H tiver algum autovalor no eixo imaginário, fazer γ l = γ ; em caso contrario, fazer γ u = γ ; em qualquer caso, voltar ao passo (b). Em vista do teorema do maximum modulus, a norma em forma. H∞ é calculada da mesma 3º. Capítulo: Estabilidade e desempenho em sistemas com realimentação [ZDG, pp. 117 ss] Em virtualmente todos os sistemas bem sucedidos, sejam da natureza, sejam aqueles construídos pelo engenho humano, existem malhas de realimentação. Efetivamente, a realimentação é o mecanismo pelo qual se compara a resposta do sistema com um sinal desejado. Mais ainda, a realimentação aumenta a robustez da estabilidade de um sistema. Em vista disso, a realimentação é um conceito central em qualquer curso de controle. Com efeito, trata-se de “controle automático”, o qual é obtido graças à realimentação. 50 Consideremos o diagrama de blocos abaixo, que é a configuração padrão quando se fala em sistema com realimentação. di d K r P u y up _ n Figura 1 Na figura acima, como nas que se seguirão, nos somadores, o sinal é o (+) a não ser que conste o contrario, como o sinal (–) à esquerda na figura. 3.1 Sistemas com realimentação “bem postos” [ZDG, pp. 119 ss] Suponha que no diagrama acima P e K sejam matrizes racionais. Então a primeira pergunta que se põe é saber se o diagrama de blocos faz sentido, isto é, se é fisicamente realizável. s −1 e K =1, ambas funções racionais s+2 s+2 s −1 próprias. É fácil verificar que u = (r − n − d ) − di . Ou seja, a função de 3 3 Considere por exemplo o caso em que P = − transferência entre a saída de K e os sinais exógenos é uma função de transferência imprópria. É costume dizer que tais funções de transferência não são fisicamente realizáveis. O que se quer dizer é que se, por exemplo, um sinal exógeno é um degrau, a saída em K , que é u, será um impulso. Mas um impulso é um “centelhamento” que “queima” qualquer dispositivo, por isso se diz que tal função de transferência não é realizável. Temos então a Definição: (28) Um sistema com realimentação é dito bem posto se todas as funções (matrizes) de transferência no sistema são bem definidas e próprias. É fácil verificar, por simples inspeção e pequenos cálculos, que se, por exemplo, as funções de transferência entre a entrada de K e cada sinal exógeno for bem definida e própria, então todas as outras matrizes de transferência também o serão. Alternativamente, é fácil ver também que se as matrizes de transferência entre u e os sinais exógenos di e d forem bem definidas e próprias, as outras duas entre u e os sinais exógenos r e n também o serão. E o mesmo vale para qualquer sinal no interior da malha. 51 Como consequência, para saber se um sistema é bem posto, basta verificar se a função ⎡ di ⎤ (matriz) de transferência entre u e ⎢ ⎥ existe e é própria. ⎣d ⎦ Para ser coerente com a notação posterior do curso, definamos K̂ = - K . Reagrupando os sinais exógenos, temos o diagrama de blocos equivalente na figura abaixo w1 P y2 e1 y1 e2 K̂ w2 Figura 2 Em vista do que foi dito antes, o sistema é bem posto se só se a função (matriz) de ⎡ w1 ⎤ ⎥ e e1 (ou e2 ou y1 ou y2 ) existe e é própria. ⎣ w2 ⎦ transferência entre ⎢ Lema: O sistema da figura 2 é bem posto se só se I − Kˆ (∞) P (∞) tiver inversa. (29) Prova: Do diagrama de blocos temos imediatamente ˆ , e = w + Pe . e1 = w1 + Ke 2 2 2 1 Destas duas eqs., temos ˆ )e = w + Kw ˆ ( I − KP 1 1 2 Ora, para que exista solução para esta eq. para todo w1 e w2 , é necessário e suficiente ˆ seja não singular, ou seja, tenha inversa. Mas para que isto que a matriz I − KP aconteça, é necessário e suficiente que ela seja não singular em qualquer ponto do plano complexo. E para que a inversa seja própria, é necessário e suficiente que a matriz exista • no ponto { ∞ }. Observações: 1) Vamos verificar que a condição do Lema (29) é equivalente a cada uma das duas seguintes: ⎡ I − Kˆ (∞) ⎤ ⎢ ⎥ e − ∞ P ( ) I ⎣ ⎦ ˆ I − P (∞) K (∞) têm inversa. (30) 52 Prova: ⎡ I 0 ⎤ ⎡ I − Kˆ (∞) P (∞) − Kˆ (∞) ⎤ − Kˆ (∞) ⎤ ⎡ I ⎢ ⎥⎢ ⎥ . Claro que o lado ⎥=⎢ ∞ P ( ) I − ∞ P ( ) I 0 I ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎡ I − Kˆ (∞) ⎤ esquerdo desta eq. tem inversa se só se ⎢ ⎥ tiver, enquanto que o lado − ∞ P ( ) I ⎣ ⎦ direito tem inversa se só se I − Kˆ (∞) P (∞) tiver. Por outro lado, ⎤ − Kˆ (∞) 0⎤ ⎡ I ⎡ I − Kˆ (∞) ⎤ ⎡ I = ⎥ . E exatamente o mesmo ⎥ ⎢ ⎢ P (∞ ) I ⎥ ⎢ I ⎦ ⎣⎢0 I − P (∞) Kˆ (∞) ⎦⎥ ⎣ ⎦ ⎣ − P (∞ ) raciocínio que na eq. acima conclui a prova. • 2) Para verificar se um sistema é bem posto, podemos também usar uma realização no espaço de estado. Com efeito, seja ⎡ Aˆ Bˆ ⎤ ⎡A B⎤ ˆ P( s) = ⎢ ⎥ , K (s) = ⎢ ˆ ˆ ⎥ ⎣C D ⎦ ⎢⎣C D ⎥⎦ (31) Ora, é claro que P (∞) = D e Kˆ (∞ ) = Dˆ . Portanto, a condição (30) é: ⎡ I − Dˆ ⎤ (32) ⎥ tem inversa. − D I ⎣ ⎦ Ocorre que a planta P é frequentemente estritamente própria, pois a maioria dos sistemas a matriz ⎢ que queremos controlar tem alguma “inércia” (mecânica, térmica,...). Mas isto significa que frequentemente temos D = 0 e portanto a condição (32) é satisfeita para todo D̂ . 3.2 Estabilidade interna [ZDG, pp. 121 ss] Considere o diagrama de blocos da figura 2 e suponha que as realizações das matrizes de transferência dadas em (31) sejam estabilizaveis e detectáveis. Sejam x e x̂ os estados de P e K̂ , respectivamente. Então podemos escrever x = Ax + Be1 ; e2 = Cx + De1; ˆ ˆ + Be ˆ ; xˆ = Ax (33) 2 ˆ ˆ + De ˆ . e1 = Cx 2 (34) Definição: Suponha que o sistema da figura 2 seja bem posto. Ele é dito internamente estável se a origem do espaço de estado constituído pelos dois estados, ( x, xˆ ) = (0,0) , for 53 assintoticamente estável, isto é, se os estados ( x, xˆ ) tenderem a zero a partir de quaisquer condições iniciais, com w1 = 0 e w2 = 0. Da 2ª. e 4ª. eqs. de (33), vem −1 ⎡ e1 ⎤ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎥⎢ ⎥. ⎥ ⎢ ⎢e ⎥ = ⎢ ⎣ 2 ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦ ⎣ xˆ ⎦ Observe-se que a existência da inversa acima é garantida pelo fato de o sistema ser bem posto. Substituindo isto na 1ª. e 3ª. eqs, de (33), temos ⎡ x⎤ ⎡ x⎤ ⎢ ⎥ = A ⎢ ⎥ , onde ⎣ xˆ ⎦ ⎣ xˆ ⎦ −1 ⎡ A 0 ⎤ ⎡B 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤ + A=⎢ ⎥. ⎥ ⎢ ˆ⎥ ⎢ ˆ⎥⎢ ⎣ 0 A ⎦ ⎣ 0 B ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦ (34*) É claro que estabilidade interna é equivalente à condição que a matriz A seja Hurwitz, ou seja, tenha todos os seus autovalores no semiplano complexo aberto da esquerda. Formalizamos isto no Lema: O sistema da figura 2 é internamente estável se só se a matriz A for Hurwitz. (35) Observe-se que na figura 2 a matriz de transferência entre os “erros” e os sinais exógenos é −1 ⎡ e1 ⎤ ⎡ I − Kˆ ⎤ ⎡ w1 ⎤ ⎥ ⎢ ⎥ ⎢e ⎥ = ⎢ ⎣ 2 ⎦ ⎣ − P I ⎦ ⎣ w2 ⎦ (36) A seguir temos o importante resultado (37) Lema: O sistema da figura 2 é internamente estável se só se a matriz de transferência dada em −1 ⎡ I − Kˆ ⎤ (36), ⎢ ⎥ , pertencer a P I − ⎣ ⎦ RH ∞ . Prova: Em primeiro lugar note-se que dizer que uma matriz racional pertence a RH ∞ é equivalente a afirmar que seus polos estão no semiplano aberto da esquerda. A seguir, observe-se que 0 ⎤ ⎡ I 0 ⎤ ⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤ ⎡ I = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥. ⎢P I ⎥ ⎣ ⎦ ⎣ − P I ⎦ ⎣ 0 I ⎦ ⎣ 0 I − PKˆ ⎦ 54 Portanto, ⎡ I − Kˆ ⎤ ⎢ ⎥= ⎣−P I ⎦ −1 0 ⎤ ⎡ I 0⎤ ⎡ I ⎥ ⎢P I ⎥ ⎢ ⎣ ⎦ ⎣ 0 I − PKˆ ⎦ −1 ⎡ I Kˆ ⎤ ⎢ ⎥ . ⎣0 I ⎦ Ou seja, −1 0 ⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤ ⎡ I ⎤ ⎡ I 0⎤ = ⎢ ⎥ ⎢ ⎥⎢ ⎥⎢ ⎥ − 1 ⎣−P I ⎦ ⎣ 0 I ⎦ ⎣ 0 ( I − PKˆ ) ⎦ ⎣ P I ⎦ ⎡ I + Kˆ ( I − PKˆ ) −1 P Kˆ ( I − PKˆ ) −1 ⎤ = ⎢ ⎥. −1 ( I − PKˆ ) −1 ⎥⎦ ⎢⎣ ( I − PKˆ ) P (38a) E é imediato (ou quase...) obter-se a seguinte fórmula: −1 ˆ ) −1 ⎡ ( I − KP ⎡ I − Kˆ ⎤ = ⎢ ⎢ ⎥ ˆ ) −1 ⎢⎣ P ( I − KP ⎣−P I ⎦ Kˆ ( I − PKˆ ) −1 ⎤ ⎥. ( I − PKˆ ) −1 ⎦⎥ (38b) Sejam ⎡ ˆ ˆ⎤ ⎡A B⎤ ˆ (s) = ⎢ A B ⎥ e P(s) = ⎢ K ⎥ ⎣C D ⎦ ⎢⎣Cˆ Dˆ ⎥⎦ realizações estabilizáveis e detectáveis de P e K̂ , respectivamente, ou seja, não há cancelamento de modos instáveis nem em P nem em K̂ . Seja y1 a saída de P e y2 a saída de K̂ . Então temos as eqs. ⎡ x ⎤ ⎡ A 0 ⎤ ⎡ x ⎤ ⎡ B 0 ⎤ ⎡ e1 ⎤ + ⎢ ˆ⎥ = ⎢ ˆ ⎥ ⎢⎣ xˆ ⎥⎦ ⎢ 0 Bˆ ⎥ ⎢⎣ e2 ⎥⎦ x A 0 ⎣ ⎦ ⎣ ⎣ ⎦ ⎦ ⎡ y1 ⎤ ⎡C 0 ⎤ ⎡ x ⎤ ⎡ D 0 ⎤ ⎡ e1 ⎤ ⎥⎢ ⎥+⎢ ⎥⎢ ⎥ ⎢y ⎥ = ⎢ ⎣ 2 ⎦ ⎣ 0 Cˆ ⎦ ⎣ xˆ ⎦ ⎣ 0 Dˆ ⎦ ⎣ e2 ⎦ ⎡ e1 ⎤ ⎡ w1 ⎤ ⎡0 I ⎤ ⎡ y1 ⎤ ⎢e ⎥ = ⎢ w ⎥ + ⎢ I 0⎥ ⎢ y ⎥ ⎦⎣ 2⎦ ⎣ 2⎦ ⎣ 2⎦ ⎣ (39) Para simplificar a notação no desenvolvimento, seja ⎡e ⎤ ⎡w ⎤ ⎡y ⎤ e := ⎢ 1 ⎥ , w := ⎢ 1 ⎥ , y := ⎢ 1 ⎥ . ⎣ e2 ⎦ ⎣ w2 ⎦ ⎣ y2 ⎦ (40) Substituindo a 2ª. eq. de (39) na 3ª., temos ⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎡ 0 Dˆ ⎤ ⎡ 0 I ⎤ ⎛ ⎡C 0 ⎤ ⎡ x ⎤ ⎡ D 0 ⎤ ⎞ = e = w+ ⎢ e + + w ⎜ ⎟ ⎢ ⎥⎢ ⎥+⎢ ⎥⎢ ⎥ ⎢ ⎥e . ⎥ ⎥ ⎢ ⎣ I 0 ⎦ ⎜⎝ ⎣ 0 Cˆ ⎦ ⎣ xˆ ⎦ ⎣ 0 Dˆ ⎦ ⎟⎠ ⎣C 0 ⎦ ⎣ xˆ ⎦ ⎣ D 0 ⎦ E, portanto, 55 ⎡ I − Dˆ ⎤ ⎡ e1 ⎤ ⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎡ w1 ⎤ ⎥⎢ ⎥+ ⎢ ⎥. ⎢ ⎥⎢ ⎥ = ⎢ ⎣ − D I ⎦ ⎣e2 ⎦ ⎣C 0 ⎦ ⎣ xˆ ⎦ ⎣ w2 ⎦ (Somente se): Sendo o sistema internamente estável, ele é bem posto, o que implica que I − DDˆ = ( I − PKˆ )(∞) tem inversa e, portanto, I − PKˆ tem inversa. Mais ainda, de acordo com o lema anterior, os autovalores de A , dada em (34*), estão no semiplano aberto da esquerda. Donde se segue que a matriz de transferência (36) (ou (38)), está em RH ∞ . (Se): Se a matriz (38) está em RH ∞ , então, em particular o bloco (2,2) de (38a), −1 ( I − PKˆ ) , é própria, o que implica que I − P (∞) Kˆ (∞) = I − DDˆ é não singular. − Dˆ ⎤ ⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I Mas ⎢ = ⎥. ⎥ ⎢ ⎥⎢ ⎣ D I ⎦ ⎣ − D I ⎦ ⎢⎣ 0 I − DDˆ ⎥⎦ ⎡ I − Dˆ ⎤ Consequentemente, D := ⎢ ⎥ é não singular. ⎣−D I ⎦ A seguir, pode-se provar que a matriz de transferência entre ⎡ e1 ⎤ ⎡ w1 ⎤ ⎢e ⎥ e ⎢ w ⎥ em termos das realizações no espaço de estado é ⎣ 2⎦ ⎣ 2⎦ ⎛ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤ ⎡ B 0 ⎤ ⎞ −1 D −1 ⎜ ⎢ ( sI − A) −1 ⎢ +⎢ ⎥ ⎥ ⎥ ⎟⎟ D , ⎜ −D I ˆ B 0 C 0 ⎦ ⎣ ⎣ ⎦⎠ ⎦ ⎝⎣ onde A é dada em (34*). Mas por hipótese esta matriz de transferência pertence a RH ∞ , donde se segue que a ⎡0 ⎡B 0 ⎤ Cˆ ⎤ −1 ⎥ ( sI − A) ⎢ ⎥ pertence a RH ∞ . Mas sendo ˆ 0 B C 0 ⎣ ⎦ ⎣ ⎦ ⎛ ⎡ B 0 ⎤ ⎡ 0 Cˆ ⎤ ⎞ , ( A, B, C ) e ( Aˆ , Bˆ , Cˆ ) estabilizaveis e detectáveis, ⎜ Aˆ , ⎢ ⎥ ⎟⎟ também é ⎜ ˆ⎥ ⎢ ⎝ ⎣ 0 B ⎦ ⎣C 0 ⎦ ⎠ matriz de transferência ⎢ estabilizável e detectável. Donde se conclui que A tem os seus autovalores no semiplano aberto da esquerda e, • portanto, o sistema da figura 2 é internamente estável. Observação: O Lema (37), cuja prova é bastante macetosa, exprime uma realidade simples e já conhecida, mas generalizando-a. Com efeito, sabemos que se uma planta for estabilizável e detectável, ela será assintoticamente estável se só se sua matriz de transferência for BIBO estável. Ora, no caso presente, a “planta” do sistema em malha fechada tem por 56 −1 ⎡ I − Kˆ ⎤ matriz de transferência a que é dada no Lema, a saber, ⎢ ⎥ , que é a matriz de P I − ⎣ ⎦ ⎡ e1 ⎤ ⎡ w1 ⎤ transferência entre ⎢ ⎥ e ⎢ ⎥ . ⎣e2 ⎦ ⎣ w2 ⎦ E o que o Lema diz é que se os “componentes” desta “planta”, a saber, as realizações no espaço de estado de P e K̂ dadas pelas duas primeiras de (39) forem estabilizáveis e detectáveis, então a realização no espaço de estado da “planta” é assintoticamente estável se só se sua matriz de transferência for BIBO estável. Observação: O Lema diz que para checar a estabilidade interna é preciso conferir a estabilidade de quatro matrizes de transferência. Mas ao invés das quatro do Lema, podem-se checar as ⎡ w1 ⎤ ⎥ e as respostas da ⎣ w2 ⎦ (outras quatro) matrizes de transferência entre os sinais exógenos ⎢ ⎡ y1 ⎤ ⎥. ⎣ y2 ⎦ planta e compensador, ⎢ Observação: É comum (ou seria melhor dizer que era comum?) entre os “práticos”, achar que o sistema em malha fechada é estável se a matriz de transferência entre a saída da planta e o primeiro sinal exógeno, tipicamente um sinal a ser rastreado, o for. Isto é falso, como mostra o Lema (37), há que conferir quatro matrizes de transferência. Corolário: (41) Suponha que K̂ ∈ RH ∞ . Então o sistema da figura 2 é internamente estável se só se ˆ ) −1 ∈ RH . for bem posto e P ( I − KP ∞ Prova: A necessidade é obvia a partir do bloco (2,1) de (38b). Para provar a suficiência, comparar (38a) e (38b) e, a partir (38a), vemos que basta provar que ( I − PKˆ ) −1 ∈ RH ∞ . Ora, ( I − PKˆ ) −1 ( I − PKˆ ) = I ; donde ( I − PKˆ ) −1 − ( I − PKˆ ) −1 PKˆ = I , ou seja, ˆ ) −1 Kˆ , que pertence a ( I − PKˆ ) −1 = I + ( I − PKˆ ) −1 PKˆ = I + P ( I − KP com as hipóteses. RH ∞ , de acordo • (42) Corolário: Suponha que P ∈ RH ∞ . Então o sistema da figura 2 é internamente estável se só se for bem posto e Kˆ ( I − PKˆ ) −1 ∈ RH ∞ . Prova: análoga à do Corolário anterior. 57 Corolário: Suponha que tanto P como K̂ pertençam a (43) RH ∞ . Então o sistema da figura 2 é internamente estável se só se ( I − PKˆ ) ∈ RH ∞ . Prova: como as anteriores, mas mais fácil. • No caso geral, temos: Teorema: (44) Seja nk := numero de polos de K̂ no semiplano fechado da direita e n p := numero de polos de P no semiplano fechado da direita. Então o sistema da figura 2 é internamente estável se só se ele for bem posto e (i) o número de polos de P (s) K̂ (s) no semiplano fechado da direita for nk + n p ; (ii) φ ( s ) := det[ I − P ( s ) Kˆ ( s )] tiver todos seus zeros no semiplano aberto da esquerda, o que é equivalente à estabilidade de [ I − P ( s ) Kˆ ( s )]−1 . Prova: Usando as fórmulas de associação de matrizes de transferência (32a) e (32b) do primeiro capítulo, temos imediatamente ⎡ A BCˆ ⎢ PKˆ = ⎢ 0 Aˆ ⎢ ˆ ⎢⎣C DC ⎡ A BDˆ ⎤ ⎥ ⎢ Bˆ ⎥ e I − PKˆ = ⎢ 0 ⎥ ⎢ DDˆ ⎥⎦ ⎢⎣ −C BCˆ Aˆ − DCˆ BDˆ ⎤ ⎥ Bˆ ⎥ ⎥ I − DDˆ ⎥⎦ Para calcularmos ( I − PKˆ ) −1 , usamos (32d), do 1º. Capitulo, relativo à figura 3, com G = I e G = PKˆ . Obtem-se, após muitas contas (e com grande probabalidade de erros 1 2 na longa dedução). ⎡A B⎤ ( I − PKˆ ) −1 = ⎢ ⎥ ⎣C D ⎦ onde ⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ −1 A=⎢ ⎥ + ⎢ ⎥ ( I − DDˆ ) ⎡⎣C DCˆ ⎤⎦ , ˆ ˆ ⎣⎢ 0 A ⎥⎦ ⎢⎣ B ⎦⎥ C = ( I − DDˆ ) −1 ⎡⎣C DCˆ ⎤⎦ , D = ( I − DDˆ ) −1 . ⎡ BDˆ ⎤ B = ⎢ ⎥ ( I − DDˆ ) −1 , ⎣⎢ Bˆ ⎦⎥ (#) É sempre bom confereir, multiplicando a inversa por I − PKˆ para verificar se se obtem a matriz identidade. Vamos verificar que A = A dada em (34*) acima. Para isso, repetimos (34*): 58 −1 ⎡ A 0 ⎤ ⎡ B 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤ A=⎢ + ⎥ ⎥ ⎢ ˆ⎥ ⎢ ˆ⎥⎢ ⎣ 0 A ⎦ ⎣ 0 B ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦ (*) − Dˆ ⎤ ⎡ I − Dˆ ⎤ ⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I Ora, ⎢ = ∴ = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ ⎣ D I ⎦ ⎣ − D I ⎦ ⎣⎢0 I − DDˆ ⎦⎥ ⎣ − D I ⎦ ⎣ − D I ⎦ ⎣⎢0 I − DDˆ ⎦⎥ 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I 0⎤ ⎡ I =⎢ ⎢ ⎥⎢ ⎥ , donde ⎥ ⎣ − D I ⎦ ⎣0 I − DDˆ ⎦ ⎣0 I ⎦ −1 0 ⎡ I − Dˆ ⎤ ⎡ I Dˆ ⎤ ⎡ I ⎤ ⎡ I 0 ⎤ ⎡ I + Dˆ ( I − DDˆ ) −1 D Dˆ ( I − DDˆ ) −1 ⎤ = ⎥. ⎢ ⎥ ⎢ ⎥⎢ ⎥= ⎢ −1 ⎥ ⎢ −1 ( I − DDˆ ) −1 ⎥⎦ ⎣−D I ⎦ ⎣0 I ⎦ ⎣ 0 ( I − DDˆ ) ⎦ ⎣ D I ⎦ ⎢⎣ ( I − DDˆ ) D Substituindo isto em (*) acima, concluimos efetivamente A = A . Portanto, o SMF é internamente estável se só se A = A tiver todos os auto-valores no semiplano aberto da esquerda. Ora, sendo o sistema internamente estável, ( I − PKˆ ) −1 ∈ RH ∞ , o que implica que todos os zeros de det( I − PKˆ ) −1 estão no semiplano aberto da esquerda. Portanto só nos resta provar que, dada a condição (ii), a condição (i) é necessária e suficiente para a estabilidade interna. Observe-se que a condição (i) afirma que não há cancelamento de modos instáveis no produto P (s) K̂ (s). Agora observe-se de (#) acima que ⎡ A BCˆ ⎤ A=⎢ ⎥ + B ⎡⎣C DCˆ ⎤⎦ , donde ˆ A 0 ⎣⎢ ⎦⎥ ⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎤ ˆ⎤ ⎡ [ sI − A B ] = ⎢ ⎢ B C DC B − − ⎥ ⎢ ⎥ ⎥ ⎣ ⎦ ⎢⎣ ⎣ 0 sI ⎦ ⎣⎢ 0 Aˆ ⎦⎥ ⎥⎦ 0⎤ I ⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎤⎡ ˆ⎤ ⎡ ⎢ ⎥ ∼ ⎢⎢ − − B C DC B ⎥ ⎢ ⎥ ⎥ ⎣ ⎦ ⎢⎣ ⎣ 0 sI ⎦ ⎣⎢ 0 Aˆ ⎦⎥ ⎥⎦ ⎢⎣ ⎣⎡C DCˆ ⎦⎤ I ⎥⎦ ⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎤ ⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ ⎤ = = ⎢⎢ − B − ⎥ ⎢ ⎥ ⎥ ⎢ ⎥⎥ . ⎥ ⎢ ⎢ ⎥ ⎢ ⎢⎣ ⎣ 0 sI ⎦ ⎢⎣ 0 Aˆ ⎥⎦ ⎥⎦ ⎢⎣ ⎣ 0 sI ⎦ ⎢⎣ 0 Aˆ ⎥⎦ ⎢⎣ Bˆ ⎥⎦ ⎥⎦ ⎛ ⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ ⎞ Portanto, o par ( A, B ) é estabilizável se só se ⎜ ⎢ ⎥ , ⎢ ⎥ ⎟ o for. ⎜ ⎢ 0 Aˆ ⎥ ⎢ Bˆ ⎥ ⎟ ⎦ ⎣ ⎦⎠ ⎝⎣ Pelo mesmo método é fácil provar que ( C , A ) é detectável se só se ⎛ ⎡ A BCˆ ⎤ ⎞ ⎜ ⎡C DCˆ ⎤ , ⎢ ⎟ ⎦ 0 Aˆ ⎥ ⎟ o for. ⎜⎣ ⎢ ⎥ ⎣ ⎦⎠ ⎝ Ora, estas duas condições são equivalentes à condição (i) do teorema, isto é, não há cancelamento no produto PKˆ . • 59 Com este resultado, fica fácil a demonstração da versão multivariável do critério de Nyquist: (45) Teorema da estabilidade de Nyquist: O sistema é internamente estável se só se for bem posto, a condição (i) do teorema anterior for satisfeita e o diagrama de Nyquist de φ ( jω ) (dado em (ii) do teorema anterior) para −∞ ≤ ω ≤ ∞ envolver a origem do plano complexo, (0,0), nk + n p vezes no sentido anti-horário. Prova: imediata do teorema anterior e do conceito do diagrama de Nyquist. • 3.3 Fatorações coprimas em RH ∞ Recorda-se que dois polinômios com coeficientes reais, m( s ) e n( s ) , são coprimos se só se o maior divisor comum deles for um (ou, geralmente, um número real qualquer); equivalentemente, se eles não tiverem algum zero em comum; e ainda, equivalentemente, se existirem polinômios x( s ) e y ( s ) tais que x( s )m( s ) + y ( s )n( s ) = 1 , (ou igual a um número real qualquer em vez de um). A equação acima é uma equação diofantina e a igualdade acima é chamada de identidade de Bezout. Esta idéia é estendida para varias outras estruturas algébricas, inclusive para a que nos interessa neste curso, RH ∞ . Lembramos que as matrizes próprias e estáveis pertencem a enorme da estrutura RH ∞ daí a importância RH ∞ . Ou seja, duas funções m( s ) e n( s ) em RH ∞ são coprimas se só se existirem funções x( s ) e y ( s ) em RH ∞ tais que (46) x ( s ) m( s ) + y ( s ) n( s ) = 1 Equivalentemente, m( s ) e n( s ) são coprimas se só se todo divisor comum de m( s ) e n( s ) em RH ∞ tiver inversa também em RH ∞ , ou seja: Para todo h em RH ∞ tal que h, mh −1 , nh −1 ∈ RH ∞ tenhamos h −1 ∈ RH ∞ . E para o caso multivariável, temos Definição: Duas matrizes M e N em (47) (48) se elas tiverem RH ∞ são coprimas à direita (c.d.) em RH ∞ o mesmo número de colunas e existirem matrizes X r e Yr em RH ∞ tais que ⎡M ⎤ (49a) Yr ] ⎢ ⎥ = X r M + Yr N = I . N ⎣ ⎦ De modo semelhante, M e N em RH ∞ são coprimas à esquerda (c.e.) em RH ∞ se elas tiverem o mesmo número de linhas e existirem matrizes X l e Yl tais que [Xr 60 ⎡⎣ M ⎡X ⎤ N ⎤⎦ ⎢ l ⎥ = MX l + NYl = I . ⎣ Yl ⎦ (49b) ⎡M ⎤ Observe-se que a primeira definição acima é equivalente a afirmar que a matriz ⎢ ⎥ ⎣N⎦ RH ∞ , enquanto que a segunda é equivalente a dizer que a ⎡⎣ M N ⎤⎦ tem inversa à direita em RH ∞ . tem inversa à esquerda em matriz Seja agora P uma matriz racional com coeficientes reais. Uma fatoração coprima à direita (f.c.d.) de P é uma fatoração P = NM −1 , onde M e N são coprimas à direita em RH ∞ . De modo semelhante, uma fatoração coprima à esquerda (f.c.e.) tem a forma P = M −1 N , onde M e N são coprimas à esquerda em RH ∞ . R P ( s) o conjunto das matrizes racionais próprias com coeficientes reais. Dizemos que P ∈ R P ( s ) tem uma dupla fatoração coprima se P tiver uma f.c.d. P = NM −1 e uma f.c.e. P = M −1 N e se existirem matrizes X r , Yr , X l , Yl ∈ RH ∞ tais Denotemos por que ⎡ Xr ⎢− N ⎣ Yr ⎤ ⎡ M M ⎥⎦ ⎢⎣ N −Yl ⎤ =I. X l ⎥⎦ (50a) Claro que na igualdade acima, uma matriz é a inversa da outra, ambas sendo quadradas, como se pode verificar facilmente. Donde, comutando o produto, ⎡M ⎢N ⎣ −Yl ⎤ ⎡ X r X l ⎥⎦ ⎢⎣ − N Yr ⎤ =I. M ⎥⎦ (50b) As duas igualdades acima nos oferecem, cada qual, quatro equações. É claro que em todo este desenvolvimento, estamos supondo que M e M sejam matrizes quadradas. (Tal não ocorre em outras aplicações desta teoria). Teorema: Seja P ( s ) uma matriz racional própria com coeficientes reais: (51) ⎡A B⎤ P( s) = ⎢ ⎥, ⎣C D ⎦ onde a realização indicada é estabilizavel e detectável. Sejam F e L tais que A + BF e A + LC sejam estáveis. Definam-se 61 ⎡M ⎢N ⎣ ⎡ Xr ⎢ ⎣− N ⎡ A + BF −Yl ⎤ ⎢ F = X l ⎥⎦ ⎢ ⎢⎣C + DF ⎡ A + LC Yr ⎤ ⎢ F = M ⎥⎦ ⎢ ⎢⎣ C −L⎤ 0 ⎥⎥ , I − D I ⎥⎦ B − ( B + LD ) I −D (52) L⎤ 0 ⎥⎥ . I ⎥⎦ (53) Então P = NM −1 = M −1 N são f.c.d. e f.c.e., respectivamente. Além disso, as igualdades (50) são satisfeitas. Prova (esboço de esboço): Vamos verificar que P = NM −1 é efetivamente uma f.c.d. Que M −1 N seja uma f.c.e. prova-se de modo dual. Ora, de (50a) ou (49a) devemos ter X r M + Yr N = I . Mas de (53) e (52), temos X r M + Yr N = ⎡ A + LC ⎢ F ⎣ −( B + LD) ⎤ ⎡ A + BF ⎥⎢ F I ⎦⎣ B ⎤ ⎡ A + LC + I ⎥⎦ ⎢⎣ F L ⎤ ⎡ A + BF 0 ⎥⎦ ⎢⎣C + DF B⎤ D ⎥⎦ Agora reportamo-nos para o produto de duas matrizes de transferência, em (32a) do 1º. Capítulo, obtendo ⎡ A + LC ⎢ 0 ⎢ ⎢⎣ F −( B + LD) F A + BF F −( B + LD ) ⎤ ⎡ A + LC ⎥+⎢ 0 B ⎥ ⎢ ⎥⎦ ⎢⎣ F I L(C + DF ) LD ⎤ A + BF B ⎥⎥ 0 0 ⎥⎦ E agora usamos a fórmula da soma de duas matrizes de transferência, dada em (32b) do 1º Capítulo, obtendo ⎡ A + LC ⎢ 0 ⎢ X r M + Yr N = ⎢ 0 ⎢ ⎢ 0 ⎢⎣ F −( B + LD) F 0 A + BF 0 0 A + LC 0 F 0 F −( B + LD) ⎤ ⎥ 0 B ⎥ L(C + DF ) LD ⎥ ⎥ A + BF B ⎥ ⎥⎦ I 0 0 Definamos como A, B, C e D = I as matrizes acima, ou seja, 62 ( X r M + Yr N = C sI − A ) −1 B+I ; a seguir, pré-multiplicamos a matriz B por uma matriz T não singular e tendo que posmultiplicar a matriz C por T −1 , pois ( C sI − A ) −1 ( B + I = CT −1T sI − A ) −1 ( T −1TB + I = CT −1 sI − TAT −1 ) −1 TB + I . Como vemos, A tem que ser pré-multiplicada por T e pós-multiplicada por T −1 . ( Através de escolha de T conveniente, obtem-se C sI − A ) −1 B = 0, e portanto efetivamente, temos X r M + Yr N = I. A prova do teorema inclui ainda a demonstração das outras três igualdades de (50a). • Observação: Observe-se que se P for estável, então as eqs. (52) e (53) são satisfeitas com X r = X l = I , Yr = Yl = 0 , N = N = P , M = I , M = I . (54) As fatorações coprimas têm uma interpretação em termos de realimentação, como se segue: Sejam as eqs. de estado de um sistema: x = Ax + Bu , y = Cx + Du . Façamos uma realimentação de estado neste sistema: u= Fx+v. Ou seja, x = ( A + BF ) x + Bv , y = (C + DF ) x + Dv . Abusando a notação, isto é, usando a mesma letra para a variável e sua transformada de Laplace, temos da eq. diferencial ( sI − A − BF ) x = Bv ∴ x = ( sI − A − BF ) −1 Bv e de u= Fx+v, obtemos a matriz de transferência entre u e v: ⎡ A + BF M (s) = ⎢ ⎣ F B⎤ , I ⎥⎦ (55) que aparece em (52), enquanto que a matriz de transferência de v para y é: ⎡ A + BF N (s) = ⎢ ⎣ C + DF B⎤ . D ⎥⎦ (56) que também aparece em (52). De modo que u = Mv , y = Nv. 63 Considere de novo o diagrama de blocos da figura 2. Sejam as fatorações coprimas à direita e à esquerda de P como definidas antes e de K̂ : K̂ = UV −1 = V −1U . (57) Lema: (58) Considere o sistema da figura 2. As seguintes condições são equivalentes: (i) O sistema é internamente estável; ⎡M U⎤ tem inversa em RH ∞ ; V ⎥⎦ ⎡ V −U ⎤ (iii) ⎢ ⎥ tem inversa em RH ∞ ; ⎣− N M ⎦ (ii) ⎢ ⎣N RH ∞ ; tem inversa em RH ∞ . (iv) MV − NU tem inversa em (v) VM − UN Prova: Como vimos, estabilidade interna é equivalente a −1 −1 ⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤ ⎥ ∈ RH ∞ . ⎢ ⎥ ∈ RH ∞ , ou seja, ⎢ ⎣P I ⎦ ⎣−P I ⎦ ⎡ I Kˆ ⎤ ⎡ I UV −1 ⎤ ⎡ M U ⎤ ⎡ M −1 0 ⎤ Ora, ⎢ ⎥=⎢ ⎥=⎢ ⎥. ⎥⎢ −1 I ⎦ ⎣ N V ⎦ ⎣ 0 V −1 ⎦ ⎣ P I ⎦ ⎣ NM −1 ⎡ I Kˆ ⎤ ⎡M Donde, ⎢ ⎥ =⎢ ⎣0 ⎣P I ⎦ 0 ⎤ ⎡M V ⎥⎦ ⎢⎣ N −1 U⎤ . V ⎥⎦ (59) Agora se observe que ⎡I ⎢0 ⎢ ⎢−I ⎢ ⎣0 0 0⎤ ⎡ M 0 0 ⎥⎥ ⎢⎢ 0 I 0⎥ ⎢ M ⎥⎢ 0 I⎦⎣N 0 I 0 −I 0 ⎤ ⎡M V ⎥⎥ ⎢⎢ 0 = U⎥ ⎢ 0 ⎥ ⎢ V⎦ ⎣N 0⎤ V ⎥⎥ . U⎥ ⎥ 0⎦ Note que a segunda matriz do lado esquerdo é composta das matrizes “numerador” e “denominador” de (59). A primeira matriz do lado esquerdo desta tem posto cheio e, portanto, ao pósmultiplicá-la pela segunda matriz, o posto desta não se altera. Ora, a matriz do lado direito tem claramente posto cheio, pelo fato de os pares (M, N) e (V, U) serem c. d. Portanto, a segunda matriz do lado esquerdo também tem posto cheio e, portanto as matrizes do lado direito de (59) são c. d. Daí que o sistema é internamente estável se só se ⎡M ⎢N ⎣ −1 U⎤ ∈ RH ∞ , o que prova a equivalência das condições (i) e (ii). V ⎥⎦ A equivalência das condições (i) e (iii) é provada de forma semelhante. 64 Agora observe que ⎡V ⎢ ⎣− N −U ⎤ ⎡ M ⎥⎢ M ⎦⎣N U ⎤ ⎡VM − UN =⎢ V ⎥⎦ ⎣ 0 ⎤ 0 ⎥. MV − NU ⎦ Ora, o lado esquerdo desta eq. tem inversa em RH ∞ , consequentemente o lado direito também, provando as condições (iv) e (v). Para concluir, vamos provar que (v) ⇒ (i). Ora, −1 −1 ⎡ I Kˆ ⎤ ⎡ I V −1U ⎤ = ⎢ ⎥ ⎢ ⎥ ; −1 NM I P I ⎣ ⎦ ⎣ ⎦ −1 −1 ⎡ I 0 ⎤ ⎡VM V U ⎤ ⎡V = mas ⎢ ⎥ ⎢ ⎥⎢ −1 I ⎦ ⎣ 0 I⎦⎣ N ⎣ NM −1 ⎡ I V −1U ⎤ ⎡M donde ⎢ ⎥ =⎢ −1 I ⎦ ⎣0 ⎣ NM (60) U ⎤ ⎡ M −1 0 ⎤ ⎥⎢ ⎥, I⎦ I ⎦⎣ 0 0 ⎤ ⎡VM ⎢ I ⎥⎦ ⎣ N −1 U ⎤ ⎡V ⎥ ⎢ I ⎦ ⎣0 0⎤ ⎥. I⎦ Em vista disso e de (60), vemos que (i) ocorre se só se −1 ⎡VM ⎢ ⎣ N U⎤ ⎥ ∈ RH ∞ . I⎦ ⎡VM ⎣ N Mas ⎢ ⎡I ou seja, ⎢ ⎣N U⎤⎡ I ⎥⎢ I ⎦ ⎣− N 0 ⎤ ⎡VM ⎢ I ⎥⎦ ⎣ N (61) 0 ⎤ ⎡VM − UN U ⎤ =⎢ ⎥, I ⎥⎦ ⎣ 0 I⎦ −1 ⎡ (VM − UN ) −1 0 ⎤ U⎤ = ⎥ ⎢ ⎥. I⎦ I⎦ 0 ⎣ Em vista desta e de (61), concluímos que (i) ocorre se só se (v) ocorre. • Claro que este lema estabelece também, o que já deveria estar claro a esta altura, que K̂ é um controlador que estabiliza o SMF. 3.4 Propriedades da realimentação Considere a figura 1, que repetimos aqui: 65 di r d K P u y up _ n Figura 1 bis Na figura acima, P é a planta, dada, K é um controlador (ou compensador) a ser projetado, y é a resposta da planta, r é tipicamente um sinal de referencia a ser rastreado pela resposta da planta, n é tipicamente um ruído (frequentemente, um sinal estocástico) a ser rejeitado na resposta da planta, e os outros dois sinais exógenos são tipicamente distúrbios (usualmente, determinísticos) a serem rejeitados na resposta da planta. Definamos Li = KP e Lo = PK , (66) que são denominadas matriz de transferência de entrada da malha e matriz de transferência de resposta da malha, respectivamente. Com efeito, a primeira é obtida, partindo-se a malha no ponto u, enquanto que a segunda é obtida partindo-se a malha no ponto y, as matrizes sendo calculadas na direção das setas. A matriz de sensibilidade de entrada, é definida como a matriz de transferência de di para u p , ou seja, u p = Si di . Ora, do diagrama de blocos temos u p = di − KPu p ∴ ( I + KP)u p = di ∴ u p = ( I + KP) −1 di . Donde, (67a) Si = ( I + Li ) −1 . Analogamente, a matriz de sensibilidade de resposta é definida como y = So d , obtendose So = ( I + Lo ) −1 . (67b) As matrizes de sensibilidade complementares da entrada e da resposta são, respectivamente, definidas como (68a) Ti = I − Si = Li ( I + Li ) −1 , To = I − So = Lo ( I + Lo ) −1 . (68b) A palavra complementar é usada em vista de T ser o “complemento” de S, a saber, T =I – S. Ora, se o sistema for internamente estável, então as inversas acima existem e podemos obter facilmente as seguintes equações: (69a) y = To (r − n) + So Pdi + So d , (69b) r − y = So (r − d ) + To n − So Pdi , (69c) u = KSo (r − n) − KSo d − Ti d i , (69 d) u p = KSo (r − n) − KSo d + Si di . 66 Estas quatro equações resumem as propriedades benéficas da realimentação. Com efeito: - Por exemplo, a primeira mostra que o efeito do distúrbio d na resposta da planta pode ser feito “pequeno” se fizermos a matriz de sensibilidade da resposta, So , pequena. Por “pequeno” se entende pequeno na faixa de frequência de interesse. Assim, se o sinal exógeno puder ser aproximado por degraus, cuja transformada de Laplace é 1/s, então So (0) deve ser pequeno, e frequentemente é feito nulo, utilizando integrador no controlador, sua transformada de Laplace sendo também 1/s: o s do denominador do integrador aparece no numerador de So . De um modo geral, a noção de matriz “pequena” associada a um dado espectro de frequências de interesse pode ser explicitada pelo maior valor singular, como, por exemplo, σ ( So ) < 1 : neste caso, esta desigualdade significa que dentro de dado espectro de frequências o efeito do distúrbio d sobre a resposta da planta é pequeno, de acordo com (69a). Note-se que o lado direito da desigualdade, um, é usualmente normalizado, através de matrizes de “peso” e por isso parece que não é “pequeno”. - De modo semelhante, da quarta equação, vemos que o efeito do distúrbio di pode ser diminuído se fizermos a sensibilidade de entrada, Si , pequena. Portanto, boa rejeição dos distúrbios d e d i na resposta da planta implica, respectivamente, que os seguintes valores singulares sejam pequenos, de acordo com (69a): 1 , σ ( I + PK ) σ ( So P) = σ (( I + PK ) −1 P) = σ ( PSi ) . σ ( So ) = σ (( I + PK ) −1 ) = (70a) (70b) - Por outro lado, boa rejeição dos distúrbios d e d i na entrada da planta, u P , requer, respectivamente, de acordo com (69d), que os seguintes sejam pequenos: 1 , σ ( I + KP ) σ ( Si K ) = σ (( I + KP ) −1 K ) = σ ( KSo ) . σ ( Si ) = σ (( I + KP ) −1 ) = (70c) (70 d) - Agora, tenham-se em vista as seguintes propriedades dos valores singulares que valem para quaisquer matrizes quadradas: σ ( PK ) − 1 ≤ σ ( I + PK ) ≤ σ ( PK ) + 1 , (71a) σ ( KP) − 1 ≤ σ ( I + KP) ≤ σ ( KP) + 1 . (71b) Destas desigualdades e das igualdades anteriores, temos 1 1 se σ ( PK ) > 1 , ≤ σ ( So ) ≤ σ ( PK ) + 1 σ ( PK ) − 1 1 1 se σ ( KP ) > 1 ≤ σ ( Si ) ≤ σ ( KP ) + 1 σ ( KP) − 1 (72a) (72b) Estas inequações implicam σ ( So ) σ ( Si ) 1 ⇔ σ ( PK ) 1 ⇔ σ ( KP ) 1, 1. (73a) (73b) 67 Supondo que P e K tenham inversas, temos {σ ( PK ) 1 ou σ ( KP ) 1} ⇔ σ ( So P ) = σ (( I + PK ) −1 P ) ≈ σ ( K −1 ) = 1 , σ (K ) (74a) {σ ( PK ) 1 ou σ ( KP ) 1} ⇔ σ ( KSo ) = σ ( K ( I + PK ) −1 ) ≈ σ ( P −1 ) = 1 . σ ( P) (74b) Assim, por exemplo, a rejeição de distúrbios implica grandes ganhos na malha aberta, traduzidos por σ ( PK ) 1 e σ ( KP ) 1 . Mas a afirmação acima não deveria ser interpretada como se o projeto de um sistema de malha fechada fosse algo trivial. Efetivamente, há sempre “compromissos” (“trade-offs”) a serem obtidos. Assim, por exemplo, de (69a), obtem-se boa rejeição de distúrbios d e di com So pequeno; mas isto implica que To é grande e, portanto a rejeição do distúrbio n não é satisfatória. Mais ainda, de (69b), se r for um sinal de referência a ser rastreado pela resposta da planta, então o erro, que se deseja pequeno, será grande para To grande, ou seja, o erro será sensível ao distúrbio n. Outro ponto da necessidade de compromisso é que os ganhos em malha aberta não podem ser grandes em espectro muito largo de frequências, conforme explicação a seguir: Suponha que a planta seja perturbada, isto é, P → ( I + ∆ ) P , com ∆ estável. Suponha que o sistema nominal (isto é, com ∆ = 0) seja internamente estável. O sistema perturbado é internamente estável se só se det( I + ( I + ∆ ) PK ) não tiver zero no semiplano da direita. Ora, ( I + ( I + ∆ ) PK ) = ( I + PK + ∆PK ) = ( I + PK + ∆PK )( I + PK ) −1 ( I + PK ) = ( I + ∆PK ( I + PK ) −1 )( I + PK ) = ( I + ∆T0 )( I + PK ) . Donde det( I + ( I + ∆ ) PK ) = det( I + ∆T0 )det ( I + PK ) (75) Para que este produto de funções racionais no lado direito da igualdade acima não tenha zero no semiplano da direita, é necessário, em geral, que ∆PK seja pequeno, ou seja, que ∆To seja pequeno, isto é, que σ (To ) seja bem pequeno nas frequências em que ∆ é grande. Mas esta condição conflita, como já vimos, com uma boa redução de distúrbios. Há ainda outras situações de conflito, indicadas em ZDG, p. 133. 3.5 O conceito de “loop shaping” Os conceitos da seção anterior nos levam a estudar brevemente um método muito usado de projeto de controlador, a “loop shaping” (“construindo o sistema em malha fechada”). Trata-se de achar um controlador K que permita que a função de transferência (caso escalar) em malha aberta L fique dentro da faixa permitida pelas restrições que proveem 68 do desempenho (tipicamente, de baixas frequências) e de robustez (tipicamente, de altas frequências). Ou seja, temos que encontrar K tal que σ ( L) e σ ( L ) fiquem dentro dos limites impostos pelas restrições, como ilustrado na figura abaixo. σ ( L) ωh ωl σ ( L) Figure 3 Na figura 3 os valores nos eixos horizontal (frequência) e vertical (módulo do valor singular de L) são lançados, tipicamente, em logaritmos decimais e em decibéis, respectivamente, decibéis sendo 20 vezes o logaritmo decimal. Observe-se ainda que os gráficos dos valores singulares são, na realidade, de suas assíntotas, que fornecem aproximação razoável para a maioria dos casos. Loop shaping no caso escalar (sistemas SISO= single input, single output) 1) Observe-se inicialmente que no caso escalar só há um valor singular de L, o qual coincide com o proprio L, ou seja, na figura 3 as duas curvas (na realidade, as assíntotas delas) coincidem. Trata-se, como vimos, de achar uma função racional estritamente própria L que contenha todos os polos e zeros no semiplano fechado da direita da planta P e de tal modo que L fique dentro das especificações impostas pelas restrições de baixa frequência (desempenho) e de alta frequência (robustez). É claro que se L não tiver todos os polos e zeros ruins de P, haverá cancelamento de modos ruins no produto PK, o que por sua vez implica instabilidade. Estas especificações de L são obtidas usando as relações (70) a (74), principalmente (73) e (74), acima. Isto é garantido se L ficar dentro das especificações. Isto é feito por “tentativa e erro”. Alem disso, L deve ser escolhido de tal modo que 1 + L tenha todos os seus zeros no semiplano aberto da esquerda; para obter isso, temos a seguinte “receita de bolo”: em geral, L deve ser “bem comportada” na chamada frequência de “cross over”, que é a frequência onde L( jω ) = 1 (ou seja, seu logaritmo é nulo). “Bem comportada” aqui quer dizer que L não deve decrescer muito rapidamente na dita região. 2) A função de transferência do controlador é simplesmente K = L / P. 69 Loop shaping no caso multivariável (sistemas MIMO = multiple input and output) O loop shaping é feito de modo semelhante, quando se tomam os valores singulares, a saber: 1) Achar uma função racional estritamente própria L que contenha todos os polos e zeros no semiplano fechado da direita da planta P, conferindo se P −1 Lo (ou Li P −1 ) não tem cancelamento de pólos e / ou zeros. Constróem-se os lugares dos valores singulares máximo e mínimo como na figura 3, usando especialmente (73) e (74) acima, conferindo que eles não ultrapassem as restrições impostas pelo desempenho e robustez. Se qualquer um ultrapassar em algum ponto, deve ser corrigido. Além disso, L deve ser tal que det(I + L) tenha todos seus zeros no semiplano aberto da esquerda. 2) O controlador é dado por P −1 Lo , ou Li P −1 , conforme se tenha escolhido uma ou outra matriz de transferência do sistema em malha aberta. Seja dito que o método do “loop shaping” é muito usado no caso de sistemas SISO, bem menos nos sistemas MIMO, a tentativa e erro na escolha de L sendo bastante trabalhosa, tendo em vista também que: i) Este método só leva em consideração o desempenho e a robustez da estabilidade. Ora, no caso multivariável, podem existir outras especificações, e diferentes, nos diversos canais. A coisa se agrava se houver incerteza no modelo da planta. Com efeito, seja P∆ = ( I + ∆ ) P , onde P é a planta nominal e ∆ é o erro multiplicativo de modelagem (desconhecido). Seja a normalização do erro ∆ = ∆Wt , com σ ( ∆ ) < 1. Para robustez, desejamos σ ( ∆WtTo ) < 1, ou σ (WtTo ) ≤ 1. Ora, precisamos de um majorante no caso multivariável, como segue, σ (WtTo ) ≤ σ (Wt )σ (To ) ≤ σ (Wt ) σ ( Lo ) , se σ ( Lo ) < 1. 1 − σ ( Lo ) Por outro lado, a estabilidade robusta é obtida se σ ( Lo ) 1 1 , se σ ( Lo ) < 1. σ ( Lo ) ≤ ≈ 1 − σ ( Lo ) σ (Wt ) + 1 σ (Wt ) (76a) De modo semelhante, se as especificações de desempenho como, por exemplo, a rejeição de distúrbio, não forem especificadas uniformemente em todos os canais e sim através de uma matriz de peso Ws de tal modo que σ (Ws So ) ≤ 1 então é necessário limitar por cima σ (Ws So ) a fim de aplicar as técnicas de loop shaping: σ (Ws So ) ≤ σ (Ws )σ ( So ) ≤ σ (Ws ) σ (Ws ) , se σ ( Lo ) < 1. σ − 1( Lo ) E obtem-se o desempenho satisfazendo às condições se (76b) σ ( Lo ) ≥ σ (Ws ) + 1 ≈ σ (Ws ) , se σ ( Lo ) > 1. E é possível que os limites para o loop shaping se contradigam um ao outro, como na figura 5 abaixo, mas isto não significa que não haja controle que satisfaça às especificações de robustez da estabilidade e desempenho, a não ser em problemas escalares. 70 Vejamos como a contradição mencionada pode acontecer em exemplo bem simples: 1 ⎡1 α ⎤ , as matrizes de “peso” (ponderação) sendo dadas por s + 1 ⎢⎣ 0 1 ⎥⎦ α ⎡ 1 ⎤ ⎡ s + 2 α ( s + 1) ⎤ P(s) = ⎢ s + 1 ( s + 1)( s + 2) ⎥ ⎢ s + 10 ( s + 10) ⎥ ⎥ , Wt = ⎢ ⎥. Ws = ⎢ 1 s+2 ⎥ ⎢ ⎥ ⎢ ⎢⎣ 0 ⎥⎦ ⎢⎣ 0 s + 10 ⎥⎦ s +1 Pode-se verificar que os valores singulares extremos dos “pesos” são dados na figura 5 quando α é grande. σ (Ws ) log ω 1 σ (Wt ) Figura 5 Donde se vê que neste caso não se pode aplicar a técnica de loop shaping. Por outro lado, pode-se conferir que se usarmos o controlador K = I , obtemos ⎡ 1 ⎤ ⎡ 1 ⎤ 0 ⎥ 0 ⎥ ⎢s + 2 ⎢ s + 10 Ws S = ⎢ ⎥ , WtT = ⎢ ⎥ , os critérios de desempenho e robustez na 1 ⎥ 1 ⎥ ⎢ 0 ⎢ 0 ⎢⎣ ⎢⎣ s + 2 ⎥⎦ s + 10 ⎥⎦ estabilidade sendo satisfeitos. 3.6 Desempenho com “pesos” em H 2 e H ∞ Vimos na seção 3.4 como especificar o desempenho em função sensibilidade S ( jω ) e de seu complemento T ( jω ) . Às vezes uma destas funções (ou as duas) deve ficar entre valores diferentes, dependendo da faixa de frequência, como por exemplo, no caso de um problema escalar, 71 S ( jω ) ≤ α < 1, para todo ω ≤ ω0 ; S ( jω ) ≤ β > 1 , para todo ω > ω0 . Ao invés desta forma, é mais conveniente usar funções de peso apropriadas. Assim, ao invés do problema acima, usa-se geralmente o equivalente Ws ( jω ) S ( jω ) ≤ 1 para todo ω , com Ws ( jω ) = α −1 , ∀ω ≤ ω0 . β −1 , ∀ω > ω0 Em geral, usa-se Ws ( jω ) racional. E assim para as outras funções de peso. Então, ao invés do diagrama de blocos da figura 1 (ou 1bis), usa-se o seguinte: Figura 6 As vantagens de usar pesos são multiplas, especialmente em sistemas multivariáveis. Em primeiro lugar, algumas componentes do sinal são mais importantes que outras; em segundo lugar, as componentes quase sempre são medidas em métricas diferentes, quando, por exemplo, umas são medidas em metros e outras em volts. As funções de peso são então essenciais para tornar estas medidas comparáveis. Outra razão é que muitas vezes estamos interessados em rejeição de distúrbios numa certa gama de frequências e não em outras. Desempenho em H2 Suponha que o distúrbio d possa ser modelado aproximadamente pelo impulso d (t ) = ηδ (t ) , onde η é um vetor aleatório com E[ηη ∗ ] = I , onde E denota o operador expectância. Queremos minimizar a energia do erro devido ao distúrbio, ou seja, queremos minimizar 72 ⎧∞ 2 ⎫ 2 = E ⎨ ∫ e dt ⎬ = We SoWd 2 , 2 ⎩0 ⎭ com escolha apropriada das matrizes de ponderação We e Wd . Em geral, um controlador minimizando somente o índice de desempenho acima pode dar origem a um controle u muito grande, que levaria à saturação nos atuadores da planta. Portanto, um projeto de controlador realista deve incluir o controle no índice de desempenho, ou seja, deve ser da forma { } E e { 2 E e 2+ρ u 2 2 2 2 } 2 ⎡ WSW ⎤ = ⎢ e o d ⎥ , com escolhas apropriadas da matriz de peso Wu e do ⎣ ρWu KSoWd ⎦ 2 escalar ρ . Com efeito, suponhamos que se queira minimizar sup e 2 = We SoWd ∞ , d ≤1 2 sujeito à restrição na energia do controle ou da banda de frequências do controle: sup u 2 = Wu KSoWd d ≤1 ∞ . 2 Mais frequentemente se introduz um parâmetro ρ e um critério misto: { sup e 2 + ρ u d ≤1 2 2 2 2 2 } ⎡ WSW ⎤ = ⎢ e o d ⎥ ⎣⎢ ρWu KSoWd ⎦⎥ 2 , como indicado acima. ∞ 4º. Capitulo: Incerteza de modelos e robustez 4.1 Incerteza do modelo Os projetos de controladores são modelos matemáticos. Ora, um modelo é sempre uma aproximação. A coisa se complica em vista do fato que nunca sabemos quão “distante” o modelo é da realidade, uma vez que esta não é conhecida com exatidão. Suponha-se, por exemplo, que o modelo de uma planta seja dado por (1) P∆ ( s ) = P ( s ) + W1 ( s )∆ ( s )W2 ( s ) , com σ [∆ ( jω )] < 1 para todo ω ≥ 0 , onde W1 e W2 , os “pesos”, são matrizes de transferência estáveis que caracterizam a incerteza como função da frequência. Esta caracterização confina a matriz P∆ ( s ) em certa vizinhança do modelo nominal P. No caso escalar em que W1 = 1 e W2 = w(s), então P∆ descreve um círculo centrado em P e raio w( jω ) , variando a cada frequência, conforme a figura 7. 73 Figura 7 A incerteza ∆ pode ser causada por mudanças dos parâmetros ou por se ter desprezado no modelo alguma dinâmica ou por outras razões. Uma alternativa a (1) é dada pela assim chamada forma multiplicativa: (2) P∆ ( s ) = ( I + W1 ( s )∆ ( s )W2 ( s )) P ( s ) . Este modelo confina a planta “real” P∆ a uma vizinhança normalizada do modelo. As representações (1) e (2) das incertezas têm sido muito empregadas tanto em teoria como nos problemas práticos. Há que considerar, porem, que a escolha das matrizes de peso W1 e W2 não é algo trivial. Inicialmente focalizaremos a expressão (2). Nesta expressão suporemos que a planta nominal P é estritamente própria, o que é o mais comum, pois as plantas que queremos controlar quase sempre têm “inércia” (mecânica, térmica....). Mais ainda, suporemos também que a planta perturbada, P∆ , permaneça estritamente própria, o que quase sempre ocorre, porque ∆ é quase sempre própria e só um masoquista escolheria W1 e / ou W2 impróprios. As matrizes de peso são usualmente tais que se obtém a figura 8, que mostra que o ganho das matrizes de peso é “pequeno” ( 1) em baixas frequências e aumenta, passando de 1 à medida que a frequência aumenta. 74 Figura 8 Aqui e adiante usaremos as seguintes definições: (3) Definição: Dada a descrição de um modelo de incerteza Π e um conjunto de objetivos de desempenho, suponha que P ∈ Π seja o modelo nominal da planta e que K é o controlador para esta planta nominal. Então o sistema tem: Estabilidade nominal (NS = nominal stability) se K estabilizar o modelo da planta, P ; Estabilidade robusta (RS) se K estabilizar toda planta em Π ; Desempenho nominal (NP = nominal performance) se os objetivos de desempenho são satisfeitos para a planta nominal; Desempenho robusto (RP) se os objetivos de desempenho são satisfeitos para toda planta em Π . 4.2 Teorema do pequeno ganho Esta seção e a seguinte consideram o teste de estabilidade de um sistema nominalmente estável sujeito a perturbações não estruturadas. O resultado básico usado é o (famoso) teorema do pequeno ganho. Considere o sistema da figura 9: e1 ∆ w1 y2 y1 w2 M e2 Figura 9 75 Teorema do pequeno ganho (4) Suponha que M ∈ RH ∞ e seja γ > 0. Então o sistema em malha fechada da figura 9 é bem posto e internamente estável para todo ∆( s) ∈ RH ∞ com: 1 (a) ∆ ∞ ≤ se só se M ( s ) ∞ < γ ; γ (b) ∆ ∞ < 1 γ se só se M ( s ) ∞ ≤γ . Prova: Provaremos só a suficiência. (A prova da necessidade, mais trabalhosa, está em ZDG, pp. 218s). Claro que M ( s )∆( s ) é estável, pois cada fator o é. Ora, das condições (a) e (b) temos que M ∞ ∆ ∞ < 1 . Mas isto implica, a fortiori, M ∆ ∞ < 1 , o que por sua vez implica, usando o critério de Nyquist, Teorema (45) do Capítulo 3, que det( I − M ∆ ) não tem zero no semi-plano fechado da direita, ou seja, o sistema em malha fechada é estável. Exemplo: A 1 e ∆ = , onde A é um número real. Verificar se o SMF da fig. 9, s +1 A acima, é internamente estável . 1 A A , ∆ ∞ = . Nenhuma das condições Solução: M ∞ = supω = supω = A A 1 + jω 1+ ω2 do teorema é satisfeita, logo o SMF não é internamente estável. (Na realidade, basta conferir se uma delas é ou não satisfeita, a outra será ou não, tal como a primeira). 1 Vamos conferir o polinômio característico do SMF: s + 1 − A = s , que não é um A polinômio Hurwitz, portanto o SMF não é internamente estável, confirmando a aplicação do teorema anterior. Seja M ( s) = Este teorema é um resultado muito geral, não valendo somente para os sistemas tratados, em que as matrizes de transferência são racionais. Efetivamente, ele pode ser demonstrado também para sistemas de dimensão infinita (que correspondem a equações diferenciais com derivadas parciais). Isto é afirmado formalmente no resultado abaixo: (5) Corolário: As seguintes afirmações são equivalentes com relação ao diagrama de blocos da figura 9: 1 (i) O sistema é bem posto e internamente estável para todo ∆ ∈ H ∞ com ∆ ∞ < . γ (ii) O sistema é bem posto e internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ (iii) O sistema é bem posto e internamente estável para todo ∆ ∈ C q× p com ∆ ∞ < < 1 γ 1 γ ; ; 76 (iv) M ( s ) ∞ ≤γ . Observação: Pode-se demonstrar que a condição do teorema é suficiente mesmo que ∆ seja não linear ou variante no tempo, mas estável. O lema seguinte mostra que se M > γ , então existe ∆ com ∆ ∞ < ∞ 1 γ que desestabiliza o sistema: Lema: Suponha que M ∈ RH ∞ e que M σ ∈ [0,σ 0 ] existe ∆ com ∆ ∞ < 1 γ ∞ > γ . Então existe σ 0 > 0 tal que para todo (6) tal que det( I − M ( s ) ∆ ( s )) tenha zero em σ . Prova: ZDG, pp. 220s. 4.3 Estabilidade sob perturbações estáveis e não estruturadas Nesta seção usaremos bastante o teorema do pequeno ganho para estudar a estabilidade em várias situações. O erro de modelagem, ∆ , será, como usual, suposto estável. Mas há que notar que os resultados a seguir, na sua maioria, podem ser estendidos, com pequenas restrições adicionais, para sistemas em que o erro de modelagem ∆ é instável. Suporemos que ∆ seja devidamente ponderado com os “pesos” W1 e W2 , que são matrizes. Consideraremos o diagrama de blocos padrão da figura 10. Π é uma planta arbitrariamente perturbada, satisfazendo a Π ∈ Π , onde Π é o conjunto de todas as plantas possíveis. Seja P a planta nominal, que também, claro, satisfaz a. P ∈Π. Π K _ Figura 10 As matrizes de sensibilidade e de sensibilidade complementar são definidas para a planta nominal por (7a) So = ( I + PK ) −1 , To = I − So , Si = ( I + KP ) −1 , Ti = I − Si . (7b) 77 Lembramos que o sistema da figura 10 é bem posto e internamente estável se só se ⎡ I ⎢ −Π ⎣ −1 −1 K ⎤ ⎡ ( I + K Π ) −1 − K ( I + ΠK ) −1 ⎤ = ⎥ ∈ RH ∞ para todo Π ∈Π . I ⎥⎦ ⎢⎣ ( I + ΠK ) −1 Π ( I + Π K ) −1 ⎦ Incertezas aditivas Consideremos primeiramente as perturbações (ou incertezas) aditivas, a saber, Π := {P + W1∆W2 : ∆ ∈ RH ∞ } . (7c) (8) (9a) Teorema: Seja Π definido acima e seja K um controlador estabilizador para a planta nominal P. Então o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∞ < 1 se só se W2 KSoW1 ∞ ≤1 Prova: Vamos provar incialmente que −1 ⎡ K⎤ ( I + KSoW1∆W2 ) −1 Si − KSo ( I + W1∆W2 KSo ) −1 ⎤ = . (9b) ⎢ −1 −1 ⎥ I ⎥⎦ ( I S W W K ) S ( P W W ) S ( I W W KS ) + ∆ + ∆ + ∆ 2 1 2 1 2 o 1 o o o ⎣ ⎦ (9c) Definamos, de acordo com (8), Π = P + W1∆W2 ⎡ I ⎢ −Π ⎣ Comparando (9b) com (7c), devemos ter: Bloco (1,1): ( I + KSoW1∆W2 ) −1 Si = ( I + K Π ) −1 . Ora, se esta igualdade for verdadeira, devemos ter ( I + KS oW1∆W2 )( I + K Π ) −1 = Si ∴ I + KS oW1∆W2 = Si ( I + K Π ) . Usando (7a) e (7b), temos desta última igualdade I + K ( I + PK ) −1W1∆W2 = ( I + KP ) −1 ( I + K Π ) ∴ I + ( I + KP ) −1 KW1∆W2 = ( I + KP ) −1 ( I + K Π ) . Pré-multiplicando ambos os lados por I + KP , obtemos ∴ I + KP + KW1∆W2 = ( I + K Π ) , concluindo a prova, tendo em vista a definição de Π em (9c). (Observe-se que a demonstração formal parte desta última igualdade, revertendo os passos. Esta observação vale também para as demonstrações que se seguem). Bloco (1,2): De (9b) e (7c) temos que provar que − KS o ( I + W1∆W2 KS o ) −1 = − K ( I + Π K ) −1 = −( I + K Π ) −1 K ∴ ( I + K Π ) KSo = K ( I + W1∆W2 KSo ) , em vista da def. de Π , ∴ ( I + K Π ) K ( I + PK ) −1 = K ( I + W1∆W2 K ( I + PK ) −1 ) ∴ ( I + K Π ) K ( I + PK ) −1 = K ( I + PK + W1∆W2 K )( I + PK ) −1 ∴ ( I + K Π ) K = K ( I + PK + W1∆W2 K ) ∴ K Π K = K ( P + W1∆W2 ) K , esta última sendo uma identidade em vista da def. de Π . Bloco (2,1): temos que provar agora que ( I + S oW1∆W2 K ) −1 S o ( P + W1∆W2 ) = ( I + Π K ) −1 Π ∴ ( I + SoW1∆W2 K ) −1 So ( P + W1∆W2 ) = Π ( I + K Π ) −1 78 ∴ So ( P + W1∆W2 )( I + K Π ) = ( I + SoW1∆W2 K )Π ∴ ( I + PK ) −1 ( P + W1∆W2 )( I + K Π ) = ( I + ( I + PK ) −1W1∆W2 K )Π ∴ ( I + PK ) −1 ( P + W1∆W2 )( I + K Π ) = ( I + PK ) −1 ( I + PK + W1∆W2 K )Π ∴ Π ( I + K Π ) = ( I + ΠK )Π , que é uma identidade óbvia. Bloco (2,2): agora temos que provar que S o ( I + W1∆W2 KSo ) −1 = ( I + Π K ) −1 ∴ ( I + ΠK ) S o = I + W1∆W2 KSo ∴ ( I + ΠK )( I + PK ) −1 = I + W1∆W2 K ( I + PK ) −1 ∴ I + ΠK = I + PK + W1∆W2 K , que é uma identidade. Agora, note-se que dadas duas matrizes X e Y, cujos produtos XY e YX sejam matrizes quadradas, temos ⎛ ⎡I ⎛⎡ I Y⎤⎞ ⎛ ⎡Y Y ⎤⎞ ⎟ = det ⎜ ⎢ ⎟ = det ⎜ ⎢ ⎥ ⎥ ⎝ ⎣ 0 I + XY ⎦ ⎠ ⎝ ⎣− X I ⎦ ⎠ ⎝⎣I ⎛⎡I 0 ⎤⎞ −X ⎤⎞ ⎟ = det ⎜ ⎢ ⎥ ⎥ ⎟ = det( I + YX ) . I ⎦⎠ Y I YX + ⎣ ⎦⎠ ⎝ det( I + XY ) = det ⎜ ⎢ ⎛⎡I = det ⎜ ⎢ ⎝ ⎣Y I ⎤⎞ ⎟ − X ⎥⎦ ⎠ Ora, podemos aplicar este tipo de operações a todos os denominadores das matrizes de (9b). Assim por exemplo, o denominador do bloco (1,1) é I + KSoW1∆W2 , enquanto que o do bloco (1,2) é I + W1∆W2 KSo . Então permutando KSo e W1∆W2 , vemos que os dois determinantes são iguais. E assim cada matriz de (9b) será estável se só se uma delas o for. Mais ainda, de acordo com a mesma propriedade acima, cada uma delas será estável se só se ( I + ∆W2 KSoW1 ) −1 ∈ RH ∞ . E isto é garantido se ∆W2 KSoW1 ∞ < 1 , de acordo com o teorema do pequeno ganho, provando a suficiência do presente teorema. (Necessidade): o bloco (1,2) de (7c) tem que ser estável, ou seja, K ( I + Π K ) −1 ∈ RH ∞ para todo ∆ admissível e isto, por sua vez, implica ∆W2 K ( I + Π K ) −1W1 ∈ RH ∞ ; (*) −1 ora, I + Π K = I + PK + W1∆W2 K = ( I + PK )( I + ( I + PK ) W1∆W2 K ) ; donde, ( I + Π K ) −1 = ( I + ( I + PK ) −1W1∆W2 K ) −1 ( I + PK ) −1 = ( I + PK ) −1 ( I + W1∆W2 K ( I + PK ) −1 ) −1 = So ( I + W1∆W2 KSo ) −1 ; donde a expressão em (*) acima é ∆W2 K ( I + Π K ) −1W1 = ∆W2 KS o ( I + W1∆W2 KS o ) −1W1 = ∆W2 KSoW1 ( I + ∆W2 KS oW1 ) −1 = ( I + ∆W2 KS oW1 − I )( I + ∆W2 KSoW1 ) −1 = I − ( I + ∆W2 KS oW1 ) −1 Então, (*) acima é sastisfeita somente se ( I + ∆W2 KSoW1 ) −1 ∈ RH ∞ . E pelo teorema do pequeno ganho esta última é verdade para todo ∆ ∈ RH ∞ com ∆ ∞ < 1 se só se W2 KSoW1 ∞ ≤ 1 , concluindo a prova. • Incertezas multiplicativas: 79 Suporemos agora que Π = {( I + W1∆W2 ) P : ∆ ∈ RH ∞ } , (10) conforme a figura 10*, onde W1 , W2 , ∆ ∈ RH ∞ , observando-se que estamos tratando do problema da estabilidade e portanto podemos ignorar os sinais exógenos da figura. W2 z dm ∆ W1 w P K r Wd d _ d y e We Figura 10* (11) Teorema: Seja Π definido em (10) e seja K um controlador estabilizador para a planta nominal P. Então (i) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ < 1 se só se W2ToW1 ∞ ≤ 1 ; (ii) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ ≤ 1 se W2ToW1 ∞ < 1; (iii) a estabilidade robusta do sistema em malha fechada com ∆ necessariamente que W2ToW1 ∞ ∞ ≤ 1 não implica < 1; (iv) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ ≤ 1 somente se W2ToW1 ∞ ≤ 1; (v) se nem P nem K tiverem pólo no eixo imaginário, então o sistema em malha fichada é internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ ≤ 1 se só se W2ToW1 ∞ < 1 . Prova: ver ZDG, pp. 223s. 80 Observação: É digna de nota a falta de simetria entre (i) e (ii), isto é, enquanto que (i) é condição necessária e suficiente, (ii) é condição suficiente apenas; observe-se que a condição (iv) é mais fraca do que a condição de necessidade da condição . E caso a planta e o controlador não tenham polo no eixo imaginário, então retomamos a necessidade da condição que esperaríamos em (ii). Exemplo: Seja P ( s ) = (12) 1 , K = 1, W1 = W2 = 1 . s Solução: Diante dos valores iguais a 1 acima, temos de (i) do teorema: ∆ ∞ < 1 se só se PK 1/ s 1 . = = 1 + PK 1 + 1/ s s + 1 1 1 Donde To ∞ = sup = sup = 1, satisfazendo á condição (i) do teorema. ω 1 + jω ω 1+ ω2 To ∞ ≤ 1 . Ora, To = Observe-se que não é trivial chegar a esta conclusão utilizando o polinômio característico do SMF. Com efeito, se forem N ∆ ( s ) e D∆ (s) o numerador e denominador de ∆ ( s ) numa fatoração coprima, o polinômio característico do SMF será sD∆ (s)+N ∆ ( s ) + D∆ (s) . E daí? Incertezas nos fatores coprimos Consideramos agora que os numeradores e denominadores coprimos são perturbados de acordo com P = M −1 N → ( M + ∆ M ) −1 ( N + ∆ N ) . Vamos agora demonstrar que o diagrama de blocos abaixo reproduz a expressão da planta perturbada, o que não é nada óbvio à primeira vista. _ z1 ∆N ∆M w r K N M −1 y _ Figura 11 y = M −1 ( Nz1 + w) = M −1 ( Nz1 − ∆ M y + ∆ N z1 ) = M −1 ( N + ∆ N ) z1 − M −1∆ M y ∴ ( I + M −1∆ M ) y = M −1 ( N + ∆ N ) z1 ∴ M −1 ( M + ∆ M ) y = M −1 ( N + ∆ N ) z1 81 ∴ y = ( M + ∆ M ) −1 ( N + ∆ N ) z1 , que é o que queríamos provar. (14) (15) Teorema: Seja Π = ( M + ∆ M ) −1 ( N + ∆ N ) , com M , N , ∆ M , ∆ N ∈ RH ∞ . A planta nominal tem fatoração c.e. P = M −1 N e K estabiliza internamente o SMF com a planta nominal. Definamos ∆ = ⎡⎣ ∆ N Então o SMF é bem posto e internamente estável para todo ∆ ⎡K ⎤ −1 −1 ⎢ I ⎥ ( I + PK ) M ⎣ ⎦ ∞ ∆ M ⎤⎦ . < 1 se só se ≤ 1. ∞ Prova: Seja o controlador com uma fatoração c.d. K = UV −1 sobre ( é estável se só se ( N + ∆ N )U + ( M + ∆ M )V ) −1 RH ∞ . Sabemos que o SMF ∈ RH ∞ . (*) Mas como o controlador estabiliza por hipótese a planta nominal, temos ( NU + MV ) −1 ∈ RH ∞ . Ora, de (*) acima, temos ( NU + MV + ∆ NU + ∆ M V ) −1 ∈ RH ∞ (( ) ∴ I + (∆ NU + ∆ M V )( NU + MV ) −1 ( NU + MV ) ( ∴ I + (∆ NU + ∆ M V )( NU + MV ) −1 ⎛ ∴ ⎜ I + ⎣⎡ ∆ N ⎝ ) −1 ) −1 ∈ RH ∞ ∈ RH ∞ , −1 ⎞ ⎡U ⎤ ∆ M ⎦⎤ ⎢ ⎥ ( NU + MV ) −1 ⎟ ∈ RH ∞ . ⎣V ⎦ ⎠ Ora, de acordo com o teorema do pequeno ganho, a expressão anterior vale para todo ∆ ∞ ⎡U ⎤ < 1 se só se ⎢ ⎥ ( NU + MV ) −1 ⎣V ⎦ ≤ 1. (**) ∞ −1 ⎡ K ⎤ ⎡UV ⎤ ⎡U ⎤ −1 −1 −1 −1 Mas ⎢ ⎥ ( NU + MV ) −1 = ⎢ ⎥ V M M NUV + I V = ⎢ ⎥ ( I + PK ) M , ⎣V ⎦ ⎣I ⎦ ⎣ I ⎦ concluindo a prova, em vista de (**) acima. ⎡K ⎤ • E note-se que se ∆ ∞ ≤ 1 , teremos ⎢ ⎥ ( I + PK ) −1 M −1 < 1 . ⎣I ⎦ ∞ −1 ( ( ) ) A tabela abaixo nos dá vários outros tipos de perturbações com os respectivos testes de estabilidade robusta. Na Tebela supomos, como já mencionado: W1 , W2 e ∆ ∈ RH ∞ , ∆ ∞ < 1 82 Tipo de perturbação do Modelo ( I + W1∆W2 ) P Teste de estabilidade robusta W2ToW1 ∞ ≤ 1 P( I + W1∆W2 ) W2TW i 1 −1 ≤1 ∞ ≤1 ( I + W1∆W2 ) P W2 SoW1 ∞ P ( I + W1∆W2 ) −1 W2 SiW1 ∞ P + W1∆W2 W2 KSoW1 ∞ P( I + W1∆W2 P) −1 W2 So PW1 ∞ ( M + ∆ M ) −1 ( N + ∆ N ) ⎡K ⎤ −1 ⎢ I ⎥ So M ⎣ ⎦ ∞ M −1 S i [ K I] ( N + ∆ N )( M + ∆ M ) −1 ≤1 ≤1 ≤1 ≤1 ∞ ≤1 (16) Exemplo: Seja o sistema cujas perturbações fazem variar o número de polos no semiplano fechado 1 1 ⎧ 1 ⎫ como P2 = : δ ∈ R , δ ≤ 1⎬ . Vê-se que tanto P1 = s −1 s +1 ⎩s −δ ⎭ são elementos de Pδ , um instável e o outro estável. Observe-se agora que o conjunto Pδ da direita: Pδ = ⎨ { satisfaz a Pδ ⊂ Π := P (1 + ∆P ) −1 : ∆ ∈ RH ∞ , ∆ ∞ ≤ 1} . Escolhemos como planta nominal a que está no meio entre os dois extremos, ou seja, P = 1 s . Podemos usar o sexto tipo de perturbações da tabela acima: com efeito, com W1 = W2 = 1 , temos P 1/ s 1 = Pδ com ∆ < 1 . E de acordo com a tabela, a condição de 1 + ∆P 1 + ∆ / s s + ∆ estabilidade robusta é S o P ∞ ≤ 1 . = Mas So P = 1 s+K = P 1 + PK = 1/ s 1+ K / s = 1 s+K . Então a condição de estabilidade robusta é ≤ 1. ∞ Exemplo: Considere o seguinte conjunto de plantas: P∆ = (17) s +1+ α , com α ≤ 2 . ( s + 1)( s + 2) Solução: Vamos verificar que caímos no sétimo caso (ou oitavo, pois o sistema é escalar) da tabela acima com ⎧ s + 1 + 2δ ⎫ s +1 P∆ ⊂ Π := ⎨ , δ ∈ RH ∞ , δ ∞ ≤ 1⎬ . A planta nominal é P = ( s + 1)( s + 2) ⎩ ( s + 1)( s + 2) ⎭ 83 1 . s+2 Calculemos uma fatoração coprima sobre = RH ∞ de P. Isto é feito, por exemplo, dividindo-se numerador e denominador de P por ( s + 1) 2 . Com isto, o numerador e 1/ s + 1 denominador são próprios e estáveis. Então, temos P = ; donde ( s + 2) /( s + 1) s+2 s +1 1 s+2 s +1 ; ora, So = . ∴ M −1 = = ∴ So M −1 = s +1 s+2 1 + PK K + s + 2 K +s+2 ⎡K ⎤ s +1 E a condição de estabilidade é portanto ⎢ ⎥ ≤ 1. ⎣1⎦ K +s+2 ∞ M =M = Estabilidade robusta versus Desempenho nominal Um problema de estabilidade robusta pode ser visto como um problema de desempenho nominal. Por exemplo, o problema de estabilidade robusta com perturbação multiplicativa conforme a figura 10* pode ser tratado como um problema de rejeição de ruído como na figura 12, e vice versa. K P W2 e _ W1 n Figura 12 O sistema da figura 10* é robustamente estável para ∆ ∞ < 1 se só se a norma em H ∞ da matriz de transferência entre w e z for menor ou igual a 1. Mas como Tzw na figura 10* é igual a Ten na figura 12, nós temos a equivalência. 4.4 Desempenho robusto com perturbações não estruturadas Considere o sistema da figura 13, o conjunto dos modelos perturbados sendo descritos por Π . 84 Wd d d P∆ ∈ Π K We r e _ y Figura 13 Suponha que as matrizes de ponderação Wd , We ∈ RH ∞ e o objetivo do desempenho seja obter o erro e tão pequeno quanto possível para todos os modelos pertencentes ao conjunto Π . Em geral este conjunto pode ser ou parametrizado ou não estruturado. Conforme já vimos, dependendo do objetivo, deseja-se minimizar a norma em L1 , H 2 , ou H ∞ . Nesta seção serão focalizados os projetos em Desempenho robusto em Seja T ed H2 e H∞. H2 a matriz de transferência entre e e d , reportando-nos à figura 13. Então, Ted = We ( I + P∆ K ) −1Wd , P∆ ∈ Π . O problema do desempenho em H2 sup Ted P∆ ∈Π (14) consiste em achar 2 Exemplo: Suponha-se o sistema escalar com Wd = 1, We = ws , P = p e seja o modelo dado pela incerteza multiplicativa Π = {(1 + wtδ ) p : δ ∈ RH ∞ , δ ∞ < 1} . Suponha que o sistema seja robustamente estabilizável por um controlador k. Então, da figura 13 com as notações quatro linhas acima, temos: ws ws d d , donde Ted = e = ws y, y = d − P∆ ky ∴ y = ∴e = 1 + P∆ k 1 + (1 + wtδ ) pk 1 + (1 + wtδ ) pk sup Ted = sup δ ≤1 ws . (15) 1 + (1 + wtδ ) pk ∞ A análise exata do problema multivariável (matricial) é difícil, mas podem-se obter majorantes, como faremos para o problema no H ∞ . Entretanto os majorantes no presente P∆ ∈Π 2 85 caso dão pouca intuição sobre o problema e por isso esta abordagem do problema será omitida. Desempenho robusto em H ∞ com incerteza multiplicativa Suponha que o objetivo seja obter o erro menor possível em termos de “energia”, qualquer que seja o distúrbio d com energia nunca maior que 1. (É claro que postular a energia menor ou igual a 1 para o distúrbio não torna o problema menos geral, bastando definir convenientemente a unidade de energia. O mesmo pode ser obtido escolhendo We conveniente). Ou seja, queremos sup e 2 ≤ ε , d ≤1 2 sendo ε convenientemente pequeno. Usando fator de escala, podemos supor ε = 1 Portanto o problema é resolvido se Ted ≤ 1, ∀P∆ ∈ Π . ∞ (16) O modelo perturbado pode ser descrito por Π := {( I + W1∆W2 ) P : ∆ ∈ RH ∞ , ∆ ∞ < 1} , com W1 ,W2 ∈ RH ∞ . Reportando-nos à figura 10*, temos T = We So ( I + W1∆W2To ) −1Wd . ed (17) (17*) Mas det( I + W1∆W2To ) = det( I + ∆W2ToW1 ) . Consequentemente, o desempenho robusto será satisfeito, de acordo com o teorema do pequeno ganho, se só se (18) W2ToW1 ≤ 1 e ∀∆ ∈ RH ∞ , ∆ ∞ < 1 . A análise exata deste problema será dada mais adiante. Entretanto podem ser obtidas de modo razoavelmente fácil algumas condições suficientes, como veremos a seguir, condições que lançam alguma luz sobre a natureza deste problema. Suporemos no que se segue, como usual, que o controlador K estabiliza a planta nominal P. Recorda-se que o número condicionante (= de condicionamento) de uma matriz, representado por κ (⋅) , é a relação entre o maior e menor valor singular da matriz, recordando-se que o primeiro é a norma- ∞ da matriz e o segundo é a norma da inversa da matriz. Ou seja, κ ( A) = A A−1 . Quando κ ( A) ≈ 1 , a matriz A é dita bem condicionada; se κ ( A) 1 ela é mal condicionada. Observe-se que temos sempre κ ( A) ≥ 1; com efeito, κ ( A) = A A−1 ≥ AA−1 = 1 . Reportamo-nos novamente à figura (10*) que repetimos para na leitura : 86 W2 z K dm ∆ w W1 P r Wd d _ d y e We Figura 10* bis Teorema Suponha que P∆ ∈ ( I + W1∆W2 ) P : ∆ ∈ RH ∞ , ∆ { ∞ < 1} e que K estabilize (19) internamente a planta nominal P, ou seja, estabilize internamente a malha com a planta nominal P. Então obtem-se desempenho robusto se uma das condições seguintes for satisfeita: (i) para cada frequência ω , σ (Wd )σ (We So ) + σ (W1 )σ (W2To ) ≤ 1 (20) (ii) para cada frequência ω , κ (W1−1Wd )σ (We SoWd ) + σ (W2ToW1 ) ≤ 1 , onde W1 e Wd são supostas não singulares. (21) Prova: Tanto a condição (20) como a (21) garantem que W2ToW1 ≤ 1 . Com efeito, em (21) isto é imediato, lembrando que W2ToW1 = σ (W2ToW1 ) e que a parcela à esquerda de σ (W2ToW1 ) é positiva; em (20) tenha-se em vista que σ (W2ToW1 ) ≤ σ (W1 )σ (W2To ) e que a parcela à esquerda de σ (W1 )σ (W2To ) é positiva. O desempenho robusto é equivalente a: T ed Ora, para cada ω , temos de (17*) T = We So ( I + W1∆W2To ) −1Wd , 2 ≤ 1, ∀∆ ∈ RH ∞ , ∆ ∞ < 1. ed e portanto, 87 σ (Ted ) ≤ σ (We So )σ ⎡⎣( I + W1∆W2To ) −1 ⎤⎦ σ (Wd ) = ≤ σ (We So )σ (Wd ) . 1 − σ (W1 )σ (W2To )σ (∆) σ (We So )σ (Wd ) σ (We So )σ (Wd ) ≤ σ ( I + W1∆W2To ) 1 − σ (W1∆W2To ) (22) Portanto a condição (20), isto é, σ (Wd )σ (We So ) + σ (W1 )σ (W2To ) ≤ 1 , ou seja, σ (Wd )σ (We So ) ≤ 1 − σ (W1 )σ (W2To ) , garante σ (Ted ) ≤ 1, ∀∆ ∈ RH ∞ , ∆ ∞ < 1 para cada frequência. Por outro lado, podemos escrever We SoWd (W1−1Wd ) −1 ( I + ∆W2ToW1 ) −1W1−1Wd = We SoW1 ( I + ∆W2ToW1 ) −1W1−1Wd = We So ( I + W1∆W2To ) −1W1W1−1Wd = We So ( I + W1∆W2To ) −1Wd = Ted , de acordo com (17*). Ou seja, Ted = We SoWd (W1−1Wd )−1 ( I + ∆W2ToW1 )−1W1−1Wd ( ed ) donde, σ T ≤ σ (We SoWd )κ (W1−1Wd ) . 1 − σ (W2ToW )σ (∆ ) (*) Mas da condição (21), temos imediatamente κ (W1−1Wd )σ (We SoWd ) ≤ 1 − σ (W2ToW1 ) , κ (W1−1Wd )σ (We SoWd ) donde ≤ 1 , e com mais forte razão, 1 − σ (W2ToW1 ) κ (W1−1Wd )σ (We SoWd ) ≤ 1 . Comparando esta com (*) acima, concluimos 1 − σ (W2ToW1 )σ (∆ ) ( ) σ Ted ≤ 1, ∀∆ ∈ RH ∞ , ∆ ∞ < 1 , para cada frequência. • (23) Observação Pode-se provar que as condições do teorema são necessárias se o sistema for escalar. Observação: (24) Em vista da equivalência, verificada antes, entre estabilidade robusta e desempenho nominal, é razoável conjecturar que o problema de desempenho robusto é equivalente ao problema de estabilidade robusta na figura 10*, com o modelo de incerteza dado por Π := ( I + Wd ∆ eWe ) −1 ( I + W1∆W2 ) P, ∆ e ∞ < 1, ∆ ∞ < 1 , { } tal como na figura 14. 88 W2 W2 ∆ w z K r W1 d Wd P We _ e ∆e Figura 14 Observação: Suponha que W1 e Wd tenham inversas. Então temos We SoWd ( I + (W1−1Wd ) −1 ∆W2ToW1 (W1−1Wd ) ) −1 = We SoWdWd−1W1 ( (W1−1Wd ) −1 + (W1−1Wd )−1 ∆W2ToW1 ) ( = We SoW1 Wd−1W1 + Wd−1W1∆W2ToW1 ( = We SoW1W1−1 Wd−1 ( I + W1∆W2To ) =T ed ) ) (25) (25*) −1 −1 −1 = We So ( I + W1∆W2To )−1Wd , de acordo com (17*). Consequentemente, em vista de (25*), uma alternativa para condição suficiente de desempenho robusto é σ (We SoWd ) + κ (W1−1Wd )σ (W2ToW1 ) ≤ 1 . Número condicionante da planta e especificações diferentes Consideremos agora o caso em que a incerteza e o desempenho não são medidos no mesmo ponto. Concretamente, supomos agora, por exemplo, que o desempenho é ainda medido pela sensibilidade da resposta, mas a incerteza do modelo é em termos da forma multiplicativa da entrada, isto é, Π := P ( I + W1∆W2 ) : ∆ ∈ RH ∞ , ∆ ∞ < 1 . { } O diagrama de blocos correspondente é mostrado na figura 15 abaixo. 89 d w z ∆ Wd W2 W1 e K We P _ Figura 15 Para esta posição do problema, vimos que: a condição de estabilidade robusta é W2TW i 1 ∞ ≤1 . e a condição de desempenho nominal é We SoWd ∞ ≤ 1. Vamos calcular a matriz de transferência de d a e: Seja y a entrada de We e seja u a saída de K. Então, temos y = Wd d + P (u + W1∆W2 u ) = Wd d − P ( I + W1∆W2 u ) Ky y = ( I + PK + PW1∆W2 K ) −1Wd d ; mas I + PK + PW1∆W2 K = ( I + PW1∆W2 K ( I + PK ) −1 ) ( I + PK ) , donde ( y = ( I + PK ) −1 I + PW1∆W2 K ( I + PK ) −1 ) −1 Wd d = So ( I + PW1∆W2 KS o ) −1Wd d , donde Ted = We S o ( I + PW1∆W2 KSo ) −1Wd . (25**) Suponha agora que W1 , Wd e P tenham inversas. Então, temos Ted = We S oWd ( ( I + PW1∆W2 KS o )Wd ) Wd = We SoWd (Wd + PW1∆W2 KS oWd ) Wd −1 −1 ( ) = W S W (I +W = W S W ( I + W PW ∆W K ( I + PK ) W ) ) = W S W ( I + W PW ∆W K ( I + PK ) PP W ) ) = W S W ( I + W PW ∆W KP ( I + KP ) P W ) ) = W S W ( I + W PW ∆W TW W P W ) ) , donde T = W S W ( I + (W PW ) ∆ (W TW )(W PW ) ) . −1 = We SoWd Wd−1 (Wd + PW1∆W2 KS oWd ) ed e o d −1 d 1 2 e o d −1 d 1 2 e o d −1 d 1 2 e o d −1 d 1 2 i e o d e ) −1 −1 d PW1∆W2 KS oWd d −1 −1 −1 d −1 1 d −1 −1 −1 d o −1 −1 d 1 −1 1 −1 2 i 1 −1 d −1 d −1 −1 1 (25***) Se, alem disso, W2 também tiver inversa, pode-se demonstrar que 90 ( Ted = We S oWd (W1−1Wd ) −1 I + (W1−1PW1 ) ∆ (W2 P −1W2−1 )(W2ToW1 ) ) −1 (W1−1Wd ) . (25#) Baseados nestes resultados, temos Teorema Seja P∆ ∈ Π = P ( I + W1∆W2 ) : ∆ ∈ RH ∞ , ∆ { ∞ (26a) < 1 com K estabilizando internamente } o sistema nominal. Suponha que P, W1 , W2 e Wd sejam quadradas e inversíveis. Então obtemos desempenho robusto se uma das seguintes condições for satisfeita (i) para cada frequência ω , σ (We SoWd ) + κ (Wd−1 PW1 )σ (W2TW (26b) i 1) ≤ 1 , (ii) para cada frequência ω , κ (W1−1Wd )σ (We SoWd ) + σ (W1−1 PW1 )σ (W2 P −1W2−1 )σ (W2ToW1 ) ≤ 1 . (26c) Prova: (i) vem de (25***) e (ii) vem de (25#). • (27) Observação: Se as hipóteses de inversibilidade das matrizes não forem satisfeitas, obtem-se pelo mesmo tipo de raciocinio, usando (25**), isto é, Ted = We So ( I + PW1∆W2 KSo ) −1Wd , a seguinte condição suficiente alternativa: σ (Wd )σ (We So ) + σ ( PW1 )σ (W2 KSo ) ≤ 1 . (28) Observação: (29) É importante notar que enquanto a condição de estabilidade robusta é dada em função de Li = KP , a condição para o desempenho nominal é dado em função de Lo = PK . Esta classe de problemas é dita “skewed” (“torta”). Como em geral PK ≠ KP , a margem para estabilidade robusta na entrada da planta é em geral diferente daquela na saída da planta. Observação: (29*) Se o modelo nominal ponderado for mal condicionado no espectro de frequências considerado, então as condições de desempenho robusto podem ser bem mais restritivas do que aquelas de estabilidade e desempenho nominais. Assim, por exemplo, se W1 = I , Wd = I e W2 = wt I , onde wt ∈ RH ∞ é uma função escalar, a condição (26b), isto é, σ (We SoWd ) + κ (Wd−1 PW1 )σ (W2TW i 1 ) ≤ 1 , se torna σ (We S o ) + κ ( P )σ ( wt To ) ≤ 1, ∀ω . Comparando este resultado com os obtidos para os problemas “non-skewed”, vemos que a condição para estabilidade, isto é, a desigualdade acima fica dificil de ser satisteita se κ ( P) for grande. Este problema será discutido com mais detalhe no capitulo seis. Observação: Se K tiver inversa, temos de (25**), que repetimos: T ed ( = We So ( I + PW1∆W2 KSo )−1Wd = We So ( So−1K −1 + PW1∆W2 ) KSo ( = We K −1 So−1 K −1 + PW1∆W2 ) −1 ( (30) ) Wd = We K −1 So−1 K −1 ( I + KSo PW1∆W2 ) −1 ) Wd −1 Wd 91 ( = We K −1 ( I + KSo PW1∆W2 ) KSoWd = We K −1 I + K ( I + PK ) −1 PW1∆W2 −1 ( = We K −1 I + ( I + KP ) −1 KPW1∆W2 ) −1 ) −1 KS oWd KSoWd = We K −1 ( I + TW i 1∆W2 ) KS oWd −1 −1 −1 −1 = We K −1 ( I + TW i 1∆W2 ) K ( I + PK ) Wd = We K ( I + TW i 1∆W2 ) ( I + KP ) KWd . Donde, finalmente, −1 Ted = We K −1 ( I + TW (30*) i 1∆W2 ) Si KWd . −1 −1 Suponha que We = I , Wd = ws I , W2 = I , onde ws ∈ RH ∞ é uma função escalar. Então obtemos da expressão acima −1 Ted = K −1 ( I + TW i 1 ) ≤ 1 , para todo ω . i 1∆ ) ws Si K , donde κ ( K )σ ( Si ws ) + σ (TW E vemos que a desiguladade não será satisfeita se o número condicionante do controlador for grande, ou seja, se ele for mal condicionado. O fato de o número condicionante ter aparecido no teste de desempenho robusto em problemas “skewed” tem outra interpretação, considerando dois conjuntos de plantas como na figura 16 abaixo: A do lado esquerdo: Π1 := {P ( I + wt ∆ ) : ∆ ∈ RH ∞ , ∆ ∞ < 1} , e a do lado direito: Π2 := {( I + wt ∆ ) P : ∆ ∈ RH ∞ , ∆ ∞ < 1} , onde wt e wt ∈ RH ∞ , de resto qualquer. wt wt ∆ P ∆ P Figura 16 Se P tiver inversa, temos Π2 ⊇ Π1 se wt ≥ wt κ ( P ) ∀ω . Com efeito, P( I + wt ∆) = P ( I + wt ∆P −1P ) = ( I + wt P∆P −1 ) P , donde P ( I + wt ∆ ) = ( I + wt P∆P −1 ) P . Como dito antes, o número de condicionamento pode crescer bastante com a frequência ω . A título de ilustração, temos o seguinte problema típico do ponto de vista industrial. 92 ⎡ 0, 2 0,1 1 ⎢ −0, 05 0 0 ⎢ P( s) = ⎢ 0 0 −1 ⎢ 0 0 ⎢ 1 ⎢⎣ 0 1 0 0 1 ⎤ 0 0, 7 ⎥⎥ 1 0 ⎥ ⎥ 0 0 ⎥ 0 0 ⎥⎦ ( s + 1)( s + 0,07) ⎤ 1 ⎡ s , a ( s ) ⎢⎣ −0,05 ( s + 1)( s + 0,13) ⎥⎦ onde a ( s ) = ( s + 1)( s + 0,1707)( s + 0,02929) = Na figura 17 temos o número de condicionamento para esta planta. Figura 17 Vemos que para frequências altas o número de condicionament o torna-se alto. O problema “skewed” tem reconhecidamente solução mais complicada que o outro, mas faz sentido em vários problemas. Considere, por exemplo, o caso em que −W2 KSoWd ⎤ ⎡ w⎤ ⎡ −W2TW ⎡z⎤ i 1 , (30**) ⎢ e ⎥ = G ( s ) ⎢ ⎥ , onde G ( s ) = ⎢ We S oWd ⎥⎦ ⎣ ⎦ ⎣We So PW1 ⎣d ⎦ ⎡ −W2 ( I + KP ) −1 KPW1 ou seja, G ( s ) = ⎢ We So PW1 ⎣ −W2 KSoWd ⎤ We S oWd ⎡ −W2 KSo PW1 −W2 KSoWd ⎤ ⎥ = ⎢ W S PW We SoWd ⎥⎦ ⎦ ⎣ e o 1 93 ⎡ −W2 = ⎢ ⎣ 0 0 ⎤ ⎡ KSo P KSo ⎤ ⎡W1 0 ⎤ ⎡ −W2 0 ⎤ ⎡ K ⎤ = S [P We ⎥⎦ ⎢⎣ So P We ⎥⎦ ⎢⎣ I ⎥⎦ o So ⎥⎦ ⎢⎣ 0 Wd ⎥⎦ ⎢⎣ 0 0⎤ ⎡W I ]⎢ 1 ⎥ ⎣ 0 Wd ⎦ 0 ⎤ ⎡K ⎤ 0⎤ ⎡ −W ⎡W = ⎢ 2 ( I + PK ) −1 [ P I ] ⎢ 1 ⎥ ⎥. ⎢ ⎥ ⎣ 0 We ⎦ ⎣ I ⎦ ⎣ 0 Wd ⎦ Objetivo comum num projeto é fazer G ( s) ∞ pequeno. Em vista de (30**), vemos que isto implica em fazer Ti , KSo , So P e So pequenos na faixa mais relevante de frequências. E da última expressão, vê-se que PK deve ser grande. 4.5 Margens de ganho e de fase As margens de ganho e de fase são parâmetros muito populares entre os “práticos”. E, efetivamente, são bastante úteis na grande maioria dos problemas escalares. Entretanto, como veremos num exemplo, elas constituem um conjunto de parâmetros menos que satisfatórios, mesmo em sistemas escalares, para julgar da robustez da estabilidade de um sistema. Considere a figura 18, com função de transferência escalar. L( s ) _ Figura 18 Suponha que o sistema nominal L0 ( s) seja estável. Margem de ganho: Diz-se que o SMF acima tem margem de ganho [ kmin , kmax ] se o SMF for estável para todo L ( s ) = kL0 ( s ) , com kmin < k < kmax , mas instável com L( s ) = kmax L0 ( s ) e com L( s ) = kmin L0 ( s ) , onde 0 ≤ kmin ≤ 1 e kmax ≥ 1 . Margem de fase: O SMF tem margem de fase [φmin , φmax ] se ele for estável para todo L( s ) = e − jφ L0 ( s ) com φmin < φ < φmax , mas instável se L( s ) = e − jφmax L0 ( s ) ou se L ( s ) = e − jφmin L0 ( s ) , onde −π ≤ φmin ≤ 0 e 0 ≤ φmax ≤ π . Estas margens de estabilidade nos são dadas diretamente do digrama de Nyquist do sistema em malha aberta, como indicado na figura 19. 94 Figura 19 Na figura da esquerda, kmax e kmin indicam quanto o ganho pode ser aumentado e diminuído, respectivamente, sem provocar instabilidade da malha. E na figura da direita φmax e φmin representam quanto o atraso de fase, e o avanço de fase, respectivamente, podem ser tolerados sem produzir instabilidade. Entretanto, como veremos agora, as margens de ganho e de fase podem não ser um indicador suficiente da robustez de um sistema. Considere-se o sistema muito simples P( s) = a−s b+s , a > 1, com um controlador K ( s ) = , b > 0. as − 1 s +1 O polinômio característico do SMF é (as − 1)( s + 1) + (a − s )(b + s ) = (a − 1) s 2 + (2a − b − 1) s + ab − 1 . Para que este polinômio seja Hurwitz é necessário e suficiente que a − 1 > 0, 2a − b − 1 > 0 e ab − 1 > 0 . Da primeira desigualdade, temos a > 1 e desta com a 3ª. temos b > 0 . Para achar a margem de ganho, calcula-se o módulo de L, e iguala-se a 1, isto é, L ( jω ) = kL0 ( jω ) = 1 , deteminando os valores máximo e mínimo em função de k . Para o cálculo da margem de fase, achar os ωφ tais que Fase( L ( jω )) = −φ + Fase( L0 ( jω )) = π , e daí calculo as fases correspondentes aos dois valores de ωφ que maximizam e minimizam a fase, respectivamenmte. Se houver mais de um valor da frequência que maximize / minimize o ganho ou a fase, toma-se o menor, se se trata de máximo, e o maior, se se trata de mínimo: reportar-se à figura acima. Consideraremos três casos: 95 a−s , portanto, as − 1 k (a − s) k (a − jω ) k (a − jω )(−1 − jaω ) . Donde L( jω ) = = L( s ) = jaω − 1 1 + a 2ω 2 as − 1 (i) b = 1. Neste caso, temos imediatamente K 0 = 1 e L0 ( s ) = k (− a − aω 2 + j (− a 2ω + ω )) k 2 a 2 (1 + ω 2 ) 2 k 2ω 2 (1 − a 2 ) 2 2 ∴ L( jω ) = + =1 = a 2ω 2 + 1 (a 2ω 2 + 1) 2 (a 2ω 2 + 1) 2 ∴ k 2 a 2 (1 + 2ω 2 + ω 4 ) + k 2ω 2 (1 − 2a 2 + a 4 ) = a 4ω 4 + 2a 2ω 2 + 1 a 4ω 4 + 2a 2ω 2 + 1 a 4ω 4 + 2a 2ω 2 + 1 = . ∴k2 = 2 a (1 + 2ω 2 + ω 4 ) + ω 2 (1 − 2a 2 + a 4 ) a 2ω 4 + (a 4 + 1)ω 2 + a 2 (*) Ora, as frequências que maximizam / minimizam k, são as mesmas que maximizam / minimizam k 2 . Então, para achar estes valores das frequências, vamos calcular dk 2 (4a 4ω 3 + 4a 2ω )(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) − (a 4ω 4 + 2a 2ω 2 + 1)(4a 2ω 3 + 2(a 4 + 1)ω ) = dω (a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) 2 = 0, donde 4ω (a 4ω 2 + a 2 )(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) = (a 4ω 4 + 2a 2ω 2 + 1)2ω (2a 2ω 2 + (a 4 + 1)) ; vemos que ω = 0 é uma solução desta eq. Substituindo em (*), obtem-se o valor do ganho correspondente k = 1/ a Eliminando-se ω , temos uma eq. do 6º. grau, biquadrada . Resolvida esta equação, teremos três raízes. Das 4 raizes, calculando-se, obtemos de acordo com ZDG, p. 239, kmin = 1 e kmax = a . a Para o cálculo da margem de fase, temos e − jφ (a − s ) e − jφ (a − jω ) , donde L ( jω ) = ; obtemos, de acordo com ZDG, as − 1 jaω − 1 2 -1 ⎛ a − 1 ⎞ = −π e φmax = sen ⎜ 2 ⎟ =: θ . ⎝ a +1⎠ L( s) = φmin Claro que tanto a margem de ganho como a de fase tornam-se muito altas quando a é grande; 1 < b < a e b → a . Neste caso, obtem-se de acordo com o livro, a 1 1 kmin = → 2 , kmax = ab → a 2 , φmin = −π e φmax → 0 . ab a (ii) Ou seja, neste caso temos margem de ganho muito grande e margem de fase arbitrariamente pequena. (iii) kmin 1 1 < b < a e b → . Neste caso, temos novamente de acordo com o livro, a a 1 = → 1, kmax = ab → 1, φmin = −π e φmax → 2θ . ab 96 Obtemos neste caso margem de fase muito grande e margem de ganho arbitrariamente pequena. O ponto que se quis ilustrar com este exemplo é que às vezes as margens de ganho e de fase juntas não são suficientes para indicar a robustez de um sistema. Por exemplo, é possível construir um controlador (complicado) tal que kmin < 1 , kmax > a, φmin = −π e φmax > θ . a Neste sistema, pode-se conferir que o diagrama de Nyquist se aproxima arbitrariamente do ponto (-1; 0). Um controlador que dá estes valores é K= s + 3,3 s + 0,55 1,7 s 2 + 1,5s + 1 . 3,3s + 1 0,55s + 1 s 2 + 1,5s + 1,7 Pode-se verificar que este sistema tem pelo menos as mesmas margens de ganho e de fase que o sistema com controlador K = 1, mas o diagrama de Nyquist aproxima-se mais do ponto (-1; 0). Consquentemente este sistema é menos robusto quando o ganho e a fase são perturbados simultaneamente. 4.6 Deficiência do controle clássico para sistemas MIMO (Esta seção pode ser omitida) Nesta seção é mostrado, através de um exemplo, que a teoria de controle clássica pode não ser confiável quando aplicada a projeto de sistemas MIMO. Considere um massa inercial em forma cilindria, que gira em torno do seu eixo vertical, que denominaremos de eixo z. A “entrada” do sistema é constituída por dois “momenta” (torques) T1 e T2 aplicados nos eixos no plano horizontal, x e y , respectivamente. A velocidade angular do cilindro em torno do eixo z é constante e igual a Ω . Os momentos de inércia do cilindro com relação aos três eixos são I1 , I 2 = I1 e I 3 , respectivamente. Sejam ω1 e ω2 as velocidades angulares com relação aos eixos x e y , respectivamente. Então as eqs. de Euler são I1ω1 − ω2 Ω( I1 − I 3 ) = T1 , I1ω2 − ω1Ω( I 3 − I1 ) = T2 . Definamos ⎡ u1 ⎤ ⎡ T1 / I1 ⎤ ⎢u ⎥ := ⎢T / I ⎥ , a := (1 − I 3 / I1 )Ω . ⎣ 2 ⎦ ⎣ 2 1⎦ Obtemos as seguintes eqs. de estado do sistema: ⎡ ω1 ⎤ ⎡ 0 a ⎤ ⎡ ω1 ⎤ ⎡ u1 ⎤ ⎢ω ⎥ = ⎢ − a 0 ⎥ ⎢ω ⎥ + ⎢u ⎥ . ⎦⎣ 2⎦ ⎣ 2⎦ ⎣ 2⎦ ⎣ Suponha agora que ω1 e ω2 sejam medidas em coordenadas tais que ⎡ y1 ⎤ 1 ⎢ y ⎥ = cos θ ⎣ 2⎦ ⎡ cos θ ⎢ −senθ ⎣ senθ ⎤ ⎡ ω1 ⎤ ⎡ 1 a ⎤ ⎡ ω1 ⎤ . = cos θ ⎥⎦ ⎢⎣ω2 ⎥⎦ ⎢⎣ − a 1 ⎥⎦ ⎢⎣ω2 ⎥⎦ 97 ⎡ y1 ⎤ ⎡u ⎤ Definindo u = ⎢ 1 ⎥ e Y = ⎢ ⎥ , ⎣ u2 ⎦ ⎣ y2 ⎦ obtemos a equação em função da matriz de transferência a ( s + 1) ⎤ 1 ⎡ s2 − a2 Y ( s ) = P ( s )u ( s ) , com P ( s ) = 2 ⎥. 2 ⎢ s + a ⎣ − a ( s + 10 s − a 2 ⎦ suponhamos que a lei de controle seja u = K1r − y , onde 1 ⎡ 1 −a ⎤ .r K1 = 1 + a 2 ⎢⎣ a 1 ⎥⎦ r P y K1 r u _ Figura 21 A matriz de transferência do sistema acima é dada por 1 ⎡1 0 ⎤ Y (s) = R( s) . s + 1 ⎢⎣ 0 1 ⎥⎦ As matrizes de sensibilidade e de sensibilidade complementar são dadas por 1 ⎡ 1 a⎤ 1 ⎡ s −a ⎤ e T = P( I + P) −1 . S = ( I + P ) −1 = ⎢ ⎥ s + 1 ⎢⎣ −a 1 ⎥⎦ s + 1 ⎣a s ⎦ Como vemos, este controle desaclopa as malhas, cada malha aberta tendo função de transferência 1/s . Pode-se verificar que cada malha tem margem de fase dada por φmax = −φmin = 900 e margem de ganho kmin = 0 e kmax = ∞ . Suponha agora que uma das malhas é perturbada de acordo com a figura 22: 98 Figura 22 Definamos z (s) 1 = −T11 = − . w( s ) s +1 É claro que a máxima perturbação será: δ ∞ < 1 T11 = 1 , que é independente de a . ∞ Por simetria, esta é também a máxima perturbação permitida na outra malha. Veremos agora que se ambas as malhas forem perturbadas simultaneamente a perturbação máxima permitida é muito menor, como mostrado abaixo. Considere uma perturbação multivariável, mostrada na figura 23: Figura 23 δ12 ⎤ ⎡δ Temos P∆ = ( I + ∆ ) P , sendo ∆ = ⎢ 11 ⎥ ∈ RH ∞ . ⎣δ 21 δ 22 ⎦ 99 Então, de acordo com o teorema do pequeno ganho, o sistema é robustamente estável para todo ∆ ∞ < γ se só se 1 1 = , o qual será muito menor que 1 se a for muito maior que 1. T ∞ 1 + a2 Considere o caso particular 0⎤ ⎡δ ∆ = ∆ d = ⎢ 11 ⎥. ⎣ 0 δ 22 ⎦ γ≤ Neste caso, o sistema em malha fechada é estável para todo ∆ ∞ < γ se só se 1 ( s 2 + (2 + δ11 + δ 22 ) s + 1 + δ11 + δ 22 + (1 + a 2 )δ11δ 22 ) não tiver zero no ( s + 1) 2 semiplano fechado da direita. Portanto, a região de estabilidade é dada por 2 + δ11 + δ 22 > 0 , det( I + T ∆ d ) = 1 + δ11 + δ 22 + (1 + a 2 )δ11δ 22 > 0 . É fácil verificar que o sistema é instável se δ11 = −δ 22 = 1 1+ a 2 . Isto mostra como no caso de sistemas multivariáveis o uso de métodos apropriados para sistemas escalares pode levar a resultados errados. 100