UMA NOVA SOLUÇÃO RECURSIVA PARA LS-SVR EM IDENTIFICAÇÃO
ROBUSTA DE SISTEMAS DINÂMICOS
José Daniel de Alencar Santos∗, Guilherme de Alencar Barreto†
∗
Instituto Federal de Educação, Ciência e Tecnologia do Ceará
Departamento de Indústria
Maracanaú, Ceará, Brasil
†
Universidade Federal do Ceará
Departamento de Engenharia de Teleinformática
Fortaleza, Ceará, Brasil
Emails: [email protected], [email protected]
Abstract— Least Squares Support Vector Regression (LS-SVR) is a powerful kernel-based learning tool for
regression problems. However, since it is based on the ordinary least squares (OLS) approach for parameter
estimation, the standard LS-SVR model is very sensitive to outliers. Robust variants of the LS-SVR model,
such as the WLS-SVR (Suykens, De Brabanter, Lukas and Vandewalle, 2002) and IRLS-SVR (De Brabanter
et al., 2009) models, have been developed aiming at adding robustness to the parameter estimation process, but
they still rely on OLS solutions. In this paper we propose a totally different approach to robustify the LS-SVR.
Unlike previous models, we maintain the original LS-SVR loss function, while the solution of the resulting linear
system for parameter estimation is obtained by means of the Recursive Least M -estimate (RLM) algorithm (Zou
et al., 2000). We evaluate the proposed approach in nonlinear system identification tasks, using artificial datasets
contaminated with outliers and a real-world dataset. The obtained results for infinite-steps-ahead prediction,
also known as free simulation, show that proposed model consistently outperforms the WLS-SVR and IRLS-SVR
models for all studied scenarios.
Keywords—
rithm.
Adaptive and Learning Systems, LS-SVR Model, Robust System Identification, RLM Algo-
Resumo— Regressão de mı́nimos quadrados baseada em vetores-suporte (LS-SVR) é uma poderosa ferramenta
de aprendizagem baseada em kernel e usada em problemas de regressão. Entretanto, uma vez que é baseada na
abordagem de mı́nimos quadrados ordinários (OLS) para estimação de parâmetros, o modelo LS-SVR padrão é
muito sensı́vel à presença de outliers. Variantes robustas do modelo LS-SVR, tais como WLS-SVR (Suykens,
De Brabanter, Lukas and Vandewalle, 2002) e IRLS-SVR (De Brabanter et al., 2009), tem sido desenvolvidos
com o objetivo de acrescentar robustez ao processo de estimação de parâmetros, mas eles ainda dependem de
soluções OLS. Nesse artigo, é proposta uma abordagem totalmente diferente para tornar robusto LS-SVR. Ao
contrário dos modelos anteriores, mantém-se a função de perda original do modelo LS-SVR, enquanto a solução
do sistema linear resultante para estimação de parâmetros é obtida através do algoritmo RLM (Zou et al., 2000).
A abordagem proposta foi avaliada em tarefas de identificação de sistemas não-lineares, usando conjuntos de
dados artificiais contaminados com outliers e um conjunto de dados reais. Os resultados obtidos para predição
de infinitos passos a frente, também conhecida como simulação livre, mostram que o modelo proposto supera
consistentemente os modelos WLS-SVR e IRLS-SVR em todos os cenários estudados.
Palavras-chave— Sistemas Adaptativos e de Aprendizagem, Modelo LS-SVR, Identificação Robusta de Sistemas, Algoritmo RLM.
1
Introdução
Regressão de mı́nimos quadrados baseada em vetores suporte (Least Squares Support Vector Regression - LS-SVR) (Saunders et al., 1998; Suykens, Van Gestel, De Brabanter, De Moor and
Vandewalle, 2002) é uma ferramenta largamente
usada em problemas de regressão, sendo aplicada com sucesso para previsão de séries temporais (Van Gestel et al., 2001), controle (Khalil
and El-Bardini, 2011) e identificação de sistemas (Falck et al., 2009). Sua formulação padrão usa restrições de igualdade e uma função de
custo baseada em mı́nimos quadrados (Suykens,
Van Gestel, De Brabanter, De Moor and Vandewalle, 2002). Assim, a solução para os parâmetros é obtida resolvendo um sistema de equações lineares, usando o algoritmo dos mı́nimos
quadrados ordinários (Ordinary Least Squares -
OLS). Entretanto, o algoritmo OLS fornece solução ótima somente se os erros seguem uma distribuição Gaussiana. Infelizmente, em diversas
aplicações de regressão no mundo real isto é uma
suposição muito forte porque os dados disponı́veis geralmente são contaminados com ruı́do não
Gaussiano ou mesmo com outliers. Nesses cenários, o desempenho dos modelos LS-SVR pode diminuir significativamente.
Desse modo, alguns autores tem dedicado
atenção em desenvolver variantes robustas para
os modelos LS-SVR. Por exemplo, Suykens et
al. (Suykens, De Brabanter, Lukas and Vandewalle, 2002) introduziram uma versão ponderada do LS-SVR baseada em estimadoresM (Huber et al., 1964), chamada de Weighted
Least Squares Support Vector Regression (WLSSVR). Mais tarde, De Brabanter et al. (De Brabanter et al., 2009) também introduziram uma
estimativa robusta sobre soluções prévias de LSSVR usando uma abordagem reponderada iterativamente, chamada Iteratively Reweighted Least
Squares Support Vector Regression (IRLS-SVR).
Em essência, enquanto essas variantes robustas modificam a função de perda original do LSSVR para penalizar grandes erros, elas ainda dependem do algoritmo OLS para fornecer uma solução para o sistema linear resultante. Neste artigo,
é introduzida uma abordagem diferente para adicionar robustez ao modelo LS-SVR. Ao invés de
modificar sua função de perda, decidiu-se resolver o sistema linear resultante para estimação dos
parâmetros usando o algoritmo RLM (Recursive
Least M -estimate) (Zou et al., 2000). A regra
RLM é por si só uma variante robusta do algoritmo padrão RLS (Recursive Least Squares), que
foi modificado pelo uso de estimadores-M para tratar outliers.
A abordagem proposta, referida como modelo RLM-SVR, atualiza recursivamente o vetor
de multiplicadores de Lagrange e o bias para cada
amostra de entrada. Ao fazer isso, a ocorrência de
outliers em uma dada amostra de entrada pode ser
tratada individualmente, melhorando a qualidade
da solução. Para o propósito de validação, foram
usados dois conjuntos de dados sintéticos, cujas
saı́das são contaminadas com diferentes quantidades de outliers, e um conjunto de dados real. O
desempenho do modelo RLM-SVR proposto é então comparado com aqueles fornecidos pelos modelos LS-SVR padrão, WLS-SVR e IRLS-SVR em
tarefas de identificação de sistemas com predição
de infinitos passos à frente (simulação livre).
O restante do artigo é organizado da seguinte
forma. Na Seção 2 é feita uma breve discussão
sobre o problema de identificação de sistemas investigado. Na Seção 3 são descritos brevemente os
modelos LS-SVR, WLS-SVR e IRLS-SVR. Na Seção 4 é tratada a abordagem proposta. Na Seção
5 são discutidos os resultados alcançados. Finalmente, o artigo é concluı́do na Seção 6.
2
Identificação de Sistemas Dinâmicos
Não Lineares
Dado um sistema dinâmico, que pode ser descrito
por um modelo auto-regressivo não linear com
entradas exógenas (nonlinear autoregressive with
exogenous inputs - NARX), seu i-ésimo vetor de
entrada xi ∈ RP é obtido a partir de Ly saı́das
passadas observadas yi ∈ R e Lu entradas de controle passadas ui ∈ R (Ljung, 1999)
yi = mi + i , mi = g(xi ), i ∼ N (i |0, σn2 ),
(1)
T
xi = [yi−1 , . . . , yi−Ly , ui−1 , . . . , ui−Lu ] , (2)
em que i é o instante de observação, mi ∈ R é a
saı́da real (sem ruı́do) do sistema, g(·) é uma função não linear desconhecida e i é o ruı́do com distribuição Gaussiana da saı́da observada yi . Após
N instantes, tem-se o conjunto
D = (xi , yi )|N
i=1 = (X, y),
(3)
N ×P
em que X ∈ R
é chamada matriz de regressores e y ∈ RN é o vetor de saı́das medidas. A partir
do conjunto D, daqui por diante chamado de conjundo de dados de estimação, deseja-se construir
um modelo que descreva suficientemente bem o
comportamento dinâmico do sistema investigado.
Depois da estimação do modelo apropriado,
este pode ser usado para simular a saı́da dinâmica
do sistema identificado através de predições iterativas. Dado um novo instante j, a predição para
os dados de teste é dada por
ŷj
=
f (xj ) + j ,
xj
=
[ŷj−1 , . . . , ŷj−Ly , uj−1 , . . . , uj−Lu ]T ,(5)
(4)
em que ŷj é a j-ésima saı́da ruidosa estimada.
Esse procedimento, no qual saı́das estimadas passadas são usadas como regressores, é geralmente
chamado simulação livre ou predição de infinitos
passos à frente e será adotado ao longo deste artigo em todos os experimentos.
Quando o ruı́do observado não pode ser considerado Gaussiano, como no caso da presença de
outliers, modelos obtidos a partir da Eq. (1) não
são apropriados. De fato, as caudas leves da distribuição Gaussiana não são capazes de explicar
os desvios dos erros causados por outliers.
Assim, este artigo tem o interesse de propor
uma nova abordagem robusta para tarefas de identificação de sistemas dinâmicos não lineares, a partir do modelo LS-SVR. A próxima seção apresenta
este modelo, além de algumas de suas variantes
robustas que são avaliadas neste trabalho.
3
Modelos Avaliados
Inicialmente, considere o conjunto de estimação
p
{(xn , yn )}N
n=1 , com entradas xn ∈ R e correspondentes saı́das yn ∈ R. Em um problema de
regressão, o objetivo é procurar uma função f (·)
que aproxime as saı́das yn para todas as instâncias de dados disponı́veis. Para o caso não-linear,
f geralmente assume a forma
f (x) = hw, ϕ(x)i + b,
(6)
em que ϕ(·) : Rp → Rph é um mapeamento não
linear em um espaço de atributos de maior dimensionalidade, h·, ·i denota um produto escalar neste
espaço de atributos, w ∈ Rph é um vetor de pesos
e b ∈ R é um bias.
A formulação do problema de estimação de
parâmetros em LS-SVR conduz à minimização do
seguinte funcional (Suykens, Van Gestel, De Brabanter, De Moor and Vandewalle, 2002; Saunders
et al., 1998)
J(w, e) =
N
1X 2
1
kwk22 + C
e ,
2
2 n=1 n
(7)
sujeito a
yn = hw, ϕ(xn )i + b + en ,
n = 1, 2, . . . , N (8)
em que en = yn − f (xn ) é o erro devido ao nésimo padrão de entrada e C > 0 é um parâmetro
de regularização.
O Lagrangeano do problema de otimização
nas Eqs. (7) e (8) é
em que a matriz Av ∈ R(N +1)×(N +1) é definida
como
0
1T
Av =
,
(15)
1
Ω + C −1 V
e a matriz diagonal V ∈ RN ×N é dada por
1
1
V = diag
,...,
.
v1
vN
(16)
Cada peso vn é determinado com base nos erros en = αn /C do modelo LS-SVR original. Neste
L(w, b, e, α0 ) =
(9)
artigo, as estimativas robustas são obtidas a partir da função de pesos de Hampel (Suykens, De
N
X
−
αn [hw, ϕ(xn )i + b + en − yn ], Brabanter, Lukas and Vandewalle, 2002) como

n=1
if |en /ŝ| ≤ c1 ,
 1
c2 −|en /ŝ|
vn =
if c1 < |en /ŝ| ≤ c2 ,
em que αn ’s são os multiplicadores de Lagrange.
2 −c1
 c−4
As variáveis duais ótimas correspondem à solução
10
caso contrário,
do sistema linear Aα = y, dada por
(17)
1
em
que
ŝ
=
IQR
/1.349
é
uma
estimativa
robusta
b
0
0
1T
do desvio padrão dos erros en do modelo LS-SVR.
=
,
(10)
y0
1
Ω + C −1 I α0
Os valores c1 = 2.5 e c2 = 3.0 são normalmente
{z
} | {z } | {z }
|
escolhidos (Rousseeuw and Leroy, 1987).
α
y
A
N
1
1X 2
kwk22 + C
e
2
2 n=1 n
em que y0 = [y1 , . . . , yN ]T , 1 = [1, . . . , 1]T , α0 =
[α1 , . . . , αN ]T , Ω ∈ RN ×N é a matriz de kernel
com entradas Ωi,j = k(xi , xj ) = hϕ(xi ), ϕ(xj )i
onde k(·, ·) é a função de kernel escolhida. Além
disso, A ∈ R(N +1)×(N +1) , α ∈ R(N +1) e y ∈
R(N +1) . Assim, a solução para α é obtida pelo
algoritmo OLS como
α = (AT A)−1 AT y.
(11)
Finalmente, o modelo LS-SVR resultante para
regressão não-linear é dado por
f (x) =
N
X
αn k(x, xn ) + b.
(12)
n=1
Nos experimentos computacionais realizados
neste trabalho, optou-se
peloo kernel Gaussin
kx−xn k22
ano k(x, xn ) = exp
, em que γ é o
2
2γ
parâmetro que controla a largura do kernel.
3.2
O Modelo IRLS-SVR
O procedimento de ponderação para o modelo
WLS-SVR pode ser repetido iterativamente dando
origem ao modelo IRLS-SVR (De Brabanter et al.,
2009). Em cada iteração i, pode-se ponderar os er(i)
(i)
(i)
ros en = αn /C para n = 1, . . . , N . Os pesos vn
(i)
são calculados com base em en /ŝ e usando a função de pesos da Eq. (17). o próximo passo requer
(i)
a solução do sistema linear Av α(i) = y, em que
0
1T
Av(i) =
,
(18)
1
Ω + C −1 Vi
(
)
1
1
(i)
, . . . , (i) .
(19)
V = diag
(i)
v1
vN
O modelo resultante na i-ésima iteração é então
dado por
f (i) (x) =
3.1
O Modelo WLS-SVR
N
1X
1
kwk22 + C
vn e2n ,
2
2 n=1
(13)
sujeito às mesmas restrições da Eq. (8). Os erros obtidos no modelo LS-SVR padrão são ponderados pelo vetor v = [v1 , . . . , vN ]T , de acordo
com a Eq. (17). A solução ótima para WLS-SVR
é obtida resolvendo o sistema linear Av α = y,
também por meio do algoritmo OLS
α = (ATv Av )−1 ATv y,
αn(i) k(x, xn ) + b(i) .
(20)
n=1
O modelo WLS-SVR (Suykens, De Brabanter, Lukas and Vandewalle, 2002) é formulado pela minimização do funcional
J(w, e) =
N
X
(14)
(i+1)
Assim, faz-se i = i + 1 e os novos pesos vn
eo
vetor α(i+1) são calculados. Neste artigo, esse pro(i)
(i−1)
cesso continua até maxn (|αn − αn |) ≤ 10−3 .
4
A Abordagem Proposta
Inicialmente, a partir da Eq. (10) do modelo LSSVR padrão, calcula-se normalmente o vetor y
e a matriz A = [a1 , . . . , an , . . . , aN +1 ], em que
an ∈ RN +1 . A partir daı́, a ideia proposta envolve a aplicação de um algoritmo robusto de estimação recursiva para, a cada vetor an , calcular
1 IQR significa faixa InterQuantil, que é a diferença entre
o 75-ésimo percentil e o 25-ésimo percentil.
e atualizar o vetor de multiplicadores αn . Esse
procedimento deve ser feito considerando em cada
instante apenas uma das colunas an da matriz A
como entrada, ao invés de usar o algoritmo em
batch OLS. Como será mostrado nas simulações,
esta simples metodologia acabou sendo muito efetiva em fornecer estimativas robustas para o vetor
α, resultando em um desempenho satisfatório do
modelo RLM-SVR quando os dados de estimação
são contaminados com outliers.
O algoritmo RLM (Zou et al., 2000) foi escolhido como regra de estimação recursiva para o
modelo proposto, e sua função de custo é dada por
Jρ(n) =
N
+1
X
λN +1−n ρ(en ),
(21)
Algorithm 1 Pseudo-código do modelo RLMSVR.
Require: C, γ, δ, Ne , λ, λe , Nw
calcular A e y usando a Eq. (10)
definir S0 = δI, g0 = α0 = 0
for i = 1 : Ne , do
for n = 1 : N + 1, do
en = yn − αTn−1 an
calcular σ̂n2 usando a Eq. (23)
calcular q(en ) usando a derivada da Eq. (22)
atualizar Sn usando a Eq. (25)
atualizar gn usando a Eq. (26)
atualizar αn usando a Eq. (27)
end for
end for
n=1
em que ρ(·) é uma função de estimadores-M e
0 λ ≤ 1 é um fator de esquecimento exponencial, uma vez que a informação de um passado
distante tem efeito cada vez mais insignificante na
atualização dos coeficientes.
Neste artigo, a seguinte função de estimaçãoM de Hampel é considerada
 2
e

0 ≤ |e| < ξ1 ,

2


 ξ |e| − ξ12
ξ1 ≤ |e| < ξ2 ,
1
2
ρ(e) =
ξ1 (ξ3 +ξ2 )−ξ12
ξ1 (|e|−ξ3 )2

ξ2 ≤ |e| < ξ3 ,
+

2
2 ξ2 −ξ3


 ξ1
ξ12
c. c.,
2 (ξ3 + ξ2 ) − 2
(22)
em que ξ1 , ξ2 e ξ3 são limiares que precisam ser estimados continuamente. O erro en foi considerado
como tendo uma distribuição Gaussiana possivelmente contaminada com algum ruı́do impulsivo.
A variância do erro σn2 para cada n é estimada da
seguinte forma
2
σ̂n2 = λe σ̂n−1
+ c(1 − λe )med(Fn ),
(23)
em que 0 λe ≤ 1 é um fator de esquecimento, med(·) é o operador mediana, Fn =
{e2n , e2n−1 , . . . , e2n−Nw +1 }, Nw é o tamanho da janela fixa para o operador mediana e c = 1.483(1 +
5/(Nw − 1)) é o fator de correção do estimador. Foram usados ξ1 = 1.96σ̂i , ξ2 = 2.24σ̂i e
ξ3 = 2.576σ̂i (Zou et al., 2000). Além disso, os
valores λe = 0.95 e Nw = 14 foram fixados.
O vetor ótimo α pode ser obtido igualando a
(n)
zero a derivada parcial de Jρ com relação a αn .
Isso resulta em
(n)
R(n)
ρ αn = Pρ ,
(n)
(n)
(24)
em que Rρ e Pρ são chamados matriz de correlação via estimação-M de an e vetor de correlação
cruzada via estimação-M de an e yn , respectivamente. A Eq. (24) pode ser resolvida recursivamente usando RLM por meio das seguintes equações
Sn = λ−1 (I − gn aTn )Sn−1 ,
(25)
gn =
q(en )Sn−1 an
,
λ + q(en )aTn Sn−1 an
αn = αn−1 + (yn − aTn αn−1 )gn ,
(26)
(27)
−1(n)
n)
em que Sn = Rρ
, q(en ) = e1n ∂ρ(e
∂en é a função
de pesos e gn é o vetor de ganho via estimaçãoM . O valor máximo para n é N + 1; entretanto,
é necessário percorrer as amostras de estimação
Ne > 1 vezes para o algoritmo convergir. O valor
Ne = 20 foi usado em todos os experimentos. O
modelo RLM-SVR é resumido no Algoritmo (1).
5
Experimentos Computacionais
A fim de avaliar o desempenho da técnica proposta
em identificação de sistemas não-lineares com predição de infinitos passos à frente, foram realizados
experimentos computacionais com dois conjuntos
de dados artificias (Tab. 1) e um conjunto de dados reais.
Além do ruı́do Gaussiano, os dados de estimação em todos os conjuntos artificiais foram incrementalmente contaminados com um número fixo
de outliers igual a 2.5%, 5% e 10% das amostras
de estimação. A cada amostra escolhida aleatoriamente foi adicionado um valor uniformemente distribuı́do entre U(−My , +My ), em que My é o máximo valor absoluto da saı́da. Os conjuntos de dados artificiais 1 e 2 foram gerados seguindo a metodologia em (Kocijan et al., 2005) e (Narendra and
Parthasarathy, 1990), respectivamente. É importante destacar que somente as saı́das do conjunto
de estimação foram contaminadas. Portanto, as
saı́das de teste permaneceram intactas.
O conjunto de dados reais é chamado wing
flutter e está disponı́vel no repositório DaISy2 .
Esse conjunto de dados corresponde a um sistema
com uma única entrada e uma única saı́da (Single
Input Single Output - SISO), com 1024 amostras
de cada sequência, entrada de controle u e saı́da
y, das quais 512 foram usadas para estimação e
as outras 512 para teste.
2 http://homes.esat.kuleuven.be/∼smc/daisy/daisydata.html
Tabela 1: Detalhes sobre os conjuntos de dados artificiais usados nas simulações computacionais. O ruı́do
indicado na última coluna é adicionado somente às saı́das dos dados de estimação.
Entrada/Amostras
#
1
2
Saı́da
yn = yn−1 − 0.5 tanh(yn−1 + u3n−1 )
yn =
yn−1 yn−2 (yn−1 +2.5)
2
2
1+yn−1
+yn−2
Estimação
un = N (un |0, 1)
−1 ≤ un ≤ 1
150 amostras
Teste
un = N (un |0, 1)
−1 ≤ un ≤ 1
150 amostras
un = U(−2, 2)
300 amostras
un = sin(2πn/25)
100 amostras
As ordens Lu e Ly escolhidas para os regressores nos conjuntos de dados artificiais foram definidas de acordo com seus maiores atrasos, como
mostra a Tab. 1. Para o conjunto wing flutter, as ordens Lu , Ly ∈ {1, . . . , 5} foram ajustadas via validação cruzada com 10-fold no modelo LS-SVR. A mesma estratégia foi usada para
ajustar C ∈ {20 , . . . , 220 }, γ ∈ {2−10 , . . . , 20 } e
λ ∈ {0.99, 0.999, 0.9999} na busca por seus valores ótimos. Além disso, os valores δ = 102 ou
δ = 103 foram usados para inicializar a matriz S.
Foram comparados os desempenhos dos modelos RLM-SVR, LS-SVR, WLS-SVR e IRLSSVR ao longo de 20 rodadas independentes de
cada algoritmo. As distribuições das raı́zes quadradas dos erros quadráticos médios (Root Mean
Square Error - RMSE) para as amostras de teste
com os conjuntos artificiais e o conjunto wing flutter são mostradas nas Figs. (1a), (1b) and (2a).
Em todos os cenários com os conjuntos de
dados artificiais e o real, os algoritmos LS-SVR,
WLS-SVR e IRLS-SVR apresentaram o mesmo
valor de RMSE ao longo das 20 rodadas. Por outro
lado, embora o modelo RLM-SVR tenha apresentado alguma variância na distribuição do RMSE,
seus valores máximos foram ainda menores que os
obtidos com os outros modelos em todos os cenários de contaminação com os conjuntos artificiais
e com o conjunto wing flutter. Nos cenários com
os dados artificiais sem outliers, o modelo RLMSVR alcançou valores médios de RMSE similares
aos obtidos pelos outros métodos robustos.
Por fim, a Fig. (2b) ilustra a saı́da real observada do conjunto wing flutter e as predições para
os modelos LS-SVR tradicional e RLM-SVR, considerando neste último a saı́da predita que obteve
o maior valor de RMSE ao longo das 20 rodadas. É possı́vel perceber que, aproximadamente
a partir da amostra 50, a saı́da do modelo LSSVR começa a apresentar certo atraso em relação
à saı́da real, fazendo com que em alguns momentos ambas possuam polaridades opostas. Por outro lado, embora tendo apresentado menores amplitudes, a saı́da do modelo RLM-SVR conseguiu
acompanhar melhor o comportamento dinâmico
da saı́da real, inclusive com as constantes oscilações de polaridade.
6
Ruı́do
N (0, 0.0025)
N (0, 0.29)
Conclusões
Neste artigo, foi apresentada uma nova estrategia
recursiva e robusta para resolver o problema de
estimação de parâmetros no modelo LS-SVR padrão. A regra de estimação recursiva escolhida é
uma variante robusta do algoritmo RLS que utiliza a teoria de estimadores-M . O modelo LS-SVR
robusto resultante, chamado modelo RLM-SVR,
foi com sucesso aplicado em tarefas de identificação de sistemas dinâmicos não-lineares em simulação livre e na presença de outliers. Para todos
os conjuntos de dados utilizados nos experimentos
computacionais, os piores resultados alcançados
pelo modelo RLM-SVR (ou seja, seus máximos
valores de RMSE) foram melhores que os alcançados pelas outras variantes robustas de LS-SVR.
Para os cenários sem outliers, o modelo RLM-SVR
obteve desempenho similar aos demais algoritmos.
Agradecimentos
Os autores agradecem o suporte financeiro do
IFCE (Instituto Federal de Educação, Ciência e
Tecnologia do Ceará) e do NUTEC (Núcleo de
Tecnologia Industrial do Ceará).
Referências
De Brabanter, K., Pelckmans, K., De Brabanter,
J., Debruyne, M., Suykens, J. A., Hubert,
M. and De Moor, B. (2009). Robustness
of kernel based regression: a comparison of
iterative weighting schemes, Artificial Neural
Networks–ICANN 2009, Springer, pp. 100–
110.
Falck, T., Suykens, J. A. and De Moor, B. (2009).
Robustness analysis for least squares kernel
based regression: an optimization approach,
Proceedings of the 48th IEEE Conference on
Decision and Control (CDC’09), pp. 6774–
6779.
Huber, P. J. et al. (1964). Robust estimation of
a location parameter, The Annals of Mathematical Statistics 35(1): 73–101.
(a) Conjunto de dados Artificial 1.
(b) Conjunto de dados Artificial 2.
Figura 1: Simulação livre com dados artificiais.
(a) RMSE.
(b) Predições.
Figura 2: Simulação livre com dados reais.
Khalil, H. M. and El-Bardini, M. (2011). Implementation of speed controller for rotary hydraulic motor based on LS-SVM, Expert Syst.
Appl. 38(11): 14249–14256.
Kocijan, J., Girard, A., Banko, B. and MurraySmith, R. (2005). Dynamic systems identification with gaussian processes, Mathematical
and Computer Modelling of Dynamical Systems 11(4): 411–424.
Ljung, L. (1999). System Identification Theory for
the User, 2nd edn.
Narendra, K. S. and Parthasarathy, K. (1990).
Identification and control of dynamical
systems using neural networks, Neural
Networks, IEEE Transactions on 1(1): 4–27.
Rousseeuw, P. J. and Leroy, A. (1987). Robust Regression and Outlier Detection, Wiley, New
York.
Saunders, C., Gammerman, A. and Vovk, V.
(1998). Ridge regression learning algorithm
in dual variables, (ICML-1998) Proceedings
of the 15th International Conference on Machine Learning, Morgan Kaufmann, pp. 515–
521.
Suykens, J. A. K., De Brabanter, J., Lukas, L.
and Vandewalle, J. (2002). Weighted least
squares support vector machines: robustness
and sparse approximation, Neurocomputing
48(1): 85–105.
Suykens, J. A. K., Van Gestel, T., De Brabanter, J., De Moor, B. and Vandewalle, J.
(2002). Least Squares Support Vector Machines, World Scientific.
Van Gestel, T., Suykens, J. A., Baestaens, D.E., Lambrechts, A., Lanckriet, G., Vandaele,
B., De Moor, B. and Vandewalle, J. (2001).
Financial time series prediction using least
squares support vector machines within the
evidence framework, Neural Networks, IEEE
Transactions on 12(4): 809–821.
Zou, Y., Chan, S. and Ng, T. (2000). A recursive
least m-estimate (RLM) adaptive filter for robust filtering in impulse noise, IEEE Signal
Proc. Let. 7(11): 324–326.
Download

Uma nova solução recursiva para ls-svr em identificação robusta de