E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Editorial
Prezados leitores,
Apresentamos a 4a edição da revista E-Locução. Nesta edição, trazemos duas
novidades: a primeira é, com a formação do NUPAC ( Núcleo de Pesquisas acadêmicas
e comunitárias ), esta revista passará a ser avaliada por tal núcleo – dando assim um
grande passo para a contínua busca por qualidade acadêmica, ainda quanto a esta
questão a coordenação editorial passará a ser feita pelo professor Marcello Teixeira
Franceschi – sendo assim substituído no corpo editorial pelo professor José Eduardo
do Couto Barbosa. A segunda novidade é que, pela primeira vez, a nossa Revista traz
uma seleção especial de artigos de apenas uma das diversas áreas do conhecimento.
Com o intuito de homenagear e reconhecer a sua importância e seu crescimento, nós
separamos oito artigos e duas resenhas que contemplam temas da área das
Engenharias. Como esses artigos apresentam muitos gráficos e fórmulas, optamos por
manter as formatações originais, a fim de não modificar a estrutura de tais elementos.
Entre os textos enviados foram selecionados, para este número especial, os seguintes
artigos:
-MÉTODO DE INTERSEÇÃO NORMAL À FRONTEIRA APLICADO À OTIMIZAÇÃO DO
TORNEAMENTO DO AÇO ABNT 52100 COM FERRAMENTAS DE CERÂMICA MISTA, que
apresenta um estudo detalhado sobre a aplicação do Método de Interseção Normal à
Fronteira na otimização do processo de usinagem de um aço SAE/ABNT 52100 – 55
HRC de modo a se obter uma fronteira equiespaçada de Pareto para a Vida da
ferramenta de cerâmica mista e de geometria convencional e da Rugosidade média da
peça;
- MÉTODO DE OTIMIZAÇÃO MULTIOBJETIVO BASEADO NA ANÁLISE ENVOLTÓRIA DE
DADOS, que realiza uma abordagem alternativa híbrida, combinando Metodologia de
Superfície de Resposta (RSM) e Análise Envoltória de Dados (DEA – Data Envelopment
Analysis), uma popular técnica de programação linear utilizada para comparar a
eficiência das Unidades de Tomada de Decisão (DMU – Decision Making Units);
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
- OTIMIZAÇÃO DO PROCESSO DE HOMOGENEIZAÇÃO DE EMULSÕES W/O DE
PETRÓLEO COM O USO DA METODOLOGIA DE SUPERFÍCIE DE RESPOSTA, que
demonstra a aplicação da Metodologia de Superfície de Resposta na determinação das
condições ótimas de homogeneização de emulsões de petróleo do tipo W/O (Water in
Oil);
- ESTUDO DA MINIMIZAÇÃO DE ERRO NAS MEDIÇÕES DE CONCENTRAÇÃO DE
EMULSÕES
POR
TITULAÇÃO
KARL-FISCHER
UTILIZANDO-SE
PROJETO
DE
EXPERIMENTOS, que objetiva estudar a eficiência da titulação Karl-Fischer como
procedimento de medição de concentração de emulsões do tipo água em óleo
(petróleo), bem como avaliar o melhor conjunto de parâmetros e respectivos níveis de
funcionamento do equipamento de medição de concentração;
- RISCO: MEDIDAS DE RISCO, AVERSÃO E SEU GERENCIAMENTO, que expõe ao
investidor as variáveis que afetarão as suas decisões e os cálculos que podem ser feitos
para a mensuração destas variáveis;
- OTIMIZAÇÃO DUAL MULTIOBJETIVO NO TORNEAMENTO DO AÇO ABNT
12L14, que propõe a aplicação da função de Erro Quadrático Médio na
minimização dos parâmetros de rugosidade superficial (Ra, Ry, Rq, Rt e Rz) no processo
de torneamento do aço de corte fácil ABNT 12L14, através de ensaios de curta
duração utilizando ferramenta de metal duro;
- PROJETO DE PARÂMETROS ROBUSTOS PARA O FRESAMENTO DE TOPO DO AÇO ABNT
1045, que enfoca a aplicação de um método experimental para determinar as
condições ótimas da rugosidade superficial Ra no fresamento de topo do aço ABNT
1045;
- UMA INVESTIGAÇÃO SOBRE OS COEFICIENTES C4 E C5 DAS CARTAS DE CONTROLE
SHEWHART X-BARRA E S, que propõe uma tentativa de se estabelecer uma
fundamentação teórica sobre a questão, ainda escassa em deduções, apesar das
inúmeras literaturas de controle estatístico de processos.
Por fim, trazemos duas resenhas:
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
- EXPERIMENTOS COM MISTURA PARA OTIMIZAÇÃO DE PROCESSOS: UMA APLICAÇÃO
COM RESPOSTAS NÃO NORMAIS, que objetiva saber qual a proporção dos
componentes da mistura que propicia um tempo de queima especificado em projeto.
- TEORIA DE PORTFÓLIO: COMPOSIÇÃO ÓTIMA DE UMA CARTEIRA DE INVESTIMENTO,
que visa mostrar técnicas de aplicação da Teoria do Portfólio de Harry Markowitz para
grandes números de ativos.
Boa leitura!
Luís Eduardo Machado.
Coordenador do Conselho Editorial
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
E-Locução – ISSN 2238-1899
v.1, n.4, jul/dez 2013
Publicação Semestral da FAEX – Faculdade de Ciências Sociais Aplicadas de Extrema
CONSELHO EDITORIAL
Coordenador
Prof. Luís Eduardo Machado
Editores
Prof. José Eduardo do Couto Barbosa
Prof. Marcello Teixeira Franceschi
Prof. Daniel Amaro Cirino de Medeiros
Prof. Edilberto Raimundo Daolio
CORPO EDITORIAL
Administrador Financeiro
Prof. João Batista da Silva
Revisão de Normalização
Prof. Marcello Teixeira Franceschi
Prof. Ms. Daniel Amaro Cirino de Medeiros
Profa. Eliana Aparecida Del Col Lopes
Prof. José Christiano Villas Boas
Autores dos textos
Projeto Gráfico, Capa e Diagramação
Fabrício di Santos
Endereço para correspondência
Estrada Municipal Pedro Rosa da Silva S/N
Vila Rica – Extrema, MG
E-mail: [email protected]
2013
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Sumário
1. Método de Interseção Normal à Fronteira Aplicado à Otimização do Torneamento
do Aço ABNT 521000 com Ferramentas de Cerâmica Mista....................................7
2. Método de Otimização Multiobjetivo Baseado na Análise Envoltória de
Dados...................................................................................................................33
3. Otimização do Processo de Homogeneização de Emulsões W/O de Petróleo com o
Uso da Metodologia de Superfície de Resposta....................................................59
4. Estudo da Minimização de Erro nas Medições de Concentração de Emulsões por
Titulação Karl-Fisher Utilizando-se Projeto de Experimentos................................79
5. Risco: Medidas de Risco, Aversão e seu Gerenciamento.......................................96
6. Otimização Dual Multiobjetivo no Torneamento do Aço ABNT 12L14................105
7. Projeto de Parâmetros Robustos para o Fresamento de Topo do Aço ABNT
1045.....................................................................................................................120
8. Uma investigação Sobre os Coeficientes C4 e C5 das Cartas de Controle Shewhart
X- Barra ES............................................................................................................139
9. Experimentos com Mistura para Otimização de Processos: Uma Aplicação com
Respostas não Normais........................................................................................154
10. Teoria de Portfólio: Composição Ótima de Uma Carteira de Investimento.........160
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
MÉTODO DE INTERSEÇÃO NORMAL À FRONTEIRA
APLICADO À OTIMIZAÇÃODO TORNEAMENTO DO AÇO
ABNT 52100 COM FERRAMENTAS DE CERÂMICA MISTA
José Henrique de Freitas Gomes
[email protected]
Tarcísio Gonçalves de Brito
[email protected]
Anderson Paulo de Paiva
[email protected]
Aurélio Xavier de Andrade
[email protected]
Resumo. Este trabalho apresenta um estudo detalhado sobre a aplicação do Método de
Interseção Normal à Fronteira na otimizaçãodo processo de usinagem de um aço
SAE/ABNT 52100 – 55 HRC de modo a se obter uma fronteira equiespaçada de Pareto
para a Vida da ferramenta de cerâmica mista e de geometria convencional e da
Rugosidade média da peça. Estas duas funções objetivo foram estimadas utilizando
arranjos de superfície de resposta. Os fatores investigados são: Velocidade Corte (Vc),
avanço (fn) e a profundidade de corte (ap). Os resultados indicam a boa adequação do
método à otimização deste processo de manufatura.
Palavras-Chave:Interseção Normal à Fronteira, RSM, Vida de Ferramentas.
1. INTRODUÇÃO
Para estabelecer relacionamentos funcionais adequados entre a Vida das
ferramentas e os parâmetros de corte (velocidade de corte, avanço e profundidade de
7
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
corte), muitos experimentos geralmente são necessários, o que torna o custo com a
experimentação por vezes proibitivo.
De acordo com Choudhury e El-Baradie (1998), muitos pesquisadores têm
investigado o efeito dos parâmetros de corte sobre a Vida da Ferramenta e a Rugosidade
Média da superfície usinada, utilizando o enfoque de variar um único fator por
experimento. O presente estudo, ao contrário, leva em consideração a variação
simultânea dos fatores para construir modelos de previsão para as respostas de interesse.
Esta abordagem estatística conhecida como Metodologia de Projeto de Experimentos
(DOE) consiste em planejar experimentos capazes de gerar dados apropriados para uma
eficaz análise estatística, o que resulta em conclusões válidas e objetivas (Montgomery,
2001). Das diversas estratégias experimentais disponíveis, este estudo fará uso dos
fatoriais completos e da Metodologia de Superfície de Resposta (MSR).
Um fatorial completo é um arranjo experimental no qual cada fator é testado
igualmente em cada um dos seus níveis, escolhidos dentro de sua amplitude normal de
variação. Isso permite a criação de um modelo de primeira ordem para a variável
dependente a partir de um algoritmo de mínimos quadrados. De modo análogo, os
arranjos MSR utilizam uma combinação de um arranjo fatorial (completo ou
fracionário), pontos médios dos níveis dos fatores (center points) e pontos axiais
(extremos) para ajustar, caso seja adequado, um modelo polinomial de ordem mais
elevada.
Diversos pesquisadores têm empregado esta metodologia para o estudo da
usinabilidade dos materiais. Noordin et. al. (2004) aplicaram a MSR para descrever o
desempenho de ferramentas de metal duro no torneamento de um aço AISI 1045.
Choudhury e El-Baradie (1998) e Dhavlikaret al. (2003) também empregam a RSM
para modelar a vida de ferramentas utilizadas no torneamento de aços de alta
resistência. Alauddinet al. (1997) realizaram um trabalho similar. Chouldhury e
Bartarya (2003) empregaram fatoriais em três níveis para estudar a influência da
temperatura no desgaste de ferramentas. Yih-Fong (2005) emprega uma abordagem
híbrida entre análise de componentes principais (PCA) e Taguchi para otimizar as
múltiplas respostas de um processo de fresamento em HSM (High-speedMachining).
8
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Todos estes trabalhos objetivam a otimização de processos de usinagem, obtida a partir
de uma pequena, porém, eficiente quantidade de experimentos.
2. DESENVOLVIMENTO TEÓRICO
2.1 Metodologia de Superfície de Resposta
De acordo com Montgomery (2001), a Metodologia de Superfície de Resposta
(MSR) é uma coleção de técnicas matemáticas e estatísticas utilizadas para modelar e
analisar problemas no qual a forma de relacionamento entre as variáveis dependentes e
independentes, é desconhecida. Usualmente, emprega-se, um polinômio de baixa
ordem. Se houver curvatura no processo, então, um polinômio ordem mais elevado se
torna necessário, tal como descreve a Eq. (1).
k
k
i 1
i 1
y   0    i xi    ii xi2    ij xi x j 
i j
(1)
Para estimar os parâmetros () na Eq. (1), emprega-se o método dos mínimos
quadrados, que na forma matricial ser escrito como:
ˆ  ( X T X ) 1 X T y
(2)
Na Equação (2), X é a matriz dos fatores e y, das respostas.
Na maioria dos experimentos, assume-se que o modelo linear é adequado;
entretanto, para se avaliar a presença de curvatura e, consequentemente, a inadequação
do modelo linear, utilizam-se pontos médios dos níveis dos fatores. Serão adicionados
ao fatorial completo, tantos pontos centrais quantos forem os K fatores do experimento
(Box et al.,1978).
9
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Um típico arranjo para modelos quadráticos é o CCD (Central Composite
Design). Formado por três grupos distintos de elementos experimentais: um fatorial, um
conjunto de pontos centrais e um grupo de pontos axiais, este arranjo possui a distância
 entre os pontos centrais e os axiais, constante. Este parâmetro confere rotacionalidade
ao experimento, ou seja, a variância da resposta predita em um ponto de interesse x é
consistente e estável. Definindo-se a variância como:

V  yˆ x    2 xT X T X

1
x
(3)
Então, um arranjo de superfície de resposta será rotacionável se V  yˆ x  for
constante para todos os pontos a igual distância do centro, isto é, a variância da resposta
predita é constante em uma esfera de raio α. O valor de  depende do número de fatores
envolvidos (Montgomery, 2001).
Para este trabalho, onde se empregará um arranjo em blocos,  é dado por:
1
  n   n  2
  k 1  s 0  1  c 0 
ns  
nc 
 
(4)
Na Equação (4), Ns0 é o número de center points presentes na porção axial do
arranjo e Ns é a quantidade restante de pontos da porção axial. Nc0 é o número de
center points da porção cúbica do arranjo (Fatorial Completo) e Nc é a quantidade
restante de pontos da porção cúbica.
O teste individual de significância de cada coeficiente do modelo pode conduzir à
sua otimização através da eliminação ou da adição de termos. Se o P-Value do teste
individual para os termos for inferior ao nível de significância, então, o termo é
adequado ao modelo e deve, portanto, ser mantido. Se, entretanto, ocorrer o contrário
(Box et al., 1978), o termo deve ser excluído se tal procedimento conduzir a um
aumento do coeficiente de determinação R2 conjuntamente com a diminuição do termo
10
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
de erro S (este termo é a raiz quadrada do erro médio quadrático). O teste para falta de
ajuste do modelo reduzido deve ter um P-value superior ao nível de significância, caso
contrário, a eliminação do termo não se justifica. Além disso, a retirada de qualquer
termo deve obedecer ao princípio da Hierarquia (Montgomery, 2001), ou seja, se um
termo de ordem alta é mantido no modelo, o de ordem baixa também deve ser
conservado.
Para a construção dos arranjos e a análise estatística, será utilizado neste trabalho
o software Minitab®.
2.6 Otimização
Geralmente, todo produto ou processo apresenta múltiplas características de
qualidade que devem ser atendidas. Desse modo, para alcançar a otimização das
mesmas é muito comum se empregar uma função de aglutinação baseada em somas
ponderadas. As somas ponderadas são amplamente utilizadas para gerar soluções de
compromisso (trade-off) em problemas multiobjetivo e formam, via de regra, um
conjunto de soluções viável e não dominadas conhecidas como ―Fronteira de Pareto‖.
Apesar de serem extremamente utilizadas, se o conjunto de soluções de Pareto for não
Pareto Frontier
- MMSE (Fi)
Pareto Frontier formando
- MMSE
convexo, a fronteira
passa
a ser não convexa e descontínua,
clusters de
0,0010
Variable
MSE1a * MSE2a
MSE1a(S) * MSE2a(S)
0,00045
Variable
MSE1b * MSE2b
MSE1b(S) * MSE2b(S)
soluções Pareto-ótimas em regiões de grande curvatura, porém, descontínuas no espaço
0,0008
0,00040
MSE1
MSE1
de solução (Figura 1), o que é típico de problemas mal condicionados. É importante
destacar que um vetor de decisão x*  S é Pareto-ótimo se nenhum outro vetor x  S
0,00035
0,0006
existir de maneira que f i x  f i x* , para todo i = 1, 2, …, k.
0,00030
0,0004
0,00025
0,0002
0,020
0,024
0,028
MSE2
0,032
0,036
0,020
0,024
Pareto Frontier - Weighted Sum
0,028
MSE2
Variable
MSE1d * MSE2d
MSE1d(S) * MSE2d(S)
Variable
MSE1c * MSE2c
MSE1c(S) * MSE2c(S)
0,0015
MSE1
0,0010
MSE1
0,036
Pareto Frontier - Beta
0,0020
0,0012
0,032
0,0008
0,0010
0,0006
0,0004
0,010
0,0005
0,015
0,020
MSE2
0,025
0,030
0,01
0,02
0,03
MSE2
0,04
0,05
11
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 1 – Desvantagens do Método de Somas Ponderadas.
Fonte: próprio autor.
Como tal, as somas ponderadas dificilmente detectarão soluções nas regiões nãoconvexas
da
Fronteira ou em
fronteiras
não-convexas
(descontínuas) que,
eventualmente, podem existir (Figura 2). Além disso, este método também não é capaz
de gerar uma fronteira uniformemente espaçada, mesmo que a distribuição dos pesos
seja uniforme (Shukla e Deb, 2007; Vahidinasab e Jadid, 2010).
Para contornar as desvantagens inerentes ao método das somas ponderadas, Das e
Dennis (1998) propuseram o método da Interseção Normal à Fronteira (NBI, do inglês
Normal BoundaryIntersection), mostrando ser possível a construção de fronteiras
contínuas e uniformemente distribuídas, independentemente da distribuição dos pesos
ou das escalas relativas entre as diversas funções objetivo (Figura 2).
(a) Método NBI
(b) Somas Ponderadas
Figura 2 – Comparação entre NBI e o Método de Somas Ponderadas.
Fonte: próprio autor.
O primeiro passo a ser executado no método NBI compreende o cálculo dos
elementos da matriz Payoff  , que representa os valores ótimos das múltiplas funções
objetivo minimizados de modo individual. O vetor de solução que minimiza
*
individualmente a i-ésima função objetivo f i x  é representado por xi , de sorte que o
12
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
*
*
valor mínimo de f i x  neste ponto seja f i xi  . Quando se substitui o ponto de ótimo
*
individual xi obtido na otimização de função objetivo nas demais funções, tem-se
 
f i xi* que é, portanto, um valor não-ótimo dessa função. Repetindo-se este algoritmo
para todas as funções, pode-se representar a matriz Payoff como:
 
 f1* x1*

 
   f i x1*

 
 f x*
 m 1
 
 

 
f1 xi*

 

f i * xi*

f m xi*
 
f1 xm* 

 
f i * xm* 

 
f m* xm* 

 


 
(3)
 

Cada linha de  é composta valores mínimos e máximos de f i x  . No método
NBI, estes valores podem ser usados para normalizar as funções objetivo,
principalmente quando as mesmas são representadas por escalas ou unidades diferentes.
De maneira semelhante, escrevendo o conjunto de ótimos individuais em um vetor, tem-

U
*
*
se f  f1 x1  ,
 
f i* xi*
,
 
f m* xm*
T
. Este vetor é denominado Ponto de
Utopia. Do mesmo modo, agrupando-se os valores máximos (não-ótimos) de cada
função objetivo tem-se f
N

 f 1N
,
fi N
,
f mN
 . Este vetor é denominado de
T
Pontos Nadir (Jia andIerapetritou, 2007; Utyuzhnikovet al., 2009). Usando estes dois
conjuntos de pontos extremos, a normalização das funções objetivo pode ser obtida
como:
f x  
f i  x   f iU
f i N  f iU
i  1,, m
(4)
Esta normalização conduz, consequentemente, à normalização da matriz Payoff,
 . De acordo com VahidinasabandJadid (2010), as combinações convexas de cada
linha da matriz Payoff,  formam a ―Envoltória Convexa de Mínimos Individuais‖ ou
13
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
CHIM (Convex Hull of Individual Minima ), ou ainda, a Linha de Utopia (Figura 3)
(Utyuzhnikov et al., 2009).
Fronteira de Pareto - NBI
Ponto de Ancoragem
f2(x1*)
a
fN
c
Linha de Utopia
f2(x)
e
d
D
Fronteira de
Pareto
f2*(x2*)
b
Soluções NBI
fU
Ponto de Ancoragem
f1*(x1*)
f1(x)
f1(x2*)
Figura 3 – Método da Interseção Normal à Fronteira (NBI).
Ressalta-se que uma distribuição igualmente espaçada de pontos ao longo da
linha de utopia não garante uma distribuição uniforme de pontos na fronteira de Pareto.
A figura 3 ilustra os principais elementos associados à otimização multiobjetivo. Os
*
*
pontos de ancoragem representam as soluções individuais de duas funções f i xi  (Jia
andIerapetritou, 2007; Utyuzhnikovet al., 2009). A figura 3 ilustra como o método NBI
funciona. Os pontos a, b e e são calculados a partir da matriz payoff escalonada,
Φ wi .
Considerando um conjunto de valores convexos para os pesos, w, tem-se que Φ wi
representará um ponto na linha de utopia. Fazendo n̂ denotar um vetor unitário normal à
linha de utopia nos pontos
Φ wi
na direção da origem; então, Φ w D nˆ , com D  R ,
representará o conjunto de pontos naquela normal (Jia andIerapetritou, 2007;
ShuklaandDeb, 2007). O ponto de interseção desta normal com a fronteira da região
14
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
viável que for mais próximo da origem corresponderá à maximização da distância entre
a linha de utopia e a Fronteira de Pareto. Desse modo, o método NBI pode escrito como
um problema de programação não-linear restrita, tal que:
Max
D
x, t 
subject to : Φ w  Dnˆ  F x 
x
(5)
O problema de otimização representado pelo sistema de equações (5) pode ser
resolvido iterativamente para diferentes valores de w, o que cria, por conseguinte, uma
Fronteira de Pareto igualmente espaçada. Uma escolha comum proposta por Jia
andIerapetritou (2007) é fazer wn  1  i 1 wi . Por uma questão de simplificação, o
parâmetro conceitual D pode ser algebricamente eliminado da Eq. (5), dado que ele está
tanto na função objetivo quanto nas restrições de igualdade. Para o caso
bidimensional,esta expressão simplificada pode ser reescrita como:
Min f1 x 
s.t. : f1 x   f 2 x   2w  1  0
g j x   0
(6)
0  w 1
Onde
f1 x 
e
f 2 x 
representam duas funções objetivo escalonadas
(normalizadas).
De acordo com Köskoy e Doganaksoy (2003), em um experimento do tipo CCD –
que pode ser utilizado para a obtenção das funções objetivo, há duas regiões de
interesse: a região esférica e a região cuboidal. Para os arranjos cuboidais, a restrição
para os fatores é do tipo  1  xi  1, i  1,2,..., k , onde k igual ao número fatores do
arranjo experimental. Já para a região esférica, as restrições para os fatores podem ser
definidas por x T x   2 , onde α é o raio do arranjo. Em alguns casos, é adequado se
adotar ambas as restrições.
15
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
2.2.2 Método do Gradiente Reduzido Generalizado (GRG)
O GRG é um algoritmo adequado para a resolução de problemas de programação
não-linear com restrições, basicamente, de igualdade. Entretanto, para casos onde a
restrição for de desigualdade, contorna-se o problema introduzindo-se variáveis de folga
(se a restrição for do tipo  ), ou variáveis de excesso (no caso de restrições do tipo  ).
De acordo com Köskoy e Doganaksoy (2003), o GRG é um dos mais robustos e
eficientes métodos de otimização não-linear restrita.
A expressão ―gradiente reduzido‖ advém do procedimento de substituição das
restrições de igualdade (já caracterizada a introdução de variáveis de folga) na função
objetivo, reduzindo assim o número de variáveis e de gradientes presentes. Dado um
vetor viável x, então, fazendo-se a partição das variáveis em básicas (ou dependentes) Z
e não-básicas (independentes) Y, pode-se escrever que X  Z Y  . Reescrevendo-se a
T
função objetivo e as restrições em termos das variáveis básicas e não-básicas, vem que:
F  X   F Z , Y  e h X   hZ , Y  .Usando a expansão em série de Taylor, pode-se
derivar a função objetivo e as restrições, tal que:
dF  X    z F  X  dZ  Y F  X  dY
T
T
dh j  X    z h j  X  dZ  Y h j  X  dY
T
T
(7)
Para atender à condição de otimalidade, é necessário que dh j  X   0 . Fazendo-se
com que A   z h j  X  e B  Y h j  X  , então, dY   B 1 AdZ . Assim, pode-se definir
T
T
o gradiente reduzido generalizado (GRG) como:
GR 


T
d
T
F  X    z F  X   B 1 A Y F  X 
dZ
16
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
(8)
A direção de busca é S X   GR
dY  . Para as iterações, deve se utilizar
T


X k 1  X k  S k 1 verificando-se em cada passo se X k 1 é viável e se h X k 1  0 .
Basta, então, resolver F(X) escrito em termos de λ, usando-se um algoritmo
unidimensional de busca, como o método de Newton.
Para realizar estes cálculos, neste trabalho será utilizado o Solver do Microsoft
Excel®.
3. PROCEDIMENTO EXPERIMENTAL
Para a operação de acabamento desenvolvida neste trabalho, foi utilizado um
Torno CNC NardiniLogic 175, com potência máxima de eixo de 7,5 CV; rotação
máxima de 4000 rpm; torre com oito posições e torque máximo de 200 Kgf.m. Como
suporte, foi adotado o modelo ISO DCLNL 1616H12. Na usinagem dos corpos de
prova, foram empregados insertos de cerâmica mista (Al2O3 + TiC), classe Sandvik GC
6050, recoberta com TiN, com geometria ISO CNGA 120408 S01525. Os corpos de
prova utilizados nos ensaios têm dimensões de 49 mm de diâmetro e 50 mm de
comprimento e utilizam Aço SAE/ABNT 52100 (Villares), com dureza de 55 HRC,
possuindo a seguinte composição química:
Tabela 1. Composição Química do Aço SAE/ABNT 52100
Composição Química (% em peso)
Elemento C
Si
Mn
Cr
Mo
Ni
S
P
Teor
0,23
0,35
1,40
0,04
0,11
0,001
0,01
1,03
17
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Para as medições necessárias, utilizou-se um Rugosímetro Taylor Hobson,
modelo Surtronic 3+ e um Micrômetro Mitutoyo. O desgaste da ferramenta foi
monitorado após o décimo passe de usinagem, utilizando-se um microscópio óptico.
Utilizou-se como critério do fim de vida, a quebra da ferramenta.
Tabela 2 – Parâmetros de usinagem utilizados.
Parâmetro
Símbolo
Unidade
Nível Inferior
Nível Superior
Velocidade de Corte
Vc
m/min
200
240
Avanço
Fn
mm/rotação
0,05
0,10
Profundidade de Corte
Ap
mm
0,15
0,30
4. RESULTADOS E DISCUSSÃO
4.1 Modelo de Vida da Ferramenta
Para se estabelecer o equacionamento da vida da ferramenta, 20 ensaios iniciais
foram realizados projetando-se um arranjo fatorial completo, com três fatores (Vc, fn e
ap), com dois pontos centrais e duas réplicas, de acordo com os fatores e níveis da Tab.
(2), originando-se os resultados da Tab. (3). Neste caso, os pontos centrais são úteis
para se avaliar se a superfície de resposta está localizada nas proximidades de regiões de
curvatura.
Segundo Choudhury e El-Baradie (1998), o relacionamento entre a vida da
ferramenta e as variáveis de usinagem independentes pode ser representado
logaritmicamente por:
ln T  ln C  l ln Vc  m ln fn  n ln ap  ln  '
18
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
(9)
Fazendo
lnT=
y, x1  ln Vc; x2  ln fn; x3  ln ap;   ln  ' ,  0  ln C, e 1 ,  2 ,  3
parâmetros do modelo, escrevendo-se a resposta em termos dos parâmetros estimados
b0 , b1 , b2 e b3 , tem-se que:
yˆ  y    b0  b1 x1  b2 x2  b3 x3
(10)
Tabela 3 – Fatorial Completo 23 com Pontos centrais para resposta Vida.
Fatores
Níveis Codificados
Vida
Vc
fn
Ap
x1
x2
x3
1ª rep. 2ª rep.
200
0,05
0,150
-1
-1
-1
15,8
17,7
240
0,05
0,150
1
-1
-1
10,9
12,1
200
0,100
0,150
-1
1
-1
9,2
10,5
240
0,100
0,150
1
1
-1
8,5
8,5
200
0,05
0,300
-1
-1
1
12,4
10,6
240
0,05
0,300
1
-1
1
7,2
7,7
200
0,100
0,300
-1
1
1
7,9
8,5
240
0,100
0,300
1
1
1
6,8
5,7
220
0,075
0,225
0
0
0
8,6
7,2
220
0,075
0,225
0
0
0
6,8
9,1
19
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 4. ANOVA do Fatorial Completo 23 com Center Points para resposta Vida.
Termo
Efeito
Constante
Coef
Se Coef
T
P
10,000
0,2327
42,98
0,000
Vc
-3,150
-1,575
0,2327
-6,77
0,000
Fn
-3,600
-1,800
0,2327
-7,74
0,000
Ap
-3,300
-1,650
0,2327
-7,09
0,000
Vc X Fn
1,500
0,750
0,2327
3,22
0,008
Vc X Ap
0,150
0,075
0,2327
0,32
0,753
Fn X Ap
1,350
0,675
0,2327
2,90
0,014
Vc X Fn X Ap
-0,450
-0,225
0,2327
-0,97
0,354
-2,075
0,5203
-3,99
0,002
Center Point
Observando-se os resultados da Tab.(4), conclui-se que os todos os fatores
estudados são significativos e os níveis adotados encontram-se nas proximidades da
regiãode ótimo, uma vez que o P-value de curvatura foi inferior ao nível de
significância de 5% (Tab. (5)). Assim, pode-se ajustar a resposta do experimento
utilizando um CCD.
Tabela 5. Análise de Curvatura de Ajuste do Fatorial Completo 23.
Fonte
Df
SeqSs
AdjSs
Ms
F
P
Efeitos Principais
3
135,090
135,090
45,0300
51,99
0,000
Interações 2a.Ordem
3
16,380
16,380
5,4600
6,30
0,010
Interações 3a.Ordem
1
0,810
0,810
0,8100
0,94
0,354
Curvatura
1
13,778
13,778
13,7780
15,91
0,002
Erro Residual
11
9,527
9,527
0,8661
Erro Puro
11
9,527
9,527
0,8661
Total
19
175,585
20
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
De maneira análoga, procedeu-se o ajuste da superfície de resposta para a
rugosidade média (Ra), de acordo com o arranjo mostrado na Tab. 6.
Tabela 6. Parâmetros de Corte e resultados para o RSM da resposta Vida e rugosidade.
Nº
Bloco
Vc
1
1
2
Fn
ap
x1
x2
x3
Vida
Ra
200,000 0,050
0,150
-1,000
-1,000
-1,000
16,75
0.330
1
240,000 0,050
0,150
1,000
-1,000
-1,000
11,50
0.280
3
1
200,000 0,100
0,150
-1,000
1,000
-1,000
9,85
0.695
4
1
240,000 0,100
0,150
1,000
1,000
-1,000
8,50
0.565
5
1
200,000 0,050
0,300
-1,000
-1,000
1,000
11,50
0.245
6
1
240,000 0,050
0,300
1,000
-1,000
1,000
7,45
0.420
7
1
200,000 0,100
0,300
-1,000
1,000
1,000
8,20
0.565
8
1
240,000 0,100
0,300
1,000
1,000
1,000
6,25
0.610
9
1
220,000 0,075
0,225
0,000
0,000
0,000
8,60
0.360
10
1
220,000 0,075
0,225
0,000
0,000
0,000
6,80
0.420
11
2
187,340 0,075
0,225
-1,633
0,000
0,000
10,10
0.340
12
2
252,660 0,075
0,225
1,633
0,000
0,000
7,60
0.450
13
2
220,000 0,034
0,225
0,000
-1,633
0,000
17,50
0.320
14
2
220,000 0,116
0,225
0,000
1,633
0,000
7,20
0.720
15
2
220,000 0,075
0,103
0,000
0,000
-1,633
12,00
0.360
16
2
220,000 0,075
0,347
0,000
0,000
1,633
6,70
0.310
17
2
220,000 0,075
0,225
0,000
0,000
0,000
7,20
0.370
18
2
220,000 0,075
0,225
0,000
0,000
0,000
9,10
0.290
Neste caso, como já se está na região de ótimo (P-Value de curvatura < 5%), serão
utilizados
os
resultados
do
fatorial
anterior
(Tab.
(3)),
executando-se,
complementarmente, apenas os pontos axiais do arranjo. Como o fatorial anterior tem
uma réplica, serão adotadas as médias das respostas de cada experimento. Para se
combater uma possível tendenciosidade, blocou-se o experimento de modo que os
21
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
resultados já obtidos mais dois pontos centrais formaram o bloco 1, enquanto que os
pontos axiais, seguidos também de dois pontos centrais, o bloco 2. Se não houver
diferença entre os blocos, tal termo será excluído do modelo. Assim se compõe a Tab.
(6).
Analisando-se os resultados da Tab. (6), verifica-se que o modelo de primeira
ordem para a vida da ferramenta apresentou um ajuste muito baixo (R2 adj = 66,7%).
Portanto, deve-se tentar um modelo de ordem mais alta.
A Tabela (7) apresenta a ANOVA (Análise de Variância) de um modelo de
segunda ordem (modelo quadrático completo), obtido a partir dos resultados do CCD.
Uma análise precedente considerou a presença dos blocos. O P-value da análise dos
blocos (0,503) revelou não haver diferença entre os experimentos executados na
primeira rodada e os pontos axiais. Assim, os blocos podem ser eliminados do modelo.
Percebe-se na Tab. (7) que o modelo possui um excelente ajuste (R2adj = 85,0%),
entretanto, as interações não são significativas. A retirada das interações, no entanto,
conduzem a um ajuste pior (R2adj = 83,0%), com um termo de erro S maior (1,336),
embora não se verifique falta de ajuste. Por esta razão, decidiu-se empregar neste
trabalho o modelo quadrático completo. A Figura (1) mostra estas superfícies de
resposta para a Vida em minutos.
22
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 7. ANOVA da Superfície de Resposta.
Termo
Coef
Se Coef
T
P
Constante
7,968
0,6247
12,754
0,000
Vc
-1,251
0,3442
-3,636
0,007
Fn
-2,341
0,3442
-6,804
0,000
Ap
-1,639
0,3442
-4,763
0,001
Vc X Vc
0,234
0,3678
0,638
0,542
Fn X Fn
1,547
0,3678
4,206
0,003
Ap X Ap
0,422
0,3678
1,147
0,284
Vc X Fn
0,750
0,4443
1,688
0,130
Vc X Ap
0,075
0,4443
0,169
0,870
Fn X Ap
0,675
0,4443
1,519
0,167
S = 1,257
R-Sq = 92,9 %
R-Sq (Adj) = 85,0 %
Fonte
Df
SeqSs
AdjSs
Ms
F
P
Regressão
9
166,226
166,226
18,470
11,70
0,001
Linear
3
129,796
129,796
42,265
27,40
0,000
Quadrático
3
28,240
28,240
9,413
5,96
0,019
Interação
3
8,190
8,190
2,730
1,73
0,238
8
12,634
12,634
1,579
Falta de Ajuste
5
9,006
9,006
1,801
1,49
0,395
Erro Puro
3
3,627
3,627
1,209
17
178,860
Erro Residual
Total
23
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
20
0.8
15
Ra
0.6
10
0.4
5
200
Vc
0.2
220
240
260
0.125
260
0,075
fn
0,100
0,125
240
0.100
0,050
220
0.075
fn
200
0.050
Figura 4 – Superfícies de Respostas da Vida da ferramentae Rugosidade da peça.
De acordo com as recomendações de Noordinet al. (2004), deve-se realizar uma
análise dos resíduos das respostas para se avaliar a qualidade dos resultados
experimentais. Segundo Montgomery (2001), os resíduos devem ser normais,
independentes (não-correlacionados) e identicamente distribuídos. Na Figura (2) não
são evidenciados padrões de anormalidade nos resíduos, portanto, os resultados
descritos neste trabalho podem ser considerados válidos.
P r obabilidade Nor mal
Resíduos ver sus Valor ajustado
Resíduo P adr onizado
99
P er centis
90
50
10
1
-2
-1
0
1
2
1
0
-1
-2
2
6
9
12
Resíduo P adr onizado
H istogr ama dos Resíduos
Resíduos ver sus or dem
Resíduo P adr onizado
Fr equência
18
2
4,8
3,6
2,4
1,2
0,0
15
Valor ajustado
-2
-1
0
1
Resíduo P adr onizado
2
1
0
-1
-2
2
4
6
8
10
Ordem
12
14
16
18
24
Vc
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 5. Análise de Resíduos dos dados experimentais da Tab. (6).
4.2 Otimizaçãopelo Método de Interseção Normal à Fronteira
Considerando-se o modelo quadrático completo e as restrições cuboidais e
esféricas descritas anteriormente, o problema de otimização da vida da ferramenta pode
ser escrito como:
 f  x   f TI  
Min f 1 x    TMAX
I 
 f T   f T  
I
 f T  x   f TI    f  Ra  x   f  Ra

s.t. : g1 x    MAX



  2wi  1  0
I
MAX
I
 f T   f T    f  Ra   f  Ra  
(11)
g 2 x   x T x  ρ 2
0  wi  1
  n 
Com:   k 1  s 0 
ns 
 
1
 nc 0   2
1 

nc 

Aplicando-se o algoritmo GRG disponível no aplicativo Solver do Microsoft
Excel®, ao sistema de equações (11), obtém-se os resultados mostrados pela Tab. (8) a
seguir. Nesta tabela, a cada iteração adota-se um valor diferente para o peso,
deslocando-se a cada ponto a solução ótima pela Fronteira Equiespaçada de Pareto.
25
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 8. Resultados da otimização utilizando GRG.
Peso
Unidades Codificadas
Unidades Decodificadas
Respostas
w
Vc
fn
Ap
Vc
fn
ap
T
Ra
0.0
-0.998
-0.792
1.021
200.035
0.055
0.302
11.011
0.233
0.1
-1.028
-0.882
0.912
199.445
0.053
0.293
11.692
0.234
0.2
-1.048
-0.975
0.787
199.045
0.051
0.284
12.446
0.237
0.3
-1.056
-1.066
0.644
198.886
0.048
0.273
13.254
0.242
0.4
-1.048
-1.152
0.492
199.040
0.046
0.262
14.065
0.248
0.5
-1.026
-1.225
0.337
199.487
0.044
0.250
14.823
0.256
0.6
-0.990
-1.286
0.182
200.201
0.043
0.239
15.505
0.263
0.7
-0.940
-1.335
0.025
201.191
0.042
0.227
16.109
0.270
0.8
-0.873
-1.373
-0.141
202.542
0.041
0.214
16.648
0.276
0.9
-0.772
-1.399
-0.339
204.569
0.040
0.200
17.128
0.283
1.0
-0.495
-1.437
-0.599
210.104
0.039
0.180
17.468
0.288
De acordo com os resultados da Tab. (8), a vida da ferramenta aumenta quando se
empregam os níveis inferiores adotados para as variáveis, com profundidades de corte
da ordem de 0,15 mm, velocidades de corte inferiores a 200 m/min e avanços inferiores
a 0,05. A adoção destes níveis conduz a vidas de ferramentas em torno de 17 min. A
Figura (3) destaca este ponto de ótimo no plano dos gráficos de contorno para as
superfícies de resposta, geradas para os 3 pares de fatores.
26
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Fronteira de Pareto: TxRa
18
17
16
T
15
14
13
12
11
0.23
0.24
0.25
0.26
Ra
0.27
0.28
0.29
Figura 6 – Fronteira de Pareto para T x Ra.
Cabe ressaltar que, embora as conclusões estatísticas sejam fortes, elas só podem
ser empregadas para este caso específico. No entanto, embora não se possa generalizar,
este procedimento pode ser adequado para a modelagem e otimização de outros
processos e materiais.
5. CONCLUSÕES
Este artigo apresenta as conclusões obtidas a partir da investigação experimental
realizada da influência dos parâmetros de corte sobre a vida de ferramentas de cerâmica
mista (Al2O3 + TiC), classe Sandvik GC 6050, com geometria ISO CNGA 120408
S01525, recobertas com TiN.
Constatou-se que a Metodologia de Projeto de Experimentos é muito útil na
modelagem de processos de usinagem, com uma pequena quantidade de experimentos.
Para a vida da ferramenta e para a rugosidade média, um modelo de segunda ordem
27
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
mostrou-se mais apropriado. De acordo com os resultados do método de otimização,
uma fronteira equiespaçada de Pareto foi obtida para diferentes pesos atribuídos às duas
funções objetivo. Desse modo, dependendo do critério do decisor (maximizar a vida ou
reduzir a rugosidade), variando-se o peso pode-se encontrar uma solução viável que
atenda às necessidades do processo.
Estas conclusões não devem ser extrapoladas para outros níveis, fatores, tipos de
materiais e ferramentas, bem como só têm validade para amplitude de níveis adotados.
Porém, pode-se recomendar sua utilização em outros processos de manufatura.
6. REFERÊNCIAS
Alauddin, M., El-Baradie, M. A., Hashmi, M. S. J., 1997, Prediction of tool life in end
milling by response surface methodology, Journal of Materials Processing Technology,
vol. 71, pp.457-465.
Box, G. E. P., Hunter, W. G., Hunter, J. S., 1978, Statistics for Experimenters, John
Wiley & Sons, New York.
Choudhury, I. A., El-Baradie, 1998, Tool-life prediction model by design of
experiments for turning high strength steel (290 BHN), Journal of Materials Processing
Technology, vol. 77, pp.319-326.
Choudhury, S.K., Bartarya,G., 2003, Role of temperature and surface finish in
prediction tool wear using neural network and design of experiments, International
Journal of Machine Tools & Manufacture, vol. 43, pp. 747-753.
Dhavlikar, M. N., Kulkarni, M. S., Mariappan, V., 2003, Combined Taguchi and dual
response method for optimization of a centerless grinding operation, Journal of
Materials Processing Technology, vol. 132, pp. 90-94.
Köksoy, O., Doganaksoy, N., 2003, ―Joint Optimization of Mean and Standard
Deviation Using Response Surface Methods‖, Journal of Quality Technology, Vol.35,
No. 3, pp. 237-334.
Montgomery, D. C., 2001, ―Designs and Analysis of Experiments‖, 4ª ed. John Wiley &
Sons.
28
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Noordin, M. Y., Venkatesh, V. C., Sharif, S., Elting, S. and Abdullah, A., 2004,
Application of response surface methodology in describing the performance of coated
carbide tools when turning AISI 1045 steel, Journal of Materials Processing
Technology, vol. 145, pp.46-58.
Yih-Fong, T. (2005), A Hybrid approach to optimize multiple performance
characteristics of high-speed computerized numerical control milling tool steels,
Materials and Design. Article in Press. Disponível online em 15 de agosto de 2005.
Ardakani, M. K.,&Noorossana, R. (2008). A new optimization criterion for robust
parameter design – the case of target is best. International Journal of Advanced
Manufacturing Technology, 38, 851-859.
Box, G. E. P., & Jones, S. (1992). Designing products that are robust to the
environment.Total Quality Management, 3, 265-282.
Box, G. E. P., Hunter, W. G., MacGregor, J. F., &Erjavec, J. (1973).Some problems
associated with the analysis of multiresponse data.Technometrics,15, 33-51.
Bratchell, N. (1989). Multivariate response surface modeling by principal components
analysis.Journal of Chemometrics, 3, 579-588.
Brown, M. B., & Forsythe, A. B. (1974). Robust tests for the equality of variance.
Journal of the American Statistical Association, 69, 364-367.
Busacca, G. P., Marseguerra, M., & Zio, E. (2001). Multiobjective optimization by
genetic algorithms: application to safety systems. Reliability Engineering & System
Safety, 72, 59-74.
Chiao, C. H., &Hamada, M. (2001). Analyzing experiments with correlated multiple
responses. Journal of Quality Technology, 33, 451-465.
Cho, B. R., & Park, C. (2005).Robust design modeling and optimization with
unbalanced data.Computers & Industrial Engineering, 48, 173-180.
Correa, M., Bielza, C., &Pamies-Teixeira, J. (2009). Comparison of Bayesian networks
and artificial neural networks for quality detection in a machining process.Expert
Systems with Applications, 36, 7270-7279.
Das, I.,& Dennis, J.E. (1998). Normal boundary intersection: A new method for
generating the Pareto surface in nonlinear multicriteria optimization problems. SIAM
Journal of Optimization, 8, 631-657.
29
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Del Castillo, E., Fan, S. K., &Semple, J. (1999). Optimization of dual response systems:
a comprehensive procedure for degenerate and nondegenerate problems. European
Journal of Operational Research, 112, 174-186.
Govindaluri, S. M., & Cho, B. R. (2007). Robust design modeling with correlated
quality characteristics using a multicriteria decision framework. International Journal
of Advanced Manufacturing Technology, 32, 423-433.
Haggag, A. A. (1981). A variant of the generalized reduced gradient algorithm for nonlinear programming and its applications.European Journal of Operational Research, 7,
161-168.
Jeong, I. J., Kim, K. J., & Chang, S. Y. (2005).Optimal weighting of bias and variance
in dual response surface optimization.Journal of Quality Technology, 37, 236-247.
Jia, Z. &Ierapetritou, G. (2007). Generate Pareto optimal solutions of scheduling
problems using normal boundary intersection technique. Computers and Chemical
Engineering, 31,268-280.
Johnson, R. A., &Wichern, D. (2002).Applied Multivariate Statistical Analysis. (5th
ed.). New Jersey: Prentice-Hall.
Kazemzadeh, R. B., Bashiri, M., Atkinson, A.C., &Noorossana, R. (2008).A general
framework
for
multiresponse
optimization
problems
based
on
goal
programming.European Journal of Operational Research, 189, 421-429.
Khuri, A. I., & Conlon, M. (1981).Simultaneous optimization of multiple responses
represented by polynomial regression functions.Technometrics, 23, 363-375.
Köksoy, O. (2006). Multiresponse robust design: Mean square error (MSE) criterion.
Applied Mathematics and Computation, 175, 1716-1729.
Kovach, J., & Cho, B. R. (2009).A D-optimal design approach to constrained
multiresponse
robust
design
with
prioritized
mean
and
variance
considerations.Computers & Industrial Engineering, 57, 237-245.
Lasdon, L. S., Waren, A. D., Jain, A., & Ratner, M. (1978).Design and testing of a
Generalized Reduced Gradient code for nonlinear programming. ACM Transactions on
Mathematical Software, 4, 34-50.
Lee, S. B., & Park, C. (2006).Development of robust design optimization using
incomplete data.Computers & Industrial Engineering, 50, 345-356.
30
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Liao, H. C. (2006). Multi-response optimization using weighted principal components.
International Journal of Advanced Manufacturing Technology, 27, 720-725.
Lin, D. K. J., &Tu, W. (1995). Dual response surface optimization.Journal of Quality
Technology, 27, 34-39.
Montgomery, D. C. (2009).Design and Analysis of Experiments. (7th ed.). New York:
John Wiley.
M'silti, A., &Tolla, P. (1993).An interactive multiobjective nonlinear programming
procedure.European Journal of Operational Research, 64, 115-125.
Nair, V. N. (1992). Taguchi’s parameter design: a panel discussion. Technometrics, 34,
127-161.
Paiva, A. P., Campos, P. H., Ferreira, J. R., Lopes, L. G. D., Paiva, E. J.,& Balestrassi,
P. P. (2012). A multivariate robust parameter design approach for optimization of AISI
52100 hardened steel turning with wiper mixed ceramic tool. International Journal of
Refractory Metals and Hard Materials, 30, 152-163.
Paiva, A. P., Paiva, E. J., Ferreira, J. F., Balestrassi, P. P., & Costa, S. C. (2009). A
multivariate mean square error optimization of AISI 52100 hardened steel turning.
International Journal of Advanced Manufacturing Technology, 43, 631-643.
Pereyra, V., Saunders, M., Castillo, & Castillo, J. (2010).Equispaced Pareto front
construction for constrained bi-objective optimization.Mathematical and Computer
Modelling.Article in press. DOI:10.1016/j.mcm.2010.12.044.
Quesada, G. M., & Del Castillo, E. (2004). Two approaches for improving the dual
response method in robust parameter design. JournalofQuality Technology, 36, 154168.
Sadagopan, S., &Ravindran, A. (1986).Interactive algorithms for multiple criteria
nonlinear programming problems.EuropeanJournalofOperational Research, 25, 247257.
Shaibu, A. B., & Cho, B. R. (2009).Another view of dual response surface modeling
and optimization in robust parameter design.International Journal of Advanced
Manufacturing Technology, 41, 631-641.
Shin, S., & Cho, B. R. (2005). Bias-specified robust design optimization and its
analytical solutions. Computers & Industrial Engineering, 48, 129-140.
31
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Shin, S., Samanlioglu, F., Cho, B. R., &Wiecek, M. M. (2011). Computing trade-offs in
robust design: perspectives of the mean squared error. Computers & Industrial
Engineering, 60, 248-255.
Shukla, P.K.,& Deb, K. (2007). On finding multiple Pareto-optimal solutions using
classical and evolutionary generating methods.European Journal of Operational
Research, 181, 1630-1652.
Steenackers, G., & Guillaume, P. (2008). Bias-specified robust design optimization: a
generalized mean squared error approach. Computers & Industrial Engineering, 54,
259-268.
Taguchi, G. (1986). Introduction to quality engineering: desingning quality into
products and processes. Tokyo: Usian.
Tang, L. C., &Xu, K. (2002).A unified approach for dual response surface
optimization.Journal of Quality Technology, 34, 437-447.
Utyuzhnikov, S.V., Fantini, P., &Guenov, M.D. (2009). A method for generating a
well-distributed Pareto set in nonlinear multiobjective optimization. Journal of
Computational and Applied Mathematics, 223, 820-841.
Vahidinasab, V., &Jadid, S. (2010). Normal boundary intersection method for
suppliers’strategic bidding in electricity markets: An environmental/economic approach.
Energy Conversion and Management, 51, 1111-1119.
Vining, G. G. (1998).A compromise approach to multiresponse optimization.Journal of
Quality Technology,30, 309-313.
Vining, G. G., & Myers, R. H. (1990).Combining Taguchi and response surface
philosophies: a dual response approach.Journal of Quality Technology, 22, 38-45.
Wu, F. C. (2005). Optimization of correlated multiple quality characteristics using
desirability function. Quality Engineering, 17, 119-126.
Yang, J. B., &Sen, P. (1996).Preference modelling by estimating local utility functions
for multiobjective optimization.European Journal of Operational Research, 95, 115138.
Yuan, J., Wang, K., Yu, T., & Fang, M. (2008).Reliable multi-objective optimization of
high-speed
WEDM
process
based
on
Gaussian
process
regression.InternationalJournalofMachine Tools &Manufacture, 48, 47-60.
32
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
MÉTODO DE OTIMIZAÇÃOMULTIOBJETIVO BASEADO NA ANÁLISE
ENVOLTÓRIA DE DADOS
MOALLEM, E., GOMES, J. H. F., PAIVA, A. P.; ALMEIDA, M. A. A.
Resumo: A otimização de um processo de fabricação de múltiplas respostas não é uma
tarefa trivial. Muitos autores têm tentado superar as dificuldades específicas
observadas nesta área do conhecimento explorando poderosos mecanismos presentes
em uma grande quantidade de técnicas, tais como o Projeto de Experimentos ou DOE
(do inglês, Design ofExperiments), Metodologia de Superfície de Resposta (MSR) e
programação matemática. Desta forma, este trabalho apresenta uma abordagem
alternativa híbrida, combinando Metodologia de Superfície de Resposta (RSM) e
Análise Envoltória de Dados (DEA – Data EnvelopmentAnalysis), uma popular técnica
de programação linear utilizada para comparar a eficiência das Unidades de Tomada
de Decisão (DMU – DecisionMakingUnits). A ideia básica é a otimização de um
conjunto de múltiplas respostas de um processo de fabricação bem definido utilizando
DEA como um algoritmo para gerar uma função objetivo singular. Uma vez que um
grande número de processos de fabricação apresentam conjuntos de múltiplas
respostas, a proposta de otimização apresentada acima foi aplicada, a título de
exemplo, em um processo de soldagem FCAW (do inglês, Flux CoredArcWelding)
baseado em quatro variáveis do processo soldagem estudado por Gomes (2010). Os
valores ótimos obtidos nesta aplicação serão comparados aos resultados obtidos pelo
método Desirability e aos obtidos por Gomes (2010) e analisados.
Palavras-chave: Projeto de Experimentos (DOE), Metodologia de Superfície de
Resposta (MSR), Análise Envoltória de Dados (DEA).
33
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
1. INTRODUÇÃO
Muitos processos de fabricação são naturalmente multivariados e, embora sejam
comuns em um ambiente de indústria, há uma falta de eficiência na construção dos
modelos das características de qualidade quando o método tradicional Mínimos
Quadrados Ordinários (OLS -OrdinaryLeastSquares) é empregado. Estes tipos de
processos são considerados também muito específicos, o que implica que um único
modelo não pode ser empregado em qualquer processo, matéria-prima ou instalação
operacional. Procurando as melhores condições de operação do processo, o
comportamento de algumas características desejadas deve ser avaliado em função dos
incrementos de fatores que são, a principio, considerados significativos. Isto é
tipicamente a estratégia experimental.
Algumas vezes, a existência de conjuntos de múltiplas características de qualidade
envolve o crescimento da complexidade do processo. Esta alta complexidade dificulta o
real entendimento do processo e, consequentemente, a busca por uma maior eficiência
do mesmo. Isso ocorre pela grande dificuldade em otimizar simultaneamente todas essas
variáveis que influenciam diretamente um processo. Existem várias literaturas que
avaliam o processo com essa característica,no entanto nenhuma delas propõe um
método efetivo de otimização simultânea que leve em consideração o grau de influencia
que cada variável tem sobre o processo.
O mais conhecido método de otimização simultânea de múltiplas respostas é o
Desireability — expressão não traduzida por entender-se não ser apropiado — criado
por Harrington(1965). Este tipo de solução se baseia em valores pré determinados de
máximos e mínimos para as variáveis, o que pode adicionar um grau de erro a solução
ótima caso não seja realizado um estudo para a determinação dos mesmos.
Neste trabalho, uma proposta desenvolvida por Liao e Chen (2002) para tratar um
arranjo de Taguchi através da Análise Envoltória de Dados (DEA) será estendida para o
caso de múltiplas respostas obtidas através do arranjo de Superfície de Resposta com
Arranjo Composto Central (Central Composite Design - CCD) rotativo. Para cumprir o
objetivo proposto, o experimento é realizado na região de interesse de acordo com o
arranjo escolhido e as respostas de interesse serão registradas e calculadas. Utilizando
34
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
cada experimento do CCD como uma DMU, a eficiência de todos os experimentos será
calculada utilizando uma programação linear típica escrita através do formato da
Análise Envoltória de Dados. Então será realizada uma Análise de Variância (ANOVA)
(MONTGOMERY e RUNGER, 2003) a fim de verificar se o ajuste do modelo foi
satisfatório e para determinar os coeficientes de regressão para cada uma das respostas.
Por último, a otimização é realizada através de uma função objetivo singular, usando a
superfície de resposta para a eficiência.
Com o objetivo de exemplificar a aplicação desta metodologia e por considerar
que tais características são típicas dos processos de soldagem, é utilizado um processo
de soldagem a arco com arame tubular(Flux CoredArcWelding - FCAW). Este processo
é amplamente utilizado por indústrias que buscam processos de soldagem com alta
produtividade e flexibilidade. A soldagem FCAW é o processo onde a coalescência
entre metais é obtida através de arco elétrico estabelecido entre a peça a ser soldada e
um eletrodo tubular alimentado continuamente. Vale ressaltar que os resultados obtidos
não objetivam mostrar um avanço tecnológico do processo, mas sim a possibilidade do
método ser aplicado em outros processos de manufatura similares. Tanto a metodologia
proposta, quanto o caso investigado serão descritos nas próximas seções desse trabalho.
2. FUNDAMENTAÇÃO TEÓRICA
2.1 Projeto e Análise de Experimentos
Para Montgomery (2001), uma maneira sistemática de se analisar e avaliar a
magnitude de várias fontes de variação que influenciam um processo deve iniciar-se
com a identificação e seleção dos fatores que possam contribuir para a variação,
proceder-se, em seguida, à seleção de um modelo que inclua os fatores escolhidos e
planejar experimentos eficientes para estimar seus efeitos. Desta forma, segundo
Montgomery (2001), experimentação se caracteriza como uma parte fundamental para o
método científico na análise das diversas aplicações de engenharia.
35
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
O Projeto e Análise de Experimentos (Design ofExperiments – DOE), de acordo o
mesmo autor, é então definido como o processo de planejamento dos experimentos para
que dados apropriados sejam coletados e depois analisados por métodos estatísticos,
resultando em conclusões válidas e objetivas. Assim, qualquer problema experimental
deve ser sustentado por dois elementos: o projeto dos experimentos e a análise
estatística dos dados.
O emprego da abordagem estatística no Projeto e Análise de Experimentos
necessita que as pessoas envolvidas nos experimentos tenham uma ideia clara a respeito
do fenômeno que se pretende estudar, de como os dados serão coletados e de um
entendimento básico das ferramentas de análise utilizadas. Assim, Montgomery (2001)
propõe que o emprego do Projeto e Análise de Experimentos deve considerar as
seguintes etapas:
1º)
Definição do problema;
2º)
Escolha dos fatores e definição dos níveis de trabalho;
3º)
Seleção das variáveis de resposta;
4º)
Escolha do projeto experimental;
5º)
Execução dos experimentos;
6º)
Análise estatística dos dados;
7º)
Conclusões e recomendações.
Com relação aos projetos experimentais, tem-se que técnicas mais utilizadas
compreendem o Planejamento Fatorial Completo, o Planejamento Fatorial Fracionado,
os arranjos de Taguchi e a Metodologia de Superfície de Resposta. Entre tais projetos
experimentais, o presente trabalho utilizou a Metodologia de Superfície de Resposta, já
que este estudo se propõe à otimização de processos que são influenciados por múltiplas
variáveis (NILO, 2003), tal como acontece no exemplo de soldagem com arame tubular
em operações de revestimento de aços carbono com aços inoxidáveis que será mostrado
neste trabalho. Sendo assim, os principais conceitos que fundamentam a Metodologia de
Superfície de Resposta são discutidos com maiores detalhes no item seguinte.
36
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
2.2 Metodologia de Superfície de Resposta
A Metodologia de Superfície de Resposta (MSR), segundo Montgomery (2001), é
uma coleção de ferramentas matemáticas e estatísticas utilizada para a modelagem e
análise de problemas em que a resposta de interesse é influenciada por diversas
variáveis e o objetivo é a otimização desta resposta.Para a maioria dos problemas,
verifica-se que as relações entre a resposta e as variáveis independentes são conhecidas.
Assim, é preciso encontrar uma aproximação razoável para a verdadeira relação entre Y
e o conjunto de variáveis independentes. Geralmente, é empregado um polinômio de
ordem baixa em algumas regiões de interesse.
Se o sistema apresentar curvatura, então um polinômio de maior grau deve ser
usado, como o modelo de segunda ordem descrito pela Eq. (1):
(1)
onde:
y – Resposta de interesse
xi – Variáveis independentes
βi – Coeficientes a serem estimados
k – Número de variáveis independentes
ε – Erro experimental
Montgomery (2001) também considera que é pouco provável que um determinado
modelo polinomial se aproxime de um modelo real para todo o espaço experimental
para as variáveis independentes. Para uma região específica, a aproximação geralmente
é eficiente. O método dos Mínimos Quadrados Ordinários (OLS) é usado para estimar
os parâmetros (β) que na forma matricial pode ser escrito como:
(2)
37
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Onde X é a matriz dos níveis de fatores e y é a resposta. A avaliação da presença
de curvatura no modelo é baseada na análise dos pontos centrais para os níveis de
fatores.
Derringer e Suich (1980), lidando com problemas de múltiplas respostas
melhorou o algoritmo da função Desirability de Harrington (1965). Neste método, o
modelo estatístico é primeiramente obtido utilizando Mínimos Quadrados Ordinários
(OLS). Em segundo lugar, usando um conjunto de transformações baseados nos limites
impostos para as respostas, a conversão é feita para cada uma das respostas, resultando
em uma função Desirability individual di, com 0 ≤ di ≤ 1. Esses valores individuais são
então combinados usando uma média geométrica, tal como:
(3)
Este valor de D dá uma solução de compromisso e é restrito ao intervalo [0, 1]. O
valor de D se aproxima de 1 quando as respostas estão próximas à sua especificação. O
tipo de transformação depende da direção de otimização desejada.
A abordagem da função Desirability para problemas de otimização é simples, fácil
de aplicar e permite que se faça julgamentos subjetivos sobre a importância de cada
resposta. No entanto, de acordo com Khuri e Conlon (1981), este método não leva em
consideração os desvios e as correlações das respostas. Ignorar essas correlações pode
alterar a estrutura da função global Desirability, o que pode comprometer a
determinação da condição ótima de operação.
2.3 Análise Envoltória de Dados (DEA)
A Análise Envoltória de Dados (DEA) é uma técnica baseada emprogramação
linear utilizada para medir a eficiência relativa de um conjunto de Unidades de Tomada
de Decisão (DMU, DecisionMakingUnits) concorrentes, na qual a presença de múltiplas
entradas e saídas torna as comparações difíceis.Segundo Liao (2005), a eficiência
relativa das múltiplas entradas e saídas de uma DMU é geralmente definida como uma
relação (soma ponderada dos outputs da DMU dividido pela soma ponderada dos inputs
da DMU). Então, sedeseja-se um desempenho superior da eficiência relativa, os dados
38
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
de entrada da relação devem ter valores mais baixos e os dados de saída valores mais
elevados.
Neste trabalho, esta técnica é combinada com a metodologia tradicional de
superfície de resposta para resolver um processo de soldagem de respostas
múltiplas. Cada combinação de fatores / níveis é tratada como uma DMU. Seguindo a
abordagem proposta por Liao e Chen (2002), as características de qualidade ―quanto
maior, melhor‖ de um processo de soldagem são consideradas saídas e as―quanto
menor, melhor‖ são tratadas como entradas. A maximização da relação entre a soma
ponderada das saídas e entradas de cada DMU leva à maior eficiência. Os maiores
valores de eficiência relativa implicam que as metas para as características de qualidade
do cordão de solda foram completamente atingidas. Uma vez que é calculada a
eficiência para cada experimento em um CCD (do inglês, Central Composite Design),
esse índice de multirresposta é utilizado como uma variável dependente. Procedendo
como a Metodologia de Superfície de Resposta tradicional, os coeficientes do modelo
são obtidos empregando o método dos Mínimos Quadrados Ordinários.Após a inspeção
da significância individual, é possível decidir se o modelo quadrático reduzido ou
integral deve ser adotado. Depois, utilizando o algoritmo denominado Gradiente
Reduzido Generalizado (GeneralizedReducedGradient – GRG), a função quadrática do
índice DEA é maximizada sujeita à restrição da região experimental. Para comparar os
resultados obtidos, realiza-se um estudo da diferença entre os valores obtidos e os
valores alvos, que são determinados pela DMUs de eficiência máxima.
Neste trabalho, a notação matemática de Doyle e Green (1994) será adotada para
representar o modelo DEA CCR (Charneset al., 1978). De acordo com esta formulação,
a medida de eficiência geralmente utilizado pelo DEA pode ser resumidas como:
(4)
Onde Eks é a medida de eficiência de cada experiência s, utilizando os pesos de
cada experimento k avaliado; Osy os valores de saída y para o experimento s; Isx os
valores de entrada x para o experimento s; vkyos pesos atribuídos a cada experiência k
39
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
realizadapara a saída y; ukx os pesos atribuídos a cada experiência k realizada para a
entrada x.
Para decidir o melhor conjunto de pesos para o experimento k sob avaliação
(DMU), muitos modelos matemáticos têm sido desenvolvidos. Dentre eles, o modelo
CCR, desenvolvido por Charneset al (1978), é o mais popular. O objetivo do modelo
CCR é maximizar o valor de eficiência relativa da experiência k por análises dentre um
conjunto de experiências de referência s, selecionando os pesos ideais associados às
entrada e saída medidas. A eficiência relativa máxima é limitada a 1. A formulação de
programação não linear expressa na equação (a) pode ser escrita como:
Sujeito a:
;
modelo s
≥0
(5)
A equação (4) pode ser escrita em uma formulação de programação linear como
descrito na equação (5), definindo o seu denominador igual a 1 e maximizando o seu
numerador.
Sujeito a:
modelos
;
≥0
O resultado da formulação (5) é um valor ideal de eficiência
máximo igual à unidade. Segundo Liao e Chen (2002), quando
(6)
que é no
, nenhum outro
experimento é mais eficiente queo experimento ksob seus pesos selecionados. A
existência de experimentos com valores de eficiência inferiores a um implica que a
combinação de níveis/fatores não se encontra na fronteira ideal, e que há pelo menos
40
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
outra experiência que é mais eficiente com um melhor conjunto de pesos.Caso
contrário, também é possível que qualquer experimento alcance a eficiência unitária,
uma vez que o delineamento experimentalrepresenta apenas uma parte de toda uma
região
experimental,
produzindo
o
que
Liao
(2004)
chamou
de
"dados
censurados". Outra situação possível ocorre quando a eficiência individual de cada
experimento encontra-se na proximidade de 100%. Estas situações refletem o aspecto de
que qualquer experimento do modelo é ótimo, e indicam que a melhor combinação não
é explícita para um modelo experimental escolhido. Para superar esta lacuna, Liao
(2004, 2005) propôs a abordagem de rede neural de Taguchi. Através desta estratégia,
um modelo de Taguchi é utilizado para gerar a formação inicial de um conjunto de
propagação anterior do algoritmo de rede neural. Este conjunto é formado pelas
eficiências calculadas obtidas com o modelo. Outra forma de ultrapassar esta lacuna é
empregar o conhecimento conceitual da metodologia de Projeto e Análise de
Experimentos (DOE). De acordo com o DOE, os resultados experimentais devem ser
utilizados para prever valores de resposta somente dentro da região formada pelos níveis
dos fatores.
Assim, supondo que é igualmente provável que qualquer valor de cada fator
pertence ao seu respectivo intervalo, poderia ser adotada uma amostragem Monte Carlo
ou Hipercubo Latino, gerando dados através de uma distribuição de probabilidade
uniforme. Outro procedimento ideal de busca poderia ser mais simples se adotado um
método de gradiente de base, como o Gradiente Reduzido Generalizado (GRG). Os
métodos de gradiente demandam uma função diferenciávelque deve ser obtida através
de uma superfície de resposta adequada.
2.4 Otimização de múltiplas respostas baseada na Análise Envoltória de Dados
Em se tratando de processo ou produtos que possuam múltiplos atributos de
qualidade, é sempre difícil se encontrar um conjunto de parâmetros ótimos para todas as
características de interesse a partir da otimização individual de cada função de
transferência pré-estabelecida. A aplicação deste tipo de otimização pode ser de eficácia
improvável (KHURI e CORNELL,1996).
41
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
A
Análise
Envoltória
de
Dados,
ou
simplesmente
DEA
(Data
EnvelopmentAnalysis), é uma técnica de programação linear que permite o cálculo da
eficiência de um processo de múltiplos objetivos. Esta eficiência é definida através da
capacidade com que as DMUs conseguem gerar saídas para determinadas entradas.
Desta forma, a Análise Envoltória de Dados determina o grupo de DMUscom
eficiência máximade um processo e possibilita que as DMUs menos eficiente sejam
otimizadas com base nos resultados obtidos pelas mais eficientes.
Em linhas gerais, a proposta deste trabalho é maximar uma função com múltiplas
variáveis que possui como restrição para a solução os limites da região experimental, tal
como é descrito na Eq. 7.
Maximizar
Sujeito
a:
(7)
Valores ótimos podem ser obtidos pela localização do ponto estacionário da
superfície ajustada. O objetivo é encontrar um conjunto de x’s que possam maximizar a
função objetivo F sujeito a uma única restrição que define a região de interesse. Existem
duas diferentes regiões experimentais de interesse na otimização: esférica e cuboidal.
Para regiões cuboidais, a restrição é escrita como
, i = 1,2,...,k (k é o
número de variáveis de controle), e para regiões esféricas a restrição é definida como
, onde ρ é o raio. O valor de ρ pode ser selecionado para se evitar soluções que
estão muito fora da região experimental. Para o arranjo composto central, a escolha
lógica é ρ = α, onde α é a distancia axial. No caso de regiões cuboidais (tais como BoxBehnken e fatoriais ou fatoriais fracionários), a escolha natural para as fronteiras
inferiores e superiores dos x’s são os baixos e altos níveis experimentais codificados,
respectivamente.
Considerando a função objetivo F como a eficiência de um processo (ξ), a
formulação da Eq. 7 obtém o formato da Eq. 8, na qual é adicionado as restrições de
eficiência máxima menor ou igual a 100% e de peso superior a um valor prédeterminado (Ti).
42
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Maximizar ξ
Sujeito a
ξ ≤ 100%
wi ≥ Ti
(8)
A variável wi representa o peso relacionado as variáveis do processo em questão.
O valor representado por Ti visa impedir que o peso de certa variável do processo seja
nulo, pois isto significa desconsiderar a influência desta variável no cálculo da
eficiência. Assim, este valor deve ser determinado de acordo com o processo a ser
otimizado.
Segundo o capítulo 2.3, a Análise Envoltória de Dados define eficiência como a
razão entre o somatório das variáveis de saída e entrada de um processo, na qual a
eficiência será máxima quando o somatório das variáveis de saídas também é máximo.
Desta forma, a Eq. 9 mostra a formulação final do problema de otimização da eficiência
de processos.
Maximizar
Sujeito a
;
≥0
(9)
43
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
A Figura 1 exibe um fluxograma com a sequência de procedimentos necessários
para a aplicação da técnica proposta por este trabalho.
Início
Modelagem do CCD em
função da eficiência (R²)
Realizar Experimento
Armazenar respostas
R² é adequado
(maior que
75%)?
não
Aplicar transformação
arcsin√ŷ (por y ser
binomial)
Modelagem individual
Rodar DEA para uma DMU
Fixar Outputs
e Inputs
Armazenar
resultado
obtido
Remodelagem do CCD
em função da eficiência
(R²)
Fazer otimização de uma
função objetivo singular,
usando a superfície de resposta
para ξ
sim
Restam DMUs
para serem
analisadas?
Fazer experimento de
confirmação
Fim
Figura 1 – Fluxograma com a sequência de procedimento para aplicação da Análise Envoltória de
Dados para otimização de múltiplos objetivos
44
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Após o cálculo da eficiência de todas as DMUs referentes ao processo em estudo,
é realizada a Análise de Variância (ANOVA) através do software Minitab que permite
verificar se o ajuste do modelo foi satisfatório e determinar os coeficientes de regressão
para cada uma das respostas.
Caso o ajuste do modelo obtenha um valor insatisfatório (R² < 75%), torna-se
necessário a aplicaçãoda Transformação Binomial sugerida por Bisgaard e Fuller (1994)
aos resultados obtidos para a eficiência. Esta aplicação consiste em transformar valores
obtidos através de um cálculo de proporção em valores binomiais. A Eq. 10 apresenta
esta Transformação Binomial de Bisgaard e Fuller (1994).
(10)
Onde
é a variável que representa a característica que sofrerá a transformação
(valor proporcional) e y o valor binomial. Para este trabalho, a variável
se refere à
eficiência calculada através da Análise Envoltória de Dados para cada DMU do
processo.
Essa transformação pode se fazer necessáriapoiso cálculo da eficiência se trata de
uma proporção e o software Minitab considera que os dados em análise são valores
binomiais.
Por último, a otimização é realizada através de uma função objetivo singular,
usando a superfície de resposta para a eficiência.
Visando mostrar a aplicabilidade da técnica de otimização através da Análise
Envoltória de Dados, será realizado um Estudo de Caso com base nos resultados obtidos
por Gomes (2010) para as variáveis de um processo de soldagem FCAW.
No trabalho realizado por Gomes (2010) a otimização do processo foi realizada
através do Erro Quadrático Médio Multivariado. Os resultados obtidos por este método
deotimização serão comparados aos resultados obtidos através da Análise Envoltória de
Dados e posteriormente analisados.
45
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
3. ESTUDO DE CASO
A crescente complexidade dos processos de manufatura, aliada à grande
diversidade de métodos de otimização existentes, têm resultado em diversos estudos
acerca desses métodos e, a cada dia, novas abordagens têm sido propostas, ampliando
ainda mais esse universo. Entretanto, os métodos existentes são insuficientes para cobrir
todas as possibilidades de otimização, principalmente pela grande dificuldade em
otimizar mutuamente todas as variáveis de um processo.
Este capítulo será dedicado à demonstração da aplicação do método de otimização
por DEA através da investigação de um processo de soldagem FCAW (do inglês, Flux
CoredArcWelding). Tal processo foi realizado e estudado por Gomes (2010) no qual o
objetivo era otimizar o processo de soldagem através do método EQMM (Erro
Quadrático Médio Multivariado).
Tal qual o trabalho realizado por Gomes (2010), este estudo tem como principal
objetivo a otimização do processo de soldagem FCAW, porém o método utilizado é a
Análise Envoltória de Dados. Busca-se identificar a combinação ótima dos parâmetros
de soldagem que permitam a maximização das características geométricas do cordão de
revestimento. Ao contrário das aplicações convencionais, em que é desejável alta
penetração (P) para garantir a resistência da junta soldada (Figura 2.a), na soldagem de
revestimento (Figura 2.b) o perfil geométrico desejado se resume a:
 Máxima largura do cordão;
 Máximo reforço;
 Mínima penetração;
 Mínima diluição.
46
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 2 - Perfil geométrico desejado do cordão de solda: a) união da junta soldada (aplicações
convencionais); b) soldagem de revestimento.
A obtenção deste perfil geométrico característico é importante para que o processo
permita recobrir a maior área possível com o menor número de passes, resultando em
economias significativas de materiais e tempo. Assim, um dos maiores desafios da
soldagem de revestimento consiste no ajuste adequado dos parâmetros do processo para
que o material depositado adquira a geometria desejada.
A otimização deste processo é considerada complexa, pois se refere à otimização
de múltiplas respostas de um processo de soldagem que é governado por múltiplos
parâmetros de entrada (Figura 3). Portanto, uma abordagem científica para este tipo de
problema se torna importante para que os resultados alcançados sejam coerentes e
significativos.
Parâmetros
 Velocidade de Alimentação do
arame
Respostas
(15)
 Tensão
 Velocidade de soldagem
 Distância tocha-peça
47
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 3 – Esquematização do objeto de estudo
Em Gomes (2010) foram realizados 31 experimentos para o processo de soldagem
FCAW. Através da análise de todos os cordões de solda foram calculados os resultados
de cada um deles para as variáveis do processo (largura do cordão, reforço, penetração e
diluição).
Essas variáveis foram qualificadas como variáveis de entrada ou saída segundo
influência que têm sobre o cordão de revestimento. Isto é, as variáveis que devem ser
maximizadas (largura do cordão e reforço) para que as características geométricas do
cordão sejam máximas são consideradas variáveis de saída do processo. Já as que
devem ser minimizadas (penetração e diluição) são consideradas variáveis de entrada do
processo.A formulação deste problema de otimização, segundo a Análise Envoltória de
Dado, é apresentada na Eq. 10.
, com j = 1, 2, 3,..., 31
Sujeito a:
=1
ξ ≤ 100%
(10)
onde:
– Largura do Cordão
– Reforço
– Penetração
– Diluição
ξ – Eficiência do processo
– peso da variável de saída
– peso da variável de saída
– peso da variável de entrada
48
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
– peso da variável de entrada
j –número que identifica qual DMU está sendo analisada, referindo-se ao
número da DMU que está sendo analisada
O valor mínimo fixado para os pesos das variáveis foi de 0,05, pois foi o maior
valor encontrado que viabilizava o cálculo da eficiência.
Para a realização dos cálculos da eficiência, cada experimento realizado é
considerado como uma Unidade de Tomada de Decisão (DMU). Desta forma, para o
processo de soldagem em estudo tem-se um total de 31 DMU’s.
A eficiência de cada DMU deve ser calculada individualmente e os resultados
obtidos devem ser armazenados na medida em que são calculados. Isto significa que o
cálculo da eficiência deve ser repetido 31 vezes, no qual para cada DMU em análise, a
Eq. 10 deve ser reajustada. Os cálculos foram feito através do software Solver do
Microsoft Excel. Todos os resultados obtidos para a eficiência foram compilados na
Tabela 2.
Para a realização destes cálculos foram utilizados os valores obtidos por Gomes
(2010).Gomes (2010) analisou 31 cordões de solda realizados experimentalmente de
acordo com as características do DOE previamente gerado. Através das análises
realizadas foi possível obter os valores referentes às quatro variáveis do processo
(largura do cordão – W, reforço – R, penetração – P, diluição – D) para cada cordão de
solda gerado.
Desta forma, foram compilados na Tabela 2 também todos os 31 valores
encontrados por Gomes (2010) para cada uma dessas quatro variáveis. Nesta tabela a
unidade de medida para largura do cordão (W), reforço (R) e penetração (P) é
milímetro. Já a variável diluição (D) é um valor porcentual.
Na Tabela 2, a DMU 21 possui a eficiência máxima de 100%. Isto significa que o
conjunto de variáveis (W, R, P e D) referente a essa DMU gera a melhor característica
geométrica do cordão de solda. Sendo assim, pode-se dizer que este conjunto de valores
representa o conjunto de valores alvos para as variáveis do processo (Tabela 3).
49
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 1 - Resultados obtidos para os cálculos das eficiências
DMU
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Largura Reforço
W
R
11,19
2,63
12,99
3,12
12,70
2,50
15,05
2,78
9,21
2,17
9,96
2,67
9,75
2,06
11,51
2,42
10,32
2,87
11,43
3,34
11,27
2,85
13,34
3,18
7,99
2,55
8,62
2,80
8,48
2,36
10,84
2,60
9,07
2,21
12,21
3,06
9,42
3,03
11,69
2,46
14,93
3,12
8,48
2,25
11,73
2,61
9,22
2,89
10,82
2,60
10,93
2,59
10,74
2,65
10,61
2,50
10,64
2,62
10,59
2,61
10,57
2,56
Penetração
P
1,37
1,66
1,69
1,98
1,65
1,94
1,54
2,18
1,25
1,00
1,32
1,10
1,11
1,23
1,37
1,64
1,38
2,14
1,20
1,86
0,95
1,43
2,18
1,28
1,71
1,72
1,62
1,80
1,49
1,49
1,50
Diluição
D
26,44%
25,82%
31,49%
31,25%
36,22%
33,69%
37,12%
41,08%
22,46%
18,32%
23,71%
21,96%
24,96%
23,31%
28,77%
30,19%
31,56%
30,95%
22,84%
35,58%
18,58%
35,78%
40,44%
24,16%
31,05%
31,67%
30,88%
32,83%
29,99%
31,09%
31,02%
Eficiência
69,10%
80,55%
76,00%
89,15%
56,90%
63,15%
59,05%
69,65%
65,95%
85,46%
70,60%
82,60%
52,70%
57,10%
54,20%
67,20%
56,40%
76,35%
62,25%
70,75%
100,00%
53,65%
71,70%
60,55%
67,10%
67,60%
66,95%
65,55%
66,30%
66,00%
65,65%
Ao realizar a otimização do processo, o resultados encontrados para as variáveis
W, R, P e D devem se aproximar do grupo apresentado na Tabela 3.
50
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 2 - Conjunto de valores alvos
DMU
21
Parâmetros de Entrada
Va
T
Vs
N
m/min
V
cm/min
mm
8,50
29,50
20,00
20,00
Variáveis de Geometria do Cordão
W
R
P
D
mm
mm
mm
14,93
3,12
0,95 18,58%
A estimação dos coeficientes de regressão foi feita através do software estatístico
MINITAB®, que utiliza, para esta finalidade, o Método dos Mínimos Quadrados
Ordinários (OLS). A Tabela 4 apresenta os coeficientes estimados para os modelos
quadráticos completos desenvolvidos para as respostas consideradas neste trabalho.
Tabela 3 - Coeficientes estimados para os modelos quadráticos completos
Coeficiente
Constante
Va
T
Vs
N
Va*Va
T*T
Vs*Vs
N*N
Va*T
Va*Vs
Va*N
T*Vs
T*N
Vs*N
Variáveis do Processo
Eficiência
W
R
P
D
10,70 2,59 1,62 0,31
0,66
0,80 0,19 0,12 0,00
0,05
0,66 -0,11 0,12 0,02
0,02
-1,45 -0,22 0,09 0,04
-0,10
-0,63 0,12 -0,24 -0,04
-0,02
0,00 0,01 0,03 0,00
0,00
-0,02 0,03 -0,03 -0,01
0,00
0,26 0,02 -0,12 -0,01
0,03
-0,04 0,04 0,02 0,00
0,00
0,27 -0,03 0,03 0,01
0,00
-0,11 -0,01 0,08 0,01
-0,01
-0,03 -0,02 -0,10 0,00
0,00
-0,10 0,00 0,00 0,00
0,00
-0,01 0,01 0,00 0,00
-0,01
0,07 -0,01 0,00 -0,01
0,00
Com os coeficientes apresentados na Tabela 4,foram formuladas as equações do
modelo quadrático completo para as variáveis W, R, P, D e para a eficiência do
processo (respectivamente, Eq. 11, Eq. 12, Eq. 13, Eq. 14 e Eq. 15).
51
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
(11)
(12)
(13)
(14)
(15)
A adequação dos modelos foi verificada pela Análise de Variância (ANOVA),
realizada através do software MINITAB®. NaTabela 5 são apresentados os resultados
desta análise. Com os resultados obtidos verifica-se que todos os modelos
desenvolvidos são adequados, já que apresentam p-values inferiores a 5% de
significância. Os resultados do ANOVA também indicam que todos os modelos
desenvolvidos apresentaram bons ajustes, já que os valores de R²(adj.) foram superiores
a 84%. Além disso, a Tabela 5mostra também que os modelosnão apresentaram falta de
ajuste (Lack-of-fit< 0,05).
52
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 4 - Análise de Variância
Resposta
P
W
R
P
D
Eficiência
0,000
0,000
0,000
0,000
0,000
Lack-offit
0,052
0,115
0,470
0,080
0,432
2
R (adj.)
(%)
98,200
94,800
84,100
93,400
94,400
Os resultados da Tabela 5 atestam que não há falta de ajuste nas respostas obtidas,
determinando que o modelo matemático completo é suficientemente confiável.
Através da equação do modelo matemático completo para a eficiência e com o
auxilio do software Solver do Microsoft Excel foram calculados os valores ótimos para
os parâmetros de entrada do processo de soldagem (velocidade de alimentação do arame
– Va, tensão – T, velocidade de soldagem – Vs e distância tocha-peça – N). Para isto foi
utilizado
como
amostral
restrição
(onde
aeficiência
, sendo
máxima
de
100%
e
o
espaço
o raio do espaço amostra e k o número de
fatores). Para o caso em estudo tem-se um total de quatro fatores (Va, T, Vs e N). A
formulação do problema é mostrada na Eq. 16.
Sujeito a:
(16)
Obteve-se
assim
os
valores
para
os
parâmetros
Va,
T,
Vs
e
N.Consequentementetornou-se possível calcular também os valores das variáveis de
entrada (Largura do cordão – W, Reforço – R) e saída (Penetração – P, Diluição – D) do
processo. Este cálculo foi realizado através das equações do modelo matemático
completodestas variáveis (Eq. 11, Eq.12, Eq. 13 e Eq. 14). A Tabela 6 apresenta
53
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
encontrados para os parâmetros de entrada e para as variáveisda geometria do cordão de
solda através da otimização pela metodologia DEA. Esta tabela apresenta também os
valores alvos e os resultados obtidos para a diferença entre esses valores, a fim de
facilitar a análise.
Tabela 5–Resultados e comparações
Variáveis
DEA
Valores Alvos
Erro
Va
m/min
8,60
8,50
1,16%
Parâmetros de Entrada
T
Vs
N
V
cm/min
mm
30,03
20,53
19,53
29,50
20,00
20,00
1,77%
2,58%
-2,40%
Variáveis de Geometria do Cordão
W
R
P
D
mm
mm
mm
15,31
3,20
0,98 18,99%
14,93
3,12
0,95 18,58%
2,46%
2,51% 3,06% 2,16%
Os resultados mostram que os valores obtidos pela otimização por Análise
Envoltória de Dados foram satisfatórios, pois se aproximaram dos valores alvos obtendo
uma diferença máxima de 3,06% para a variável Penetração. Portanto, na medida em
que os valores reais se mostraram condizentes com os valores calculados, ficam
validados o resultados obtidos para a otimização das características do cordão para o
processo de soldagem com arame tubular em operações de revestimento de aços
carbonos com aços inoxidáveis.
Ao se comparar os valores obtidos pelas metodologias DEA, Desirability e
EQMM Ponderado, tal como é mostrado na Tabela 7, percebe-se que os valores não
tiveram grandes variações. Porém as pequenas diferenças entre os valores podem ser
explicadas pelo fato de se tratar de métodos de otimização completamente diferentes. A
metodologia DEA otimiza com base nas equações do modelo matemático completo
levando em consideração as restrições de eficiência máxima e de espaço amostral. Já o
Desirability utiliza equações para otimização baseadas em valores alvos, mínimos e
máximos previamente determinados para as variáveis, buscando assim um valor ótimo
que mais se aproxima do alvo. E, por fim, o método apresentado por Gomes (2010)
otimiza com base na estruturas de correlação entre as variáveis em estudo.
54
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 6 - Resultados obtidos por DEA, Desirability e EQMM Ponderado
Métodos
DEA
Desirability
Gomes (2010)
Va
m/min
8,60
11,50
9,50
Parâmetros de Entrada
T
Vs
N
V
cm/min
mm
30,03
20,53
19,53
24,50
20,00
10,00
26,50
27,30
23,60
Variáveis de Geometria do Cordão
W
R
P
D
mm
mm
mm
15,31
3,20
0,98 18,99%
15,30
3,95
1,38 13,70%
11,90
3,33
0,92 16,61%
Considerando que o perfil geométrico do cordão obtido pela aplicação da
metodologia DEA obteve valores consideravelmente próximos da condição de ótimo
definido pela DMU de eficiência máxima, este método de otimizaçãofoi considerado
satisfatório.Portanto,
observa-se
que
o
método
de
otimizaçãoproposto
foi
empregadocom êxito, o que caracteriza a Análise Envoltória de Dados como uma
ferramenta eficiente para aotimização de um processo de múltiplas respostas.
4. CONCLUSÃO
Este trabalho mostrou que a otimização de um processo de manufatura de
múltiplas respostas pode ser bem representado utilizando de forma conjunta a Análise
Envoltória de Dados e a Metodologia de Superfície de Resposta. Os resultados
mostraram que a DEA realizou de forma satisfatória a otimização simultânea das
variáveis de entrada e saída do processo de soldagem FCAW, já que os modelos
matemáticos desenvolvidos se caracterizaram como expressões de grande confiabilidade
por apresentarem ajustes superiores a 84%.
Após a aplicação da metodologia proposta por este trabalho, verificou-se que a
otimização do processo de soldagem com arame tubular para o revestimento de aços
carbono com aços inoxidáveis é alcançada com o emprego da seguinte combinação dos
parâmetros: Va = 8,60 m/min; T = 30,03 V; Vs = 20,53 cm/min; N = 19,53 mm. Nesta
condição, as respostas obtidas foram as seguintes respostas:
 Largura do cordão máxima: 15,31 mm;
 Reforço máximo: 3,20 mm;
55
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
 Penetração mínima: 0,98 mm;
 Diluição mínima: 18,99%.
A comparação entre os valores obtidos e os valores alvos determinados pela DMU
de eficiência máxima (DMU 21) mostraram que a maior diferença entre as respostas foi
de3,06%, para a variável penetração. Com isso, obteve-se a validação dos resultados
ótimos e também dos modelos desenvolvidos para as respostas. Portanto, tais resultados
fazem destes modelos expressões úteis para um adequado controle do processo, na
medida em que apresentam baixos erros quanto à previsão das respostas.
Um sugestão para estudos futuros seria a aplicação do DEA para outros problemas
de otimização de processos de múltiplas respostas, visando testar a aplicabilidade do
método.
5. REFERÊNCIAS
CHARNES, A., COOPER, W.W. AND RHODES, E. (1978), Measuring the efficiency
of decision making units, European Journal of Operational Research, Vol. 2, pp. 429444.
DERRINGER, G., SUICH, R., Simultaneous Optimization of Several Response
Variables, Journal of Quality Technology, 1980, 12(4), 214–219.
DOYLE, J. AND GREEN, R, (1994), Efficiency and cross-efficiency in DEA:
derivations, meanings and uses, Journal of the Operational Research Society, Vol. 45,
pp.567-578.
GOMES, J. H. F., Análise e otimização da soldagem de revestimento de chapas de
aço carbono utilizando arame tubular inoxidável austenítico. 137 p. Dissertação
(Mestrado em Engenharia de Produção) - Universidade Federal de Itajubá, Itajubá, MG,
2010.
56
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
KHURI, A.I., CONLON, M., Simultaneous Optimization of Multiple Responses
Represented by Polynomial Regression Functions, Technometrics, 1981, 23(4), 363–
375.
LIAO, H.C., Using N-D method to solve multi-response problem in Taguchi, Journal
of Intelligent Manufacturing, 2005, 16(1), 331-347.
LIAO, H.C., A data envelopment analysis method for optimizing multi-response
problem with censored data in the Taguchi method, Computers & Industrial
Enginerring, 2004, 46(1), 817-835.
LIAO, H.C., Chen, Y.K., Optimizing multi-response problem in the Taguchi
method by DEA based ranking method, International Journal of Quality & Reliability
Management, 2002, 19(7), 825-837
HARRINGTON, E. C. The Desirability Function.Industrial QualityControl, n 21,
pp. 494-498, 1965.
MONTGOMERY, D.C., Design and Analysis of Experiments, 4ª ed. John Wiley&
Sons, 2001.
NILO JÚNIOR, L. P. Otimização de um processo de solda MIG/MAG para
aplicação na indústria automobilística através da utilização da técnica do projeto e
análise de experimentos. 111 p. Dissertação (Mestrado em Engenharia de Produção) –
Instituto de Engenharia de Produção e Gestão, Universidade Federal de Itajubá, Itajubá,
2003.
PAIVA, E. J.Otimização de processos de manufatura com múltiplas respostas
baseada em índices de capacidade. 119 p. Dissertação (Mestrado em Engenharia de
57
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Produção) – Instituto de Engenharia de Produção e Gestão, Universidade Federal de
Itajubá, Itajubá, 2008.
58
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
OTIMIZAÇÃO DO PROCESSO DE HOMOGENEIZAÇÃO DE
EMULSÕES W/O DE PETRÓLEO COM O USO DA
METODOLOGIA DE SUPERFÍCIE DE RESPOSTA
Anderson Paulo de Paiva
[email protected]
José Henrique de Freitas Gomes
[email protected]
Pedro Paulo Balestrassi
[email protected]
Pedro Paulo Balestrassi
[email protected]
Jonathan Leal
[email protected]
Resumo. Este artigo demonstra a aplicação da Metodologia de Superfície de Resposta
na determinação das condições ótimas de homogeneização de emulsões de petróleo do
tipo W/O (Water in Oil). Um procedimento adequado de homogeneização concorre
para a adequada representatividade da amostra. Três parâmetros quantitativos
(Temperatura, Velocidade de Rotação e Tempo) são considerados como possíveis
fatores de influência na homogeneização de emulsões. O coeficiente de variação do
diâmetro característico de gota D (V; 0,5), medidos a partir do analisador de
partículas MALVERNTM, foi adotado como resposta. Uma boa homogeneização
pressupõe a minimização do coeficiente de variação do diâmetro característico de gota.
Palavras-Chave: MSR (Metodologia de Superfície de Resposta), Emulsões W/O,
Homogeneização.
59
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
1. INTRODUÇÃO
A determinação da incerteza de medição em amostras heterogêneas é um desafio
para os métodos quantitativos. Para se determinar um procedimento adequado de
amostragem que considere o aspecto dinâmico da amostragem de emulsões adotou-se
neste trabalho o pressuposto de que a pior situação possível de homogeneidade é a
heterogeneidade. No caso das emulsões, a situação mais heterogênea que pode ser
encontrada é quando as duas fases (óleo e água) estão separadas. Em situações práticas
de extração isto dificilmente ocorrerá.
Quando uma população é formada por material contínuo, não é possível realizarse uma amostragem probabilística aleatória devido à impraticabilidade de um sorteio
rigoroso. Se a população for líquida ou gasosa, o que se costuma fazer, com resultado
satisfatório, é homogeneizá-la e retirar a amostra a esmo. Desse modo, uma alternativa
razoável para aquisição de uma amostra representativa de um meio contínuo é a sua
adequada homogeneização.
Assim, parâmetros que consigam homogeneizar uma emulsão a partir das fases
separadas nunca fornecerão uma medida de concentração menos precisa do que em uma
situação real. Acredita-se, portanto, que a homogeneização concorra para o aumento da
representatividade da amostra.
2. EMULSÕES
Segundo Pal (1994), uma emulsão é um sistema bifásico do tipo óleo/água, onde
uma das duas fases está dispersa na forma de gotas na outra. A fase goticular denominase Fase Dispersa, enquanto que a matriz na qual o sistema de gotas está suspenso
denomina-se Fase Contínua.
As gotas de emulsão usualmente excedem 0,5 m de diâmetro e, dessa forma,
tornam-se visíveis sob microscópio óptico. As emulsões também contêm um terceiro
componente denominado agente emulsificante ou emulsificador. Tal agente tem duas
funções: diminuir a tensão interfacial entre o óleo e a água, facilitando, dessa maneira, a
60
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
formação da emulsão; e, uma vez formada, estabilizar a fase dispersa no que tange à
coalescência.
As emulsões podem ser classificadas em três grupos distintos (Pal, 1994):
a) Emulsões de Água em óleo (W/O);
b) Emulsões de Óleo em Água (O/W);
c) Emulsões Múltiplas.
As emulsões do tipo W/O consistem em gotas de água dispersas em uma matriz
contínua de óleo (ou Petróleo). É o tipo de emulsão mais comumente encontrado na
indústria do petróleo. Por vezes, tais emulsões são denominadas de emulsões regulares.
As emulsões do tipo O/W consistem de gotas de óleo dispersas em água. Também são
conhecidas como emulsões reversas. As emulsões múltiplas, menos comuns que as
binárias, são formadas por múltiplas gotas. Em uma emulsão múltipla do tipo W/O/W,
por exemplo, pequenas gotas de água alojam-se dentro de gotas maiores de petróleo.
Este sistema por sua vez, está imerso em uma matriz de água.
Segundo Pal (1994), há duas maneiras diferentes de medir a composição
(conteúdo de água e óleo) em emulsões:
a) A medição direta da composição usando-se um analisador de emulsões on-line;
b) A medição indireta da composição utilizando-se uma amostra da emulsão e a
subseqüente análise em laboratório.
A medição indireta, que envolve a coleta de uma amostra representativa da
emulsão no duto de transporte ou em qualquer outro equipamento do processo, com
posterior análise em laboratório, é a maneira mais comumente usada nas operações de
produção de petróleo, embora a medição on-line esteja alcançando cada vez mais
espaço; entretanto, a precisão do método indireto é altamente dependente do quanto
uma amostra é representativa da composição da linha de produção.
Este será o tipo de medição estudada neste trabalho, através da análise de
parâmetros que tornem a amostra coletada a mais homogênea possível. A
homogeneidade da amostra concorre para a sua representatividade.
A formação de uma emulsão por agitação mecânica de um sistema polifásico é um
processo extremamente complexo; põe em jogo uma grande variedade de variáveis cujo
efeito combinado ainda não é totalmente conhecido. Ao se agitar um sistema polifásico
61
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
líquido, dois fenômenos se sobrepõem: primeiramente, os fenômenos fluidomecânicos,
que têm relação com o movimento do impulsor, com os elementos de fluido e com as
misturas dos mesmos (Salager, 1993); segundo, a presença de uma interface que pode se
deformar e romper, e cuja área pode variar de um momento para o outro e de um ponto
para o outro do sistema. Particularmente, a formação de gotas depende da tensão
interfacial. Em geral, um surfactante pode alterar sensivelmente a magnitude da tensão
superficial. Além disso, deve-se considerar que os esforços fluidomecânicos produzidos
pelo sistema agitador devem transmitir-se à interface através da fase contínua e uma vez
aplicada à interface, devem resultar em cisalhamento ou estiramento das estruturas
formadas com os elementos da fase dispersa. Como conseqüência, a viscosidade das
fases contínua e dispersa são também importantes no processo de emulsificação.
O sistema agitado não é, em geral, homogêneo. Isto se dá porque existem zonas
de alta agitação e zonas de pouca agitação no fluido. Nas primeiras, as gotas estarão
submetidas a esforços capazes de rompê-las, enquanto que nas outras, há a tendência de
coalescimento, e, conseqüentemente, de aumento de tamanho.
A coalescência é um fenômeno espontâneo que depende da probabilidade de
colisão entre as gotas e de sua eficiência. A probabilidade de colisão depende da
quantidade de gotas presentes, o que está diretamente relacionado com o seu tamanho e
com a composição do sistema; quanto mais gotas presentes, menores elas serão
(Salager, 1993). Além disso, as colisões dependem em muito dos fatores inerciais
susceptíveis de produzi-las (movimento Browniano, sedimentação, agitação). Já a
eficiência de colisão, depende do balanço entre as forças atrativas e repulsivas entre as
gotas. As forças atrativas são do tipo Van der Waals e, portanto, estão relacionadas com
a massa das gotas, enquanto que as forças repulsivas são produzidas pelos surfactantes.
3. ARRANJO EXPERIMENTAL
Como disposto anteriormente, a homogeneidade da emulsão gerada está
relacionada à ação do agitador sobre a operação de emulsificação. Assim, em um
recipiente contendo as duas fases geradoras, haverá zonas distintas de homogeneização,
62
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
e estas zonas serão tão homogêneas, quanto mais próximas estiverem do agitador.
Baseando-se neste princípio, adotou-se como meio de verificação de homogeneidade da
emulsão, a diferença entre três pontos do fluido coletados em posições distintas: uma
amostra do fundo do recipiente, uma do centro (próximo à posição do agitador) e uma
última da superfície.
Para se utilizar o MALVERNTM, entretanto, uma proposição deve ser feita: se
uma emulsão é homogênea, é razoável admitir-se que as gotas de água em qualquer
ponto da emulsão tenham tamanhos muito próximos. Uma vez que existem sistemas
homogêneos com gotas grandes e também com gotas pequenas, não seria interessante
usar o desvio-padrão do diâmetro característico como medida de dispersão, porque, para
efeito de comparação, estar-se-iam avaliando propriedades diferentes. Portanto,
preferiu-se adotar o Coeficiente de Variação de D(V; 0,5). Esta medida estatística é a
razão entre o desvio-padrão e a média. Como descrito anteriormente, D(V; 0,5) é um
dos diâmetros característicos de gota. Este diâmetro foi escolhido porque é a medida
mais precisa fornecida pelo analisador de partículas.
A figura (1) mostra como foram coletadas as três amostras de uma mesma
emulsão. Uma primeira amostra é retirada na superfície do frasco, junto à sua parede
esquerda (PEC); uma segunda, no centro e no meio (CEM); por último, uma amostra da
emulsão do fundo do frasco, junto à sua parede direita (PDB).
63
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 1 – (a) Pontos de coleta das amostras. (b) Tipo de Agitador utilizado.
Embora a intenção fosse gerar concentrações conhecidas, o petróleo utilizado
(teoricamente livre de água) já contém originalmente um pequeno teor de água. Depois
de repetidas análises iniciais, o teor de água obtido por titração Karl-Fischer, revelou
um valor médio de concentração para o petróleo ―livre‖ de 1,2%. Como o petróleo
utilizado já possuía um teor de 1,2% de água, calculou-se a massa de água
complementar para os teores experimentais requeridos. Na geração das emulsões,
utilizou-se Petróleo Cru, oriundo do Campo de Marlim (RJ), ºAPI 20,6.
Para a análise do diâmetro característico de gota das amostras de emulsões
homogeneizadas, utilizou-se o analisador de partículas MALVERN MASTERSIZER,
através de uma amostra diluída. Segundo Salager (1993), como a grande maioria dos
64
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
métodos, um analisador por difração de luz como o Malvern, requer uma emulsão
diluída, para evitar difrações múltiplas.
Em três recipientes diferentes, diluiu-se em óleo mineral USP, as amostras coletas
nos três pontos descritos anteriormente. Através de um bastão de vidro, retiram-se três
gotas da mistura em cada ponto. Um volume maior do que este poderia aumentar o grau
de obscurência da amostra, dificultando a leitura realizada pelo equipamento.
Posteriormente, introduziram-se estas amostras no analisador de partículas. Três
diâmetros característicos da amostra foram registrados. Com eles, calculou-se a média,
o desvio padrão e o coeficiente de variação da amostra de emulsão, gerada segundo os
fatores e níveis definidos na tab. (1).
Segundo Salager (1993), três parâmetros quantitativos (Temperatura, Velocidade
de Rotação e Tempo) podem ser considerados como possíveis fatores de influência na
homogeneização das emulsões. Para compor e analisar os resultados experimentais com
estes parâmetros utilizou-se a metodologia de Projeto de Experimentos. Como resposta,
adotou-se o coeficiente de variação do diâmetro mediano de gotas D (V; 0,5). Como
todos os fatores escolhidos são quantitativos, um fatorial completo com pontos centrais,
pode ser adequado. Este arranjo é capaz de avaliar a influência dos fatores e a presença
de curvatura nos modelos matemáticos do ensaio.
3.1. Metodologia de Projeto de Experimentos
Em ensaios experimentais, modificações propositais são feitas nas variáveis
independentes para se avaliar seu impacto sobre o comportamento das variáveis
dependentes. A metodologia de Projeto de Experimentos é, portanto, uma estratégia
capaz de planejar e analisar um conjunto de experimentos ortogonais e balanceados
formado por um conjunto de fatores. Uma vez realizados os experimentos, uma Anova
(AnalysisofVariance) associada ao método dos mínimos quadrados, possibilita a criação
de modelos do processo experimentado. Obtida a função objetivo através desse
procedimento, um método de otimização pode ser empregado com o objetivo de
determinar as condições nas qual o processo é mais favorável a um requisito de
65
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
qualidade. Esta metodologia tem emergido como uma importante ferramenta para a
obtenção de resultados não ambíguos com uma quantidade mínima de dados.
Em um DOE os valores atribuídos aos fatores denominam-se níveis. Os arranjos
fatoriais utilizados neste caso são compostos por dois níveis. Estes arranjos fatoriais
completos permitem que todos os fatores envolvidos na experimentação sejam
avaliados igual número de vezes em cada um dos seus níveis. Em fases iniciais, apenas
dois níveis fixos são necessários para se avaliar a influência dos fatores. Posteriormente,
à medida que se reduza sua quantidade e se avalie sua significância, arranjos mais
específicos, com um número maior de níveis, podem ser utilizados. No caso dos
parâmetros de homogeneização, dois níveis serão utilizados por fator. Como os
parâmetros de homogeneização são quantitativos contínuos, serão acrescentados pontos
centrais, de tal forma que a curvatura do processo seja avaliada. Em caso de
significância, um modelo quadrático será uma alternativa adequada.
Em geral, alguns dos fatores escolhidos podem interagir provocando sobre a
resposta uma influência devida à sua natureza sinergia. Com estas considerações, um
modelo experimental de primeira ordem pode ser escrito como:
k
y   0    j x j    ij xi x j  
j 1
i j
(1)
Quando se evidenciar curvatura, o modelo adequado será dado pela Eq. (2), tal que:
k
k
y   0    j x j    ij xi x j    jj x 2 j  
j 1
i j
j 1
(2)
Na maioria dos experimentos, assume-se que o modelo linear é adequado;
entretanto, para se confirmar se existe ou não falta de ajuste podem-se utilizar tantos
pontos centrais quantos forem os K fatores de um processo. Estes pontos são adequados
apenas quando todas as variáveis forem quantitativas. Comparando-se as médias das
66
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
respostas obtidas com os pontos centrais e os fatoriais, pode-se testar a hipótese de
curvatura.
3.2 Metodologia de Superfície de Resposta
De acordo com Montgomery (2001), a Metodologia de Superfície de Resposta
(MSR) é uma coleção de técnicas matemáticas e estatísticas utilizadas para modelar e
analisar problemas no qual a forma de relacionamento entre as variáveis dependentes e
independentes é desconhecida. Inicialmente, emprega-se, um polinômio de baixa
ordem. Se houver curvatura no processo, então, um polinômio ordem mais elevado se
torna necessário, tal como descreve a Eq. (3).
k
k
i 1
i 1
yˆ  y     0    i xi    ii xi2    ij xi x j
i j
(3)
Na Eq. (3), os parâmetros ( ) são estimados por mínimos quadrados. Na forma
matricial, tem-se:
ˆ  ( X T X ) 1 X T y
(4)
Na Equação (4), X é a matriz dos fatores e y, das respostas.
Um típico arranjo para modelos quadráticos é o CCD (Central Composite
Design). Formado por uma parte fatorial, um conjunto de pontos centrais e axiais, o
CCD possui a variância da resposta predita constante numa esfera de raio α, tal que:

V  yˆ x    2 xT X T X

1
x
(5)
67
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
O valor de depende do número de fatores envolvidos e garante rotacionalidade
aos arranjos (Montgomery, 2001). Para este trabalho  é dado por:
  2k  4
1
(6)
Na Equação (6), k é o número de fatores envolvidos na experimentação.
Através da eliminação de termos não significativos, pode-se obter modelos mais
representativos. A eliminação de um termo é adequada se causar um aumento do
coeficiente de determinação R2, com a conseqüente diminuição do erro experimental,
observando-se, porém, o princípio da Hierarquia, segundo o qual, um termo de ordem
baixa que não for significativo deve ser mantido quando o de ordem alta for
significativo. Para a construção dos arranjos e a análise estatística, será utilizado neste
trabalho o software Minitab®.
3.3 Método de Otimização
Se uma função múltipla possui gradiente nulo e se a matriz hessiana formada
pelas derivadas segundas for positiva e definida, então, o ponto estacionário é um ponto
de ótimo. Segundo Montgomery (2001), escrevendo-se um modelo de segunda ordem
em notação matricial tem-se:
yˆ  ˆ 0  x´b  x´Bx
(7)
xT  x1

x2  xk , bT  ˆ1
ˆ2  ˆk

 ˆ11 ˆ12 / 2  ˆ1k / 2 


ˆ22  ˆ2 k / 2
e B


 


ˆkk 
 Sim.
(8)
68
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Na equação (8), b representa o vetor dos coeficientes de regressão de primeira
ordem e [B] é uma matriz simétrica, com a diagonal principal formada pelos
coeficientes dos termos quadráticos puros. Os demais coeficientes de B são iguais à
metade dos coeficientes das interações. Igualando-se a zero o gradiente de y em relação
aos elementos do vetor x, tem-se que o ponto estacionário é:

xs  0.5 B 1b

(9)
Esta equação do ponto estacionário só é válida para condições não restritas de
otimização. Entretanto, como os resultados experimentais só são válidos para o interior
dos níveis dos fatores, deve-se impor uma restrição para se evitar que o ponto de ótimo
caia fora da região experimental. Em um experimento do tipo CCD, estas restrições
podem ser esféricas ou cuboidais. No primeiro caso,  1  xi  1, i  1,2,..., k , onde k é
igual ao número de fatores do arranjo experimental. Já para a restrição esférica, as
T
2
restrições são definidas por x x   .
Um algoritmo adequado para este tipo de otimização é o Gradiente Reduzido
Generalizado (GRG). De acordo com Lasdonet al. (1978), o GRG é um método de
otimização não-linear, onde restrições de igualdade são substituídas na função objetivo.
Isto reduz o número de variáveis e gradientes envolvidos nos cálculos. Separando-se as
variáveis originais em básicas (Z) e não-básicas (Y), pode-se escrever a direção de busca
como:


T
 
d

S X   GR 
F  X    z F  X   B 1 A Y F  X  ,
dZ

 


T

dY   B AdZ 

1
(10)
Onde:
A   z h j  X  e B  Y h j  X  .
T
T
Para
as
iterações,
X k 1  X k  S k 1 , verificando-se em cada passo se
deve-se
utilizar
X k 1 é viável e se
69
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013


h X k 1  0 para um dado multiplicador de Lagrange λ. Usando-se um algoritmo
unidimensional de busca, resolve-se F(X) escrito em termos de α. A combinação da
MSR com um algoritmo de otimização, resulta em:
k
k
i 1
i 1
Minimizar
yˆ   0    i xi    ii xi2    ij xi x j
Sujeito a :
x x 
T
2
i j
i  1,2,...k
(11)
4. PROCEDIMENTO EXPERIMENTAL E ANÁLISE DE RESULTADOS
De acordo com a fundamentação teórica apresentada, procurou-se compor um
arranjo experimental utilizando-se os fatores de homogeneização e respectivos níveis de
ensaio, tal como descreve a Tab. (1). Utilizando-se um fatorial completo 23 com 5
pontos centrais e com 2 réplicas, obtém-se os 21 experimentos descritos na Tab. (2).
Para cada condição experimental de homogeneização da emulsão gerada, foi
calculado o coeficiente de variação para o diâmetro de gota. O conjunto de níveis dos
fatores experimentais que concorrerem para a minimização da resposta de interesse
serão aqueles que tornarão a emulsão a mais homogênea possível e evitando-se uma
excessiva trituração das gotas.
Tabela 1. Fatores e níveis para o processo experimental de homogeneização.
Níveis
Parâmetro
Símbolo
Unidade
-1
0
Rotação
X1
rpm
Temperatura
X2
ºC.
20
30
40
Tempo
X3
s
60
90
120
1000 2000
+1
3000
70
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 2. Fatorial completo com pontos centrais.
Codificado
Decodificado
Y
Nº
X1
X2
X3
X1
X2
X3
1
-1
-1
-1
1000
20
60
8,004
2
1
-1
-1
3000
20
60
3,509
3
-1
1
-1
1000
40
60
9,258
4
1
1
-1
3000
40
60
2,982
5
-1
-1
1
1000
20
120
6,200
6
1
-1
1
3000
20
120
2,889
7
-1
1
1
1000
40
120
6,378
8
1
1
1
3000
40
120
3,302
9
-1
-1
-1
1000
20
60
7,074
10
1
-1
-1
3000
20
60
4,254
11
-1
1
-1
1000
40
60
10,061
12
1
1
-1
3000
40
60
2,538
13
-1
-1
1
1000
20
120
5,900
14
1
-1
1
3000
20
120
2,928
15
-1
1
1
1000
40
120
6,160
16
1
1
1
3000
40
120
2,463
17
0
0
0
2000
30
90
3,667
18
0
0
0
2000
30
90
3,460
19
0
0
0
2000
30
90
3,376
20
0
0
0
2000
30
90
3,647
21
0
0
0
2000
30
90
3,053
A análise de variância da Tab.(3) demonstra a significância dos parâmetros de
estudo sobre a homogeneização das emulsões geradas. No caso da experimentação em
dois níveis, a hipótese nula do teste estatístico é caracterizada por uma igualdade entre
as respostas médias obtidas nos dois níveis de cada fator. Considerando-se o valor de P
71
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
igual à probabilidade da estatística de teste T ser maior que o valor de T crítico, obtido
com nível de significância α=5% e d.f.=12, pode-se afirmar que valores inferiores ao
nível de significância, levam à rejeição da hipótese nula. Desse modo, conclui-se que
apenas o fator Temperatura não se demonstrou influente no processo de
homogeneização. Entretanto, a interação tripla que contém o fator, é bastante influente.
De acordo com o princípio da hierarquia (Montgomery, 2001), devido à interação, a
temperatura deveria ser mantida nas fases seguintes da experimentação. No entanto,
para se reduzir o tamanho do arranjo e o custo experimental, tal fator não foi
considerado, mantendo-o constante e igual a 30 ºC nos experimentos seguintes. Este
valor foi escolhido por conduzir a valores pequenos do coeficiente de variação (Y).
A análise de curvatura do modelo de regressão, realizada através do exame dos
pontos centrais, revela um valor de P bem menor que o nível de significância, o que
conduz à rejeição da hipótese nula de igualdade entre a resposta média obtida com os
pontos fatoriais e pontos centrais. Logo, há curvatura significativa no modelo, o que
sugere a aplicação de um arranjo do tipo CCD.
72
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 3. Anova para Coeficiente de Variação.
Termo
Efeito
Coef
Se Coef
T
P
5,244
0,09685
55,25
0,000
Rotação
-4,271 -2,136 0,09685
-22,05
0,000
Temperatura
0,298
0,09685
1,54
0,150
Tempo
-1,432 -0,716 0,09685
-7,40
0,000
Rotação x Temperatura
-0,872 -0,436 0,09685
-4,50
0,002
Rotação x Tempo
1,007
0,09685
5,20
0,000
Temperatura x Tempo
-0,202 -0,101 0,09685
-1,04
0,319
Rotação x Tempo x Temperatura
0,749
0,09685
3,87
0,002
-1,803 0,19849
-9,08
0,000
Constante
0,149
0,504
Pontos Centrais
0,375
FONTE
DF
SEQ SS
ADJ SS
MS
F
P
Efeitos Principais
3
81,538
81,538
27,1792
181,09
0,000
Interações 2a.Ordem
3
7,26
7,26
2,4201
16,12
0,000
Interações 3a.Ordem
1
2,246
2,246
2,2455
14,96
0,002
Curvatura
1
12,386
12,386
12,3861
82,53
0,000
Erro Residual
12
1,801
1,801
0,1501
Erro Puro
12
1,801
1,801
0,1501
Total
20
105,231
Uma vez verificado que o experimento está em uma região de ótimo, um CCD é
construído adicionando-se os pontos axiais ao arranjo já utilizado. Para dois fatores, a
distância α é 1,414, de acordo com a Eq. (6). Os valores  1,414 serão os novos níveis
codificados do arranjo. Para uma interpretação decodificada dos níveis dos fatores,
pode-se empregar a Eq. (12).
 2X   X H  X L 
xi   i

 X H  X L  
(12)
73
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Onde: XH e XL são, respectivamente, os níveis superior e inferior dos fatores, em
unidades decodificadas.
Como já se está na região de ótimo serão realizados apenas os experimentos com
pontos axiais. Aplicando-se a técnica de blocagem aos experimentos já realizados,
pode-se verificar se tal condição experimental é homogênea. Este arranjo experimental
está descrito na Tab.(4).
Um exame dos resultados da Anova realizada com a presença dos blocos revela
um valor de P bem maior que o nível de significância, o que conduz à aceitação da
hipótese nula de igualdade entre as respostas médias obtidas com os dois blocos
experimentais. Assim, o fato de parte do arranjo ter sido aproveitado do fatorial
completo não interferiu na análise. Desconsiderando-se, portanto, esta influência, refazse a Anova dos dados experimental, tal como se observa na tab.(5).
Conclui-se, então, que o modelo quadrático completo é significativo, uma vez que
todos os termos deste modelo apresentaram valores de P praticamente nulos. Não há
falta de ajuste com a representação pelo modelo quadrático (P = 0,170) e sua explicação
é de R2 (Adj) = 98,2 %.
Para se encontrar, portanto, a condição ótima de homogeneização, compõe-se uma
função objetivo a partir do modelo estatístico de regressão, tendo como restrição para a
solução ótima a região experimental . Este algoritmo garantirá uma solução viável
dentro de . Escrevendo-se o modelo de otimização, tem-se que:
Minimizar
yˆ  3,685  2,119 x1  0,918 x2  1,342 x12  0,356 x22  0,528 x1 x2
Sujeito a :
xT x  1,414
x 
2
(13)
74
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 4.ArranjoComposto Central
Unidades Codificadas Unidades Decodificadas
n
Y
x1
x2
X1
X2
1
-1
-1
1000
60
8,780
2
1
-1
3000
60
3,880
3
-1
1
1000
120
5,700
4
1
1
3000
120
2,910
5
-1,41421
0
585,79
90
9,707
6
1,41421
0
3414,21
90
3,160
7
0
-1,41421
2000
47,574
5,624
8
0
1,41421
2000
132,426
3,297
9
0
0
2000
90
3,608
10
0
0
2000
90
3,806
11
0
0
2000
90
3,330
12
0
0
2000
90
3,827
13
0
0
2000
90
3,852
75
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 5. Anova CCD.
Termo
Coef
Se Coef
T
P
Constante
3,749
0,1764
21,257
0,0000
Bloco
-0,065
0,1094
-0,592
0,5760
Rotação
-2,118
0,1094
-19,368
0,0000
-0,917
0,1094
-8,389
0,0000
Rotação2
1,309
0,1294
10,119
0,0000
Tempo2
0,323
0,1294
2,497
0,0470
Rotação x Tempo
0,527
0,1547
3,410
0,0140
Constante
3,685
0,1318
27,958
0,0000
Rotação
-2,119
0,1042
-20,335
0,0000
Tempo
-0,918
0,1042
-8,807
0,0000
Rotação2
1,342
0,1117
12,012
0,0000
Tempo2
0,356
0,1117
3,182
0,0150
Rotação X Tempo
0,528
0,1473
3,580
0,0090
Com Blocos Tempo
Sem Blocos
Fonte
df
Seq SS
Regressão
5
56,5175
56,5175 11,3035 130,16
0,000
Linear
2
42,6440
42,6440 21,3220 245,53
0,000
Quadrático
2
12,7605
12,7605
6,3802
73,47
0,000
Interação
1
1,1130
1,1130
1,1130
12,82
0,009
Erro Residual
7
0,6079
0,6079
0,0868
Falta de Ajuste
3
0,4132
0,4132
0,1377
2,83
0,170
Erro Puro
4
0,1946
0,1946
0,0487
12
57,1254
Total
AdjSs
MS
F
P
Aplicando-se o algoritmo GRG ao modelo de otimização descrito pela Eq. (13),
obtém-se como ponto de ótimo, em unidades codificadas, [0,627; 0,825], o que
representa uma rotação de 2627 rpm e um tempo de agitação de 115 s, empregando-se a
Eq. (12).
76
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
A homogeneização das amostras realizada com estes parâmetros mínimos
concorrerá para um erro mínimo de amostragem.
5. CONCLUSÕES
Este trabalho demonstrou a utilização da metodologia de projeto de experimentos
para a seleção dos parâmetros significativos de homogeneização de emulsões, bem
como sua interação com métodos de otimização não-linear com restrições.
Acredita-se que o ponto ótimo não seja somente um ponto de mínimo para a
variável dependente (Coeficiente de Variação), mas também, um ponto a partir do qual
o Coeficiente de Variação do diâmetro característico das gotas de água na matriz de
petróleo não sofra reduções substanciais com o aumento da energia de agitação. Assim,
toda análise feita com emulsões homogeneizadas com estes parâmetros mínimos,
concorrerá para um erro mínimo na determinação da concentração.
6. REFERÊNCIAS
Lasdon, L. S., Waren, A. D., Jain, A., Ratner, M., 1978, ―Design and Testing of a
Generalized Reduced Gradient Code for Nonlinear Programming‖, ACM Transactions
on Mathematical Software, Vol. 4, No. 1, pp. 34-50.
Montgomery, D. C., 2001, ―Design and Analysis of Experiments‖, 5ª ed., Wiley, New
York, 699p.
Pal, R., 1999, ―Techniques for measuring the composition (oil and water content) of
emulsion – a state of the art review‖, Colloids and Surfaces A: Physicochemical and
Engineering Aspects, Vol. 84, pp. 141-193.
77
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Salager, J. L., 1993, ―Emulsionacion. Cuaderno FIRP 232. Modulo de Enseñanza en
Fenómenos Interfaciales‖. Facultad de Ingenieria. Universidad de Los Andes. Mérida.
Venezuela.1993.
78
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
ESTUDO DA MINIMIZAÇÃO DE ERRO NAS MEDIÇÕES DE
CONCENTRAÇÃO DE EMULSÕES POR TITULAÇÃO KARLFISCHER UTILIZANDO-SE PROJETO DE EXPERIMENTOS
Anderson Paulo de Paiva
[email protected]
José Henrique de Freitas Gomes
[email protected]
Pedro Paulo Balestrassi
[email protected]
Pedro José Papandréa
[email protected]
Natalia de Cassia Moreira
[email protected]
Resumo. O objetivo principal deste trabalho é estudar a eficiência da titulação
Karl-Fischer como procedimento de medição de concentração de emulsões do tipo
água em óleo (petróleo), bem como avaliar o melhor conjunto de parâmetros e
respectivos níveis de funcionamento do equipamento de medição de concentração. Tal
determinação pressupõe a identificação dos fatores que minimizem o erro de medição
do equipamento e do processo.
Palavras-chave: Titulação Karl-Fischer, DOE, Emulsões W/O.
1. INTRODUÇÃO
A medida de determinação do conteúdo de água existente no petróleo é muito
importante, tanto para a indústria petrolífera quanto para outras aplicações, como
alimentos, medicamentos, etc. Entretanto, uma questão peculiar a ser respondida é sobre
79
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
a exatidão do método de Titulação Karl-Fischer, quando utilizado para determinação da
concentração das emulsões de petróleo.
Através da Metodologia de Projeto de Experimentos (DOE) e a análise de
incerteza em medições, procurou-se estudar os fatores que possivelmente contribuiriam
para a obtenção de uma medida mais confiável de concentração, bem como seus níveis
ótimos.
O objetivo principal deste trabalho é, portanto, estudar a eficiência da titulação
Karl-Fischer como procedimento de medição de concentração de emulsões do tipo água
em óleo (petróleo), bem como avaliar o melhor conjunto de parâmetros e respectivos
níveis de funcionamento do equipamento de medição de concentração. Tal
determinação pressupõe a identificação dos fatores que minimizem o erro de medição
do processo.
Por que o processo de medição de concentrações em emulsões de petróleo é
importante?
Existem muitas razões que justificam a necessidade de se identificar o teor de
água presente nos óleos, mas especificamente, no petróleo. O petróleo é uma commodity
e como tal, necessita de uma medida de garantia da sua qualidade. A concentração de
água é uma delas. Uma medição precisa do teor de água no óleo é uma maneira
preventiva de se evitar o pagamento de água como se fosse petróleo. Além disso, a
presença de altos teores de água (0,5%) em derivados de petróleo tais como os
lubrificantes, pode ser danosa a equipamentos e veículos que deles se utilizem (Pal,
1993), provocando e acelerando o processo de corrosão de tanques e tubulações.
2. MEDIÇÃO DE CONCENTRAÇÃO
O Karl-Fischer Columétrico é um equipamento utilizado para a medição de
concentração de água em misturas, e, não especificamente emulsões de petróleo.
Segundo o manual do equipamento utilizado na pesquisa, a sua calibração é feita com
uma solução de 1 mg de água em Metanol, apresentando como medida de
reprodutividade um coeficiente de variação para as medições de concentração abaixo de
0,3%; entretanto, não se sabe qual é o grau de repetitividade ou a reprodutividade
80
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
fornecido pelo equipamento quando a substância analisada for uma emulsão de petróleo.
A pergunta principal que se deseja responder com este trabalho é se existe um erro
(típico) na medição de concentração de emulsões de petróleo quando se emprega o
método de análise por titulação Karl-Fischer. Se existir, é possível minimizálo?Acredita-se que a metodologia de Projeto de Experimentos possa colaborar para a
identificação de parâmetros que melhorem o desempenho deste procedimento de
medição.
Uma prática muito difundida é a homogeneização das amostras de emulsão de
petróleo através do excesso de trituração. Contudo, este procedimento pode causar uma
excessiva redução do tamanho das gotas de água presentes na matriz de petróleo. Dessa
forma, é possível que a Distribuição do Tamanho de Gota (DTG) influencie a exatidão e
a precisão das medidas de concentração de água em petróleo. O objeto de estudo desta
pesquisa é uma emulsão do tipo água em óleo (W/O). Todo o petróleo utilizado nos
experimentos é óleo cru, ºAPI 20,6.
2.1 TITULAÇÃO KARL-FISCHER
O método de Titulação Karl-Fischer tem sido utilizado com sucesso para a
medição de concentração de água em uma amplitude que vai desde algumas partes por
milhão até teores relativamente altos (Pal, 1993). Neste método, a amostra da emulsão
é dissolvida em Metanol anidro e é titrada com o reagente Karl-Fischer, formado por
uma mistura de Iodina, Dióxido de Enxofre, Piridina e Metanol anidro. A Iodina
presente reage com a água, consumindo-a completamente.
Na titulação columétrica, que será utilizada pela presente pesquisa, a Iodina é
gerada eletroliticamente na Câmara Catódica, que contém o íon de Iodo. Enquanto
houver água presente no vaso de titulação, Iodina será gerada. Tão logo toda a água
tenha reagido, um pequeno excesso de Iodina aparecerá na Câmara Anódica. Este
excesso é detectado por um eletrodo duplo de platina (fig. (1)) e a produção de Iodina é,
então, interrompida. Segundo a Lei de Faraday, a quantidade de Iodina produzida é
proporcional à corrente elétrica gerada. I2 e H2O reagem na proporção de 1 para 1.
Portanto, 1 mol de água (18 g) é equivalente a 2 x 96.500 coulombs, ou 10,72
81
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
coulombs/1 mg de água. A quantidade total de água presente é, então, determinada
medindo-se o consumo total energia elétrica.
Figura 1. Representação do processo Titulação Karl-Fischer Columétrico.
A figura (1) é uma representação esquemática do equipamento de titulação
presente em muitos modelos de aparelhos de Titulação Karl-Fischer Columétrico. O
septo é o orifício através do qual se introduz a amostra. Tal amostra passa pelo septo
pela ação de uma seringa que contém a amostra coletada. Os tubos de secagem são
recipientes nos quais se mantém certa quantidade de sílica utilizada para absorver os
vapores de água que porventura existam no interior do vaso de titulação. Sem este
componente, o vapor de água poderia condensar-se e cair dentro da câmara anódica,
aumentando o teor de água da amostra injetada e causando um erro de leitura. Para
aumentar a precisão das leituras, equipamentos modernos de Titulação Karl-Fischer
dispõem de procedimentos de pré-titulação. Esta função permite que a água presente no
vaso de titulação seja consumida, antes que a amostra seja injetada. A câmara do Catodo
é a parte do vaso de titulação que comporta os reagentes que geram a Iodina. O Anodo é
a parte do vaso no qual ocorre a reação de consumo da água pela Iodina. Uma barra de
agitação mantém os reagentes armazenados na Câmara do Anodo em constante
movimentação, para dificultar a impregnação de asfaltenos nas paredes do vaso. Um
82
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
diafragma no fundo da Câmara do Catado permite a passagem da Iodina gerada para
reagir com a água da amostra que é disposta no Anolyte.
3. PROCEDIMENTO EXPERIMENTAL
O objetivo deste trabalho é encontrar os parâmetros de funcionamento do
equipamento de Titulação por Karl-Fischer (Karl-Fischer Columétrico DL37
METTLER TOLEDO), e seus níveis, que proporcionem a maior eficiência de leitura. A
eficiência de leitura é medida através da comparação entre a concentração gerada e a
concentração fornecida pelo Karl-Fischer. Quanto menor for esta diferença, tanto
melhor.
De acordo com Montgomery (2001), para se estudar a influência dos parâmetros
de titulação na minimização de erros de leitura, será adotado um fatorial completo 24
com 2 réplicas, de acordo com o disposto na tab. (1).
Tabela 1. Parâmetros e Níveis utilizados.
Fator
Símbolo
Nível (-1)
Nível (+1)
A: (2627 rpm, por 115
B: (15.000 rpm, por 240
s)
s)
Procedimento
X1
Taxa Final de Titulação
X2
0,1 g de água
0,5 g de água
X3
3 g/s
7 g/s
X4
2 gotas
20 gotas
Taxa
de
Geração
Iodina
Volume da Amostra
de
Se ficar evidenciado que fatores qualitativos são significativos no processo de
medição de concentração, só será possível a determinação de um modelo de regressão
de primeira ordem para a a análise.
83
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
3.1 Taxa Final de Titulação e Taxa de Geração de Iodina
De acordo com o Manual para o Karl-Fischer Columétrico DL37 METTLER
TOLEDO (1999), a Taxa Final de Titulação (X2) é a taxa de consumo de água (em
g/s), parâmetro que pode ser fixado como fim da operação de Titulação. Quando se
atinge este valor o equipamento interrompe o fornecimento de energia e o
conseqüentefuncionamento da célula de geração de Iodina. Por exemplo, quando a Taxa
Final de Titulação de uma operação for fixada em 0,3 g/s, significa que quando o
sensor duplo de platina (figura 1) detectar um consumo 0,3 g de água por segundo,
interromperá a titulação. Quanto menor for o valor deste parâmetro, mais tempo será
gasto para se completar a titulação.
A Taxa de Geração de Iodina (X2) define a geração de Iodina. Os valores podem
ser ajustados de 0 a 9; no valor 0 nenhuma Iodina é gerada enquanto que no valor 9,
ocorre máxima geração de Iodina. Os níveis baixos conduzem a tempos de titulação
menores. Com altos valores, a produção de Iodina será muito rápida e o tempo de
titulação muito curto, podendo causar o que se denomina Over-titration.
3.2 Procedimentos de Geração de Emulsão
Para se avaliar o erro de medição do processo de titulação, dois procedimentos
de homogeneização serão adotados para se gerar as emulsões de concentração
conhecidas. O ―Procedimento A‖ utilizará como parâmetros uma rotação de 2627 rpm e
um tempo de agitação de 115 s. Como esta pesquisa se propõe a avaliar a eficiência do
equipamento de titulação Karl-Fischer na medição de concentrações de emulsões de
petróleo, será realizado um estudo da incerteza de medição proveniente da geração. Isto
é necessário para se evitar que se transfira um erro da geração da emulsão para a leitura
do equipamento.
Em contraposição a este procedimento calculado, será utilizada a super-trituração
das amostras, doravante denominado ―Procedimento B‖ e a homogeneização da mistura
água e óleo (petróleo) consistirá em triturar a mistura por 240 segundos, utilizando-se
rotações da ordem de 15.000 rpm.
84
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
3.3 Incerteza Padrão Combinada e Expandida
Como se deseja avaliar a magnitude dos erros de medição de concentrações é
necessário previamente se avaliar a incerteza associada à geração das emulsões,
evitando-se transferir para o processo um erro associado às pesagens das massas de
água e óleo. Como a concentração é uma razão entre massas, sua incerteza deve ser o
resultado das incertezas das parcelas da razão combinadas. De acordo com Paiva
(2008), a Incerteza Padrão Combinada de várias fontes de variação, pode ser dada por:
2
n
 f  2
2
u ( y )     u ( xi )  ci u ( xi )   ui2 ( y )
i 1  xi 
i 1
n
2
c
(1)
A concentração (C) de cada uma das i emulsões geradas, pode ser definida como:
Ci 
MA
( MA  MO)
(2)
O procedimento de geração de emulsões é realizado adicionando-se duas massas
calculadas: uma de água e outra de petróleo.
Procurou-se gerar emulsões de concentração aproximadamente igual a 20%;
todavia, massas diferentes de água e óleo foram utilizadas em sua construção. Isto torna
cada uma das 32 emulsões geradas nesta fase, amostras independentes, ou seja, cada
uma delas terá sua própria incerteza padrão (combinada e expandida). Como as
medições das massas de cada uma das 32 emulsões não foram repetidas, não é possível
avaliar fontes de incerteza do tipo ―A‖, uma vez que não há como se calcular desviopadrão amostral s. Assim, só existe um tipo de incerteza neste procedimento: a Incerteza
do Tipo ―B‖ expressa neste caso pela resolução de cada uma das duas balanças
utilizadas para se pesar a água e óleo. A resolução de um instrumento de medição segue
uma distribuição de probabilidades Retangular, cujo divisor é
3.
85
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Assim, considerando-se as equações (2) e (3), pode-se escrever a incerteza padrão
combinada para a concentração das emulsões como:
s
 Ci
  Ci

uc2 ( y )  
.uMA   
.uMO  
n
 MA
  MO

2
2
(3)
A resolução da balança analítica de 0,0001 g e da balança de 600g, 0,1 g.
Aplicando-se a eq. (3) a cada experimento, pode-se calcular a incerteza Padrão
Combinada e Expandida para o procedimento ―A‖. Para o procedimento B, o cálculo é
quase análogo ao utilizado no processo A, salvo algumas particularidades.
Uma vez analisada a incerteza de medição presente na construção das emulsões,
pode-se, então, avaliar os resultados das leituras feitas com o fatorial completo. A tabela
2 a seguir descreve o fatorial completo adotado. A resposta indicada é o ERRO,
definido como a diferença entre o valor da concentração gerada e o resultado fornecido
pelo Karl-Fischer.
Tabela 2. Fatorial Completo para a Concentração Medida de Água em Óleo.
n
x1
x2
x3
x4
R1
U x 10-5
R2
U x 10-5
1
3
0,1
2
A
2,14388
3,88
2,5227
3,51
2
7
0,1
2
A
6,489
4,12
6,15
3,32
3
3
0,5
2
A
1,65404
4,04
1,30987
3,47
4
7
0,5
2
A
7,335
4,31
7,20317
3,5
5
3
0,1
20
A
1,71279
3,79
1,7928
3,43
6
7
0,1
20
A
1,86486
3,86
1,85502
3,51
7
3
0,5
20
A
1,74518
4,18
1,89121
3,59
8
7
0,5
20
A
3,805
3,62
4,2456
3,34
9
3
0,1
2
B
1,91151
3,7
1,76757
3,57
10
7
0,1
2
B
3,09832
4,13
3,17956
3,56
11
3
0,5
2
B
1,54347
3,87
1,63544
3,44
86
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
12
7
0,5
2
B
3,2125
4,17
3,21237
3,37
13
3
0,1
20
B
1,51743
3,8
1,09672
3,72
14
7
0,1
20
B
3,56051
4,02
3,471
3,39
15
3
0,5
20
B
1,80059
4,21
1,49489
2,89
16
7
0,5
20
B
2,31434
3,94
2,54714
3,14
Conforme se observa na tab. (2), a incerteza de medição para cada medida de
concentração assume valores muito pequenos quando comparados às diferenças entre a
concentração gerada e a concentração identificada pelo Karl-Fischer (Tabela 2). Como a
incerteza expandida é extremamente pequena para os dois procedimentos, será feita a
análise apenas do erro. Desse modo, pode-se afirmar que a diferença ocorrida na leitura
deve-se aos parâmetros adotados para o equipamento e não ao procedimento de geração
das emulsões. A análise do DOE indicará assim que parâmetros e níveis podem
minimizar esta diferença.
Tabela 3. Análise de Efeitos Principais e Interações da Medição de Concentração
da Emulsão.
TERMO
EFEITO
Constante
COEF
SE COEF
T
P
2,8454
0,03101
91,79
0,0000
Iodina
2,2502
1,1251
0,03101
36,28
0,0000
TFT
0,175
0,088
0,03101
2,84
0,0120
Volume
-1,1033
-0,5517
0,03101
-17,79
0,0000
Procedimento
-1,0223
-0,5111
0,03101
-16,48
0,0000
Iodina x TFT
0,3498
0,1749
0,03101
5,64
0,0000
Iodina x Volume
-0,9237
-0,4619
0,03101
-14,89
0,0000
Iodina x Procedimento
-0,7717
-0,3858
0,03101
-12,44
0,0000
TFT x Volume
0,1956
0,0978
0,03101
3,15
0,0050
TFT x Procedimento
-0,4062
-0,2031
0,03101
-6,55
0,0000
Volume x Procedimento
0,8836
0,4418
0,03101
14,25
0,0000
87
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Iodina x TFT x Volume
-0,1813
-0,0906
0,03101
-2,92
0,0100
Iodina x TFT x Procedimento
-0,5254
-0,3127
0,03101
-10,08
0,0000
0,941
0,4705
0,03101
15,17
0,0000
TFT x Volume x Procedimento
-0,3375
0,1688
0,03101
-5,44
0,0000
Iodina x TFT x Volume x Procedimento
-0,256
-0,128
0,03101
-4,13
0,0010
Iodina x Volume x Procedimento
Analisando-se os resultados na análise estatística contemplada nas tabelas 6.14 e
6.15, referentes às respostas ―Erro‖ (R1 e R2) , conclui-se que todos os quatro fatores
(Taxa de geração de Iodina, Taxa Final de Titulação, Volume da amostra e Tipo de
Procedimento) são significativos, uma vez que seus P-Values são menores que o nível
de significância adotado (0,05). Além deles, a maioria das interações são também
significativas. A maioria das interações também segue esta mesma tendência.
Tabela 4. ANOVA Concentração (Unidades Codificadas).
FONTE
DF
SEQ SS ADJ SS
MS
F
P
Efeitos Principais
4
58,8547 58,8547 14,7137
478,18
0,0000
Interações 2a.Ordem
5
20,4412 20,4412
3,4069
110,72
0,0000
Interações 3a.Ordem
4
11,3876 11,3876
2,8469
92,52
0,0000
Interações 4a.Ordem
1
0,5244
0,5244
0,5244
17,04
0,0010
Erro Residual
16
0,4923
0,4923
0,0308
Erro Puro
16
0,4923
0,4923
0,0308
Total
31
91,7003
A figura 3 representa o gráfico fatorial para os quatro parâmetros da Titulação
Karl-Fischer. Verifica-se que a condição que minimiza o erro de leitura da concentração
é encontrada aplicando-se o procedimento de homogeneização B (supertrituração), com
volume de 20 gotas, taxa de geração de Iodina de 3 e Taxa Final de Titulação de 0,1
g/s de água. Este resultado, em primeira instância, refuta a utilização do procedimento
de homogeneização A.. Segundo a literatura, poderia se supor que a supertrituração
fosse eficiente no processo de homogeneização das emulsões. A dúvida em questão era
88
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
se a considerável redução do tamanho das gotas de água não seria prejudicial à sua
identificação pelo aparelho de titulação. Em outras palavras, o sistema Karl-Fischer
seria sensível à presença de gotas muito pequenas? O sistema seria capaz de identificar
gotas minúsculas dentro da matriz de petróleo e com elas estabelecer a reação? Isto
parece ter sido comprovado, uma vez que o erro de leitura obtido com a supertrituração
é inferior ao procedimento A.
I
4,0
TFT
3,5
3,0
2,5
2,0
3
7
0,1
V
4,0
0,5
P
3,5
3,0
2,5
2,0
2
20
A
B
Figura 3. Gráficos Fatoriais para a resposta Erro de Medição.
Nota-se ainda que o volume de 20 gotas é muito mais representativo do que o
volume de 2 gotas uma vez que produz um erro de leitura bem menor. Em combinação
com os demais fatores, a taxa de geração de Iodina de 3 e Taxa Final de Titulação de 0,1
g/s de água são os níveis que minimizam a diferença entre a concentração lida e a
gerada. Isto faz muito sentido. Uma taxa de geração de Iodina menor (3 ao invés de 7)
permite que a reação ocorra de maneira mais organizada, ou seja, a taxa na qual Iodina
entra em contato com a amostra é compatível com tempo necessário para a reação. Isto
serve para se explicar a super-titulação, que representa o excesso de Iodina gerada que
89
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
não encontra mais água para reagir, causando o desperdício de um reagente
consideravelmente caro.
Uma Taxa Final de Titulação de 0,1 g/s de água também é um valor razoável.
Conforme já explicado no capítulo 5, a Taxa Final de Titulação é a velocidade final com
que o Karl-Fischer detecta a água presente, interrompendo o processo. Se este valor não
for fixado, ou se for fixado em um parâmetro muito baixo, o sistema funcionaria
indefinidamente, procurando gotas infinitesimais e que poucos alterariam a leitura final
da concentração. Assim, quando o sistema começa a identificar a água à taxa de 0,1
g/s, considera-se que toda a água presente já tenha reagido. Este valor é evidentemente
melhor do que 0,5, porque, assim como a taxa de geração de Iodina, permite que a
reação ocorra de maneira mais eficiente, ou seja, uma Taxa Final de Titulação menor
aumenta o tempo da reação, proporcionando à Iodina condições de reagir
adequadamente com a água. Parece claro que a interação entre a Taxa de geração de
Iodina e a Taxa Final de Titulação é forte.
O estudo das interações revela conclusões muito interessantes. Quando se avalia,
por exemplo, a interação entre o volume e o procedimento (Figura 4), nota-se
claramente, que quando se utiliza um volume de 20 gotas, os procedimentos A e B são
equivalentes quanto ao valor lido pelo Karl-Fischer. Ou seja, para volumes pequenos (2
gotas) o procedimento A não é eficaz, mas quando a amostra é maior (20 gotas), podese utilizá-lo. Percebe-se nitidamente, que em nenhuma combinação de fatores
(Interação) a taxa de geração de Iodina de 7 g/s apresenta leituras menores do que com
3 g/s, confirmando o já exposto anteriormente.
90
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
0,1
0,5
2
20
A
B
5,0
I
3
7
3,5
I
2,0
5,0
TFT
0,1
0,5
3,5
TFT
2,0
5,0
V
2
20
3,5
V
2,0
P
Figura 4. Gráfico das Interações entre os fatores.
O mesmo se aplica à taxa final de titulação, aonde a utilização de 0,5 g de água
nunca conduz a uma leitura menor do que quando se utiliza 0,1 g. Considerando-se a
interação Volume versus Procedimento demonstrado na fig. (4), propõe-se analisar
apenas as respostas para o Volume de 20 gotas.
Desse modo, se para este volume, os procedimentos forem comprovadamente
equivalentes, pode-se recomendar o procedimento A como método alternativo de
homogeneização, fixando em 20 gotas o tamanho adequado da amostra necessária.
Tabela 5. ANOVA para os Efeitos Principais - Volume 20 gotas.
TERMO
EFEITO
Constante
COEF
SE COEF
T
P
2,2777
0,05139
44,32
0,000
Iodina
1,2925
0,6463
0,05139
12,57
0,000
Taxa Final de Titulação
0,4055
0,2028
0,05139
3,95
0,004
Procedimento
-0,1727
-0,0863
0,05139
-1,68
0,132
91
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
O que se pode notar na Tabela 5 é que, quando comparados os parâmetros da
Titulação Karl-Fischer apenas para o volume de 20 gotas, os procedimentos A e B são
estatisticamente iguais. Uma vez que a diferença entre os volumes não é substancial,
considerando-se o volume total da amostra (aproximadamente 300 ml de emulsão),
pode-se dizer que o processo obtido através da Metodologia de Projeto de Experimentos
representa as condições mínimas a partir das quais se pode medir a concentração de
emulsões, com um mínimo erro.
A figura 5 mostra que, uma vez fixado o procedimento A, a diferença entre a
leitura real e a leitura indicada pelo Karl-Fischer cai consideravelmente, quando são
adotados os níveis ótimos para Iodina e Taxa final de titulação.
0,5
2,1
2,7
Hold Values
PROCED A
3,3
3,6
0,4
TFT
3,0
0,3
2,4
0,2
0,1
1,8
3
4
5
IODINA
6
7
Figura 5. Gráfico de contorno da superfície de resposta para o erro (Volume de
20gotas).
Conclui-se, portanto, que além dos procedimentos A e B serem estatisticamente
iguais, mantém-se para o volume de 20 gotas as mesmas considerações feitas para o
volume de 2 gotas.
92
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Pode-se observar nesta fase que as diferenças entre as concentrações lidas e as
geradas foram todas positivas, o que pode sugerir a existência de um erro sistemático no
equipamento. Porém, se este erro sistemático for de até 1,1% (que coincide com o
mínimo valor encontrado no DOE) os resultados obtidos se mantém, considerando-se
ainda que todas as diferenças continuam positivas. Simulando para valores maiores,
verifica-se que para um erro sistemático de até 2,8% os níveis ótimos obtidos na análise
precedente se mantêm mais próximos de ZERO (resposta ótima) do que os seus
complementares fatoriais, embora as diferenças passem a ser tanto positivas quanto
negativas. Se este erro sistemático, porém, for maior que 2,8%, a análise se inverte, e
neste caso, faz-se necessário um estudo complementar.
4. CONCLUSÃO
O objetivo principal deste trabalho de dissertação era investigar e determinar os
níveis dos parâmetros do equipamento de Titulação Karl-Fischer que fossem capazes de
minimizar a diferença entre o valor real da concentração de uma emulsão gerada e a
leitura indicada pelo equipamento. É bem verdade, que no princípio não se sabia se esta
diferença ou erro existia. De acordo com os resultados expostos no capítulo 6, pode-se
afirmar que quando se utilizou uma taxa de geração de Iodina baixa (nível 3), com uma
Taxa Final de Titulação pequena (0,1 g/s de água), um volume de 20 gotas de amostra
da emulsão homogeneizada pelo procedimento B (Super Trituração), a diferença (ou
erro) entre a concentração real e a concentração identificada pelo Karl-Fischer não
superou 1,10%, ao passo que, utilizando-se os níveis opostos (Taxa de geração de
Iodina de 7, Taxa Final de Titulação de 0,5 g/s; volume de 2 gotas de emulsão,
homogeneizada pelo procedimento A) este erro chega a 7,33%, praticamente sete vezes
mais. Estes resultados estatísticos demonstram uma muito grande com a realidade física
do fenômeno estudado. Observando-se os valores dos parâmetros em questão nota-se
que, por exemplo, utilizando-se uma taxa de geração de Iodina e uma Taxa Final de
Titulação mais baixos, a reação ocorre melhor porque há mais tempo para que ela se
concretize. Associado a um volume mais representativo (20 gotas), de uma emulsão
93
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
melhor homogeneizada (Procedimento B – Supertrituração), o equipamento produz uma
leitura mais próxima do real. Portanto, o objetivo principal de descobrir níveis ótimos
para os parâmetros de titulação foi atingido, bem como verificada a proposição 2 (item
1.7, pg.7); entretanto, quando se comparam os dois procedimentos de homogeneização,
o calculado através do DOE da FASE 1 e o processo de super trituração, pode-se
afirmar, dentro de um nível de significância estatística de 5%, que os procedimentos são
semelhantes. Desse modo, pode-se recomendar uma rotação de 2627 RPM e um tempo
de agitação de 114 segundos como parâmetros mínimos de homogeneização de uma
amostra de emulsão W/O para análise por titulação em Karl-Fischer Columétrico.
Portanto, foi também atingido um dos objetivos secundários deste trabalho: o de
encontrar um procedimento alternativo à super trituração da amostra. Ainda relativo a
este aspecto, pode-se afirmar, dentro de um nível de significância estatística de 5%, que
um volume maior de amostra (cerca de 20 gotas) é mais representativo do que um
volume menor (2 gotas) no caso de emulsões de petróleo.
Uma das proposições iniciais do estudo assinalava que um diâmetro de gota (de
água) muito pequeno poderia concorrer para o aumento da ineficiência do KARLFISCHER, o que seria explicado pelo o aumento da dificuldade encontrada pelo
equipamento em detectar gotas muito pequenas de água na amostra de emulsão W/O.
Isto, na verdade, foi refutado. Dentro do âmbito deste trabalho, não se pode afirmar que
uma redução significativa no tamanho de gota interfira no resultado da medição.
Em acordo com a proposição 1 (item 1.7), pode-se avaliar que a homogeneização
da amostra realmente concorre para um adequado processo de medição de concentração
de emulsões W/O. Através da aplicação do DOE da FASE 1, foi possível constatar que,
para a amplitude adotada (10 a 20% de água em petróleo), a concentração não é um
fator significativo para a homogeneização. Talvez este resultado não se mantenha para
outros valores, uma vez que os resultados da Metodologia de Projeto de Experimentos
só valem para um intervalo determinado. O mesmo se pode concluir acerca da
temperatura. Na amplitude adotada (20 a 40 ºC), não se observou influência
significativa deste fator. Talvez, com temperaturas mais elevadas, este resultado esteja
comprometido, principalmente no que tange à evaporação dos componentes da emulsão.
94
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
REFERÊNCIAS
MONTGOMERY,D.C.DesignsandAnalysisofExperiments.JohnWiley&Sons,4ed,
2001.
Pal, R., 1999, Techniques for measuring the composition (oil and water content) of
emulsion – a state of the art review, Colloids and Surfaces A: Physicochemical and
Engineering Aspects, Vol. 84, pp. 141-193.
PAIVA, E. J.,Otimização de processos de manufatura com múltiplas respostas
baseada em índices de capacidade. 119 p. Dissertação (Mestrado em Engenharia
deProdução) – Instituto de Engenharia de Produção e Gestão, Universidade Federal de
Itajubá, Itajubá, 2008.
95
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
RISCO: MEDIDAS DE RISCO, AVERSÃO E SEU
GERENCIAMENTO
Pedro José Papandréa
[email protected]
Rafael Coradi Leme
[email protected]
Catarine Conceição Moura Tenório
[email protected]
Para referência: Papandrea P.J., Leme R.C., Tenório C.C.M., 2013. MEDIDAS DE RISCO, AVERSÃO E SEU GERENCIAMENTO.
Resumo:
Para um investidor, o risco é a variável que pode ser mais importante na escolha de um
investimento, seja ele financeiro, físico ou em qualquer outro campo econômico. A
fundamentação teórica é a base para que haja o conhecimento das medidas de risco,
conceito de aversão ao risco e utilidade e o gerenciamento, além de possibilitar o
conhecimento de técnicas para redução do risco pela aplicação de portfólios. O objetivo
é expor ao investidor as variáveis que afetarão as suas decisões e os cálculos que pode
ser feitos para a mensuração destas variáveis.
Palavras-Chave: Risco, Medição, Aversão, Gerenciamento.
1. INTRODUÇÃO
As medidas de risco são indicadores que contribuem para a tomada de decisão,
principalmente quanto a investimentos.Para essa avaliação o horizonte de tempo é
importante. Em Lien et al. (2007) as decisões de gestão têm um longo horizonte de
tempo com risco significativo. Normalmente, o horizonte de tempo para esse tipo de
investimento, por exemplo, florestal, é de 50-120 anos, envolvendo uma considerável
incerteza sobre uma eventual produção e preços. Por outro lado há a aversão ao risco do
investidor. O efeito da aversão ao risco pode se analisado como uma decisão tática, ou
96
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
seja, investir agora ou esperar, ou a nível mais estratégico de uma decisão. Lambert
(1972) diz que a probabilidade de sucesso de um evento arriscado utilizados em
experimentos sobre comparação entre riscos assumidos pelos individualmente e em
grupos terá um impacto sobre as conclusões relativas ao risco da transação.
As métricas de risco podem então serem expressas em funções probabilísticas
dadas pelos eventos relativo sendo 1/ com base em uma melhoria na homogeneidade da
variância:
(1.1)
Na realidade, o problema subjacente é muito mais importante e envolve
determinar quais valores relativos, tais valores se atribuem para as diferentes
probabilidades sugeridas para eles.
2. ORIGEM DAS MEDIDAS DE RISCO
Na pré-época Markowitz, risco financeiro foi considerado como um fator de
correção de retorno esperado e risco ajustado dos retornos. Foram definidos numa base
para esta finalidade. Estas medidas primitivas tinham a vantagem de permitir uma
imediata ordem preferencial de todos os investimentos.
Markowitz (1952) propôs medir o risco associado ao retorno de cada
investimento, com uso de um desvio da média da distribuição, retorno a variância, e no
caso de uma combinação (portfólio) de ativos, a fim de avaliar o nível de risco pela
covariância entre todos os pares de investimentos, já que a covariância é medida 2 a 2:
(2.1)
Na qual X e Y são retornos aleatórios.
Temos que lembrar que o modelo de Markowitz é relacionado com as funções de
utilidade, que permitemuma ordenação nos investimentos comas suas combinações. No
caso de não normal, embora as distribuições sejam simétricas, as funções de utilidade
devem ser quadráticas. Na prática, essa limitação restringe o uso deste modelo de
carteiras caracterizadas por conjuntos de regressão da distribuição normal, por exemplo,
97
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
para o caso em que o retorno de todos os ativos, bem como a sua estrutura de
dependência seja normal (Szegö G., 2005).
Em teoria econômica, denomina-se utilidade, a propriedade que os produtos
tangíveis e serviços têm de satisfazer as necessidades e desejos humanos. Os objetos
que têm utilidade são considerados bens, do ponto-de-vista econômico. A caracterização
dos bens como econômicos, requer também que os mesmos sejam escassos, isso é:
estejam disponíveis em quantidades limitadas.
Recentemente, a classe de variáveis aleatórias cuja correlação é linear pode ser
usada como uma medida de dependência que foi totalmente identificada. Essa é a classe
de caracterizados por distribuições elípticas e tem a propriedade de que as suas
superfícies são de equidensidades elipsoides. Assim, o modelo de Markowitz é
adequado apenas para o caso de distribuições elípticas, como normal ou distribuição t
com variâncias finitas. Note-se que distribuições simétricas não são necessariamente
elípticas. O coeficiente de correlação linear, se utilizado no caso de distribuições não
elípticas, pode conduzir a resultados incorretos (Szegö G., 2005).
Szegö G. (2005) finalmente, destaca historicamente:Nos anos 60 o conceito de
(volatilidade) foi introduzido. Este desenvolvimento foi motivado pela falta de recursos
computacionais. A complexidade da abordagem de média-variância foi considerada
muito alta. Depois de quase 40 anos e o progresso gigantesco dos computadores, este
não é mais o caso. A segunda motivação para a introdução do
baseado em métodos de
portfólio foram os dados insuficientes para calcular a matriz de variância-covariância:
como de fato, o número de dados deve ser de pelo menos duas vezes o número de
ativos, hoje em dia as técnicas de bootstrapping permitem contornar este problema e os
s são quase abandonados na carteira em favor da função completa dos modelos de
variância-covariância.
O nome bootstrap é uma referência à história do Barão Von Münchhausee, o qual
se livrou de um pântano por seus próprios esforços, fazendo alusão pelo método ser uma
reamos-tragem gerada a partir dos próprios dados de uma amostra. Usando técnicas
clássicas, não é fácil obter erros padrão ou intervalos de confiança para os parâmetros
de uma série. Usando o bootstrap, no entanto, eles são facilmente encontrados. São
criadas novas amostras, a partir de um conjunto de dados originais, por reamostragem
98
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
dos dados com reposição de valores. Ao realizar este procedimento de reamostragem
muitas vezes, uma boa estimativa pode ser obtida da distribuição das estatísticas de
interesse. Tais distribuições podem ser vistas como uma aproximação às verdadeiras
distribuições dos estimadores e, portanto, estatísticas de interesse, (WEHRENS, 2000).
É importante entender as diferenças entre o risco sistemático e o risco não
sistemático. O risco não sistemático é o risco do portfólio em si, e será considerado
neste trabalho, enquanto que o risco não sistemático, não diversificável ou risco de
mercado é aquele relacionado às flutuações do sistema econômico como um todo e não
é abordado na teoria de portfólio.
3. MEDIÇÃO DO RISCO
Uma medida de risco designa um número real de uma variável aleatória.Costa e
Araújo (2008) utilizaram o trabalho de Li e NG (2000) para melhor responder aos
movimentos drásticos do mercado, como resultado de situações de mudanças devidas as
descontinuidades de fatores externos. Formulando um modelo no qual o portfólio pode
ser reavaliado de período em período e seus parâmetros possam ser modificados a
contento.
Podemos definir o risco em termos de mudanças de valores entre duas datas,
defendemos que, por causa do risco estar relacionado à variabilidade do valor futuro de
uma posição, devido às mudanças do mercado, ou, mais geralmente a eventos incertos,
é melhor considerar apenas os valores futuros.
Considere um conjunto com vetor de realização
, no qual
indica o
número de estados da natureza. Esse estado ocorre com probabilidade
e
. O vetor
representa o lucro possível da carteira (a empresa de, a
companhia de seguros, banco, etc.) e perdas das realizações em um futuro comum
escolhido no horizonte de tempo, digamos,
. A quantidade
no estado de natureza s. Valores negativos de
desigualdade
Definimos
significa
que
correspondem às perdas. A
para
,
é oretorno da carteira
todo
respectivamente.
A
.
variável
99
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
aleatória discreta gerada pelo
para todo
e
é denotada por , isto é
,
.
A medida de risco é então uma função
usando a perspectiva do presente com
, medindo o risco de uma carteira
. Isto é a quantidade mínima de dinheiro
que o agente reguladotem que adicionar ao seu portfolio e investir em um instrumento
de referência hoje, de tal forma que garanta que o risco envolvido na carteira seja
aceitável para o regulador.
Assumimosque o instrumento de referência tem uma
recompensa em cada estado da natureza em
vetor
, assim, a sua realização é um
. O instrumento de referência é sem risco no ―sentido clássico‖,
não tendo nenhuma incerteza em seus retornos. É mais natural que se pense nisso como
uma obrigação recompensaigual à zero. O preço do instrumento de referência, os fatores
de desconto são denotados por
domínio generalizado de
. Essas medidas podem ser ajustadas para um
(CSÓKA, 2007).
4. AVERSÃO AO RISCO
A crença comum entre os economistas é que os seres humanos são, ou deveriam
ser avessos ao risco. A introspecção revela que istoé muito plausível em muitas
situações, apesar de comportamento de procura de risco que muitas vezes tem sido
observado em estudos experimentais da escolha humana.
Aversão ao risco é uma conclusão necessária se as pessoas enfrentam utilidade
marginal decrescente, um pressuposto para o qual há um forte apelo intuitivo. Isso
aumentou o apelo de aversão ao risco como a suposição padrão de comportamento
humano (von NEUMANN, 1947). Trata-se da preempção do investidor de arriscar-se
em um determinado negócio, sendo que a atitude de risco é afetada pela aversão à perda
possibilidade de ganhos e distorções na decisão, bem como a curvatura utilidade para
ambos os ganhos e perdas (DAVIES E SATCHELL, 2007).
100
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
5. GERENCIAMENTO DO RISCO
A gestão de riscos é de fundamental importância, considerando o enorme risco
financeiro que a economia está exposta. Os riscos de muitos agentes econômicos são
regulados por diversas instituições. Por exemplo, se um comerciante financeiro quer
vender opções, que dão direitos ao comprador de comprar ou vender a um determinado
preço durante um horizonte de tempo especificado (ou em um determinado momento),
ele tem de cumprir os requisitos de margem, ou seja, ele tem que depositar algum
dinheiro ou algum outro sem risco e instrumento líquido. Empresa de mediação de uma
bolsa de valores, que é responsável pelas promessas a todas as partes das transações de
forma segura, sendo concluído, exige depósitos de margem. Uma medida de risco pode
ser usada para determinar o requisito de margem. Quanto maior risco da carteira do
comerciante, maior a margem exigida deve ser (Csóka et al., 2007).
Retorno Baixo
Retorno Alto
Travers (2004) classifica risco em função do retorno conforme Figura 5..1:
Capital de risco
Mercados emergentes
Setores individuais
Estoques de importados
Pequenos estoques
Grandes estoques
Títulos de longo prazo
Títulos de curto prazo
Dinheiro
Risco Baixo
Risco Alto
Figura 5.1 – Risco em Função do Retorno
Fonte: TRAVERS, 2004.
A Teoria de Portfólio permite gerenciar o risco em um grupo de ativos para
determinar uma combinação que ofereça o menor risco e o maior retorno esperado. Esse
grupo é chamado de portfólio ótimo. O portfólio de ativos é uma combinação de
ativos de interesse, cada um tendo retorno
, (
), o retorno do portfólio,
101
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
doravante denotado por
, é a média ponderada do retorno do ativo componente, com
as proporções de investimentos como
colunas
sendo os pesos. Organizando e em vetores
e
, a equação,
do portfólio de
retorno pode ser definida como:
(5.1)
A média da distribuição de probabilidade do retorno, ou o rendimento esperado, é
uma indicação da rentabilidade esperada. A variância da distribuição indica a amplitude
dos resultados possíveis em torno da média, isto é, quanto maior for a variância, o mais
incerto é o resultado. Assim, a variância da distribuição é uma indicação intuitiva do
risco envolvido.
Se a taxa de retorno evolui de maneira pelo menos fracamente estacionária ao
longo do tempo, cada retorno do ativo pode ser representado por um processo
estocástico com retorno esperado
e a variância
considerando a covariância entre ativos e
. Além disso,
, como o retorno esperado do
portfólio e sua variância podem ser escritos como:
(5.2)
(5.3)
no qual
, e fora da diagonal com
,e
é a matriz de covariância, com diagonal contendo
. Note-se que o
da covariância mede quantos dos
retornos de dois ativos se movem em relação uns aos outros. Este é o conhecido modelo
abordado por Markowitz: Média-Variância do Portfolio (MVP), estabelecendo a melhor
estratégia para minimizar o risco e maximizar o retorno. Ao fazer isso, atinge-se a
fronteira eficiente, na qual para um dado nível de variância, não existe outro portfólio
com maior retorno esperado. Da mesma forma, para um dado nível de retorno esperado,
não existe qualquer outro portfólio com menor variância. A Figura 5.2 mostra a
fronteira eficiente.
102
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Re
tor
no
do
po
rtf
óli
o
Variância mínima do portfólio
Variância do portfólio
Figura 5.2 - Fronteira eficiente média-variância
6. CONCLUSÃO
Esta revisão possibilitou o entendimento de questões fundamentais sobre risco
como variável de decisão para investimentos diversos. A gestão de riscos deve ser um
processo contínuo - a análise de risco por si só não é suficiente. As técnicas de portfólio
são uma ótima opção para redução do risco envolvido no investimento e é também um
bom mecanismo de gerenciamento, o qual possibilita que o investidor mais ousado
consiga ter um indicador de seus possíveis ganhos e idem para aquele mais conservador.
O risco é por si só um agente de decisão, mas foi evidenciado que há fundamentação
para ajuste do valor desse agente no âmbito do conceito de utilidade. É importante que
haja aprofundamento dos conceitos e variáveis de risco pelo investidor.
7. REFERENCIAS BIBLIOGRÁFICAS
Artzner P., Delbaen F., Eber J., Haeth D., 1999. Coherent measures of risk.
Mathematical Finance 9 (3), 203–228.
Csóka P., Herings P.JJ., Kóczy L.Á., 2007. Coherent measures of risk from a general
equilibrium perspective / Journal of Banking & Finance 31 (2007) 2517–2534.
Davies G.B., Satchell E.S., 2007. The behavioural components of risk aversion /
Journal of Mathematical Psychology 51 (2007) 1–13.
103
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Eisenhauer J.G., 2006. Risk aversion and prudence in the large / Research in Economics
60 (2006) 179–187.
Kreiss J.P., Paparoditis E. 2011. Bootstrap methods for dependent data: A review /
Journal of the Korean Statistical Society 40 (2011) 357–378.
Lambert R., 1972. Risky Shift in Relation to Choice of Metric / JOURNAL OF
EXPERIMENTAL SOCIAL PSYCHOLOGY 8, 315-318 (1972).
Li D., NG W.L., 2000.Optmal dynamic portfolio selection: multiperiod mean-variance
formulation. Mathematical Finance, Vol. 10, No. 3, 387–406.
Lien G., Størdal S., Hardaker J.B., Asheim L.J., 2006. Risk aversion and optimal forest
replanting: A stochastic efficiency study / European Journal of operational Research
181 (2007) 1584–1592.
Markowitz H., 1952. Portfolio selection / Journal of Finance 7, 77–91.
Markowitz H., 1959. Portfolio Selection: Efficient Diversification of Investments /
Wiley, New York.
Prem K.P., Ng D. Pasman H.J., Sawyer M., Guo Y., Mannan M.S. Risk measures
constituting a risk metrics which enables improved decision making: Value-at-Risk /
Jorrnal of Loss Prevention in the Process Industries 23 (2010) 211–219.
Stoica G., 2006. Relevant coherent measures of risk / Journal of Mathematical
Economics 42 (2006) 794–806.
Szegö G., 2005. Measures of risk / European Journal of Operational Research 163
(2005) 5–19.
Travers F. J., 2004. Investment Manager Analysis. Wiley Finance, Investiment Manager
Analysis.
Von Neumann, J., & Morgenstern, O. (1947).The theory of games and economic
behaviour. Princeton: Princeton University Press.
Wehrens R., et al., 2000. The bootstrap: a tutorial. Chemometrics and Intelligent
Laboratory Systems 54, 35–52.
Williams T., 1995. A classified bibliography of recent research relating to project risk
management /European Journal of Operational Research 85 (1995) 18-38.
104
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
105
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
106
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
107
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
108
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
109
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
110
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
111
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
112
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
113
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
114
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
115
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
116
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
117
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
118
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
119
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
PROJETO DE PARÂMETROS ROBUSTOS PARA O
FRESAMENTO DE TOPO DO AÇO ABNT 1045
Tarcísio Gonçalves de Brito, [email protected]
José Henrique de Freitas Gomes, [email protected]
João Roberto Ferreira, [email protected]
Anderson Paulo de Paiva, [email protected]
Wesley Suzuki, [email protected]
Resumo: A indústria metal mecânica é caracterizada pela elevada qualidade em seus
componentes, sendo a usinagem responsável por uma parcela considerável de busca
por melhorias em seus produtos. Na fabricação de peças para o setor, o emprego do
aço ABNT 1045 destaca-se pelas suas boas propriedades mecânicas e baixo custo. No
entanto, as superfícies das peças apresentam irregularidades quando observadas em
detalhes, sendo estas irregularidades provocadas por sulcos ou marcas deixadas pela
ferramenta. Sendo assim, este trabalho enfoca a aplicação de um método experimental
para determinar as condições ótimas da rugosidade superficial Ra no fresamento de
topo do aço ABNT 1045. Para isso, desenvolveu-se um modelo matemático utilizando o
projeto de parâmetros robustos (RobustParameter Design – RPD), através de um
arranjo combinado que considerou quatro variáveis de controle e três variáveis de
ruído. As variáveis de controle analisadas foram o avanço por dente, profundidade de
corte, velocidade de corte e largura de corte. As variáveis de ruído incluíram o
desgaste de flanco da ferramenta, concentração do fluido de corte e vazão do fluido de
corte. A partir da modelagem dual do processo, a otimização foi baseada na
minimização do erro quadrático médio. Os resultados mostraram que o método
utilizado foi eficiente para a estimativa dos parâmetros robustos da rugosidade Ra,
otimizada com um valor médio de 0,281 m e variância de 0,005 m2.
120
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Palavras-chave: Fresamento de topo, Projeto robusto, Metodologia de Superfície de
Resposta.
1. INTRODUÇÃO
O fresamento é um processo que se diferencia das demais operações de usinagem
principalmente por apresentar as mais variadas formas e geometrias possíveis de serem
geradas (Diniz et al., 2008). No entanto, um aspecto crítico para o processo diz respeito
aos diversos tipos de desgaste e avarias das ferramentas de corte, que consequentemente
diminuem sua vida útil, além de possuírem influência direta sobre os custos e o
acabamento da peça usinada (Sandvik, 2011; Davim, 2008; Teles, 2007; Ferraresi,
1970). Na medida em que o desgaste das ferramentas se caracteriza como uma variável
de difícil controle, a busca por condições de fresamento que propiciem um melhor
acabamento superficial e uma melhor integridade da superfície usinada tem sido o alvo
dos trabalhos de vários pesquisadores (KopacandKrajnik, 2007; Reddyand Rao, 2005;
Ghaniet al., 2004).
Em relação às demais variáveis do processo, o uso de fluidos de corte em
operações de fresamento também tem sido estudado com grande intensidade. Os fluidos
de corte atuam na refrigeração do cavaco, ferramenta e peça, sobretudo quando o
processo opera em altas velocidades de corte. Outras vantagens da utilização dos fluidos
de corte incluem a lubrificação da região usinada, a redução da força de corte, a
melhoria da vida da ferramenta, do acabamento superficial e da precisão dimensional da
peça, e a proteção da superfície usinada devido à quebra e transporte dos cavacos
(Tawakoliet al., 2010; Machado et al., 2009; Diniz et al., 2008; Trent and Wright,
2000). Entretanto, o emprego dos fluidos de corte pode estar sujeito a variações
incontroladas em sua concentração e vazão de operação, o que, de certa forma, pode
acabar influenciando a qualidade final do produto usinado.
Portanto, considerando que os resultados do processo de fresamento, muitas vezes
representados pelo acabamento superficial, podem ser afetados por variações inerentes
às ferramentas e ao fluido de corte, torna-se de grande relevância que a operação seja
121
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
configurada para responder com o mínimo de sensibilidade a tais variações. Nesse
contexto, este trabalho tem como objetivo a determinação de parâmetros robustos para a
otimização da rugosidade Ra no fresamento de topo do aço ABNT 1045. Dado que o
aço ABNT 1045 é visto como um material relevante para a indústria metal mecânica
(possui boas propriedades mecânicas e baixo custo), deseja-se obter um ajuste ótimo
para as variáveis de controle de modo que a rugosidade média seja a menor possível e
apresente o mínimo de variabilidade em relação às inconsistências observadas nas
ferramentas e no fluido de corte. Sendo assim, a otimização robusta foi desenvolvida
através da minimização do erro quadrático médio construído para a rugosidade Ra,
sendo as equações de média e variância desenvolvidas a partir de um arranjo combinado
projetado para experimentos com quatro variáveis de controle (avanço por dente,
profundidade de corte, velocidade de corte e largura de corte) e três ruídos (desgaste de
flanco da ferramenta, concentração do fluido de corte e vazão do fluido de corte). A
estratégia utilizada para a modelagem e otimização do fresamento de topo considerado
neste trabalho é apresentada em maiores detalhes na seção seguinte.
2. PROJETO DE PARÂMETROS ROBUSTOS
O projeto de parâmetros robustos (RobustParameter Design – RPD), segundo
Montgomery (2005), é uma abordagem para a análise e melhoria de processos cujo foco
é a determinação dos níveis das variáveis de controle visando os seguintes objetivos: (1)
garantir que a média das respostas do processo se estabeleça em um nível desejado
(alvo) e (2) garantir que a variabilidade em torno dos valores alvo seja a menor possível.
Quanto às técnicas utilizadas para a modelagem e análise dos dados, Montgomery
(2005) afirma que a Metodologia de Superfície de Resposta tem se mostrado como uma
estratégia eficiente para a abordagem RPD e, nesse sentido, o método de análise é
desenvolvido a partir de um dos seguintes arranjos experimentais: os arranjos cruzados
ou os arranjos combinados. Para o presente trabalho, a estratégia experimental foi
baseada em um arranjo combinado.
122
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Os arranjos combinados são definidos como o sequenciamento de experimentos
nos quais as variáveis de ruído, para fins de experimentação, são tratadas como
variáveis de controle e, dessa forma, variáveis de controle e ruídos são combinadas em
um único arranjo experimental. Com isso, a partir das informações coletadas nos
experimentos, torna-se possível a construção de um modelo de superfície de resposta
que relaciona as variáveis de controle, os ruídos e suas respectivas interações. A Eq. (1)
descreve o modelo de segunda ordem desenvolvido a partir de um arranjo combinado.
k
k
i 1
i 1
r
k
r
y(x, z)   0    i xi    ii xi2    ij xi x j    i zi   ij xi z j  
i 1
i j
(1)
i 1 j 1
onde: y – Resposta de interesse
xi – Variáveis de controle
zi – Variáveis de ruído
β0, βi, βii, βij, i, ij – Coeficientes a serem estimados
k – Número de variáveis de controle
r – Número de variáveis de ruído
 – Erro experimental
Na Eq. (1), os coeficientes β0, βi, βii, βij, i e ij são estimados através do Método
dos Mínimos Quadrados Ordinários (OrdinaryLeastSquares – OLS). Uma vez que o
modelo de superfície de resposta representado pela Eq. (1) foi estabelecido, a equação
para a média da resposta y pode ser extraída diretamente do modelo combinado. Para
isso, utiliza-se o seguinte critério:
k
k
i 1
i 1
 ( y)  f (x)   0    i xi    ii xi2    ij xi x j
(2)
i j
O modelo de variância é desenvolvido utilizando o princípio da propagação de
erro, através da seguinte derivação:
123
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
2
 y (x, z ) 
2
2
   zi  
z i 
i 1 
r
 2 ( y)   
(3)
Para a Eq. (3), Montgomery (2005) sugere adotar  z2  1 e a variável  2
i
corresponde ao erro residual (MS) do modelo de superfície de resposta descrito na Eq.
(1). Uma observação importante sobre as Eqs. (2) e (3) é que os modelos de média e
variância descrevem a resposta y apenas como função das variáveis de controle xi,
possibilitando, assim, que o processo seja configurado para que a variabilidade
transmitida pelas variáveis de ruído seja a menor possível.
Com o desenvolvimento das equações de média e variância, a otimização dual do
processo pode ser conduzida empregando-se as diversas técnicas de otimização de
múltiplos objetivos disponíveis na literatura. Neste trabalho, utilizou-se o conceito do
erro quadrático médio (EQM), que é apresentado por Köksoy (2006) como a soma da
variância com a diferença quadrática entre a média da resposta e o seu valor alvo. Sendo
assim, a minimização do erro quadrático médio garante, então, que o valor médio da
resposta se estabeleça o mais próximo possível do seu alvo, apresentando ao mesmo
tempo o mínimo de variabilidade. Tal otimização é obtida a partir da seguinte
formulação:

Minimizar EQM ( y )   ( y )  T y

2
  2 ( y)
(4)
Sujeito a : x T x   2
onde: EQM ( y) – Erro quadrático médio da resposta y
 ( y) – Modelo para a média da resposta y
Ty
– Alvo da resposta y
 2 ( y) – Modelo para a variância da resposta y
xT x   2 –
Restrição esférica para o espaço experimental
124
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Vale destacar que o conceito do erro quadrático médio tem sido empregado para a
otimização robusta de diferentes processos de fabricação, como pode ser observado em
Paiva et al. (2012) e Gomes et al. (2012).
Para a determinação dos parâmetros robustos otimizados, resolve-se o problema
definido pela Eq. (4) através do emprego de algoritmos de otimização. O algoritmo
Gradiente Reduzido Generalizado (GRG) (Rao, 1996) foi utilizado neste trabalho para
este propósito.
3. PROCEDIMENTO EXPERIMENTAL
Para a coleta dos dados, experimentos de fresamento de topo do aço ABNT 1045
foram planejados através de um arranjo combinado. Dessa forma, um arranjo composto
central (central composite design – CCD) foi criado para sete variáveis, sendo quatro
delas as variáveis de controle e três as variáveis de ruído. Considerando que os níveis
extremos das variáveis de ruído (pontos axiais) foram desconsiderados, conforme
recomendado por Montgomery (2005), e adotando 10 experimentos para os pontos
centrais, o arranjo combinado ficou então composto por 82 experimentos. A Tab. 1 e a
Tab. 2 apresentam as variáveis de controle e os ruídos do processo, juntamente com os
seus respectivos níveis de operação.
125
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 1. Variáveis de controle e seus níveis.
Níveis
Parâmetros de
Unidade
fresamento
Notação
2,828
-1
0
+1
+2,828
0,10
0,15
0,20
0,29
1,125 1,500
2,186
Avanço por dente
mm/dente
fz
0,01
Profundidade de corte
mm
ap
0,064 0,750
Velocidade de corte
m/min
Vc
Largura de corte
mm
ae
254
300
325
12,26 15,00
350
396
16,50 18,00
20,74
Tabela 2. Variáveis de ruído e seus níveis.
Ruídos
Desgaste de flanco da
ferramenta
Concentração do fluido de
corte
Vazão do fluido de corte
Unidade Notação
Níveis
-1
0
+1
mm
VB
0,00
0,15
0,30
%
C
5
10
15
l/min
Q
0
10
20
Quanto aos equipamentos utilizados, os experimentos foram conduzidos em um
centro de usinagem CNC da marca Fadal, com 15 kW de potência e rotação máxima de
7.500 rpm. O material usinado foi o aço ABNT 1045, forjado em blocos de dimensões
100 x 100 x 300 mm e com dureza média de 180 HB. A ferramenta utilizada se
constituiu de uma fresa de topo código R390-025A25-11M, com diâmetro de 25 mm,
ângulo de posição r = 90º, haste cilíndrica, passo médio com 3 insertos e fixação
mecânica por pinça. Os insertos foram de metal duro ISO P25, código R390-11T308MPM GC 1025 (Sandvik-Coromant), revestidos com nitreto de titânio (TiN). Como fluido
de corte, empregou-se o óleo sintético Quimatic MEII. As Figs. 1 e 2 ilustram,
respectivamente, o processo de usinagem considerado e a ferramenta de corte.
126
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 1. Fresamento de topo do aço ABNT 1045.
Figura 2. Ferramenta de corte
(fresa de topo).
A avaliação do desgaste da ferramenta foi realizada através de um microscópio
estereoscópico modelo Magnification, com aumento de 40x e com uma câmera digital
acoplada para aquisição de imagens. O critério adotado para o fim de vida da ferramenta
foi o desgaste de flanco VBmax = 0,30 mm, conforme ilustra a Fig. 3.
Após o fresamento do bloco de aço ABNT 1045 (sentido concordante) utilizando
os parâmetros definidos pelo arranjo experimental, a rugosidade média Ra foi medida
na superfície usinada através de um rugosímetro portátil Mitutoyo SJ-201 M/P (Fig. 4).
A medição de Ra ocorreu em três pontos do bloco, sendo um no centro e um em cada
extremidade, a fim de se considerar o valor médio das leituras. Com isso, após a
execução e medição de todos os experimentos, foi construída a matriz experimental
(Tab. 3), utilizada como fonte de dados para a modelagem e otimização do processo.
Em função da grande quantidade de dados, optou-se por apresentar neste trabalho
somente parte da matriz de experimentos.
127
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
(a)
(b)
Figura 3. Avaliação do desgaste da ferramenta: (a) ferramenta nova; (b)
ferramenta desgastada (fim de vida).
Figura 4. Medição da rugosidade Ra na superfície usinada.
128
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 3. Matriz experimental.
Variáveis de controle codificadas
Ruídos codificados
Ra
VB
C
Q
(m)
1
-1
-1
-1
-1
-1
-1
1
0,297
2
1
-1
-1
-1
-1
-1
-1
1,807
3
-1
1
-1
-1
-1
-1
-1
0,657
4
1
1
-1
-1
-1
-1
1
2,573
5
-1
-1
1
-1
-1
-1
-1
0,353
6
1
-1
1
-1
-1
-1
1
3,013
7
-1
1
1
-1
-1
-1
1
0,270
8
1
1
1
-1
-1
-1
-1
2,417
9
-1
-1
-1
1
-1
-1
-1
0,320
10
1
-1
-1
1
-1
-1
1
3,170
11
-1
1
-1
1
-1
-1
1
0,280
12
1
1
-1
1
-1
-1
-1
2,877
13
-1
-1
1
1
-1
-1
1
0,270
14
1
-1
1
1
-1
-1
-1
3,030
15
-1
1
1
1
-1
-1
-1
0,550
16
1
1
1
1
-1
-1
1
1,520
17
-1
-1
-1
-1
1
-1
-1
0,497
18
1
-1
-1
-1
1
-1
1
2,770
19
-1
1
-1
-1
1
-1
1
0,383
20
1
1
-1
-1
1
-1
-1
3,247
65
-2,828
0
0
0
0
0
0
0,100
66
2,828
0
0
0
0
0
0
*
67
0
-2,828
0
0
0
0
0
0,350
68
0
2,828
0
0
0
0
0
1,573
69
0
0
-2,828
0
0
0
0
0,650
70
0
0
2,828
0
0
0
0
0,440



ae

Vc

ap

fz


Teste
129
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
71
0
0
0
-2,828
0
0
0
0,390
72
0
0
0
2,828
0
0
0
1,183
73
0
0
0
0
0
0
0
0,343
74
0
0
0
0
0
0
0
0,540
75
0
0
0
0
0
0
0
0,680
76
0
0
0
0
0
0
0
0,520
77
0
0
0
0
0
0
0
0,540
78
0
0
0
0
0
0
0
0,323
79
0
0
0
0
0
0
0
0,527
80
0
0
0
0
0
0
0
0,607
81
0
0
0
0
0
0
0
0,697
82
0
0
0
0
0
0
0
0,430
4. RESULTADOS E DISCUSSÃO
A Eq. (5) apresenta o modelo de superfície de resposta do arranjo combinado
escrito em termos das variáveis de controle e ruído consideradas neste trabalho.
Ra (x, z )   0  1 fz   2 ap   3Vc   4 ae  11 fz 2   22 ap 2   33Vc 2   44 ae 2  12 fz  ap  13 fz  Vc
 14 fz  ae   23ap  Vc   24 ap  ae   34Vc  ae   1VB   2 C   3Q   11 fz  VB   12 fz  C
  13 fz  Q   21ap  VB   22 ap  C   23ap  Q   31Vc  VB   32Vc  C   33Vc  Q   41ae  VB
  42 ae  C   43ae  Q
(5)
Na equação anterior, as variáveis fz, ap, Vc e ae são expressas em sua forma
codificada. Os coeficientes do modelo foram estimados utilizando o Método dos
Mínimos Quadrados Ordinários (OLS) através do software estatístico Minitab®. Sendo
assim, chegou-se à seguinte expressão:
130
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Ra (x, z )  0,689  0,898 fz  0,041ap  0,066Vc  0,004ae  0,493 fz 2  0,096ap 2  0,010Vc 2  0,064ae 2
 0,074 fz  ap  0,087 fz  Vc  0,030 fz  ae  0,039ap  Vc  0,018ap  ae  0,043Vc  ae  0,102VB
 0,002C  0,005Q  0,048 fz  VB  0,086 fz  C  0,042 fz  Q  0,013ap  VB  0,073ap  C
 0,012ap  Q  0,020Vc  VB  0,034Vc  C  0,041Vc  Q  0,052ae  VB  0,013ae  C  0,025ae  Q
(6)
Inicialmente, os coeficientes estimados para a Eq. (5) proporcionaram um ajuste
do modelo (R2 adj.) correspondente a 70,08%. Dessa forma, visando aumentar a
capacidade de representação dos dados, o modelo foi corrigido utilizando a ponderação
pelo inverso do quadrado dos resíduos (1/e2). Após a correção, foram obtidos os valores
apresentados pela Eq. (6), sendo o novo ajuste igual a 99,9%.
Com a construção do modelo para o arranjo combinado, as equações de média e
variância da rugosidade Ra foram extraídas utilizando as Eqs. (2) e (3). Tal
procedimento gerou os seguintes resultados:
 ( Ra )  0,689  0,898 fz  0,041ap  0,066Vc  0,004ae  0,493 fz 2  0,096ap 2  0,010Vc 2  0,064ae 2
 0,074 fz  ap  0,087 fz  Vc  0,030 fz  ae  0,039ap  Vc  0,018ap  ae  0,043Vc  ae
(7)
 2 ( Ra )  0,010  0,010 fz  0,002ap  0,004Vc  0,011ae  0,011 fz 2  0,006ap 2  0,003Vc 2  0,004ae 2
 0,013 fz  ap  0,004 fz  Vc  0,005 fz  ae  0,006ap  Vc  0,001ap  ae  0,001Vc  ae
(8)
De acordo com o que foi discutido na seção 2, os modelos de média e variância
desenvolvidos através de um arranjo combinado são escritos como função apenas das
variáveis de controle, embora as variáveis de ruído sejam testadas em diferentes níveis
durante os experimentos. No entanto, dado que a derivação da equação de variância leva
em consideração os efeitos provocados pelas variáveis de ruído, o ajuste das variáveis
de controle para se ter o mínimo de variabilidade garante a robustez do processo em
relação a estes efeitos.
As Figs. 5 e 6 mostram as superfícies de resposta para a média e variância da
rugosidade Ra, construídas a partir das Eqs. (7) e (8). Como pode ser observado, todos
131
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
os gráficos representados apresentam um ponto de curvatura no qual existe um valor
mínimo para a média e a variância de Ra.
(a)
(b)
Figura 5. Superfícies de resposta para a média de Ra: (a) interação entre avanço
por dente e velocidade de corte; (b) interação entre profundidade de corte e
largura de corte.
(a)
(b)
132
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Figura 6. Superfícies de resposta para a variância de Ra: (a) interação entre
avanço por dente e velocidade de corte; (b) interação entre largura de corte e
profundidade de corte.
Uma vez que as equações de média e variância foram estabelecidas, partiu-se para
a otimização do processo através da minimização do erro quadrático médio. No entanto,
para a construção da formulação apresentada pela Eq. (4), torna-se necessário que o
valor alvo da rugosidade seja especificado. A fixação deste valor foi então baseada na
otimização individual do valor médio de Ra, com a minimização da Eq. (7). Assim,
adotou-se como alvo de Ra o valor de 0,23 m e a formulação do problema foi escrita
como:
Minimizar EQM ( Ra )   ( Ra )  0,23   2 ( Ra )
2
(9)
Sujeito a : fz 2  ap 2  Vc 2  ae 2  4,0
onde: EQM (Ra ) – Erro quadrático médio para a rugosidade Ra
 (Ra ) – Modelo para a média de Ra, descrito na Eq. (7)
 2 ( y) – Modelo para a variância de Ra, descrito na Eq. (8)
A determinação dos parâmetros robustos para o fresamento de topo do aço ABNT
1045 foi então obtida com o emprego do algoritmo GRG na formulação anterior. Para
isso, utilizou-se o suplemento Solver do Microsoft Excel®, após o problema de
otimização ser devidamente programado na planilha do software. A Tab. 4 apresenta os
resultados ótimos.
133
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Tabela 4. Parâmetros robustos ótimos para o fresamento de topo do aço ABNT
1045.
Variáveis de controle
2(Ra)
EQM(Ra)
fz
ap
Vc
ae
0,11
1,265
310
17,39
0,281
0,005
0,008
mm/dente
mm
m/min
mm
m
m2
-
Resultado
ótimo
Unidade
(Ra)
Os parâmetros robustos determinados para o fresamento do aço ABNT 1045
caracterizam o ponto de ótimo como uma condição satisfatória para o processo, na
medida em que o resultado esperado para a média da rugosidade Ra se mostra como um
valor baixo em relação às medidas observadas nos experimentos. Além disso, a
variabilidade de 0,005 m2 se traduz em um desvio-padrão de 0,073 m, também
considerado um valor satisfatório em comparação às medidas experimentais.
Para os casos nos quais se tornar necessário ajustar o processo atribuindo
ponderações diferentes entre a média e a variância de Ra, a Tab. 5 e a Fig. 7 apresentam
a fronteira de Pareto construída para este problema. Dessa forma, chega-se a um
conjunto de parâmetros robustos otimizados nos quais o processo pode ser configurado,
de modo a se ter o melhor resultado para as respostas em diferentes cenários.
Tabela 5. Parâmetros robustos determinados pela fronteira de Pareto.
Peso
Peso
fz
ap
Vc
ae
(Ra)
2(Ra)
(Ra)
2(Ra)
(mm/dente)
(mm)
(m/min)
(mm)
(m)
(m2)
0,90
0,10
0,10
1,168
294
17,58
0,248
0,012
0,80
0,20
0,10
1,198
302
17,43
0,260
0,009
0,70
0,30
0,10
1,223
307
17,37
0,268
0,007
0,60
0,40
0,10
1,244
309
17,37
0,275
0,006
134
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
0,50
0,50
0,11
1,265
310
17,39
0,281
0,005
0,40
0,60
0,11
1,286
310
17,43
0,289
0,005
0,30
0,70
0,11
1,310
309
17,49
0,299
0,004
0,20
0,80
0,11
1,341
308
17,58
0,315
0,003
0,10
0,90
0,11
1,390
304
17,71
0,347
0,002
Figura 7. Fronteira de Pareto.
5. CONCLUSÕES
O presente trabalho apresentou a determinação dos parâmetros robustos para a
rugosidade Ra no processo de fresamento de topo do aço ABNT 1045, visando à
minimização dos efeitos das variáveis que são dificilmente controladas e que neste
estudo foram representadas pelo desgaste de flanco da ferramenta, pela concentração e
pela vazão do fluido de corte. Dessa forma, buscou-se a otimização através da
minimização do erro quadrático médio, calculado a partir dos modelos de média e
variância estabelecidos para Ra. O modelo de superfície de resposta desenvolvido para
135
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
o arranjo combinado foi capaz de representar adequadamente as condições operacionais
do processo, na medida em que seu ajuste inicial foi de 70,08%, chegando a 99,9% após
o procedimento de correção. As superfícies de resposta construídas identificaram
regiões nas quais a média e a variância da rugosidade Ra apresentaram valores mínimos
e onde o método de otimização empregado foi capaz de localizar um ponto de ótimo
satisfatório. Sendo assim, a condição robusta para a otimização da média e variância de
Ra ocorre quando o fresamento do aço ABNT 1045 é configurado com as seguintes
variáveis de controle: fz = 0,11 mm/dente; ap = 1,265 mm; Vc = 310 m/min e ae =
17,39 mm. Nessa condição, a rugosidade apresenta um valor médio de 0,281 m com
variância de 0,005 m2 (desvio-padrão de 0,073 m). Após da definição do ponto de
ótimo anterior, estabeleceu-se através da construção da fronteira de Pareto um conjunto
de parâmetros robustos otimizados, úteis para a configuração do processo quando
houver a necessidade de tratar as características duais de Ra com diferentes graus de
importância.
6. REFERÊNCIAS
Davim, J.P., 2008, ―Machining: Fundamentals and Recent Advances‖, Ed. Springer,
London, 375p.
Diniz, A.E., Marcondes, F.C., Coppini, N.L., 2008, ―Tecnologia da usinagem dos
materiais‖, Artliber Editora, São Paulo, 262 p.
Ferraresi, D., 1970, ―Fundamentos da usinagem dos metais‖, Ed. Edgard Blücher, São
Paulo, 751p.
Ghani, J.A., Choudhury, I.A., Hassan, H.H., 2004, ―Application of Taguchi method in
the optimization of end milling parameters‖, Journal of Materials Processing
Technology, Vol. 145, No. 1, pp. 84-92.
136
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Gomes, J.H.F., Campos, P.H.S., Lopes, L.G.D., Costa, S.C., Paiva, A.P., 2012,
―Otimização robusta da diluição e da largura do cordão na soldagem com arame tubular
para aplicações de revestimento do aço carbono ABNT 1020 com aço inoxidável ABNT
316L‖, Anais do VII Congresso Nacional de Engenharia Mecânica (CONEM), São Luís
(MA), Brasil.
Köksoy, O., 2006, ―Multiresponse robust design: Mean square error (MSE) criterion‖,
Applied Mathematics and Computation, Vol. 175, No. 2, pp. 1716-1729.
Kopac, J. and Krajnik, P., 2007, ―Robust design of flank milling parameters based on
grey-Taguchi method‖, Journal of Materials Processing Technology, Vol. 191, No. 1-3,
pp. 400-403.
Machado, A.R., Coelho, R.T., Abrão, A.M, Silva, M.B., 2009, ―Teoria da Usinagem
dos Materiais‖, Ed. EdgardBlücher, São Paulo, 384 p.
Montgomery, D.C., 2005, ―Design and Analysis of Experiments‖, Ed. John Wiley, New
York, 643 p.
Paiva, A.P., Campos, P.H., Ferreira, J.R., Lopes, L.G.D., Paiva, E.J. and Balestrassi,
P.P., 2012, ―A multivariate robust parameter design approach for optimization of AISI
52100 hardened steel turning with wiper mixed ceramic tool‖, International Journal of
Refractory Metals and Hard Materials, Vol. 30, No. 1, pp.152-163.
Rao, S.S., 1996, ―Engineering optimization: theory and practice‖, Ed. John Wiley &
Sons, New Jersey, 903 p.
Reddy, N.S.K. and Rao, P.V., 2005, ―A genetic algorithmic approach for optimization
of surface roughness prediction model in dry milling‖, Machining Science and
Technology, Vol. 9, No. 1, pp. 63-84.
137
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
SandvikCoromant, 2011, ―Manual técnico de usinagem‖, Sandviken, Suécia.
Tawakoli, T., Hadad, M.J., Sadeghi, M.H., 2010, ―Influence of oil mist parameters on
minimum quantity lubrication – MQL grinding process‖, International Journal of
Machine Tools & Manufacture, Vol. 50, No. 6, pp. 521-531.
Teles, J.M., 2007, ―Torneamento de ferro fundido nodular ferritizado com nióbio
utilizando ferramentas de metal duro‖, Dissertação (Mestrado em Engenharia
Mecânica), Instituto de Engenharia Mecânica, Universidade Federal de Itajubá, Itajubá,
106 p.
Trent, E.M. and Wright, P.K., 2000, ―Metal cutting‖, Ed. Butterworth-Heinemann,
Boston, USA, 446p.
138
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
UMA INVESTIGAÇÃO SOBRE OS COEFICIENTES C4 E C5
DAS CARTAS DE CONTROLE SHEWHART X-BARRA E S
Anderson Paulo de Paiva
[email protected]
Pedro Paulo Balestrassi
[email protected]
José Henrique de Freitas Gomes
[email protected]
Pedro José Papandréa
[email protected]
Felipe Gonçalves
[email protected]
Abstract: This paper is an attempt to explain the origin of factors C4 and C5, constants that depend on
the sample size n and that are commonly used to build the control limits for X-bar and S Control
Charts, hereafter called Shewhart Control Charts. C4 and C5 are tabulated in most textbooks on
statistical quality control; however, it is not common to find the complete deduction of them.
Key words: Shewhart Control Charts X-bar and S, Gamma-function, Distribution of Chi-square.
1 – INTRODUÇÃO
Com o advento da tecnologia, bem como com a evolução das ciências com bases
computacionais, muito mais precisos, confiáveis e acessíveis têm se tornado os
processos de controle de qualidade. Isto possibilitou que procedimentos matemáticos ou
estatísticos mais rigorosos pudessem ser aplicados no quotidiano das organizações, na
medida em que a tecnologia fosse sendo assimilada. Mais eficazes, portanto, se tornam
as empresas; melhores se tornam seus produtos.
139
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Dentro desse contexto, inserem-se as cartas de controle, substituindo as análises
por aproximações por processos de cálculo mais precisos. Observa-se esta relação entre
as cartas X-barra e S e cartas X-barra e R, cujos modelamento de dispersão baseiam-se
nas variâncias e nas amplitudes das amostras, respectivamente. Além disso, as cartas de
controle baseadas na amplitude têm eficiência limitada (Montgomery, 1991), na medida
em que se aumente o número de amostras.
Existem muitas vantagens em se usar as cartas X-barra e S. Marquardt (1984),
por exemplo, cita o fato de que estas cartas necessitam um número menor de amostras
para o monitoramento da qualidade dos processos do que os outros tipos, como, por
exemplo,as cartas por atributos. De acordo com os estudos de Parr (1995), na medida
em que as empresas passem a conhecer melhor seus processos e tomem consciência do
seu nível de qualidade, poderá criar-se uma tendência, inclusive, de substituição das
cartas por atributos pelas cartas por variáveis.
Por todas essas razões, parece razoável desenvolver-se um estudo mais criterioso
sobre as características das cartas de controle de Shewhart para variáveis.
O desenvolvimento proposto é uma tentativa de se estabelecer uma
fundamentação teórica sobre a questão, ainda escassa em deduções, apesar das inúmeras
literaturas de controle estatístico de processos.
2 - A DISTRIBUIÇÃO QUI-QUADRADO (2)
Considerando-se n observações independentes e identicamente distribuídas, isto
é, a retirada de um número finito de elementos de uma população infinita não afetará a
composição da população, x1, x2, x3,...,xn , de uma população normalmente distribuída
com parâmetros (,2), um estimador s2 de 2 é calculado pela fórmula:
s2 
1 n
( xi  x) 2

n  1 i 1
(1)
140
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Se a média populacional  é conhecida, o que é muito raro, o estimador s2 deve
ser substituído por:
sˆ 2 
1 n
( xi   ) 2

n i 1
(2)
As n variáveis, x1 - , x2 - , x3 - ,..., xn - , incluídas na soma de quadrados acima,
são independentes e distribuídas normalmente com parâmetros (0, 2). A padronização
destas variáveis conduz a:
n
1 n  xi   
2
sˆ  


u i2




n i 1   
i 1
2
2
2
(3)
Denotando a soma de quadrados padronizada como  2 , estabelece-se que:
n
 2 =  u i2
(4)
2
(5)
i 1
e ŝ 2 poderá ser escrito como:
sˆ 2   2
n
Considerando-se uma população de amostras, cada qual consistindo em n
observações de uma população normalmente distribuída, independentes e identicamente
distribuídas, com parâmetros (,2), e determinando-se a estatística do qui-quadrado
para cada amostra, obtém-se uma população de valores de qui-quadrado, denominada
Distribuição do Qui-quadrado, que deverá ser independente de  e 2 , tendo-se
 2 como função das variáveis padronizadas. Multiplicando-se os valores  2 por
2
,
n
obtém-se a população de valores de ŝ 2 , de acordo com a equação (5).
Portanto, a distribuição  2 depende somente de n, e a distribuição de ŝ 2 pode
ser derivada da distribuição  2 , utilizando-se a transformação (5).
141
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
3 - A DISTRIBUIÇÃO NORMAL
A função da distribuição normal é definida como:

1
px  
e
 2
( x  ) 2
2 2
(6)
Onde: x = variável,  = média aritmética e  = desvio padrão da distribuição. Portanto, a
probabilidade de que uma variável seja menor ou igual a x é dada por:
Px 
1
 2

t


( x  ) 2
e
2 2
dt
(7)
4 - A DISTRIBUIÇÃO NORMAL PADRONIZADA
Considerando-se a variável padronizada: u 
x 

(8)
, com média ZERO e
desvio padrão igual a UM,
p{x} 
1
 2
e

u2
2
dx 

, tem - se que : p{u}   p{x} 

du  x  u

1
2
e

u2
2
(9)
A variável u é normalmente distribuída, com média 0 e variância 1, e a função
 (u ) 
1
2
e

u2
2
,
(10)
é denominada Função de Distribuição Normal Padronizada, e sobre ela podem ser
destacadas as seguintes proposições:
142
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
1  x   u2
P{x} 
e du
2 
 x  
P{x}  
  {u}
  
x 
u 
2
1
(u ) 
2

u
e


u2
2
(11)
du

5 - DEMONSTRAÇÃO DA DISTRIBUIÇÃO DO QUI-QUADRADO
A distribuição do Qui-quadrado pode ser derivada por indução. Na prova
2
seguinte y será usado no lugar de  .
2
Definindo-se f como o número de graus de liberdade de uma distribuição  ,
quando f = 1, y torna-se u 2 , o que conduz a:
P{ y  y0 }  P{ y0  u 
y0 }  ( y0 )  ( y0 )  2( y0 )  1
Diferenciando-se a equação acima em relação a y0, obtém-se:
p{ y 0 }  2
d( y 0 ) d ( y 0 )
1  1 y0
.
 p{ y 0 }  2 ( y 0 ). . y 0 2
dy 0
2
d ( y0 )
Utilizando-se o resultado (10), obtém-se:

 y 
0
1
2
e


y0
2
2
 p( x) 
1
2

1
y0 2 e
1
 y0
2
(12)
2
2
Para f = 2, obtém-se a combinação y  u1  u 2 , onde u1 e u2 são independentes
2
2
e identicamente distribuídos. Fazendo-se y1  u1 e y2  u2 , decorrerá que y  y1  y 2 ,
143
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
onde y1 e y2 são distribuídos de acordo com a equação (12). O problema torna-se,
então, descobrir a distribuição da soma de duas variáveis.
De acordo com a fórmula da multiplicação, a probabilidade de y1 e y2
pertencerem ao retângulo definido pelo intervalo(y1,y1+dy1) e (y2,y2+dy2) é igual a
[p{y1}dy1.p{y2}dy2](13). A probabilidade de que y1  y2  y , pode ser encontrada
pela integração da equação (13).
y
P{ y1  y 2  y}  P{ y}   p{ y1}
0
y  y1
0
(14)
p{ y 2 }dy 2 dy1
Se esta expressão é diferenciada em relação a y, a fórmula da função de
distribuição da soma de duas variáveis estocásticas pode ser obtida, tal que:
y
p{ y}   p{ y1}[ p{ y 2 }] y2  y  y dy1
0
(15)
1
Introduzindo:
p{ y1 } 

1
1
2
y e
2
[ p{ y 2 }] y2  y  y1 

1. y1
2
1
2
dy1

1
2
( y  y1 ) e
1
 ( y  y1 )
2
logo :
1
p{ y} 
1

1 2 y y 1
e  y1 2 ( y  y1 ) 2 dy1
0
2
(16)
e escrevendo y1 = yt, esta equação se torna:
1
p{ y} 
1
1
1

1 2 y 1 2
1  y
.e  t (1  t ) 2 dt  c. .e 2
0
2
2
Onde c denota uma constante, desde que a integral
1 
t
0
1
2

1
2
(1  t ) dt seja
independente de y.
144
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Para as distribuições contínuas de probabilidade, P{y} é dada como:
P{ y}  

0
c
2


0
e
1
 y
2
dy 
p{ y}dy  1
(17)
1
 y


c
lim  2e 2 0P   1
2 P  

1
 P

 2c c
c
lim  2e 2  (2) 
  1  (c   )
2 P  
 2 
A distribuição de y pode então ser escrita como:
1
p{ y} 
1 2 y
e
2
(18)
Generalizando os resultados das equações (12) e (18), pode-se escrever a função
de distribuição de y (Distribuição do Qui-quadrado) como combinações para f e 2 graus
de liberdade, respectivamente. Assumindo que a função de distribuição para
y1  i 1 ui2 é igual a:
f
p{ y1} 
1
f
2 . 
2
f
2
 f 
 1 
2 
1
.y
.e
1
 y1
2
(19)
e, genericamente,
p{ y} 
1
f
2 . 
2
f
2
.y
 f 
 1 
2 
.e
1
 y
2
,
o que conduz a
145
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
P{ 2 } 
1
 f 
2 . 
2
f
2
.
2
0
x
 f

 1 
2 
.e
1
 x
2
(20)
dx
Onde:  = Função Gama.
6 - A FUNÇÃO GAMA
A Função Gama, simbolizada por (n), pode ser definida, se n>0, como:

(n)   u n1e u du
(21)
0
Usando a Teoria das Transformadas de Laplace, algumas propriedades
importantes da Função Gama podem ser deduzidas.
a) Função Gama de n  0 :


0
0
P
(1)   u n 1e u du   u 11e u du  lim  e u du  lim (1  e  P )  1
P  0
P 
b) Função Gama Genérica, se n é um número inteiro e positivo :

P
(n  1)   u n e u du  lim  u n e u du 
0

P  0
(n  1)  lim (u n )(e u )
P 
P
0
P
 
P
  (nu n 1 )(e u )du  lim  P n e  P  n  u n 1e u du
P 
0
0

P
(n  1)  n  u n 1e u du  n(n)  n!
0
Por essa razão, por vezes,a Função Gama é chamada de Função Fatorial .
c) Demonstração da propriedade 1 2    :
P
P
Ip   e  x dx   e  y dy  e seja : lim Ip  I
0
2
2
P 
0
PP
P
P
2
2
2
2
e
Ip    e  x dx. e  y dy     e ( x  y ) dxdy  
0
0

p

 00
2
( x 2  y 2 )
dxdy
146
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
onde p representa um quadrado de lado P.
 e
( x2  y 2 )
1



2
0
dxdy Ip 2   e  ( x
 y2 )
dxdy , e usando coordenada s polares(r, Θ), pode - se escrever :
1

P
e  r rdrd  Ip 2  
2


2
0
r 0
1  e   Ip
4

2
P2
2


P 2
r 0
e  r rdrd
2
1  e   lim Ip
4

2 P 2
P 
2
 I2 

4
I

2
Aplicando-se a propriedade descrita no item 6.a, pode-se escrever que:
 

2

1
1
    u 2 .e u du  com : u  v 2 , obtém - se :     e v dv  2
 
2
2 0
2 0
1
Aplicando-se agora a propriedade do item 6.b, obtém-se:
1 1

3
1 
     1  n  1  n! nn     
2 2
2
2
2 
d) Demonstração do fatorial de (n/2) :
5 3 3 3 
 7  5  5  15 
     
, analogamen te, para n  7,      
4
8
2 2 2
2 2 2
Assim, para qualquer n, pode - se generaliza r :
147
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
 n   n   n  n
 
     1!    1  2 ...
 2   2   2  2
 2
(d.1)
Somando - se 1 em cada termo da equação descrita acima, deduz - se o seguinte resultado :
 n  1  n
 n n n

    1  1!      !
 2  2
  2  2 2
(d.2)
Substituindo-se (d.2) em (d.1), obtém-se:
 n   n  n   n   n  n  n
 
 !     1!  !    1  2 ...
 2   2  2   2   2  2  2
 2
(d.3)
expressão que, segundo Hald (1952), representa o fatorial de um número não inteiro.
7 - A DISTRIBUIÇÃO DO DESVIO PADRÃO
sˆ 2   2
De acordo com o desenvolvimento proposto por Hald (1952), se
s 
então:
2
n 1 ,
2
f , onde f = (n-1)
A média desta distribuição será:
M {s} 

f
M (  )  c4 .
(22)
148
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
M { } 
f
2
2 . 
2
2
f
1
2 2
  
f

1
r
0
. .e
r

2
2
d ( ) 
f
2
( f r )
1
2
  
f
1
2
2 . 
2

2
0
.e

2
2
d ( 2 ) 
( f r )
2
 f r
 f r
.


( r ) 
 2 22  2 
f
f
f
 
2 2 . 
2
2
M { r } 
desde que :
2
f r
2
( f r )
1
2
  
 f r

1
.

 2 
2
0
.e

2
2
d ( 2 )  1
 f 1


2 

Para r  1, M { }  2
, e c 4 será igual a :
f
 
2
c4 
M { }

f
 f 1
n
n 

 

  1!
2  2 
2
2
2

2 


f
n 1  n 1 
n 1  n 1 
f
 


 1!

2
 2 
 2

(23)
Portanto, a média ou o ―valor esperado‖ do desvio padrão amostral é c4, onde
c4 é uma constante que depende apenas de n.
A partir do resultado de (23) o desvio padrão do desvio padrão amostral pode ser
então explicitado como:
E ( x)  c 4 .
Var ( x)  E ( x )  [ E ( x)]
2
2
Var ( )  E ( 2 )  [ E ( )]2

Var ( )   2  c42 . 2   2 1  c42 
 s  Var ( )   2 1  c42    1  c42  (24)
149
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
8 - LIMITES DE CONTROLE PARA AS CARTAS X-BAR E S DE SHEWHART
Durante a década de 20, Walter A. Shewhart propôs pela primeira vez um modelo
geral de cartas de controle baseado na idéia de que, estando o processo estudado sob
controle estatístico (as medidas individuais são provenientes de uma mesma população)
e com distribuição normal, então uma estatística W qualquer, calculada a partir dos
valores amostrais, e que tenha média (W) e desvio padrão (W) conhecidos, terá uma
probabilidade próxima a um (99,74%) de estar no intervalo (W) 3(W).
Conseqüentemente, os limites do gráfico de controle, para essa estatística, serão:
Limite Superior de Controle
LSC = (W) +3(W)
Limite Médio de Controle (Central)
LM =
Limite Inferior de Controle
LIC = (W) -3(W)
(W)
Assim, quando um valor cai fora do intervalo estabelecido pelos limites de
controle, é possível que a hipótese de que o processo esteja sob controle não seja mais
válida, indicando a presença de uma causa especial de variação (Ramos, 1995).
Na prática, (W) e (W) são desconhecidos, tornando-se necessário estimá-los a
partir dos valores amostrais obtidos do processo. É para uma estimativa como essa no
caso de se construir uma carta do tipo X-barra/S, que se utilizam os coeficientes C4 e
C5, deduzidos anteriormente. Associando C4 e C5 aos limites modelados por Shewhart,
e, considerando-se que o desvio padrão amostral (s) é igual a /n1/2, obtém-se:
150
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Limite Gráfico
Para Carta X-barra
LSC  x  3
Limite Superior de Controle
s
Para Carta S
LSC  s  3
c4 n
LMC  s
LMC  x
Limite Médio de Controle (Central)
LIC  x  3
Limite Inferior de Controle
s
1  c 42
c4
s
LIC  s  3
c4 n
s
1  c42
c4
Tabela 1. Limites de Controle para as cartas de Shewhart
9 - TABELA DOS VALORES DOS COEFICIENTES C4 E C5:
Como foi demonstrado nas seções precedentes, os coeficientes das Cartas de
Shewhart X-barra e S dependem somente do tamanho da amostra n. Portanto, tem-se
que:
n
C4
C5
2
3
4
5
6
7
8
9
10
11
12
0,798 0,886 0,921 0,940 0,952 0,959 0,965 0,969 0,973 0,975 0,978
0,603 0,463 0,389 0,341 0,308 0,282 0,262 0,246 0,232 0,221 0,211
Tabela 2. Coeficientes C4 e C5 para as cartas de Shewhart.
10 – CONCLUSÃO
O presente artigo pautou-se na investigação matemática dos coeficientes usados
para o estabelecimento dos limites de controle das cartas de Shewhart, bem como
procurou demonstrar qual modelamento estatístico foi usado e porque ele é adequado.
Procurou-se demonstrar como a Função Gama pode ser usada para descrever algumas
distribuições de probabilidade, por vezes comum em literaturas do gênero, embora
tenha seu emprego raramente justificado pelos escritores.
151
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
O argumento do trabalho origina-se na utilização cada vez mais constante desses
tipos de cartas de controle e, não obstante, das poucas referências disponíveis sobre o
assunto. Os compêndios sobre a matéria, na maioria das vezes, apenas citam os valores
tabelados para os coeficientes, e, raramente fazem referência à sua origem estatística ou
matemática.
O presente artigo, de cunho fundamentalmente didático, pretende servir de auxílio
a todos aqueles que, de alguma maneira, vivem os desafios da busca pela Qualidade
Total ou se interessem pelas peculiaridades dos procedimentos de engenharia; a todos
aqueles que se relacionam de alguma forma com a Engenharia de Produção,
procurando, no desenvolvimento de suas competências, um melhor entendimento das
questões que envolvem o Controle de Qualidade Moderno.
11- REFERÊNCIAS BIBLIOGRÁFICAS
BARTMANN, Flávio C. Idéias básicas do Controle Moderno de Qualidade. 7º
Simpósio Nacional de Probabilidade e Estatística. Campinas, UNICAMP, 1986, p. 4167.
CHAMP, C.W. WOODALL, W.H. Exact result for Shewhart Control Charts with
Supplementary Runs Rules. Technometrics. V.29, p. 393-399,1987.
HALD, A. Statistical Theory with Engineering Applications. New York: John Wiley
& Sons, 1952, p. 90-300.
MONTGOMERY, D.C. Introduction to Statistical Quality Control. 2 ed. New York,
John Wiley, 1991.
NELSON, L.S. Interpreting Shewhart X-Bar Control Charts. Journal of Quality
Technology, Milwaukee, V.17, n.2, p. 114-116, Apr.1985.
152
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
PARR, W.C. “How do World Class Organizations Use Statistics? (A Study of Best
Practices)”. ASQC Statistics Division Newsletter 15, p. 21-27,1995.
RAMOS, A.W. Controle Estatístico de Processo para Pequenos Lotes. São Paulo,
Ed.Edgard Blucher Ltda., p. 7-9, 1995.
WAERDEN, B. L. Mathematical Statistics. Berlin: Springer-Verlag, 1969. P.55-59.
WOODAL, W.H. Control Charts based on Attribute Data: Bibliography and Review.
Journal of Quality Technology, V.29, n.2, p. 174, Apr.1997.
153
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
RESENHA DO ARTIGO
Experimentos com mistura para otimização de
processos:
Uma aplicação com respostas não normais
Catarine Conceição Moura Tenório
Graduando em Engenharia de Produção
Faculdade de Ciências Sociais Aplicadas de Extrema(FAEX)
[email protected]
RESUMO
Este trabalho é uma resenha do artigo ―Experimentos com mistura para otimização de
processos: Uma aplicação com respostas não normais‖ de autoria de Antônio Fernando
de Castro Vieira e coautoria de Luiz Henrique Abreu Dal Bello. O trabalho apresenta
uma metodologia para planejamento de experimentos com mistura, ilustrada com o caso
real do estudo de um misto químico que constitui um subsistema de um mecanismo de
retardo para acionamento de um motor foguete. O objetivo do estudo é saber qual a
proporção dos componentes da mistura que propicia um tempo de queima especificado
em projeto.
INTRODUÇÃO
A maioria dos produtos é feitos a partir da mistura de vários componentes.
Produtos farmacêuticos, alimentos, bebidas e produtos químicos são alguns exemplos.
Para tais produtos, o interesse é determinar qual é a proporção dos componentes que
conduz a um resultado desejado em termos de uma variável que caracteriza a qualidade
154
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
do produto. Quando não se sabe de antemão qual é a proporção ideal de cada
componente, devemos realizar experimentos. Nesses experimentos são arbitradas várias
combinações de proporções dos componentes e então são observados os valores
correspondentes da característica de qualidade. Estes valores são denominados respostas
do experimento (Vieira & Dal Bello, 2006).
O objetivo do estudo é saber qual é a proporção de cada um dos componentes que
propicia um tempo de queima (resposta) de 11 segundos para acionamento de um motor
foguete com tolerância de 1s.
Será apresentado de forma sucinta, o estudo realizado para chegar aos resultados
esperados dentro dos padrões e objetivos estabelecidos.
COMPONENTE EM ESTUDO
O componente em estudo é composto por uma mistura de três elementos: Zarfesil
(x1), Vidro Moído (x2) e Nitrocelulose (x3).
Dessa forma, as restrições nas proporções dos três componentes são as seguintes:
x1 + x2 + x3 = 1
0,79 ≤ x1 ≤0,87
0,08 ≤ x2 ≤ 0,16
0,05 ≤ x3 ≤ 0,07
Considera-se que em experimentos envolvendo mistura, a soma das proporções
dos componentes é sempre igual a 1.
Formula genérica
EXPERIMENTOS
Com as restrições do componente, foi utilizado o software Design-Expert para a
escolha dos pontos candidatos e seleção dos pontos experimentais segundo o critério D155
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
otimização. Considerando a sugestão de Myers & Montgomery (2002) para a seleção
dos pontos candidatos na região experimental resultante e sabendo que o modelo
adotado inicialmente é o quadrático, o software sugere um total de 10 pontos, dos quais
6 são necessários para o ajuste do modelo quadrático e 4 pontos adicionais são para
testar a falta de ajuste do modelo. Ademais, 4 dos 10 pontos são replicados para estimar
o desvio-padrão da resposta, perfazendo um total de 14 observações. Com isso, o
Design-Expert gera um projeto de experimento D-Ótimo conforme a Tabela 1.
Nesse tipo de experimento tem-se usado sistematicamente o modelo linear
clássico, baseado no método dos mínimos quadrados. Entretanto, para o caso do misto,
este modelo foi considerado inadequado, uma vez que há indicação de que a variância
da resposta não é constante, aumentando quando a média aumenta, o que viola um dos
pressupostos do modelo linear clássico.
Posteriormente foi realizado um estudo com o método Quase-verossimilhança
(QV). Por analogia, a quasi-deviance de um modelo qualquer é definida como sendo o
desvio deste modelo em relação ao modelo saturado, no método de quaseverossimilhança não é necessário definir a distribuição de probabilidade da resposta,
156
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
para tanto, basta definir a relação entre a média e a variância, e a forma com que os
efeitos sistemáticos das variáveis regressoras são transmitidos para a média.
Utilizando uma rotina de busca exaustiva, na região das restrições dos componentes da
mistura, codificada na linguagem do MATLAB, foi encontrada a seguinte solução:
Com este modelo, foi possível determinar a proporção de cada um dos três
componentes do misto, de modo que, a previsão do tempo de retardo tenha variância
mínima e valor esperado igual a 11s. Entretanto, houve evidências de que a solução
atual resultaria em um processo produtivo de qualidade inadequada, sendo, portanto,
necessário continuar com novos experimentos.
CONCLUSÃO
Foi realizado dois experimentos para estabelecer a mistura ótima com o tempo de
11 s e tolerância de 1s para o acionamento do motor foguete, entretanto o primeiro
experimento não teve sucesso devido o resultado violar o modelo utilizado. O segundo
experimento conseguiu chegar ao valor das misturas em relação ao tempo, mas que
afetaria a qualidade do produto. Visto que para o sucesso de um projeto a variável
qualidade é de suma importância, neste caso os resultados não foram 100%
satisfatórios. É recomendável que continue os experimentos com o estreitamento das
restrições nas proporções dos componentes do misto, visto que as restrições anteriores
proporcionaram um projeto com pontos experimentais, cujas respostas resultaram no
intervalo de 0,23s até 19,70s. Tal estreitamento visa obter um projeto com pontos
experimentais mais próximos à solução desejada, de modo a reduzir o intervalo da
resposta observada.
157
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Os autores enfatizam que este é o único caso, por eles conhecido, que considera
um experimento com mistura de resposta não normal.
Referências Bibliográficas
Atkinson, A.C. & Riani, M. (2000). Robust Diagnostic Regression Analysis. SpringerVerlag, New York, NY.
Cornell, J.A. (1990). Experiments with Mixtures: Designs, Models and the Analysis
ofMixture Data. Second edition, John Wiley & Sons, New York, NY.
Cook, R.D. & Weisberg, S. (1999). Applied Regression Including Computing
andGraphics. John Wiley & Sons, New York, NY.
Dal Bello, L.H.A. (2005). Experimentos com Mistura: Uma Aplicação com
RespostasNão-Normais. Dissertação de Mestrado, PUC-Rio, Departamento de
EngenhariaIndustrial.
Davison, A.C. (2003). Statistical Models. Cambridge University Press, Cambridge, UK.
Goldfarb, H.B.; Borror, C.M. & Montgomery, D.C. (2003).Mixture-Process
VariableExperiments with Noise Variables.Journal of Quality Technology, 35, 393-405.
Lewis, S.L.; Montgomery, D.C. & Myers, R.H. (2001b). Confidence IntervalCoverage
for Designed Experiments Analysed With GLMs. Journal of QualityTechnology, 33,
279-292.
Lindsey, J.K. (1997). Applying Generalized Linear Models. Springer-Verlag,New York,
NY.
158
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
McCullagh, P. & Nelder, J.A. (1989).Generalized Linear Models.ChapmanHall,London, UK.
Myers, R.H. & Montgomery, D.C. (1997). A Tutorial on Generalized Linear
Models.Journal of Quality Technology, 29, 274-291.
Myers,
R.H.
&
Montgomery,
D.C.
(2002).
Response
Surface
Methodology.Secondedition, John Wiley & Sons, New York, NY.
Myers, R.H.; Montgomery, D.C. & Vining, G.G. (2002).Generalized Linear
Modelswith Applications in Engineering and the Sciences.John Wiley & Sons, New
York,NY.
Prescott, P. (2004). Modelling in Misture Experiments Including Interactions
withProcess Variables.Quality Technology & Quantitative Management, 1, 87-103.
Prescott, P.; Dean, A.M.; Draper, N.R. & Lewis, S.M. (2002). Mixture
Experiments:ILL-Conditioning and Quadratic Model Specification. Technometrics, 44,
260-268.
Vieira, A.F.C. (2004). Análise da Média e Dispersão em Experimentos Fatoriais
nãoReplicados para Otimização de Processos Industriais. Tese de Doutorado, PUCRio,Departamento de Engenharia Industrial.
159
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
RESENHA DO ARTIGO
TEORIA DE PORTFÓLIO: COMPOSIÇÃO ÓTIMA DE UMA CARTEIRA DE
INVESTIMENTO.
Natalia de Cassia Moreira
Graduanda em Engenharia de Produção
Faculdade de Ciências Sociais Aplicadas de Extrema
[email protected]
Setembro de 2013
RESUMO
O Objetivo do artigo é mostrar técnicas de aplicação da Teoria do Portfólio de Harry
Markowitz para grandes números de ativos. Nesse, é utilizada a programação linear e a
linguagem GAMS para maximizar retornos de investimentos.
INTRODUÇÃO
A aplicação da Teoria do Portfólio de Harry Markowitz será realizada em três partes. A
primeira será uma revisão da Teoria do Portfólio, a segunda será a escolha dos ativos
utilizando-se a programação linear e a terceira será a aplicação dos testes do modelo e a
apresentação dos resultados.
1.0 A TEORIA DO PORTFÓLIO
A Teoria do Portfólio de Harry Markowitz tem o objetivo de maximizar o retorno de
investimento de acordo com os pré-requisitos do investidor e perante os riscos
envolvidos. Segundo MARKOWITZ (1952), o processo de escolha de um portfólio
divide-se em duas partes: primeiro, começa com observação e experiência do
administrador de fundos e termina com crenças sobre a avaliação do desempenho
futuro; segundo, parte das crenças relevantes sobre o desempenho futuro e termina com
a escolha do portfólio.
O retorno de um Portfólio é dado por:
Rp =wl RI +w2 R2 + ... +wgRg;
Na qual:
Rp: taxa de retorno de um portfólio em um período;
RG: taxa de retorno do ativo g no período;
W g peso do ativo g no portfólio;
G: número de ativos no portfólio.
O retorno esperado de um Portfólio, com ativos arriscados, é dado pela
expressão abaixo:
E(Ri) p1 ri + p2 r2 + ... + pn m
160
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Na qual:
m: taxa de retorno possível para o ativo i;
pn: probabilidade da taxa de retorno n ocorrer para o ativo i;
N: número de possíveis ocorrências da taxa de retorno.
Para medir o risco do investimento são usuais as ferramentas estatísticas variância,
desvio padrão e correlação entre os ativos. A diversificação de Markowitz relaciona o
grau de correlação entre os retornos dos ativos e procura combinar ativos que têm
correlações baixas, permitindo a composição de uma carteira com baixo desvio padrão.
2.0 A TEORIA DO PORTFÓLIO E A PROGRAMAÇÃO LINEAR
Na construção de um portfólio eficiente com um grande número de ativos são
necessários muitos cálculos. Nesse caso, a programação linear será uma ótima
ferramenta para realizar esses cálculos. Com os cálculos, será possível fazer análise do
investimento.
2.1 UM ESTUDO DE CASO
O diretor-presidente do Grupo X, Dr. Joaquim, deseja aplicar R$ 100.000,00 em CDB e
nas principais ações do IBOVESPA. O princípio é "maior lucro com menor risco
possível". Para isso, foram selecionadas, por um gerente financeiro, as dez principais
ações conforme a tabela abaixo:
Tabela 1: Carteira teórica das principais ações componentes do IBOVESPA
Ação
TELB4
PETR4
TELB3
TLSP4
ELET3
ELET6
CMIG4
VALE4
BESP4
BBDC4
TELEBRÁS
PETROBRÁS
TELEBRÁS
TELESP
ELETROBRÁS
ELETROBRÁS
CEMIG
V ALE RIO DOCE
BANESPA
BRADESCO
Tipo
Qnte Teórica
(1)
Participação(%)(2)
PN*
PN*
ON*
PN*
ON*
PNB*
PN*
PNA
PN*
PN*
32.216,50
3.280,30
4.662,41
1.611,93
11.950,33
11.060,72
8.262,82
12,54
4.486,24
27.906,17
40,977
8,356
4,507
4,431
3,986
3,902
3,157
3,044
2,713
2,467
(*) Cotação por lote de mil ações.
161
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
(l) Quantidade Teórica válida para o período de vigência da carteira, sujeita a alterações
somente no caso de distribuição de proventos (dividendo, bonificação e subscrição) pelas
empresas.
(2) Participação relativa das ações da carteira, divulgada para a abertura dos negócios do
dia 23/07/98, sujeita a alterações em função das evoluções dos preços desses papéis.
Fonte: http//:www.enfoque.com.br/cotacoes (31/07/98).
Com as escolhas dos ativos, foram calculadas as correlações entre os mesmo e foram
escolhidas as correlações mais baixas conforme diz a teoria. Segue os cálculos na tabela
abaixo:
Tabela 2: Correlação entre as principais ações componentes do IBOVESPA
Cód.
BES4
BBD4
CMI4
ELE3
ELE6
PET4
TEL3
TEL4
TLS4
VAL4
BES4
1
0,59
0,6
0,36
0,4
0,81
0,62
0,57
0,68
0,8
BBD4
0,59
1
0,87
0,69
0,72
0,8
0,77
0,86
0,8
0,76
CMI4
0,6
0,87
1
0,88
0,89
0,91
0,89
0,88
0,88
0,69
ELE3
0,36
0,69
0,88
1
0,99
0,74
0,89
0,81
0,78
0,45
ELE6
0,4
0,72
0,89
0,99
1
0,77
0,9
0,82
0,81
0,49
PET4
0,81
0,8
0,91
0,74
0,77
1
0,87
0,84
0,89
0,85
TEL3
0,62
0,77
0,89
0,89
0,9
0,87
1
0,9
0,86
0,68
TEL4
0,57
0,86
0,88
0,81
0,82
0,84
0,9
1
0,79
0,78
TLS4
0,68
0,8
0,88
0,78
0,81
0,89
0,86
0,79
1
0,75
VAL4
0,8
0,76
0,69
0,45
0,49
0,85
0,68
0,78
0,75
1
A correlação foi calculada com base no preço de fechamento dos ativos de 1/01 a 30/07/98
Os ativos escolhidos estão na tabela a abaixo:
Tabela 3: Correlação entre as ações escolhidas para compor o portfólio
Código ELE3 TEL4 BES4 VAU
BES4
0,36
0,57
1
0,8
VAL4 0,45
0,78
0,8
1
ELE3
1
0,81 0,36 0,45
TEL4 0,81
1
0,57 0,78
Com a escolha dos ativos, Dr. Joaquim quer saber quanto deve aplicar em cada ativo
para o mês de julho/98 fazendo as seguintes exigências:
* Poderá perder, no máximo, 1% das "sobras";
* Para evitar concentração em determinados ativos, exige que, no maximo, 20% seja
aplicado em CDB, 40% em BANESPA, 10% em ELETROBRAS, 10% em TELEBRAS
e 20% em VALE DO RIO DOCE; e a carteira deverá render, no mínimo, igual ao
rendimento da CDB.
162
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
A formulação matemática do problema será:
* Objetivo: Maximizar o retorno da Carteira;
* Alternativas:
Aplicação em CDB (xl);
Aplicação em BANESPA (x2);
Aplicação em ELETROBRAS (x3);
Aplicação em TELEBRAS (x4);
Aplicação em VALE R.DOCE (x5);
* Restrições:
Capital; risco; exigências máximas da quantidade de ativos; e rentabilidade mínima.
A estrutura matemática deste exercício pode ser apresentada assim:
MAX RC = RM1X1+ RM2X2+ RM3X3+ RM4X4+ RM5X5
sujeito à: DP1X1 + DP2 X2 + DP3X3 + DP4X4 + DP5X5<= 1.000;
X1 <= 20.000;
X2<= 40.000;
X3 <= 10.000;
X4<= 10.000;
X5<= 20.000;
RM1X1+ RM2X2+ RM3X3+ RM4X4+ RM5X5 > = RM1* 100.000
RMiXi.: retorno médio/dia para o ativo i; e
DPiXi.: desvio padrão do ativo i.
Nota: o cálculo do retorno médio diário e do desvio padrão de cada ativo foram
elaborados com base no período de 31/01 a 30/07/98.
Após estruturar o modelo matemático para cada período e aplicar a linguagem GAMS, o
Sr. Joaquim fez a aplicação de acordo com a tabela abaixo:
Tabela 4: Parcela do capital aplicado em cada Ativo, em R$.
FEV
Xl
X2
X3
X4
X5
CDB
20.000,00
40.000,00
10.000,00
1.016,87
MAR
ABR
20.000,00
0,00
8.348,13
0,00
10.000,00
0,00
10.000,00
0,00
0,00
20.000,00
0,00
28.983,13 31.651,87 100.000,00
MAI
0,00
JUN
0,00
0,00
0,00
0,00
0,00
0,00
0,00
0,00
0,00
100.000,00
100.000,00
163
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
Os períodos que não cumpriram as imposições do Dr. Joaquim, no caso abril, maio e
junho, o capital seria aplicado em CDB, pois a eventual aplicação em ações traria um
rendimento médio negativo. Segue o retorno médio ótimo do investimento na tabela
abaixo:
Tabela 5 - Retorno médio da carteira e CDB para cada período, em R$.
MAR
FEV
Carteira
CDB
Total
ABR
MAI
JUN
4.869,90 5.535,20
0,00
0,00
0,00
344,90
487,75 1.128,00 1.250,00 1.209,00
5.214,80 6.022,95 1.128,00 1.250,00 1.209,00
O peso do retorno de cada mês sobre a soma dos rendimentos totais para os cinco
períodos, que foi de R$14.824,75 se encontra na tabela a seguir:
Tabela 6 - Ponderação do retorno médio mensal de cada mês sobre o rendimento médio
total para o período (fev-jun/98).
TOTAL
JUN
5.214,80 6.022,95 1.128,00 1.250,00 1.209,00 14.824,75
35%
41%
8%
8%
8%
100%
FEV
MAR
ABR
MAI
Esses pesos foram utilizados usados para fazer os ativos da carteira do mês de julho
multiplicando o peso inerente a cada mês com a parcela de capital aplicada em cada
ativo para o mesmo mês, obteve-se a seguinte distribuição:
Tabela 7 - Quantidade de R$ a ser aplicada em cada ativo, considerando o peso de cada
mês sobre o retorno médio total para o período (fev-jun/98).
FEV
X1
X2
X3
X4
X5
CDB
MAR
ABR
MAI
7.035,20 8.125,60
0,00
0,00
14.070,40 3.391,68
0,00
0,00
3.517,60 4.062,80
0,00
0,00
57,69 7.062,80
0,00
0,00
0,00 8.125,60
0,00
0,00
10.195,11 12.859,52 7.609,00 8.432,00
JUL
JUN
0,00
15160,00
0,00
14462,00
0,00
7580,40
0,00
7420,49
0,00
8125,60
8.155,00 47.250,63
Total
99999,12
De acordo com o exemplo, o mês de fevereiro, que teve R$20.000,00 aplicado em Xl
(CDB). Multiplicando esse valor pelo peso de ativo no rendimento total deste mês
(35,176%), obtém-se R$7.035,20. Somando com os valores obtidos para X1 em relação
aos outros meses, chega-se ao valor de R$15.160,00 a ser aplicado em Xl, em julho. De
164
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
acordo com os dados reais para o mês de julho/98, vamos comparar o rendimento dessa
proposta de carteira de investimentos mostrados na tabela a seguir:
Tabela 8- Quantidade de R$ aplicada em julho/98, considerando o peso de cada mês
sobre o retorno médio total para o período (fev-jun/98)
QNTE APLICADA EM JULHO
ATIVO
X1
X2
X3
X4
X5
CDB
TOTAL
15.160,00
14.462,00
7.580,40
7420,49
8.125,60
47.250,63
99999,12
RENDIMENTO DO
ATIVO EM JULHO(1)
1,142%
16,801%
3,826%
14,871%
8,655%
1,142%
RETORNO DE
CADA ATIVO
173,06
2429,70
289,25
1103,53
703,31
539,39
5238,25
(1 ) Rendimento de cada ativo no mês de julho foi considerado como a divisão preço do ativo no dia 31/07 pelo preço
do ativo no dia 01/07.
De acordo com os dados acima, verificamos que o retorno da carteira proposta (5,238%)
foi bem superior ao rendimento mensal do CDB (1,142%). O montante do Sr Joaquim
foi de R$ 105.238,25. A estratégia gerou um retorno excedente de R$ 4.186,25 sobre o
CDB (caso ele aplicasse o capital total somente em CDB, teria um montante de R$
101.142,00, assim, R$ 105.238,25 -R$ 101.142,00 = R$ 4.186,25).
CONCLUSÃO
A Teoria do Portfólio de Harry Markowitz tem o objetivo de maximizar o retorno de
investimento de acordo com os pré-requisitos do investidor e perante os riscos
envolvidos.
O Intuito do artigo foi diminuir os riscos do capital do investidor Dr Joaquim para o
mês de julho/98 melhorando a alocação do mesmo. Foi utilizada a linguagem GAMS e
as técnicas de programação linear, respeitando os pré-requisitos exigidos pelo
investidor.
Se caso o Dr Joaquim aplicasse suas sobras de caixas de acordo com a proposta desse
artigo, ele obteria um retorno superior a mais de quatro vezes e meio de uma simples
aplicação em CDB (5,283% da carteira contra 1,142% do CDB). A carteira proposta foi
ponderada pelas quantidades sugeridas pela resolução do problema e pelo retorno médio
de cada mês. Lembre-se que foi feito um estudo estatístico dos riscos, ou seja, uma
estimativa do risco real dos ativos.
Os estudos dos riscos dos ativos podem variar de acordo com o perfil de cada
investidor, podendo ser ele mais ou menos avesso ao risco, modificando as quantidades
máximas de ativos ou incluindo ações mais voláteis (1).
(1) Ação Volátil - Tipo de ação que normalmente apresenta um grau de variação de cotação maior que o conjunto do mercado.
165
E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX
Edição 04 – Ano 2 – 2013
REFERÊNCIAS BIBLIOGRÁFICAS
FABOZZI, F.J. lJ ivestment management. New Jersey: Prentice Hall, 1995.
FUNDOS de investimento terão nova regulamentação. A Cidade, Ribeirão Preto, 09
ago. 1998.
MYERS, S.e., ROBICHEK, A. A. Otimização das decisões financeiras. São Paulo:
Atlas, 1971.
MARKOWITZ, H.M. Portfolio selection Journal of Finance, v.07, p.77-91, mar. 1952.
STlX, G. A Ca1culus of risk Scientific American, v.87 ,n.03, may 1998 .
166
Download

E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2