E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Editorial Prezados leitores, Apresentamos a 4a edição da revista E-Locução. Nesta edição, trazemos duas novidades: a primeira é, com a formação do NUPAC ( Núcleo de Pesquisas acadêmicas e comunitárias ), esta revista passará a ser avaliada por tal núcleo – dando assim um grande passo para a contínua busca por qualidade acadêmica, ainda quanto a esta questão a coordenação editorial passará a ser feita pelo professor Marcello Teixeira Franceschi – sendo assim substituído no corpo editorial pelo professor José Eduardo do Couto Barbosa. A segunda novidade é que, pela primeira vez, a nossa Revista traz uma seleção especial de artigos de apenas uma das diversas áreas do conhecimento. Com o intuito de homenagear e reconhecer a sua importância e seu crescimento, nós separamos oito artigos e duas resenhas que contemplam temas da área das Engenharias. Como esses artigos apresentam muitos gráficos e fórmulas, optamos por manter as formatações originais, a fim de não modificar a estrutura de tais elementos. Entre os textos enviados foram selecionados, para este número especial, os seguintes artigos: -MÉTODO DE INTERSEÇÃO NORMAL À FRONTEIRA APLICADO À OTIMIZAÇÃO DO TORNEAMENTO DO AÇO ABNT 52100 COM FERRAMENTAS DE CERÂMICA MISTA, que apresenta um estudo detalhado sobre a aplicação do Método de Interseção Normal à Fronteira na otimização do processo de usinagem de um aço SAE/ABNT 52100 – 55 HRC de modo a se obter uma fronteira equiespaçada de Pareto para a Vida da ferramenta de cerâmica mista e de geometria convencional e da Rugosidade média da peça; - MÉTODO DE OTIMIZAÇÃO MULTIOBJETIVO BASEADO NA ANÁLISE ENVOLTÓRIA DE DADOS, que realiza uma abordagem alternativa híbrida, combinando Metodologia de Superfície de Resposta (RSM) e Análise Envoltória de Dados (DEA – Data Envelopment Analysis), uma popular técnica de programação linear utilizada para comparar a eficiência das Unidades de Tomada de Decisão (DMU – Decision Making Units); E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 - OTIMIZAÇÃO DO PROCESSO DE HOMOGENEIZAÇÃO DE EMULSÕES W/O DE PETRÓLEO COM O USO DA METODOLOGIA DE SUPERFÍCIE DE RESPOSTA, que demonstra a aplicação da Metodologia de Superfície de Resposta na determinação das condições ótimas de homogeneização de emulsões de petróleo do tipo W/O (Water in Oil); - ESTUDO DA MINIMIZAÇÃO DE ERRO NAS MEDIÇÕES DE CONCENTRAÇÃO DE EMULSÕES POR TITULAÇÃO KARL-FISCHER UTILIZANDO-SE PROJETO DE EXPERIMENTOS, que objetiva estudar a eficiência da titulação Karl-Fischer como procedimento de medição de concentração de emulsões do tipo água em óleo (petróleo), bem como avaliar o melhor conjunto de parâmetros e respectivos níveis de funcionamento do equipamento de medição de concentração; - RISCO: MEDIDAS DE RISCO, AVERSÃO E SEU GERENCIAMENTO, que expõe ao investidor as variáveis que afetarão as suas decisões e os cálculos que podem ser feitos para a mensuração destas variáveis; - OTIMIZAÇÃO DUAL MULTIOBJETIVO NO TORNEAMENTO DO AÇO ABNT 12L14, que propõe a aplicação da função de Erro Quadrático Médio na minimização dos parâmetros de rugosidade superficial (Ra, Ry, Rq, Rt e Rz) no processo de torneamento do aço de corte fácil ABNT 12L14, através de ensaios de curta duração utilizando ferramenta de metal duro; - PROJETO DE PARÂMETROS ROBUSTOS PARA O FRESAMENTO DE TOPO DO AÇO ABNT 1045, que enfoca a aplicação de um método experimental para determinar as condições ótimas da rugosidade superficial Ra no fresamento de topo do aço ABNT 1045; - UMA INVESTIGAÇÃO SOBRE OS COEFICIENTES C4 E C5 DAS CARTAS DE CONTROLE SHEWHART X-BARRA E S, que propõe uma tentativa de se estabelecer uma fundamentação teórica sobre a questão, ainda escassa em deduções, apesar das inúmeras literaturas de controle estatístico de processos. Por fim, trazemos duas resenhas: E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 - EXPERIMENTOS COM MISTURA PARA OTIMIZAÇÃO DE PROCESSOS: UMA APLICAÇÃO COM RESPOSTAS NÃO NORMAIS, que objetiva saber qual a proporção dos componentes da mistura que propicia um tempo de queima especificado em projeto. - TEORIA DE PORTFÓLIO: COMPOSIÇÃO ÓTIMA DE UMA CARTEIRA DE INVESTIMENTO, que visa mostrar técnicas de aplicação da Teoria do Portfólio de Harry Markowitz para grandes números de ativos. Boa leitura! Luís Eduardo Machado. Coordenador do Conselho Editorial E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 E-Locução – ISSN 2238-1899 v.1, n.4, jul/dez 2013 Publicação Semestral da FAEX – Faculdade de Ciências Sociais Aplicadas de Extrema CONSELHO EDITORIAL Coordenador Prof. Luís Eduardo Machado Editores Prof. José Eduardo do Couto Barbosa Prof. Marcello Teixeira Franceschi Prof. Daniel Amaro Cirino de Medeiros Prof. Edilberto Raimundo Daolio CORPO EDITORIAL Administrador Financeiro Prof. João Batista da Silva Revisão de Normalização Prof. Marcello Teixeira Franceschi Prof. Ms. Daniel Amaro Cirino de Medeiros Profa. Eliana Aparecida Del Col Lopes Prof. José Christiano Villas Boas Autores dos textos Projeto Gráfico, Capa e Diagramação Fabrício di Santos Endereço para correspondência Estrada Municipal Pedro Rosa da Silva S/N Vila Rica – Extrema, MG E-mail: [email protected] 2013 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Sumário 1. Método de Interseção Normal à Fronteira Aplicado à Otimização do Torneamento do Aço ABNT 521000 com Ferramentas de Cerâmica Mista....................................7 2. Método de Otimização Multiobjetivo Baseado na Análise Envoltória de Dados...................................................................................................................33 3. Otimização do Processo de Homogeneização de Emulsões W/O de Petróleo com o Uso da Metodologia de Superfície de Resposta....................................................59 4. Estudo da Minimização de Erro nas Medições de Concentração de Emulsões por Titulação Karl-Fisher Utilizando-se Projeto de Experimentos................................79 5. Risco: Medidas de Risco, Aversão e seu Gerenciamento.......................................96 6. Otimização Dual Multiobjetivo no Torneamento do Aço ABNT 12L14................105 7. Projeto de Parâmetros Robustos para o Fresamento de Topo do Aço ABNT 1045.....................................................................................................................120 8. Uma investigação Sobre os Coeficientes C4 e C5 das Cartas de Controle Shewhart X- Barra ES............................................................................................................139 9. Experimentos com Mistura para Otimização de Processos: Uma Aplicação com Respostas não Normais........................................................................................154 10. Teoria de Portfólio: Composição Ótima de Uma Carteira de Investimento.........160 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 MÉTODO DE INTERSEÇÃO NORMAL À FRONTEIRA APLICADO À OTIMIZAÇÃODO TORNEAMENTO DO AÇO ABNT 52100 COM FERRAMENTAS DE CERÂMICA MISTA José Henrique de Freitas Gomes [email protected] Tarcísio Gonçalves de Brito [email protected] Anderson Paulo de Paiva [email protected] Aurélio Xavier de Andrade [email protected] Resumo. Este trabalho apresenta um estudo detalhado sobre a aplicação do Método de Interseção Normal à Fronteira na otimizaçãodo processo de usinagem de um aço SAE/ABNT 52100 – 55 HRC de modo a se obter uma fronteira equiespaçada de Pareto para a Vida da ferramenta de cerâmica mista e de geometria convencional e da Rugosidade média da peça. Estas duas funções objetivo foram estimadas utilizando arranjos de superfície de resposta. Os fatores investigados são: Velocidade Corte (Vc), avanço (fn) e a profundidade de corte (ap). Os resultados indicam a boa adequação do método à otimização deste processo de manufatura. Palavras-Chave:Interseção Normal à Fronteira, RSM, Vida de Ferramentas. 1. INTRODUÇÃO Para estabelecer relacionamentos funcionais adequados entre a Vida das ferramentas e os parâmetros de corte (velocidade de corte, avanço e profundidade de 7 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 corte), muitos experimentos geralmente são necessários, o que torna o custo com a experimentação por vezes proibitivo. De acordo com Choudhury e El-Baradie (1998), muitos pesquisadores têm investigado o efeito dos parâmetros de corte sobre a Vida da Ferramenta e a Rugosidade Média da superfície usinada, utilizando o enfoque de variar um único fator por experimento. O presente estudo, ao contrário, leva em consideração a variação simultânea dos fatores para construir modelos de previsão para as respostas de interesse. Esta abordagem estatística conhecida como Metodologia de Projeto de Experimentos (DOE) consiste em planejar experimentos capazes de gerar dados apropriados para uma eficaz análise estatística, o que resulta em conclusões válidas e objetivas (Montgomery, 2001). Das diversas estratégias experimentais disponíveis, este estudo fará uso dos fatoriais completos e da Metodologia de Superfície de Resposta (MSR). Um fatorial completo é um arranjo experimental no qual cada fator é testado igualmente em cada um dos seus níveis, escolhidos dentro de sua amplitude normal de variação. Isso permite a criação de um modelo de primeira ordem para a variável dependente a partir de um algoritmo de mínimos quadrados. De modo análogo, os arranjos MSR utilizam uma combinação de um arranjo fatorial (completo ou fracionário), pontos médios dos níveis dos fatores (center points) e pontos axiais (extremos) para ajustar, caso seja adequado, um modelo polinomial de ordem mais elevada. Diversos pesquisadores têm empregado esta metodologia para o estudo da usinabilidade dos materiais. Noordin et. al. (2004) aplicaram a MSR para descrever o desempenho de ferramentas de metal duro no torneamento de um aço AISI 1045. Choudhury e El-Baradie (1998) e Dhavlikaret al. (2003) também empregam a RSM para modelar a vida de ferramentas utilizadas no torneamento de aços de alta resistência. Alauddinet al. (1997) realizaram um trabalho similar. Chouldhury e Bartarya (2003) empregaram fatoriais em três níveis para estudar a influência da temperatura no desgaste de ferramentas. Yih-Fong (2005) emprega uma abordagem híbrida entre análise de componentes principais (PCA) e Taguchi para otimizar as múltiplas respostas de um processo de fresamento em HSM (High-speedMachining). 8 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Todos estes trabalhos objetivam a otimização de processos de usinagem, obtida a partir de uma pequena, porém, eficiente quantidade de experimentos. 2. DESENVOLVIMENTO TEÓRICO 2.1 Metodologia de Superfície de Resposta De acordo com Montgomery (2001), a Metodologia de Superfície de Resposta (MSR) é uma coleção de técnicas matemáticas e estatísticas utilizadas para modelar e analisar problemas no qual a forma de relacionamento entre as variáveis dependentes e independentes, é desconhecida. Usualmente, emprega-se, um polinômio de baixa ordem. Se houver curvatura no processo, então, um polinômio ordem mais elevado se torna necessário, tal como descreve a Eq. (1). k k i 1 i 1 y 0 i xi ii xi2 ij xi x j i j (1) Para estimar os parâmetros () na Eq. (1), emprega-se o método dos mínimos quadrados, que na forma matricial ser escrito como: ˆ ( X T X ) 1 X T y (2) Na Equação (2), X é a matriz dos fatores e y, das respostas. Na maioria dos experimentos, assume-se que o modelo linear é adequado; entretanto, para se avaliar a presença de curvatura e, consequentemente, a inadequação do modelo linear, utilizam-se pontos médios dos níveis dos fatores. Serão adicionados ao fatorial completo, tantos pontos centrais quantos forem os K fatores do experimento (Box et al.,1978). 9 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Um típico arranjo para modelos quadráticos é o CCD (Central Composite Design). Formado por três grupos distintos de elementos experimentais: um fatorial, um conjunto de pontos centrais e um grupo de pontos axiais, este arranjo possui a distância entre os pontos centrais e os axiais, constante. Este parâmetro confere rotacionalidade ao experimento, ou seja, a variância da resposta predita em um ponto de interesse x é consistente e estável. Definindo-se a variância como: V yˆ x 2 xT X T X 1 x (3) Então, um arranjo de superfície de resposta será rotacionável se V yˆ x for constante para todos os pontos a igual distância do centro, isto é, a variância da resposta predita é constante em uma esfera de raio α. O valor de depende do número de fatores envolvidos (Montgomery, 2001). Para este trabalho, onde se empregará um arranjo em blocos, é dado por: 1 n n 2 k 1 s 0 1 c 0 ns nc (4) Na Equação (4), Ns0 é o número de center points presentes na porção axial do arranjo e Ns é a quantidade restante de pontos da porção axial. Nc0 é o número de center points da porção cúbica do arranjo (Fatorial Completo) e Nc é a quantidade restante de pontos da porção cúbica. O teste individual de significância de cada coeficiente do modelo pode conduzir à sua otimização através da eliminação ou da adição de termos. Se o P-Value do teste individual para os termos for inferior ao nível de significância, então, o termo é adequado ao modelo e deve, portanto, ser mantido. Se, entretanto, ocorrer o contrário (Box et al., 1978), o termo deve ser excluído se tal procedimento conduzir a um aumento do coeficiente de determinação R2 conjuntamente com a diminuição do termo 10 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 de erro S (este termo é a raiz quadrada do erro médio quadrático). O teste para falta de ajuste do modelo reduzido deve ter um P-value superior ao nível de significância, caso contrário, a eliminação do termo não se justifica. Além disso, a retirada de qualquer termo deve obedecer ao princípio da Hierarquia (Montgomery, 2001), ou seja, se um termo de ordem alta é mantido no modelo, o de ordem baixa também deve ser conservado. Para a construção dos arranjos e a análise estatística, será utilizado neste trabalho o software Minitab®. 2.6 Otimização Geralmente, todo produto ou processo apresenta múltiplas características de qualidade que devem ser atendidas. Desse modo, para alcançar a otimização das mesmas é muito comum se empregar uma função de aglutinação baseada em somas ponderadas. As somas ponderadas são amplamente utilizadas para gerar soluções de compromisso (trade-off) em problemas multiobjetivo e formam, via de regra, um conjunto de soluções viável e não dominadas conhecidas como ―Fronteira de Pareto‖. Apesar de serem extremamente utilizadas, se o conjunto de soluções de Pareto for não Pareto Frontier - MMSE (Fi) Pareto Frontier formando - MMSE convexo, a fronteira passa a ser não convexa e descontínua, clusters de 0,0010 Variable MSE1a * MSE2a MSE1a(S) * MSE2a(S) 0,00045 Variable MSE1b * MSE2b MSE1b(S) * MSE2b(S) soluções Pareto-ótimas em regiões de grande curvatura, porém, descontínuas no espaço 0,0008 0,00040 MSE1 MSE1 de solução (Figura 1), o que é típico de problemas mal condicionados. É importante destacar que um vetor de decisão x* S é Pareto-ótimo se nenhum outro vetor x S 0,00035 0,0006 existir de maneira que f i x f i x* , para todo i = 1, 2, …, k. 0,00030 0,0004 0,00025 0,0002 0,020 0,024 0,028 MSE2 0,032 0,036 0,020 0,024 Pareto Frontier - Weighted Sum 0,028 MSE2 Variable MSE1d * MSE2d MSE1d(S) * MSE2d(S) Variable MSE1c * MSE2c MSE1c(S) * MSE2c(S) 0,0015 MSE1 0,0010 MSE1 0,036 Pareto Frontier - Beta 0,0020 0,0012 0,032 0,0008 0,0010 0,0006 0,0004 0,010 0,0005 0,015 0,020 MSE2 0,025 0,030 0,01 0,02 0,03 MSE2 0,04 0,05 11 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 1 – Desvantagens do Método de Somas Ponderadas. Fonte: próprio autor. Como tal, as somas ponderadas dificilmente detectarão soluções nas regiões nãoconvexas da Fronteira ou em fronteiras não-convexas (descontínuas) que, eventualmente, podem existir (Figura 2). Além disso, este método também não é capaz de gerar uma fronteira uniformemente espaçada, mesmo que a distribuição dos pesos seja uniforme (Shukla e Deb, 2007; Vahidinasab e Jadid, 2010). Para contornar as desvantagens inerentes ao método das somas ponderadas, Das e Dennis (1998) propuseram o método da Interseção Normal à Fronteira (NBI, do inglês Normal BoundaryIntersection), mostrando ser possível a construção de fronteiras contínuas e uniformemente distribuídas, independentemente da distribuição dos pesos ou das escalas relativas entre as diversas funções objetivo (Figura 2). (a) Método NBI (b) Somas Ponderadas Figura 2 – Comparação entre NBI e o Método de Somas Ponderadas. Fonte: próprio autor. O primeiro passo a ser executado no método NBI compreende o cálculo dos elementos da matriz Payoff , que representa os valores ótimos das múltiplas funções objetivo minimizados de modo individual. O vetor de solução que minimiza * individualmente a i-ésima função objetivo f i x é representado por xi , de sorte que o 12 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 * * valor mínimo de f i x neste ponto seja f i xi . Quando se substitui o ponto de ótimo * individual xi obtido na otimização de função objetivo nas demais funções, tem-se f i xi* que é, portanto, um valor não-ótimo dessa função. Repetindo-se este algoritmo para todas as funções, pode-se representar a matriz Payoff como: f1* x1* f i x1* f x* m 1 f1 xi* f i * xi* f m xi* f1 xm* f i * xm* f m* xm* (3) Cada linha de é composta valores mínimos e máximos de f i x . No método NBI, estes valores podem ser usados para normalizar as funções objetivo, principalmente quando as mesmas são representadas por escalas ou unidades diferentes. De maneira semelhante, escrevendo o conjunto de ótimos individuais em um vetor, tem- U * * se f f1 x1 , f i* xi* , f m* xm* T . Este vetor é denominado Ponto de Utopia. Do mesmo modo, agrupando-se os valores máximos (não-ótimos) de cada função objetivo tem-se f N f 1N , fi N , f mN . Este vetor é denominado de T Pontos Nadir (Jia andIerapetritou, 2007; Utyuzhnikovet al., 2009). Usando estes dois conjuntos de pontos extremos, a normalização das funções objetivo pode ser obtida como: f x f i x f iU f i N f iU i 1,, m (4) Esta normalização conduz, consequentemente, à normalização da matriz Payoff, . De acordo com VahidinasabandJadid (2010), as combinações convexas de cada linha da matriz Payoff, formam a ―Envoltória Convexa de Mínimos Individuais‖ ou 13 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 CHIM (Convex Hull of Individual Minima ), ou ainda, a Linha de Utopia (Figura 3) (Utyuzhnikov et al., 2009). Fronteira de Pareto - NBI Ponto de Ancoragem f2(x1*) a fN c Linha de Utopia f2(x) e d D Fronteira de Pareto f2*(x2*) b Soluções NBI fU Ponto de Ancoragem f1*(x1*) f1(x) f1(x2*) Figura 3 – Método da Interseção Normal à Fronteira (NBI). Ressalta-se que uma distribuição igualmente espaçada de pontos ao longo da linha de utopia não garante uma distribuição uniforme de pontos na fronteira de Pareto. A figura 3 ilustra os principais elementos associados à otimização multiobjetivo. Os * * pontos de ancoragem representam as soluções individuais de duas funções f i xi (Jia andIerapetritou, 2007; Utyuzhnikovet al., 2009). A figura 3 ilustra como o método NBI funciona. Os pontos a, b e e são calculados a partir da matriz payoff escalonada, Φ wi . Considerando um conjunto de valores convexos para os pesos, w, tem-se que Φ wi representará um ponto na linha de utopia. Fazendo n̂ denotar um vetor unitário normal à linha de utopia nos pontos Φ wi na direção da origem; então, Φ w D nˆ , com D R , representará o conjunto de pontos naquela normal (Jia andIerapetritou, 2007; ShuklaandDeb, 2007). O ponto de interseção desta normal com a fronteira da região 14 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 viável que for mais próximo da origem corresponderá à maximização da distância entre a linha de utopia e a Fronteira de Pareto. Desse modo, o método NBI pode escrito como um problema de programação não-linear restrita, tal que: Max D x, t subject to : Φ w Dnˆ F x x (5) O problema de otimização representado pelo sistema de equações (5) pode ser resolvido iterativamente para diferentes valores de w, o que cria, por conseguinte, uma Fronteira de Pareto igualmente espaçada. Uma escolha comum proposta por Jia andIerapetritou (2007) é fazer wn 1 i 1 wi . Por uma questão de simplificação, o parâmetro conceitual D pode ser algebricamente eliminado da Eq. (5), dado que ele está tanto na função objetivo quanto nas restrições de igualdade. Para o caso bidimensional,esta expressão simplificada pode ser reescrita como: Min f1 x s.t. : f1 x f 2 x 2w 1 0 g j x 0 (6) 0 w 1 Onde f1 x e f 2 x representam duas funções objetivo escalonadas (normalizadas). De acordo com Köskoy e Doganaksoy (2003), em um experimento do tipo CCD – que pode ser utilizado para a obtenção das funções objetivo, há duas regiões de interesse: a região esférica e a região cuboidal. Para os arranjos cuboidais, a restrição para os fatores é do tipo 1 xi 1, i 1,2,..., k , onde k igual ao número fatores do arranjo experimental. Já para a região esférica, as restrições para os fatores podem ser definidas por x T x 2 , onde α é o raio do arranjo. Em alguns casos, é adequado se adotar ambas as restrições. 15 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 2.2.2 Método do Gradiente Reduzido Generalizado (GRG) O GRG é um algoritmo adequado para a resolução de problemas de programação não-linear com restrições, basicamente, de igualdade. Entretanto, para casos onde a restrição for de desigualdade, contorna-se o problema introduzindo-se variáveis de folga (se a restrição for do tipo ), ou variáveis de excesso (no caso de restrições do tipo ). De acordo com Köskoy e Doganaksoy (2003), o GRG é um dos mais robustos e eficientes métodos de otimização não-linear restrita. A expressão ―gradiente reduzido‖ advém do procedimento de substituição das restrições de igualdade (já caracterizada a introdução de variáveis de folga) na função objetivo, reduzindo assim o número de variáveis e de gradientes presentes. Dado um vetor viável x, então, fazendo-se a partição das variáveis em básicas (ou dependentes) Z e não-básicas (independentes) Y, pode-se escrever que X Z Y . Reescrevendo-se a T função objetivo e as restrições em termos das variáveis básicas e não-básicas, vem que: F X F Z , Y e h X hZ , Y .Usando a expansão em série de Taylor, pode-se derivar a função objetivo e as restrições, tal que: dF X z F X dZ Y F X dY T T dh j X z h j X dZ Y h j X dY T T (7) Para atender à condição de otimalidade, é necessário que dh j X 0 . Fazendo-se com que A z h j X e B Y h j X , então, dY B 1 AdZ . Assim, pode-se definir T T o gradiente reduzido generalizado (GRG) como: GR T d T F X z F X B 1 A Y F X dZ 16 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 (8) A direção de busca é S X GR dY . Para as iterações, deve se utilizar T X k 1 X k S k 1 verificando-se em cada passo se X k 1 é viável e se h X k 1 0 . Basta, então, resolver F(X) escrito em termos de λ, usando-se um algoritmo unidimensional de busca, como o método de Newton. Para realizar estes cálculos, neste trabalho será utilizado o Solver do Microsoft Excel®. 3. PROCEDIMENTO EXPERIMENTAL Para a operação de acabamento desenvolvida neste trabalho, foi utilizado um Torno CNC NardiniLogic 175, com potência máxima de eixo de 7,5 CV; rotação máxima de 4000 rpm; torre com oito posições e torque máximo de 200 Kgf.m. Como suporte, foi adotado o modelo ISO DCLNL 1616H12. Na usinagem dos corpos de prova, foram empregados insertos de cerâmica mista (Al2O3 + TiC), classe Sandvik GC 6050, recoberta com TiN, com geometria ISO CNGA 120408 S01525. Os corpos de prova utilizados nos ensaios têm dimensões de 49 mm de diâmetro e 50 mm de comprimento e utilizam Aço SAE/ABNT 52100 (Villares), com dureza de 55 HRC, possuindo a seguinte composição química: Tabela 1. Composição Química do Aço SAE/ABNT 52100 Composição Química (% em peso) Elemento C Si Mn Cr Mo Ni S P Teor 0,23 0,35 1,40 0,04 0,11 0,001 0,01 1,03 17 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Para as medições necessárias, utilizou-se um Rugosímetro Taylor Hobson, modelo Surtronic 3+ e um Micrômetro Mitutoyo. O desgaste da ferramenta foi monitorado após o décimo passe de usinagem, utilizando-se um microscópio óptico. Utilizou-se como critério do fim de vida, a quebra da ferramenta. Tabela 2 – Parâmetros de usinagem utilizados. Parâmetro Símbolo Unidade Nível Inferior Nível Superior Velocidade de Corte Vc m/min 200 240 Avanço Fn mm/rotação 0,05 0,10 Profundidade de Corte Ap mm 0,15 0,30 4. RESULTADOS E DISCUSSÃO 4.1 Modelo de Vida da Ferramenta Para se estabelecer o equacionamento da vida da ferramenta, 20 ensaios iniciais foram realizados projetando-se um arranjo fatorial completo, com três fatores (Vc, fn e ap), com dois pontos centrais e duas réplicas, de acordo com os fatores e níveis da Tab. (2), originando-se os resultados da Tab. (3). Neste caso, os pontos centrais são úteis para se avaliar se a superfície de resposta está localizada nas proximidades de regiões de curvatura. Segundo Choudhury e El-Baradie (1998), o relacionamento entre a vida da ferramenta e as variáveis de usinagem independentes pode ser representado logaritmicamente por: ln T ln C l ln Vc m ln fn n ln ap ln ' 18 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 (9) Fazendo lnT= y, x1 ln Vc; x2 ln fn; x3 ln ap; ln ' , 0 ln C, e 1 , 2 , 3 parâmetros do modelo, escrevendo-se a resposta em termos dos parâmetros estimados b0 , b1 , b2 e b3 , tem-se que: yˆ y b0 b1 x1 b2 x2 b3 x3 (10) Tabela 3 – Fatorial Completo 23 com Pontos centrais para resposta Vida. Fatores Níveis Codificados Vida Vc fn Ap x1 x2 x3 1ª rep. 2ª rep. 200 0,05 0,150 -1 -1 -1 15,8 17,7 240 0,05 0,150 1 -1 -1 10,9 12,1 200 0,100 0,150 -1 1 -1 9,2 10,5 240 0,100 0,150 1 1 -1 8,5 8,5 200 0,05 0,300 -1 -1 1 12,4 10,6 240 0,05 0,300 1 -1 1 7,2 7,7 200 0,100 0,300 -1 1 1 7,9 8,5 240 0,100 0,300 1 1 1 6,8 5,7 220 0,075 0,225 0 0 0 8,6 7,2 220 0,075 0,225 0 0 0 6,8 9,1 19 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 4. ANOVA do Fatorial Completo 23 com Center Points para resposta Vida. Termo Efeito Constante Coef Se Coef T P 10,000 0,2327 42,98 0,000 Vc -3,150 -1,575 0,2327 -6,77 0,000 Fn -3,600 -1,800 0,2327 -7,74 0,000 Ap -3,300 -1,650 0,2327 -7,09 0,000 Vc X Fn 1,500 0,750 0,2327 3,22 0,008 Vc X Ap 0,150 0,075 0,2327 0,32 0,753 Fn X Ap 1,350 0,675 0,2327 2,90 0,014 Vc X Fn X Ap -0,450 -0,225 0,2327 -0,97 0,354 -2,075 0,5203 -3,99 0,002 Center Point Observando-se os resultados da Tab.(4), conclui-se que os todos os fatores estudados são significativos e os níveis adotados encontram-se nas proximidades da regiãode ótimo, uma vez que o P-value de curvatura foi inferior ao nível de significância de 5% (Tab. (5)). Assim, pode-se ajustar a resposta do experimento utilizando um CCD. Tabela 5. Análise de Curvatura de Ajuste do Fatorial Completo 23. Fonte Df SeqSs AdjSs Ms F P Efeitos Principais 3 135,090 135,090 45,0300 51,99 0,000 Interações 2a.Ordem 3 16,380 16,380 5,4600 6,30 0,010 Interações 3a.Ordem 1 0,810 0,810 0,8100 0,94 0,354 Curvatura 1 13,778 13,778 13,7780 15,91 0,002 Erro Residual 11 9,527 9,527 0,8661 Erro Puro 11 9,527 9,527 0,8661 Total 19 175,585 20 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 De maneira análoga, procedeu-se o ajuste da superfície de resposta para a rugosidade média (Ra), de acordo com o arranjo mostrado na Tab. 6. Tabela 6. Parâmetros de Corte e resultados para o RSM da resposta Vida e rugosidade. Nº Bloco Vc 1 1 2 Fn ap x1 x2 x3 Vida Ra 200,000 0,050 0,150 -1,000 -1,000 -1,000 16,75 0.330 1 240,000 0,050 0,150 1,000 -1,000 -1,000 11,50 0.280 3 1 200,000 0,100 0,150 -1,000 1,000 -1,000 9,85 0.695 4 1 240,000 0,100 0,150 1,000 1,000 -1,000 8,50 0.565 5 1 200,000 0,050 0,300 -1,000 -1,000 1,000 11,50 0.245 6 1 240,000 0,050 0,300 1,000 -1,000 1,000 7,45 0.420 7 1 200,000 0,100 0,300 -1,000 1,000 1,000 8,20 0.565 8 1 240,000 0,100 0,300 1,000 1,000 1,000 6,25 0.610 9 1 220,000 0,075 0,225 0,000 0,000 0,000 8,60 0.360 10 1 220,000 0,075 0,225 0,000 0,000 0,000 6,80 0.420 11 2 187,340 0,075 0,225 -1,633 0,000 0,000 10,10 0.340 12 2 252,660 0,075 0,225 1,633 0,000 0,000 7,60 0.450 13 2 220,000 0,034 0,225 0,000 -1,633 0,000 17,50 0.320 14 2 220,000 0,116 0,225 0,000 1,633 0,000 7,20 0.720 15 2 220,000 0,075 0,103 0,000 0,000 -1,633 12,00 0.360 16 2 220,000 0,075 0,347 0,000 0,000 1,633 6,70 0.310 17 2 220,000 0,075 0,225 0,000 0,000 0,000 7,20 0.370 18 2 220,000 0,075 0,225 0,000 0,000 0,000 9,10 0.290 Neste caso, como já se está na região de ótimo (P-Value de curvatura < 5%), serão utilizados os resultados do fatorial anterior (Tab. (3)), executando-se, complementarmente, apenas os pontos axiais do arranjo. Como o fatorial anterior tem uma réplica, serão adotadas as médias das respostas de cada experimento. Para se combater uma possível tendenciosidade, blocou-se o experimento de modo que os 21 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 resultados já obtidos mais dois pontos centrais formaram o bloco 1, enquanto que os pontos axiais, seguidos também de dois pontos centrais, o bloco 2. Se não houver diferença entre os blocos, tal termo será excluído do modelo. Assim se compõe a Tab. (6). Analisando-se os resultados da Tab. (6), verifica-se que o modelo de primeira ordem para a vida da ferramenta apresentou um ajuste muito baixo (R2 adj = 66,7%). Portanto, deve-se tentar um modelo de ordem mais alta. A Tabela (7) apresenta a ANOVA (Análise de Variância) de um modelo de segunda ordem (modelo quadrático completo), obtido a partir dos resultados do CCD. Uma análise precedente considerou a presença dos blocos. O P-value da análise dos blocos (0,503) revelou não haver diferença entre os experimentos executados na primeira rodada e os pontos axiais. Assim, os blocos podem ser eliminados do modelo. Percebe-se na Tab. (7) que o modelo possui um excelente ajuste (R2adj = 85,0%), entretanto, as interações não são significativas. A retirada das interações, no entanto, conduzem a um ajuste pior (R2adj = 83,0%), com um termo de erro S maior (1,336), embora não se verifique falta de ajuste. Por esta razão, decidiu-se empregar neste trabalho o modelo quadrático completo. A Figura (1) mostra estas superfícies de resposta para a Vida em minutos. 22 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 7. ANOVA da Superfície de Resposta. Termo Coef Se Coef T P Constante 7,968 0,6247 12,754 0,000 Vc -1,251 0,3442 -3,636 0,007 Fn -2,341 0,3442 -6,804 0,000 Ap -1,639 0,3442 -4,763 0,001 Vc X Vc 0,234 0,3678 0,638 0,542 Fn X Fn 1,547 0,3678 4,206 0,003 Ap X Ap 0,422 0,3678 1,147 0,284 Vc X Fn 0,750 0,4443 1,688 0,130 Vc X Ap 0,075 0,4443 0,169 0,870 Fn X Ap 0,675 0,4443 1,519 0,167 S = 1,257 R-Sq = 92,9 % R-Sq (Adj) = 85,0 % Fonte Df SeqSs AdjSs Ms F P Regressão 9 166,226 166,226 18,470 11,70 0,001 Linear 3 129,796 129,796 42,265 27,40 0,000 Quadrático 3 28,240 28,240 9,413 5,96 0,019 Interação 3 8,190 8,190 2,730 1,73 0,238 8 12,634 12,634 1,579 Falta de Ajuste 5 9,006 9,006 1,801 1,49 0,395 Erro Puro 3 3,627 3,627 1,209 17 178,860 Erro Residual Total 23 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 20 0.8 15 Ra 0.6 10 0.4 5 200 Vc 0.2 220 240 260 0.125 260 0,075 fn 0,100 0,125 240 0.100 0,050 220 0.075 fn 200 0.050 Figura 4 – Superfícies de Respostas da Vida da ferramentae Rugosidade da peça. De acordo com as recomendações de Noordinet al. (2004), deve-se realizar uma análise dos resíduos das respostas para se avaliar a qualidade dos resultados experimentais. Segundo Montgomery (2001), os resíduos devem ser normais, independentes (não-correlacionados) e identicamente distribuídos. Na Figura (2) não são evidenciados padrões de anormalidade nos resíduos, portanto, os resultados descritos neste trabalho podem ser considerados válidos. P r obabilidade Nor mal Resíduos ver sus Valor ajustado Resíduo P adr onizado 99 P er centis 90 50 10 1 -2 -1 0 1 2 1 0 -1 -2 2 6 9 12 Resíduo P adr onizado H istogr ama dos Resíduos Resíduos ver sus or dem Resíduo P adr onizado Fr equência 18 2 4,8 3,6 2,4 1,2 0,0 15 Valor ajustado -2 -1 0 1 Resíduo P adr onizado 2 1 0 -1 -2 2 4 6 8 10 Ordem 12 14 16 18 24 Vc E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 5. Análise de Resíduos dos dados experimentais da Tab. (6). 4.2 Otimizaçãopelo Método de Interseção Normal à Fronteira Considerando-se o modelo quadrático completo e as restrições cuboidais e esféricas descritas anteriormente, o problema de otimização da vida da ferramenta pode ser escrito como: f x f TI Min f 1 x TMAX I f T f T I f T x f TI f Ra x f Ra s.t. : g1 x MAX 2wi 1 0 I MAX I f T f T f Ra f Ra (11) g 2 x x T x ρ 2 0 wi 1 n Com: k 1 s 0 ns 1 nc 0 2 1 nc Aplicando-se o algoritmo GRG disponível no aplicativo Solver do Microsoft Excel®, ao sistema de equações (11), obtém-se os resultados mostrados pela Tab. (8) a seguir. Nesta tabela, a cada iteração adota-se um valor diferente para o peso, deslocando-se a cada ponto a solução ótima pela Fronteira Equiespaçada de Pareto. 25 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 8. Resultados da otimização utilizando GRG. Peso Unidades Codificadas Unidades Decodificadas Respostas w Vc fn Ap Vc fn ap T Ra 0.0 -0.998 -0.792 1.021 200.035 0.055 0.302 11.011 0.233 0.1 -1.028 -0.882 0.912 199.445 0.053 0.293 11.692 0.234 0.2 -1.048 -0.975 0.787 199.045 0.051 0.284 12.446 0.237 0.3 -1.056 -1.066 0.644 198.886 0.048 0.273 13.254 0.242 0.4 -1.048 -1.152 0.492 199.040 0.046 0.262 14.065 0.248 0.5 -1.026 -1.225 0.337 199.487 0.044 0.250 14.823 0.256 0.6 -0.990 -1.286 0.182 200.201 0.043 0.239 15.505 0.263 0.7 -0.940 -1.335 0.025 201.191 0.042 0.227 16.109 0.270 0.8 -0.873 -1.373 -0.141 202.542 0.041 0.214 16.648 0.276 0.9 -0.772 -1.399 -0.339 204.569 0.040 0.200 17.128 0.283 1.0 -0.495 -1.437 -0.599 210.104 0.039 0.180 17.468 0.288 De acordo com os resultados da Tab. (8), a vida da ferramenta aumenta quando se empregam os níveis inferiores adotados para as variáveis, com profundidades de corte da ordem de 0,15 mm, velocidades de corte inferiores a 200 m/min e avanços inferiores a 0,05. A adoção destes níveis conduz a vidas de ferramentas em torno de 17 min. A Figura (3) destaca este ponto de ótimo no plano dos gráficos de contorno para as superfícies de resposta, geradas para os 3 pares de fatores. 26 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Fronteira de Pareto: TxRa 18 17 16 T 15 14 13 12 11 0.23 0.24 0.25 0.26 Ra 0.27 0.28 0.29 Figura 6 – Fronteira de Pareto para T x Ra. Cabe ressaltar que, embora as conclusões estatísticas sejam fortes, elas só podem ser empregadas para este caso específico. No entanto, embora não se possa generalizar, este procedimento pode ser adequado para a modelagem e otimização de outros processos e materiais. 5. CONCLUSÕES Este artigo apresenta as conclusões obtidas a partir da investigação experimental realizada da influência dos parâmetros de corte sobre a vida de ferramentas de cerâmica mista (Al2O3 + TiC), classe Sandvik GC 6050, com geometria ISO CNGA 120408 S01525, recobertas com TiN. Constatou-se que a Metodologia de Projeto de Experimentos é muito útil na modelagem de processos de usinagem, com uma pequena quantidade de experimentos. Para a vida da ferramenta e para a rugosidade média, um modelo de segunda ordem 27 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 mostrou-se mais apropriado. De acordo com os resultados do método de otimização, uma fronteira equiespaçada de Pareto foi obtida para diferentes pesos atribuídos às duas funções objetivo. Desse modo, dependendo do critério do decisor (maximizar a vida ou reduzir a rugosidade), variando-se o peso pode-se encontrar uma solução viável que atenda às necessidades do processo. Estas conclusões não devem ser extrapoladas para outros níveis, fatores, tipos de materiais e ferramentas, bem como só têm validade para amplitude de níveis adotados. Porém, pode-se recomendar sua utilização em outros processos de manufatura. 6. REFERÊNCIAS Alauddin, M., El-Baradie, M. A., Hashmi, M. S. J., 1997, Prediction of tool life in end milling by response surface methodology, Journal of Materials Processing Technology, vol. 71, pp.457-465. Box, G. E. P., Hunter, W. G., Hunter, J. S., 1978, Statistics for Experimenters, John Wiley & Sons, New York. Choudhury, I. A., El-Baradie, 1998, Tool-life prediction model by design of experiments for turning high strength steel (290 BHN), Journal of Materials Processing Technology, vol. 77, pp.319-326. Choudhury, S.K., Bartarya,G., 2003, Role of temperature and surface finish in prediction tool wear using neural network and design of experiments, International Journal of Machine Tools & Manufacture, vol. 43, pp. 747-753. Dhavlikar, M. N., Kulkarni, M. S., Mariappan, V., 2003, Combined Taguchi and dual response method for optimization of a centerless grinding operation, Journal of Materials Processing Technology, vol. 132, pp. 90-94. Köksoy, O., Doganaksoy, N., 2003, ―Joint Optimization of Mean and Standard Deviation Using Response Surface Methods‖, Journal of Quality Technology, Vol.35, No. 3, pp. 237-334. Montgomery, D. C., 2001, ―Designs and Analysis of Experiments‖, 4ª ed. John Wiley & Sons. 28 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Noordin, M. Y., Venkatesh, V. C., Sharif, S., Elting, S. and Abdullah, A., 2004, Application of response surface methodology in describing the performance of coated carbide tools when turning AISI 1045 steel, Journal of Materials Processing Technology, vol. 145, pp.46-58. Yih-Fong, T. (2005), A Hybrid approach to optimize multiple performance characteristics of high-speed computerized numerical control milling tool steels, Materials and Design. Article in Press. Disponível online em 15 de agosto de 2005. Ardakani, M. K.,&Noorossana, R. (2008). A new optimization criterion for robust parameter design – the case of target is best. International Journal of Advanced Manufacturing Technology, 38, 851-859. Box, G. E. P., & Jones, S. (1992). Designing products that are robust to the environment.Total Quality Management, 3, 265-282. Box, G. E. P., Hunter, W. G., MacGregor, J. F., &Erjavec, J. (1973).Some problems associated with the analysis of multiresponse data.Technometrics,15, 33-51. Bratchell, N. (1989). Multivariate response surface modeling by principal components analysis.Journal of Chemometrics, 3, 579-588. Brown, M. B., & Forsythe, A. B. (1974). Robust tests for the equality of variance. Journal of the American Statistical Association, 69, 364-367. Busacca, G. P., Marseguerra, M., & Zio, E. (2001). Multiobjective optimization by genetic algorithms: application to safety systems. Reliability Engineering & System Safety, 72, 59-74. Chiao, C. H., &Hamada, M. (2001). Analyzing experiments with correlated multiple responses. Journal of Quality Technology, 33, 451-465. Cho, B. R., & Park, C. (2005).Robust design modeling and optimization with unbalanced data.Computers & Industrial Engineering, 48, 173-180. Correa, M., Bielza, C., &Pamies-Teixeira, J. (2009). Comparison of Bayesian networks and artificial neural networks for quality detection in a machining process.Expert Systems with Applications, 36, 7270-7279. Das, I.,& Dennis, J.E. (1998). Normal boundary intersection: A new method for generating the Pareto surface in nonlinear multicriteria optimization problems. SIAM Journal of Optimization, 8, 631-657. 29 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Del Castillo, E., Fan, S. K., &Semple, J. (1999). Optimization of dual response systems: a comprehensive procedure for degenerate and nondegenerate problems. European Journal of Operational Research, 112, 174-186. Govindaluri, S. M., & Cho, B. R. (2007). Robust design modeling with correlated quality characteristics using a multicriteria decision framework. International Journal of Advanced Manufacturing Technology, 32, 423-433. Haggag, A. A. (1981). A variant of the generalized reduced gradient algorithm for nonlinear programming and its applications.European Journal of Operational Research, 7, 161-168. Jeong, I. J., Kim, K. J., & Chang, S. Y. (2005).Optimal weighting of bias and variance in dual response surface optimization.Journal of Quality Technology, 37, 236-247. Jia, Z. &Ierapetritou, G. (2007). Generate Pareto optimal solutions of scheduling problems using normal boundary intersection technique. Computers and Chemical Engineering, 31,268-280. Johnson, R. A., &Wichern, D. (2002).Applied Multivariate Statistical Analysis. (5th ed.). New Jersey: Prentice-Hall. Kazemzadeh, R. B., Bashiri, M., Atkinson, A.C., &Noorossana, R. (2008).A general framework for multiresponse optimization problems based on goal programming.European Journal of Operational Research, 189, 421-429. Khuri, A. I., & Conlon, M. (1981).Simultaneous optimization of multiple responses represented by polynomial regression functions.Technometrics, 23, 363-375. Köksoy, O. (2006). Multiresponse robust design: Mean square error (MSE) criterion. Applied Mathematics and Computation, 175, 1716-1729. Kovach, J., & Cho, B. R. (2009).A D-optimal design approach to constrained multiresponse robust design with prioritized mean and variance considerations.Computers & Industrial Engineering, 57, 237-245. Lasdon, L. S., Waren, A. D., Jain, A., & Ratner, M. (1978).Design and testing of a Generalized Reduced Gradient code for nonlinear programming. ACM Transactions on Mathematical Software, 4, 34-50. Lee, S. B., & Park, C. (2006).Development of robust design optimization using incomplete data.Computers & Industrial Engineering, 50, 345-356. 30 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Liao, H. C. (2006). Multi-response optimization using weighted principal components. International Journal of Advanced Manufacturing Technology, 27, 720-725. Lin, D. K. J., &Tu, W. (1995). Dual response surface optimization.Journal of Quality Technology, 27, 34-39. Montgomery, D. C. (2009).Design and Analysis of Experiments. (7th ed.). New York: John Wiley. M'silti, A., &Tolla, P. (1993).An interactive multiobjective nonlinear programming procedure.European Journal of Operational Research, 64, 115-125. Nair, V. N. (1992). Taguchi’s parameter design: a panel discussion. Technometrics, 34, 127-161. Paiva, A. P., Campos, P. H., Ferreira, J. R., Lopes, L. G. D., Paiva, E. J.,& Balestrassi, P. P. (2012). A multivariate robust parameter design approach for optimization of AISI 52100 hardened steel turning with wiper mixed ceramic tool. International Journal of Refractory Metals and Hard Materials, 30, 152-163. Paiva, A. P., Paiva, E. J., Ferreira, J. F., Balestrassi, P. P., & Costa, S. C. (2009). A multivariate mean square error optimization of AISI 52100 hardened steel turning. International Journal of Advanced Manufacturing Technology, 43, 631-643. Pereyra, V., Saunders, M., Castillo, & Castillo, J. (2010).Equispaced Pareto front construction for constrained bi-objective optimization.Mathematical and Computer Modelling.Article in press. DOI:10.1016/j.mcm.2010.12.044. Quesada, G. M., & Del Castillo, E. (2004). Two approaches for improving the dual response method in robust parameter design. JournalofQuality Technology, 36, 154168. Sadagopan, S., &Ravindran, A. (1986).Interactive algorithms for multiple criteria nonlinear programming problems.EuropeanJournalofOperational Research, 25, 247257. Shaibu, A. B., & Cho, B. R. (2009).Another view of dual response surface modeling and optimization in robust parameter design.International Journal of Advanced Manufacturing Technology, 41, 631-641. Shin, S., & Cho, B. R. (2005). Bias-specified robust design optimization and its analytical solutions. Computers & Industrial Engineering, 48, 129-140. 31 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Shin, S., Samanlioglu, F., Cho, B. R., &Wiecek, M. M. (2011). Computing trade-offs in robust design: perspectives of the mean squared error. Computers & Industrial Engineering, 60, 248-255. Shukla, P.K.,& Deb, K. (2007). On finding multiple Pareto-optimal solutions using classical and evolutionary generating methods.European Journal of Operational Research, 181, 1630-1652. Steenackers, G., & Guillaume, P. (2008). Bias-specified robust design optimization: a generalized mean squared error approach. Computers & Industrial Engineering, 54, 259-268. Taguchi, G. (1986). Introduction to quality engineering: desingning quality into products and processes. Tokyo: Usian. Tang, L. C., &Xu, K. (2002).A unified approach for dual response surface optimization.Journal of Quality Technology, 34, 437-447. Utyuzhnikov, S.V., Fantini, P., &Guenov, M.D. (2009). A method for generating a well-distributed Pareto set in nonlinear multiobjective optimization. Journal of Computational and Applied Mathematics, 223, 820-841. Vahidinasab, V., &Jadid, S. (2010). Normal boundary intersection method for suppliers’strategic bidding in electricity markets: An environmental/economic approach. Energy Conversion and Management, 51, 1111-1119. Vining, G. G. (1998).A compromise approach to multiresponse optimization.Journal of Quality Technology,30, 309-313. Vining, G. G., & Myers, R. H. (1990).Combining Taguchi and response surface philosophies: a dual response approach.Journal of Quality Technology, 22, 38-45. Wu, F. C. (2005). Optimization of correlated multiple quality characteristics using desirability function. Quality Engineering, 17, 119-126. Yang, J. B., &Sen, P. (1996).Preference modelling by estimating local utility functions for multiobjective optimization.European Journal of Operational Research, 95, 115138. Yuan, J., Wang, K., Yu, T., & Fang, M. (2008).Reliable multi-objective optimization of high-speed WEDM process based on Gaussian process regression.InternationalJournalofMachine Tools &Manufacture, 48, 47-60. 32 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 MÉTODO DE OTIMIZAÇÃOMULTIOBJETIVO BASEADO NA ANÁLISE ENVOLTÓRIA DE DADOS MOALLEM, E., GOMES, J. H. F., PAIVA, A. P.; ALMEIDA, M. A. A. Resumo: A otimização de um processo de fabricação de múltiplas respostas não é uma tarefa trivial. Muitos autores têm tentado superar as dificuldades específicas observadas nesta área do conhecimento explorando poderosos mecanismos presentes em uma grande quantidade de técnicas, tais como o Projeto de Experimentos ou DOE (do inglês, Design ofExperiments), Metodologia de Superfície de Resposta (MSR) e programação matemática. Desta forma, este trabalho apresenta uma abordagem alternativa híbrida, combinando Metodologia de Superfície de Resposta (RSM) e Análise Envoltória de Dados (DEA – Data EnvelopmentAnalysis), uma popular técnica de programação linear utilizada para comparar a eficiência das Unidades de Tomada de Decisão (DMU – DecisionMakingUnits). A ideia básica é a otimização de um conjunto de múltiplas respostas de um processo de fabricação bem definido utilizando DEA como um algoritmo para gerar uma função objetivo singular. Uma vez que um grande número de processos de fabricação apresentam conjuntos de múltiplas respostas, a proposta de otimização apresentada acima foi aplicada, a título de exemplo, em um processo de soldagem FCAW (do inglês, Flux CoredArcWelding) baseado em quatro variáveis do processo soldagem estudado por Gomes (2010). Os valores ótimos obtidos nesta aplicação serão comparados aos resultados obtidos pelo método Desirability e aos obtidos por Gomes (2010) e analisados. Palavras-chave: Projeto de Experimentos (DOE), Metodologia de Superfície de Resposta (MSR), Análise Envoltória de Dados (DEA). 33 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 1. INTRODUÇÃO Muitos processos de fabricação são naturalmente multivariados e, embora sejam comuns em um ambiente de indústria, há uma falta de eficiência na construção dos modelos das características de qualidade quando o método tradicional Mínimos Quadrados Ordinários (OLS -OrdinaryLeastSquares) é empregado. Estes tipos de processos são considerados também muito específicos, o que implica que um único modelo não pode ser empregado em qualquer processo, matéria-prima ou instalação operacional. Procurando as melhores condições de operação do processo, o comportamento de algumas características desejadas deve ser avaliado em função dos incrementos de fatores que são, a principio, considerados significativos. Isto é tipicamente a estratégia experimental. Algumas vezes, a existência de conjuntos de múltiplas características de qualidade envolve o crescimento da complexidade do processo. Esta alta complexidade dificulta o real entendimento do processo e, consequentemente, a busca por uma maior eficiência do mesmo. Isso ocorre pela grande dificuldade em otimizar simultaneamente todas essas variáveis que influenciam diretamente um processo. Existem várias literaturas que avaliam o processo com essa característica,no entanto nenhuma delas propõe um método efetivo de otimização simultânea que leve em consideração o grau de influencia que cada variável tem sobre o processo. O mais conhecido método de otimização simultânea de múltiplas respostas é o Desireability — expressão não traduzida por entender-se não ser apropiado — criado por Harrington(1965). Este tipo de solução se baseia em valores pré determinados de máximos e mínimos para as variáveis, o que pode adicionar um grau de erro a solução ótima caso não seja realizado um estudo para a determinação dos mesmos. Neste trabalho, uma proposta desenvolvida por Liao e Chen (2002) para tratar um arranjo de Taguchi através da Análise Envoltória de Dados (DEA) será estendida para o caso de múltiplas respostas obtidas através do arranjo de Superfície de Resposta com Arranjo Composto Central (Central Composite Design - CCD) rotativo. Para cumprir o objetivo proposto, o experimento é realizado na região de interesse de acordo com o arranjo escolhido e as respostas de interesse serão registradas e calculadas. Utilizando 34 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 cada experimento do CCD como uma DMU, a eficiência de todos os experimentos será calculada utilizando uma programação linear típica escrita através do formato da Análise Envoltória de Dados. Então será realizada uma Análise de Variância (ANOVA) (MONTGOMERY e RUNGER, 2003) a fim de verificar se o ajuste do modelo foi satisfatório e para determinar os coeficientes de regressão para cada uma das respostas. Por último, a otimização é realizada através de uma função objetivo singular, usando a superfície de resposta para a eficiência. Com o objetivo de exemplificar a aplicação desta metodologia e por considerar que tais características são típicas dos processos de soldagem, é utilizado um processo de soldagem a arco com arame tubular(Flux CoredArcWelding - FCAW). Este processo é amplamente utilizado por indústrias que buscam processos de soldagem com alta produtividade e flexibilidade. A soldagem FCAW é o processo onde a coalescência entre metais é obtida através de arco elétrico estabelecido entre a peça a ser soldada e um eletrodo tubular alimentado continuamente. Vale ressaltar que os resultados obtidos não objetivam mostrar um avanço tecnológico do processo, mas sim a possibilidade do método ser aplicado em outros processos de manufatura similares. Tanto a metodologia proposta, quanto o caso investigado serão descritos nas próximas seções desse trabalho. 2. FUNDAMENTAÇÃO TEÓRICA 2.1 Projeto e Análise de Experimentos Para Montgomery (2001), uma maneira sistemática de se analisar e avaliar a magnitude de várias fontes de variação que influenciam um processo deve iniciar-se com a identificação e seleção dos fatores que possam contribuir para a variação, proceder-se, em seguida, à seleção de um modelo que inclua os fatores escolhidos e planejar experimentos eficientes para estimar seus efeitos. Desta forma, segundo Montgomery (2001), experimentação se caracteriza como uma parte fundamental para o método científico na análise das diversas aplicações de engenharia. 35 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 O Projeto e Análise de Experimentos (Design ofExperiments – DOE), de acordo o mesmo autor, é então definido como o processo de planejamento dos experimentos para que dados apropriados sejam coletados e depois analisados por métodos estatísticos, resultando em conclusões válidas e objetivas. Assim, qualquer problema experimental deve ser sustentado por dois elementos: o projeto dos experimentos e a análise estatística dos dados. O emprego da abordagem estatística no Projeto e Análise de Experimentos necessita que as pessoas envolvidas nos experimentos tenham uma ideia clara a respeito do fenômeno que se pretende estudar, de como os dados serão coletados e de um entendimento básico das ferramentas de análise utilizadas. Assim, Montgomery (2001) propõe que o emprego do Projeto e Análise de Experimentos deve considerar as seguintes etapas: 1º) Definição do problema; 2º) Escolha dos fatores e definição dos níveis de trabalho; 3º) Seleção das variáveis de resposta; 4º) Escolha do projeto experimental; 5º) Execução dos experimentos; 6º) Análise estatística dos dados; 7º) Conclusões e recomendações. Com relação aos projetos experimentais, tem-se que técnicas mais utilizadas compreendem o Planejamento Fatorial Completo, o Planejamento Fatorial Fracionado, os arranjos de Taguchi e a Metodologia de Superfície de Resposta. Entre tais projetos experimentais, o presente trabalho utilizou a Metodologia de Superfície de Resposta, já que este estudo se propõe à otimização de processos que são influenciados por múltiplas variáveis (NILO, 2003), tal como acontece no exemplo de soldagem com arame tubular em operações de revestimento de aços carbono com aços inoxidáveis que será mostrado neste trabalho. Sendo assim, os principais conceitos que fundamentam a Metodologia de Superfície de Resposta são discutidos com maiores detalhes no item seguinte. 36 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 2.2 Metodologia de Superfície de Resposta A Metodologia de Superfície de Resposta (MSR), segundo Montgomery (2001), é uma coleção de ferramentas matemáticas e estatísticas utilizada para a modelagem e análise de problemas em que a resposta de interesse é influenciada por diversas variáveis e o objetivo é a otimização desta resposta.Para a maioria dos problemas, verifica-se que as relações entre a resposta e as variáveis independentes são conhecidas. Assim, é preciso encontrar uma aproximação razoável para a verdadeira relação entre Y e o conjunto de variáveis independentes. Geralmente, é empregado um polinômio de ordem baixa em algumas regiões de interesse. Se o sistema apresentar curvatura, então um polinômio de maior grau deve ser usado, como o modelo de segunda ordem descrito pela Eq. (1): (1) onde: y – Resposta de interesse xi – Variáveis independentes βi – Coeficientes a serem estimados k – Número de variáveis independentes ε – Erro experimental Montgomery (2001) também considera que é pouco provável que um determinado modelo polinomial se aproxime de um modelo real para todo o espaço experimental para as variáveis independentes. Para uma região específica, a aproximação geralmente é eficiente. O método dos Mínimos Quadrados Ordinários (OLS) é usado para estimar os parâmetros (β) que na forma matricial pode ser escrito como: (2) 37 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Onde X é a matriz dos níveis de fatores e y é a resposta. A avaliação da presença de curvatura no modelo é baseada na análise dos pontos centrais para os níveis de fatores. Derringer e Suich (1980), lidando com problemas de múltiplas respostas melhorou o algoritmo da função Desirability de Harrington (1965). Neste método, o modelo estatístico é primeiramente obtido utilizando Mínimos Quadrados Ordinários (OLS). Em segundo lugar, usando um conjunto de transformações baseados nos limites impostos para as respostas, a conversão é feita para cada uma das respostas, resultando em uma função Desirability individual di, com 0 ≤ di ≤ 1. Esses valores individuais são então combinados usando uma média geométrica, tal como: (3) Este valor de D dá uma solução de compromisso e é restrito ao intervalo [0, 1]. O valor de D se aproxima de 1 quando as respostas estão próximas à sua especificação. O tipo de transformação depende da direção de otimização desejada. A abordagem da função Desirability para problemas de otimização é simples, fácil de aplicar e permite que se faça julgamentos subjetivos sobre a importância de cada resposta. No entanto, de acordo com Khuri e Conlon (1981), este método não leva em consideração os desvios e as correlações das respostas. Ignorar essas correlações pode alterar a estrutura da função global Desirability, o que pode comprometer a determinação da condição ótima de operação. 2.3 Análise Envoltória de Dados (DEA) A Análise Envoltória de Dados (DEA) é uma técnica baseada emprogramação linear utilizada para medir a eficiência relativa de um conjunto de Unidades de Tomada de Decisão (DMU, DecisionMakingUnits) concorrentes, na qual a presença de múltiplas entradas e saídas torna as comparações difíceis.Segundo Liao (2005), a eficiência relativa das múltiplas entradas e saídas de uma DMU é geralmente definida como uma relação (soma ponderada dos outputs da DMU dividido pela soma ponderada dos inputs da DMU). Então, sedeseja-se um desempenho superior da eficiência relativa, os dados 38 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 de entrada da relação devem ter valores mais baixos e os dados de saída valores mais elevados. Neste trabalho, esta técnica é combinada com a metodologia tradicional de superfície de resposta para resolver um processo de soldagem de respostas múltiplas. Cada combinação de fatores / níveis é tratada como uma DMU. Seguindo a abordagem proposta por Liao e Chen (2002), as características de qualidade ―quanto maior, melhor‖ de um processo de soldagem são consideradas saídas e as―quanto menor, melhor‖ são tratadas como entradas. A maximização da relação entre a soma ponderada das saídas e entradas de cada DMU leva à maior eficiência. Os maiores valores de eficiência relativa implicam que as metas para as características de qualidade do cordão de solda foram completamente atingidas. Uma vez que é calculada a eficiência para cada experimento em um CCD (do inglês, Central Composite Design), esse índice de multirresposta é utilizado como uma variável dependente. Procedendo como a Metodologia de Superfície de Resposta tradicional, os coeficientes do modelo são obtidos empregando o método dos Mínimos Quadrados Ordinários.Após a inspeção da significância individual, é possível decidir se o modelo quadrático reduzido ou integral deve ser adotado. Depois, utilizando o algoritmo denominado Gradiente Reduzido Generalizado (GeneralizedReducedGradient – GRG), a função quadrática do índice DEA é maximizada sujeita à restrição da região experimental. Para comparar os resultados obtidos, realiza-se um estudo da diferença entre os valores obtidos e os valores alvos, que são determinados pela DMUs de eficiência máxima. Neste trabalho, a notação matemática de Doyle e Green (1994) será adotada para representar o modelo DEA CCR (Charneset al., 1978). De acordo com esta formulação, a medida de eficiência geralmente utilizado pelo DEA pode ser resumidas como: (4) Onde Eks é a medida de eficiência de cada experiência s, utilizando os pesos de cada experimento k avaliado; Osy os valores de saída y para o experimento s; Isx os valores de entrada x para o experimento s; vkyos pesos atribuídos a cada experiência k 39 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 realizadapara a saída y; ukx os pesos atribuídos a cada experiência k realizada para a entrada x. Para decidir o melhor conjunto de pesos para o experimento k sob avaliação (DMU), muitos modelos matemáticos têm sido desenvolvidos. Dentre eles, o modelo CCR, desenvolvido por Charneset al (1978), é o mais popular. O objetivo do modelo CCR é maximizar o valor de eficiência relativa da experiência k por análises dentre um conjunto de experiências de referência s, selecionando os pesos ideais associados às entrada e saída medidas. A eficiência relativa máxima é limitada a 1. A formulação de programação não linear expressa na equação (a) pode ser escrita como: Sujeito a: ; modelo s ≥0 (5) A equação (4) pode ser escrita em uma formulação de programação linear como descrito na equação (5), definindo o seu denominador igual a 1 e maximizando o seu numerador. Sujeito a: modelos ; ≥0 O resultado da formulação (5) é um valor ideal de eficiência máximo igual à unidade. Segundo Liao e Chen (2002), quando (6) que é no , nenhum outro experimento é mais eficiente queo experimento ksob seus pesos selecionados. A existência de experimentos com valores de eficiência inferiores a um implica que a combinação de níveis/fatores não se encontra na fronteira ideal, e que há pelo menos 40 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 outra experiência que é mais eficiente com um melhor conjunto de pesos.Caso contrário, também é possível que qualquer experimento alcance a eficiência unitária, uma vez que o delineamento experimentalrepresenta apenas uma parte de toda uma região experimental, produzindo o que Liao (2004) chamou de "dados censurados". Outra situação possível ocorre quando a eficiência individual de cada experimento encontra-se na proximidade de 100%. Estas situações refletem o aspecto de que qualquer experimento do modelo é ótimo, e indicam que a melhor combinação não é explícita para um modelo experimental escolhido. Para superar esta lacuna, Liao (2004, 2005) propôs a abordagem de rede neural de Taguchi. Através desta estratégia, um modelo de Taguchi é utilizado para gerar a formação inicial de um conjunto de propagação anterior do algoritmo de rede neural. Este conjunto é formado pelas eficiências calculadas obtidas com o modelo. Outra forma de ultrapassar esta lacuna é empregar o conhecimento conceitual da metodologia de Projeto e Análise de Experimentos (DOE). De acordo com o DOE, os resultados experimentais devem ser utilizados para prever valores de resposta somente dentro da região formada pelos níveis dos fatores. Assim, supondo que é igualmente provável que qualquer valor de cada fator pertence ao seu respectivo intervalo, poderia ser adotada uma amostragem Monte Carlo ou Hipercubo Latino, gerando dados através de uma distribuição de probabilidade uniforme. Outro procedimento ideal de busca poderia ser mais simples se adotado um método de gradiente de base, como o Gradiente Reduzido Generalizado (GRG). Os métodos de gradiente demandam uma função diferenciávelque deve ser obtida através de uma superfície de resposta adequada. 2.4 Otimização de múltiplas respostas baseada na Análise Envoltória de Dados Em se tratando de processo ou produtos que possuam múltiplos atributos de qualidade, é sempre difícil se encontrar um conjunto de parâmetros ótimos para todas as características de interesse a partir da otimização individual de cada função de transferência pré-estabelecida. A aplicação deste tipo de otimização pode ser de eficácia improvável (KHURI e CORNELL,1996). 41 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 A Análise Envoltória de Dados, ou simplesmente DEA (Data EnvelopmentAnalysis), é uma técnica de programação linear que permite o cálculo da eficiência de um processo de múltiplos objetivos. Esta eficiência é definida através da capacidade com que as DMUs conseguem gerar saídas para determinadas entradas. Desta forma, a Análise Envoltória de Dados determina o grupo de DMUscom eficiência máximade um processo e possibilita que as DMUs menos eficiente sejam otimizadas com base nos resultados obtidos pelas mais eficientes. Em linhas gerais, a proposta deste trabalho é maximar uma função com múltiplas variáveis que possui como restrição para a solução os limites da região experimental, tal como é descrito na Eq. 7. Maximizar Sujeito a: (7) Valores ótimos podem ser obtidos pela localização do ponto estacionário da superfície ajustada. O objetivo é encontrar um conjunto de x’s que possam maximizar a função objetivo F sujeito a uma única restrição que define a região de interesse. Existem duas diferentes regiões experimentais de interesse na otimização: esférica e cuboidal. Para regiões cuboidais, a restrição é escrita como , i = 1,2,...,k (k é o número de variáveis de controle), e para regiões esféricas a restrição é definida como , onde ρ é o raio. O valor de ρ pode ser selecionado para se evitar soluções que estão muito fora da região experimental. Para o arranjo composto central, a escolha lógica é ρ = α, onde α é a distancia axial. No caso de regiões cuboidais (tais como BoxBehnken e fatoriais ou fatoriais fracionários), a escolha natural para as fronteiras inferiores e superiores dos x’s são os baixos e altos níveis experimentais codificados, respectivamente. Considerando a função objetivo F como a eficiência de um processo (ξ), a formulação da Eq. 7 obtém o formato da Eq. 8, na qual é adicionado as restrições de eficiência máxima menor ou igual a 100% e de peso superior a um valor prédeterminado (Ti). 42 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Maximizar ξ Sujeito a ξ ≤ 100% wi ≥ Ti (8) A variável wi representa o peso relacionado as variáveis do processo em questão. O valor representado por Ti visa impedir que o peso de certa variável do processo seja nulo, pois isto significa desconsiderar a influência desta variável no cálculo da eficiência. Assim, este valor deve ser determinado de acordo com o processo a ser otimizado. Segundo o capítulo 2.3, a Análise Envoltória de Dados define eficiência como a razão entre o somatório das variáveis de saída e entrada de um processo, na qual a eficiência será máxima quando o somatório das variáveis de saídas também é máximo. Desta forma, a Eq. 9 mostra a formulação final do problema de otimização da eficiência de processos. Maximizar Sujeito a ; ≥0 (9) 43 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 A Figura 1 exibe um fluxograma com a sequência de procedimentos necessários para a aplicação da técnica proposta por este trabalho. Início Modelagem do CCD em função da eficiência (R²) Realizar Experimento Armazenar respostas R² é adequado (maior que 75%)? não Aplicar transformação arcsin√ŷ (por y ser binomial) Modelagem individual Rodar DEA para uma DMU Fixar Outputs e Inputs Armazenar resultado obtido Remodelagem do CCD em função da eficiência (R²) Fazer otimização de uma função objetivo singular, usando a superfície de resposta para ξ sim Restam DMUs para serem analisadas? Fazer experimento de confirmação Fim Figura 1 – Fluxograma com a sequência de procedimento para aplicação da Análise Envoltória de Dados para otimização de múltiplos objetivos 44 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Após o cálculo da eficiência de todas as DMUs referentes ao processo em estudo, é realizada a Análise de Variância (ANOVA) através do software Minitab que permite verificar se o ajuste do modelo foi satisfatório e determinar os coeficientes de regressão para cada uma das respostas. Caso o ajuste do modelo obtenha um valor insatisfatório (R² < 75%), torna-se necessário a aplicaçãoda Transformação Binomial sugerida por Bisgaard e Fuller (1994) aos resultados obtidos para a eficiência. Esta aplicação consiste em transformar valores obtidos através de um cálculo de proporção em valores binomiais. A Eq. 10 apresenta esta Transformação Binomial de Bisgaard e Fuller (1994). (10) Onde é a variável que representa a característica que sofrerá a transformação (valor proporcional) e y o valor binomial. Para este trabalho, a variável se refere à eficiência calculada através da Análise Envoltória de Dados para cada DMU do processo. Essa transformação pode se fazer necessáriapoiso cálculo da eficiência se trata de uma proporção e o software Minitab considera que os dados em análise são valores binomiais. Por último, a otimização é realizada através de uma função objetivo singular, usando a superfície de resposta para a eficiência. Visando mostrar a aplicabilidade da técnica de otimização através da Análise Envoltória de Dados, será realizado um Estudo de Caso com base nos resultados obtidos por Gomes (2010) para as variáveis de um processo de soldagem FCAW. No trabalho realizado por Gomes (2010) a otimização do processo foi realizada através do Erro Quadrático Médio Multivariado. Os resultados obtidos por este método deotimização serão comparados aos resultados obtidos através da Análise Envoltória de Dados e posteriormente analisados. 45 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 3. ESTUDO DE CASO A crescente complexidade dos processos de manufatura, aliada à grande diversidade de métodos de otimização existentes, têm resultado em diversos estudos acerca desses métodos e, a cada dia, novas abordagens têm sido propostas, ampliando ainda mais esse universo. Entretanto, os métodos existentes são insuficientes para cobrir todas as possibilidades de otimização, principalmente pela grande dificuldade em otimizar mutuamente todas as variáveis de um processo. Este capítulo será dedicado à demonstração da aplicação do método de otimização por DEA através da investigação de um processo de soldagem FCAW (do inglês, Flux CoredArcWelding). Tal processo foi realizado e estudado por Gomes (2010) no qual o objetivo era otimizar o processo de soldagem através do método EQMM (Erro Quadrático Médio Multivariado). Tal qual o trabalho realizado por Gomes (2010), este estudo tem como principal objetivo a otimização do processo de soldagem FCAW, porém o método utilizado é a Análise Envoltória de Dados. Busca-se identificar a combinação ótima dos parâmetros de soldagem que permitam a maximização das características geométricas do cordão de revestimento. Ao contrário das aplicações convencionais, em que é desejável alta penetração (P) para garantir a resistência da junta soldada (Figura 2.a), na soldagem de revestimento (Figura 2.b) o perfil geométrico desejado se resume a: Máxima largura do cordão; Máximo reforço; Mínima penetração; Mínima diluição. 46 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 2 - Perfil geométrico desejado do cordão de solda: a) união da junta soldada (aplicações convencionais); b) soldagem de revestimento. A obtenção deste perfil geométrico característico é importante para que o processo permita recobrir a maior área possível com o menor número de passes, resultando em economias significativas de materiais e tempo. Assim, um dos maiores desafios da soldagem de revestimento consiste no ajuste adequado dos parâmetros do processo para que o material depositado adquira a geometria desejada. A otimização deste processo é considerada complexa, pois se refere à otimização de múltiplas respostas de um processo de soldagem que é governado por múltiplos parâmetros de entrada (Figura 3). Portanto, uma abordagem científica para este tipo de problema se torna importante para que os resultados alcançados sejam coerentes e significativos. Parâmetros Velocidade de Alimentação do arame Respostas (15) Tensão Velocidade de soldagem Distância tocha-peça 47 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 3 – Esquematização do objeto de estudo Em Gomes (2010) foram realizados 31 experimentos para o processo de soldagem FCAW. Através da análise de todos os cordões de solda foram calculados os resultados de cada um deles para as variáveis do processo (largura do cordão, reforço, penetração e diluição). Essas variáveis foram qualificadas como variáveis de entrada ou saída segundo influência que têm sobre o cordão de revestimento. Isto é, as variáveis que devem ser maximizadas (largura do cordão e reforço) para que as características geométricas do cordão sejam máximas são consideradas variáveis de saída do processo. Já as que devem ser minimizadas (penetração e diluição) são consideradas variáveis de entrada do processo.A formulação deste problema de otimização, segundo a Análise Envoltória de Dado, é apresentada na Eq. 10. , com j = 1, 2, 3,..., 31 Sujeito a: =1 ξ ≤ 100% (10) onde: – Largura do Cordão – Reforço – Penetração – Diluição ξ – Eficiência do processo – peso da variável de saída – peso da variável de saída – peso da variável de entrada 48 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 – peso da variável de entrada j –número que identifica qual DMU está sendo analisada, referindo-se ao número da DMU que está sendo analisada O valor mínimo fixado para os pesos das variáveis foi de 0,05, pois foi o maior valor encontrado que viabilizava o cálculo da eficiência. Para a realização dos cálculos da eficiência, cada experimento realizado é considerado como uma Unidade de Tomada de Decisão (DMU). Desta forma, para o processo de soldagem em estudo tem-se um total de 31 DMU’s. A eficiência de cada DMU deve ser calculada individualmente e os resultados obtidos devem ser armazenados na medida em que são calculados. Isto significa que o cálculo da eficiência deve ser repetido 31 vezes, no qual para cada DMU em análise, a Eq. 10 deve ser reajustada. Os cálculos foram feito através do software Solver do Microsoft Excel. Todos os resultados obtidos para a eficiência foram compilados na Tabela 2. Para a realização destes cálculos foram utilizados os valores obtidos por Gomes (2010).Gomes (2010) analisou 31 cordões de solda realizados experimentalmente de acordo com as características do DOE previamente gerado. Através das análises realizadas foi possível obter os valores referentes às quatro variáveis do processo (largura do cordão – W, reforço – R, penetração – P, diluição – D) para cada cordão de solda gerado. Desta forma, foram compilados na Tabela 2 também todos os 31 valores encontrados por Gomes (2010) para cada uma dessas quatro variáveis. Nesta tabela a unidade de medida para largura do cordão (W), reforço (R) e penetração (P) é milímetro. Já a variável diluição (D) é um valor porcentual. Na Tabela 2, a DMU 21 possui a eficiência máxima de 100%. Isto significa que o conjunto de variáveis (W, R, P e D) referente a essa DMU gera a melhor característica geométrica do cordão de solda. Sendo assim, pode-se dizer que este conjunto de valores representa o conjunto de valores alvos para as variáveis do processo (Tabela 3). 49 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 1 - Resultados obtidos para os cálculos das eficiências DMU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 Largura Reforço W R 11,19 2,63 12,99 3,12 12,70 2,50 15,05 2,78 9,21 2,17 9,96 2,67 9,75 2,06 11,51 2,42 10,32 2,87 11,43 3,34 11,27 2,85 13,34 3,18 7,99 2,55 8,62 2,80 8,48 2,36 10,84 2,60 9,07 2,21 12,21 3,06 9,42 3,03 11,69 2,46 14,93 3,12 8,48 2,25 11,73 2,61 9,22 2,89 10,82 2,60 10,93 2,59 10,74 2,65 10,61 2,50 10,64 2,62 10,59 2,61 10,57 2,56 Penetração P 1,37 1,66 1,69 1,98 1,65 1,94 1,54 2,18 1,25 1,00 1,32 1,10 1,11 1,23 1,37 1,64 1,38 2,14 1,20 1,86 0,95 1,43 2,18 1,28 1,71 1,72 1,62 1,80 1,49 1,49 1,50 Diluição D 26,44% 25,82% 31,49% 31,25% 36,22% 33,69% 37,12% 41,08% 22,46% 18,32% 23,71% 21,96% 24,96% 23,31% 28,77% 30,19% 31,56% 30,95% 22,84% 35,58% 18,58% 35,78% 40,44% 24,16% 31,05% 31,67% 30,88% 32,83% 29,99% 31,09% 31,02% Eficiência 69,10% 80,55% 76,00% 89,15% 56,90% 63,15% 59,05% 69,65% 65,95% 85,46% 70,60% 82,60% 52,70% 57,10% 54,20% 67,20% 56,40% 76,35% 62,25% 70,75% 100,00% 53,65% 71,70% 60,55% 67,10% 67,60% 66,95% 65,55% 66,30% 66,00% 65,65% Ao realizar a otimização do processo, o resultados encontrados para as variáveis W, R, P e D devem se aproximar do grupo apresentado na Tabela 3. 50 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 2 - Conjunto de valores alvos DMU 21 Parâmetros de Entrada Va T Vs N m/min V cm/min mm 8,50 29,50 20,00 20,00 Variáveis de Geometria do Cordão W R P D mm mm mm 14,93 3,12 0,95 18,58% A estimação dos coeficientes de regressão foi feita através do software estatístico MINITAB®, que utiliza, para esta finalidade, o Método dos Mínimos Quadrados Ordinários (OLS). A Tabela 4 apresenta os coeficientes estimados para os modelos quadráticos completos desenvolvidos para as respostas consideradas neste trabalho. Tabela 3 - Coeficientes estimados para os modelos quadráticos completos Coeficiente Constante Va T Vs N Va*Va T*T Vs*Vs N*N Va*T Va*Vs Va*N T*Vs T*N Vs*N Variáveis do Processo Eficiência W R P D 10,70 2,59 1,62 0,31 0,66 0,80 0,19 0,12 0,00 0,05 0,66 -0,11 0,12 0,02 0,02 -1,45 -0,22 0,09 0,04 -0,10 -0,63 0,12 -0,24 -0,04 -0,02 0,00 0,01 0,03 0,00 0,00 -0,02 0,03 -0,03 -0,01 0,00 0,26 0,02 -0,12 -0,01 0,03 -0,04 0,04 0,02 0,00 0,00 0,27 -0,03 0,03 0,01 0,00 -0,11 -0,01 0,08 0,01 -0,01 -0,03 -0,02 -0,10 0,00 0,00 -0,10 0,00 0,00 0,00 0,00 -0,01 0,01 0,00 0,00 -0,01 0,07 -0,01 0,00 -0,01 0,00 Com os coeficientes apresentados na Tabela 4,foram formuladas as equações do modelo quadrático completo para as variáveis W, R, P, D e para a eficiência do processo (respectivamente, Eq. 11, Eq. 12, Eq. 13, Eq. 14 e Eq. 15). 51 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 (11) (12) (13) (14) (15) A adequação dos modelos foi verificada pela Análise de Variância (ANOVA), realizada através do software MINITAB®. NaTabela 5 são apresentados os resultados desta análise. Com os resultados obtidos verifica-se que todos os modelos desenvolvidos são adequados, já que apresentam p-values inferiores a 5% de significância. Os resultados do ANOVA também indicam que todos os modelos desenvolvidos apresentaram bons ajustes, já que os valores de R²(adj.) foram superiores a 84%. Além disso, a Tabela 5mostra também que os modelosnão apresentaram falta de ajuste (Lack-of-fit< 0,05). 52 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 4 - Análise de Variância Resposta P W R P D Eficiência 0,000 0,000 0,000 0,000 0,000 Lack-offit 0,052 0,115 0,470 0,080 0,432 2 R (adj.) (%) 98,200 94,800 84,100 93,400 94,400 Os resultados da Tabela 5 atestam que não há falta de ajuste nas respostas obtidas, determinando que o modelo matemático completo é suficientemente confiável. Através da equação do modelo matemático completo para a eficiência e com o auxilio do software Solver do Microsoft Excel foram calculados os valores ótimos para os parâmetros de entrada do processo de soldagem (velocidade de alimentação do arame – Va, tensão – T, velocidade de soldagem – Vs e distância tocha-peça – N). Para isto foi utilizado como amostral restrição (onde aeficiência , sendo máxima de 100% e o espaço o raio do espaço amostra e k o número de fatores). Para o caso em estudo tem-se um total de quatro fatores (Va, T, Vs e N). A formulação do problema é mostrada na Eq. 16. Sujeito a: (16) Obteve-se assim os valores para os parâmetros Va, T, Vs e N.Consequentementetornou-se possível calcular também os valores das variáveis de entrada (Largura do cordão – W, Reforço – R) e saída (Penetração – P, Diluição – D) do processo. Este cálculo foi realizado através das equações do modelo matemático completodestas variáveis (Eq. 11, Eq.12, Eq. 13 e Eq. 14). A Tabela 6 apresenta 53 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 encontrados para os parâmetros de entrada e para as variáveisda geometria do cordão de solda através da otimização pela metodologia DEA. Esta tabela apresenta também os valores alvos e os resultados obtidos para a diferença entre esses valores, a fim de facilitar a análise. Tabela 5–Resultados e comparações Variáveis DEA Valores Alvos Erro Va m/min 8,60 8,50 1,16% Parâmetros de Entrada T Vs N V cm/min mm 30,03 20,53 19,53 29,50 20,00 20,00 1,77% 2,58% -2,40% Variáveis de Geometria do Cordão W R P D mm mm mm 15,31 3,20 0,98 18,99% 14,93 3,12 0,95 18,58% 2,46% 2,51% 3,06% 2,16% Os resultados mostram que os valores obtidos pela otimização por Análise Envoltória de Dados foram satisfatórios, pois se aproximaram dos valores alvos obtendo uma diferença máxima de 3,06% para a variável Penetração. Portanto, na medida em que os valores reais se mostraram condizentes com os valores calculados, ficam validados o resultados obtidos para a otimização das características do cordão para o processo de soldagem com arame tubular em operações de revestimento de aços carbonos com aços inoxidáveis. Ao se comparar os valores obtidos pelas metodologias DEA, Desirability e EQMM Ponderado, tal como é mostrado na Tabela 7, percebe-se que os valores não tiveram grandes variações. Porém as pequenas diferenças entre os valores podem ser explicadas pelo fato de se tratar de métodos de otimização completamente diferentes. A metodologia DEA otimiza com base nas equações do modelo matemático completo levando em consideração as restrições de eficiência máxima e de espaço amostral. Já o Desirability utiliza equações para otimização baseadas em valores alvos, mínimos e máximos previamente determinados para as variáveis, buscando assim um valor ótimo que mais se aproxima do alvo. E, por fim, o método apresentado por Gomes (2010) otimiza com base na estruturas de correlação entre as variáveis em estudo. 54 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 6 - Resultados obtidos por DEA, Desirability e EQMM Ponderado Métodos DEA Desirability Gomes (2010) Va m/min 8,60 11,50 9,50 Parâmetros de Entrada T Vs N V cm/min mm 30,03 20,53 19,53 24,50 20,00 10,00 26,50 27,30 23,60 Variáveis de Geometria do Cordão W R P D mm mm mm 15,31 3,20 0,98 18,99% 15,30 3,95 1,38 13,70% 11,90 3,33 0,92 16,61% Considerando que o perfil geométrico do cordão obtido pela aplicação da metodologia DEA obteve valores consideravelmente próximos da condição de ótimo definido pela DMU de eficiência máxima, este método de otimizaçãofoi considerado satisfatório.Portanto, observa-se que o método de otimizaçãoproposto foi empregadocom êxito, o que caracteriza a Análise Envoltória de Dados como uma ferramenta eficiente para aotimização de um processo de múltiplas respostas. 4. CONCLUSÃO Este trabalho mostrou que a otimização de um processo de manufatura de múltiplas respostas pode ser bem representado utilizando de forma conjunta a Análise Envoltória de Dados e a Metodologia de Superfície de Resposta. Os resultados mostraram que a DEA realizou de forma satisfatória a otimização simultânea das variáveis de entrada e saída do processo de soldagem FCAW, já que os modelos matemáticos desenvolvidos se caracterizaram como expressões de grande confiabilidade por apresentarem ajustes superiores a 84%. Após a aplicação da metodologia proposta por este trabalho, verificou-se que a otimização do processo de soldagem com arame tubular para o revestimento de aços carbono com aços inoxidáveis é alcançada com o emprego da seguinte combinação dos parâmetros: Va = 8,60 m/min; T = 30,03 V; Vs = 20,53 cm/min; N = 19,53 mm. Nesta condição, as respostas obtidas foram as seguintes respostas: Largura do cordão máxima: 15,31 mm; Reforço máximo: 3,20 mm; 55 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Penetração mínima: 0,98 mm; Diluição mínima: 18,99%. A comparação entre os valores obtidos e os valores alvos determinados pela DMU de eficiência máxima (DMU 21) mostraram que a maior diferença entre as respostas foi de3,06%, para a variável penetração. Com isso, obteve-se a validação dos resultados ótimos e também dos modelos desenvolvidos para as respostas. Portanto, tais resultados fazem destes modelos expressões úteis para um adequado controle do processo, na medida em que apresentam baixos erros quanto à previsão das respostas. Um sugestão para estudos futuros seria a aplicação do DEA para outros problemas de otimização de processos de múltiplas respostas, visando testar a aplicabilidade do método. 5. REFERÊNCIAS CHARNES, A., COOPER, W.W. AND RHODES, E. (1978), Measuring the efficiency of decision making units, European Journal of Operational Research, Vol. 2, pp. 429444. DERRINGER, G., SUICH, R., Simultaneous Optimization of Several Response Variables, Journal of Quality Technology, 1980, 12(4), 214–219. DOYLE, J. AND GREEN, R, (1994), Efficiency and cross-efficiency in DEA: derivations, meanings and uses, Journal of the Operational Research Society, Vol. 45, pp.567-578. GOMES, J. H. F., Análise e otimização da soldagem de revestimento de chapas de aço carbono utilizando arame tubular inoxidável austenítico. 137 p. Dissertação (Mestrado em Engenharia de Produção) - Universidade Federal de Itajubá, Itajubá, MG, 2010. 56 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 KHURI, A.I., CONLON, M., Simultaneous Optimization of Multiple Responses Represented by Polynomial Regression Functions, Technometrics, 1981, 23(4), 363– 375. LIAO, H.C., Using N-D method to solve multi-response problem in Taguchi, Journal of Intelligent Manufacturing, 2005, 16(1), 331-347. LIAO, H.C., A data envelopment analysis method for optimizing multi-response problem with censored data in the Taguchi method, Computers & Industrial Enginerring, 2004, 46(1), 817-835. LIAO, H.C., Chen, Y.K., Optimizing multi-response problem in the Taguchi method by DEA based ranking method, International Journal of Quality & Reliability Management, 2002, 19(7), 825-837 HARRINGTON, E. C. The Desirability Function.Industrial QualityControl, n 21, pp. 494-498, 1965. MONTGOMERY, D.C., Design and Analysis of Experiments, 4ª ed. John Wiley& Sons, 2001. NILO JÚNIOR, L. P. Otimização de um processo de solda MIG/MAG para aplicação na indústria automobilística através da utilização da técnica do projeto e análise de experimentos. 111 p. Dissertação (Mestrado em Engenharia de Produção) – Instituto de Engenharia de Produção e Gestão, Universidade Federal de Itajubá, Itajubá, 2003. PAIVA, E. J.Otimização de processos de manufatura com múltiplas respostas baseada em índices de capacidade. 119 p. Dissertação (Mestrado em Engenharia de 57 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Produção) – Instituto de Engenharia de Produção e Gestão, Universidade Federal de Itajubá, Itajubá, 2008. 58 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 OTIMIZAÇÃO DO PROCESSO DE HOMOGENEIZAÇÃO DE EMULSÕES W/O DE PETRÓLEO COM O USO DA METODOLOGIA DE SUPERFÍCIE DE RESPOSTA Anderson Paulo de Paiva [email protected] José Henrique de Freitas Gomes [email protected] Pedro Paulo Balestrassi [email protected] Pedro Paulo Balestrassi [email protected] Jonathan Leal [email protected] Resumo. Este artigo demonstra a aplicação da Metodologia de Superfície de Resposta na determinação das condições ótimas de homogeneização de emulsões de petróleo do tipo W/O (Water in Oil). Um procedimento adequado de homogeneização concorre para a adequada representatividade da amostra. Três parâmetros quantitativos (Temperatura, Velocidade de Rotação e Tempo) são considerados como possíveis fatores de influência na homogeneização de emulsões. O coeficiente de variação do diâmetro característico de gota D (V; 0,5), medidos a partir do analisador de partículas MALVERNTM, foi adotado como resposta. Uma boa homogeneização pressupõe a minimização do coeficiente de variação do diâmetro característico de gota. Palavras-Chave: MSR (Metodologia de Superfície de Resposta), Emulsões W/O, Homogeneização. 59 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 1. INTRODUÇÃO A determinação da incerteza de medição em amostras heterogêneas é um desafio para os métodos quantitativos. Para se determinar um procedimento adequado de amostragem que considere o aspecto dinâmico da amostragem de emulsões adotou-se neste trabalho o pressuposto de que a pior situação possível de homogeneidade é a heterogeneidade. No caso das emulsões, a situação mais heterogênea que pode ser encontrada é quando as duas fases (óleo e água) estão separadas. Em situações práticas de extração isto dificilmente ocorrerá. Quando uma população é formada por material contínuo, não é possível realizarse uma amostragem probabilística aleatória devido à impraticabilidade de um sorteio rigoroso. Se a população for líquida ou gasosa, o que se costuma fazer, com resultado satisfatório, é homogeneizá-la e retirar a amostra a esmo. Desse modo, uma alternativa razoável para aquisição de uma amostra representativa de um meio contínuo é a sua adequada homogeneização. Assim, parâmetros que consigam homogeneizar uma emulsão a partir das fases separadas nunca fornecerão uma medida de concentração menos precisa do que em uma situação real. Acredita-se, portanto, que a homogeneização concorra para o aumento da representatividade da amostra. 2. EMULSÕES Segundo Pal (1994), uma emulsão é um sistema bifásico do tipo óleo/água, onde uma das duas fases está dispersa na forma de gotas na outra. A fase goticular denominase Fase Dispersa, enquanto que a matriz na qual o sistema de gotas está suspenso denomina-se Fase Contínua. As gotas de emulsão usualmente excedem 0,5 m de diâmetro e, dessa forma, tornam-se visíveis sob microscópio óptico. As emulsões também contêm um terceiro componente denominado agente emulsificante ou emulsificador. Tal agente tem duas funções: diminuir a tensão interfacial entre o óleo e a água, facilitando, dessa maneira, a 60 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 formação da emulsão; e, uma vez formada, estabilizar a fase dispersa no que tange à coalescência. As emulsões podem ser classificadas em três grupos distintos (Pal, 1994): a) Emulsões de Água em óleo (W/O); b) Emulsões de Óleo em Água (O/W); c) Emulsões Múltiplas. As emulsões do tipo W/O consistem em gotas de água dispersas em uma matriz contínua de óleo (ou Petróleo). É o tipo de emulsão mais comumente encontrado na indústria do petróleo. Por vezes, tais emulsões são denominadas de emulsões regulares. As emulsões do tipo O/W consistem de gotas de óleo dispersas em água. Também são conhecidas como emulsões reversas. As emulsões múltiplas, menos comuns que as binárias, são formadas por múltiplas gotas. Em uma emulsão múltipla do tipo W/O/W, por exemplo, pequenas gotas de água alojam-se dentro de gotas maiores de petróleo. Este sistema por sua vez, está imerso em uma matriz de água. Segundo Pal (1994), há duas maneiras diferentes de medir a composição (conteúdo de água e óleo) em emulsões: a) A medição direta da composição usando-se um analisador de emulsões on-line; b) A medição indireta da composição utilizando-se uma amostra da emulsão e a subseqüente análise em laboratório. A medição indireta, que envolve a coleta de uma amostra representativa da emulsão no duto de transporte ou em qualquer outro equipamento do processo, com posterior análise em laboratório, é a maneira mais comumente usada nas operações de produção de petróleo, embora a medição on-line esteja alcançando cada vez mais espaço; entretanto, a precisão do método indireto é altamente dependente do quanto uma amostra é representativa da composição da linha de produção. Este será o tipo de medição estudada neste trabalho, através da análise de parâmetros que tornem a amostra coletada a mais homogênea possível. A homogeneidade da amostra concorre para a sua representatividade. A formação de uma emulsão por agitação mecânica de um sistema polifásico é um processo extremamente complexo; põe em jogo uma grande variedade de variáveis cujo efeito combinado ainda não é totalmente conhecido. Ao se agitar um sistema polifásico 61 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 líquido, dois fenômenos se sobrepõem: primeiramente, os fenômenos fluidomecânicos, que têm relação com o movimento do impulsor, com os elementos de fluido e com as misturas dos mesmos (Salager, 1993); segundo, a presença de uma interface que pode se deformar e romper, e cuja área pode variar de um momento para o outro e de um ponto para o outro do sistema. Particularmente, a formação de gotas depende da tensão interfacial. Em geral, um surfactante pode alterar sensivelmente a magnitude da tensão superficial. Além disso, deve-se considerar que os esforços fluidomecânicos produzidos pelo sistema agitador devem transmitir-se à interface através da fase contínua e uma vez aplicada à interface, devem resultar em cisalhamento ou estiramento das estruturas formadas com os elementos da fase dispersa. Como conseqüência, a viscosidade das fases contínua e dispersa são também importantes no processo de emulsificação. O sistema agitado não é, em geral, homogêneo. Isto se dá porque existem zonas de alta agitação e zonas de pouca agitação no fluido. Nas primeiras, as gotas estarão submetidas a esforços capazes de rompê-las, enquanto que nas outras, há a tendência de coalescimento, e, conseqüentemente, de aumento de tamanho. A coalescência é um fenômeno espontâneo que depende da probabilidade de colisão entre as gotas e de sua eficiência. A probabilidade de colisão depende da quantidade de gotas presentes, o que está diretamente relacionado com o seu tamanho e com a composição do sistema; quanto mais gotas presentes, menores elas serão (Salager, 1993). Além disso, as colisões dependem em muito dos fatores inerciais susceptíveis de produzi-las (movimento Browniano, sedimentação, agitação). Já a eficiência de colisão, depende do balanço entre as forças atrativas e repulsivas entre as gotas. As forças atrativas são do tipo Van der Waals e, portanto, estão relacionadas com a massa das gotas, enquanto que as forças repulsivas são produzidas pelos surfactantes. 3. ARRANJO EXPERIMENTAL Como disposto anteriormente, a homogeneidade da emulsão gerada está relacionada à ação do agitador sobre a operação de emulsificação. Assim, em um recipiente contendo as duas fases geradoras, haverá zonas distintas de homogeneização, 62 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 e estas zonas serão tão homogêneas, quanto mais próximas estiverem do agitador. Baseando-se neste princípio, adotou-se como meio de verificação de homogeneidade da emulsão, a diferença entre três pontos do fluido coletados em posições distintas: uma amostra do fundo do recipiente, uma do centro (próximo à posição do agitador) e uma última da superfície. Para se utilizar o MALVERNTM, entretanto, uma proposição deve ser feita: se uma emulsão é homogênea, é razoável admitir-se que as gotas de água em qualquer ponto da emulsão tenham tamanhos muito próximos. Uma vez que existem sistemas homogêneos com gotas grandes e também com gotas pequenas, não seria interessante usar o desvio-padrão do diâmetro característico como medida de dispersão, porque, para efeito de comparação, estar-se-iam avaliando propriedades diferentes. Portanto, preferiu-se adotar o Coeficiente de Variação de D(V; 0,5). Esta medida estatística é a razão entre o desvio-padrão e a média. Como descrito anteriormente, D(V; 0,5) é um dos diâmetros característicos de gota. Este diâmetro foi escolhido porque é a medida mais precisa fornecida pelo analisador de partículas. A figura (1) mostra como foram coletadas as três amostras de uma mesma emulsão. Uma primeira amostra é retirada na superfície do frasco, junto à sua parede esquerda (PEC); uma segunda, no centro e no meio (CEM); por último, uma amostra da emulsão do fundo do frasco, junto à sua parede direita (PDB). 63 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 1 – (a) Pontos de coleta das amostras. (b) Tipo de Agitador utilizado. Embora a intenção fosse gerar concentrações conhecidas, o petróleo utilizado (teoricamente livre de água) já contém originalmente um pequeno teor de água. Depois de repetidas análises iniciais, o teor de água obtido por titração Karl-Fischer, revelou um valor médio de concentração para o petróleo ―livre‖ de 1,2%. Como o petróleo utilizado já possuía um teor de 1,2% de água, calculou-se a massa de água complementar para os teores experimentais requeridos. Na geração das emulsões, utilizou-se Petróleo Cru, oriundo do Campo de Marlim (RJ), ºAPI 20,6. Para a análise do diâmetro característico de gota das amostras de emulsões homogeneizadas, utilizou-se o analisador de partículas MALVERN MASTERSIZER, através de uma amostra diluída. Segundo Salager (1993), como a grande maioria dos 64 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 métodos, um analisador por difração de luz como o Malvern, requer uma emulsão diluída, para evitar difrações múltiplas. Em três recipientes diferentes, diluiu-se em óleo mineral USP, as amostras coletas nos três pontos descritos anteriormente. Através de um bastão de vidro, retiram-se três gotas da mistura em cada ponto. Um volume maior do que este poderia aumentar o grau de obscurência da amostra, dificultando a leitura realizada pelo equipamento. Posteriormente, introduziram-se estas amostras no analisador de partículas. Três diâmetros característicos da amostra foram registrados. Com eles, calculou-se a média, o desvio padrão e o coeficiente de variação da amostra de emulsão, gerada segundo os fatores e níveis definidos na tab. (1). Segundo Salager (1993), três parâmetros quantitativos (Temperatura, Velocidade de Rotação e Tempo) podem ser considerados como possíveis fatores de influência na homogeneização das emulsões. Para compor e analisar os resultados experimentais com estes parâmetros utilizou-se a metodologia de Projeto de Experimentos. Como resposta, adotou-se o coeficiente de variação do diâmetro mediano de gotas D (V; 0,5). Como todos os fatores escolhidos são quantitativos, um fatorial completo com pontos centrais, pode ser adequado. Este arranjo é capaz de avaliar a influência dos fatores e a presença de curvatura nos modelos matemáticos do ensaio. 3.1. Metodologia de Projeto de Experimentos Em ensaios experimentais, modificações propositais são feitas nas variáveis independentes para se avaliar seu impacto sobre o comportamento das variáveis dependentes. A metodologia de Projeto de Experimentos é, portanto, uma estratégia capaz de planejar e analisar um conjunto de experimentos ortogonais e balanceados formado por um conjunto de fatores. Uma vez realizados os experimentos, uma Anova (AnalysisofVariance) associada ao método dos mínimos quadrados, possibilita a criação de modelos do processo experimentado. Obtida a função objetivo através desse procedimento, um método de otimização pode ser empregado com o objetivo de determinar as condições nas qual o processo é mais favorável a um requisito de 65 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 qualidade. Esta metodologia tem emergido como uma importante ferramenta para a obtenção de resultados não ambíguos com uma quantidade mínima de dados. Em um DOE os valores atribuídos aos fatores denominam-se níveis. Os arranjos fatoriais utilizados neste caso são compostos por dois níveis. Estes arranjos fatoriais completos permitem que todos os fatores envolvidos na experimentação sejam avaliados igual número de vezes em cada um dos seus níveis. Em fases iniciais, apenas dois níveis fixos são necessários para se avaliar a influência dos fatores. Posteriormente, à medida que se reduza sua quantidade e se avalie sua significância, arranjos mais específicos, com um número maior de níveis, podem ser utilizados. No caso dos parâmetros de homogeneização, dois níveis serão utilizados por fator. Como os parâmetros de homogeneização são quantitativos contínuos, serão acrescentados pontos centrais, de tal forma que a curvatura do processo seja avaliada. Em caso de significância, um modelo quadrático será uma alternativa adequada. Em geral, alguns dos fatores escolhidos podem interagir provocando sobre a resposta uma influência devida à sua natureza sinergia. Com estas considerações, um modelo experimental de primeira ordem pode ser escrito como: k y 0 j x j ij xi x j j 1 i j (1) Quando se evidenciar curvatura, o modelo adequado será dado pela Eq. (2), tal que: k k y 0 j x j ij xi x j jj x 2 j j 1 i j j 1 (2) Na maioria dos experimentos, assume-se que o modelo linear é adequado; entretanto, para se confirmar se existe ou não falta de ajuste podem-se utilizar tantos pontos centrais quantos forem os K fatores de um processo. Estes pontos são adequados apenas quando todas as variáveis forem quantitativas. Comparando-se as médias das 66 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 respostas obtidas com os pontos centrais e os fatoriais, pode-se testar a hipótese de curvatura. 3.2 Metodologia de Superfície de Resposta De acordo com Montgomery (2001), a Metodologia de Superfície de Resposta (MSR) é uma coleção de técnicas matemáticas e estatísticas utilizadas para modelar e analisar problemas no qual a forma de relacionamento entre as variáveis dependentes e independentes é desconhecida. Inicialmente, emprega-se, um polinômio de baixa ordem. Se houver curvatura no processo, então, um polinômio ordem mais elevado se torna necessário, tal como descreve a Eq. (3). k k i 1 i 1 yˆ y 0 i xi ii xi2 ij xi x j i j (3) Na Eq. (3), os parâmetros ( ) são estimados por mínimos quadrados. Na forma matricial, tem-se: ˆ ( X T X ) 1 X T y (4) Na Equação (4), X é a matriz dos fatores e y, das respostas. Um típico arranjo para modelos quadráticos é o CCD (Central Composite Design). Formado por uma parte fatorial, um conjunto de pontos centrais e axiais, o CCD possui a variância da resposta predita constante numa esfera de raio α, tal que: V yˆ x 2 xT X T X 1 x (5) 67 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 O valor de depende do número de fatores envolvidos e garante rotacionalidade aos arranjos (Montgomery, 2001). Para este trabalho é dado por: 2k 4 1 (6) Na Equação (6), k é o número de fatores envolvidos na experimentação. Através da eliminação de termos não significativos, pode-se obter modelos mais representativos. A eliminação de um termo é adequada se causar um aumento do coeficiente de determinação R2, com a conseqüente diminuição do erro experimental, observando-se, porém, o princípio da Hierarquia, segundo o qual, um termo de ordem baixa que não for significativo deve ser mantido quando o de ordem alta for significativo. Para a construção dos arranjos e a análise estatística, será utilizado neste trabalho o software Minitab®. 3.3 Método de Otimização Se uma função múltipla possui gradiente nulo e se a matriz hessiana formada pelas derivadas segundas for positiva e definida, então, o ponto estacionário é um ponto de ótimo. Segundo Montgomery (2001), escrevendo-se um modelo de segunda ordem em notação matricial tem-se: yˆ ˆ 0 x´b x´Bx (7) xT x1 x2 xk , bT ˆ1 ˆ2 ˆk ˆ11 ˆ12 / 2 ˆ1k / 2 ˆ22 ˆ2 k / 2 e B ˆkk Sim. (8) 68 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Na equação (8), b representa o vetor dos coeficientes de regressão de primeira ordem e [B] é uma matriz simétrica, com a diagonal principal formada pelos coeficientes dos termos quadráticos puros. Os demais coeficientes de B são iguais à metade dos coeficientes das interações. Igualando-se a zero o gradiente de y em relação aos elementos do vetor x, tem-se que o ponto estacionário é: xs 0.5 B 1b (9) Esta equação do ponto estacionário só é válida para condições não restritas de otimização. Entretanto, como os resultados experimentais só são válidos para o interior dos níveis dos fatores, deve-se impor uma restrição para se evitar que o ponto de ótimo caia fora da região experimental. Em um experimento do tipo CCD, estas restrições podem ser esféricas ou cuboidais. No primeiro caso, 1 xi 1, i 1,2,..., k , onde k é igual ao número de fatores do arranjo experimental. Já para a restrição esférica, as T 2 restrições são definidas por x x . Um algoritmo adequado para este tipo de otimização é o Gradiente Reduzido Generalizado (GRG). De acordo com Lasdonet al. (1978), o GRG é um método de otimização não-linear, onde restrições de igualdade são substituídas na função objetivo. Isto reduz o número de variáveis e gradientes envolvidos nos cálculos. Separando-se as variáveis originais em básicas (Z) e não-básicas (Y), pode-se escrever a direção de busca como: T d S X GR F X z F X B 1 A Y F X , dZ T dY B AdZ 1 (10) Onde: A z h j X e B Y h j X . T T Para as iterações, X k 1 X k S k 1 , verificando-se em cada passo se deve-se utilizar X k 1 é viável e se 69 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 h X k 1 0 para um dado multiplicador de Lagrange λ. Usando-se um algoritmo unidimensional de busca, resolve-se F(X) escrito em termos de α. A combinação da MSR com um algoritmo de otimização, resulta em: k k i 1 i 1 Minimizar yˆ 0 i xi ii xi2 ij xi x j Sujeito a : x x T 2 i j i 1,2,...k (11) 4. PROCEDIMENTO EXPERIMENTAL E ANÁLISE DE RESULTADOS De acordo com a fundamentação teórica apresentada, procurou-se compor um arranjo experimental utilizando-se os fatores de homogeneização e respectivos níveis de ensaio, tal como descreve a Tab. (1). Utilizando-se um fatorial completo 23 com 5 pontos centrais e com 2 réplicas, obtém-se os 21 experimentos descritos na Tab. (2). Para cada condição experimental de homogeneização da emulsão gerada, foi calculado o coeficiente de variação para o diâmetro de gota. O conjunto de níveis dos fatores experimentais que concorrerem para a minimização da resposta de interesse serão aqueles que tornarão a emulsão a mais homogênea possível e evitando-se uma excessiva trituração das gotas. Tabela 1. Fatores e níveis para o processo experimental de homogeneização. Níveis Parâmetro Símbolo Unidade -1 0 Rotação X1 rpm Temperatura X2 ºC. 20 30 40 Tempo X3 s 60 90 120 1000 2000 +1 3000 70 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 2. Fatorial completo com pontos centrais. Codificado Decodificado Y Nº X1 X2 X3 X1 X2 X3 1 -1 -1 -1 1000 20 60 8,004 2 1 -1 -1 3000 20 60 3,509 3 -1 1 -1 1000 40 60 9,258 4 1 1 -1 3000 40 60 2,982 5 -1 -1 1 1000 20 120 6,200 6 1 -1 1 3000 20 120 2,889 7 -1 1 1 1000 40 120 6,378 8 1 1 1 3000 40 120 3,302 9 -1 -1 -1 1000 20 60 7,074 10 1 -1 -1 3000 20 60 4,254 11 -1 1 -1 1000 40 60 10,061 12 1 1 -1 3000 40 60 2,538 13 -1 -1 1 1000 20 120 5,900 14 1 -1 1 3000 20 120 2,928 15 -1 1 1 1000 40 120 6,160 16 1 1 1 3000 40 120 2,463 17 0 0 0 2000 30 90 3,667 18 0 0 0 2000 30 90 3,460 19 0 0 0 2000 30 90 3,376 20 0 0 0 2000 30 90 3,647 21 0 0 0 2000 30 90 3,053 A análise de variância da Tab.(3) demonstra a significância dos parâmetros de estudo sobre a homogeneização das emulsões geradas. No caso da experimentação em dois níveis, a hipótese nula do teste estatístico é caracterizada por uma igualdade entre as respostas médias obtidas nos dois níveis de cada fator. Considerando-se o valor de P 71 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 igual à probabilidade da estatística de teste T ser maior que o valor de T crítico, obtido com nível de significância α=5% e d.f.=12, pode-se afirmar que valores inferiores ao nível de significância, levam à rejeição da hipótese nula. Desse modo, conclui-se que apenas o fator Temperatura não se demonstrou influente no processo de homogeneização. Entretanto, a interação tripla que contém o fator, é bastante influente. De acordo com o princípio da hierarquia (Montgomery, 2001), devido à interação, a temperatura deveria ser mantida nas fases seguintes da experimentação. No entanto, para se reduzir o tamanho do arranjo e o custo experimental, tal fator não foi considerado, mantendo-o constante e igual a 30 ºC nos experimentos seguintes. Este valor foi escolhido por conduzir a valores pequenos do coeficiente de variação (Y). A análise de curvatura do modelo de regressão, realizada através do exame dos pontos centrais, revela um valor de P bem menor que o nível de significância, o que conduz à rejeição da hipótese nula de igualdade entre a resposta média obtida com os pontos fatoriais e pontos centrais. Logo, há curvatura significativa no modelo, o que sugere a aplicação de um arranjo do tipo CCD. 72 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 3. Anova para Coeficiente de Variação. Termo Efeito Coef Se Coef T P 5,244 0,09685 55,25 0,000 Rotação -4,271 -2,136 0,09685 -22,05 0,000 Temperatura 0,298 0,09685 1,54 0,150 Tempo -1,432 -0,716 0,09685 -7,40 0,000 Rotação x Temperatura -0,872 -0,436 0,09685 -4,50 0,002 Rotação x Tempo 1,007 0,09685 5,20 0,000 Temperatura x Tempo -0,202 -0,101 0,09685 -1,04 0,319 Rotação x Tempo x Temperatura 0,749 0,09685 3,87 0,002 -1,803 0,19849 -9,08 0,000 Constante 0,149 0,504 Pontos Centrais 0,375 FONTE DF SEQ SS ADJ SS MS F P Efeitos Principais 3 81,538 81,538 27,1792 181,09 0,000 Interações 2a.Ordem 3 7,26 7,26 2,4201 16,12 0,000 Interações 3a.Ordem 1 2,246 2,246 2,2455 14,96 0,002 Curvatura 1 12,386 12,386 12,3861 82,53 0,000 Erro Residual 12 1,801 1,801 0,1501 Erro Puro 12 1,801 1,801 0,1501 Total 20 105,231 Uma vez verificado que o experimento está em uma região de ótimo, um CCD é construído adicionando-se os pontos axiais ao arranjo já utilizado. Para dois fatores, a distância α é 1,414, de acordo com a Eq. (6). Os valores 1,414 serão os novos níveis codificados do arranjo. Para uma interpretação decodificada dos níveis dos fatores, pode-se empregar a Eq. (12). 2X X H X L xi i X H X L (12) 73 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Onde: XH e XL são, respectivamente, os níveis superior e inferior dos fatores, em unidades decodificadas. Como já se está na região de ótimo serão realizados apenas os experimentos com pontos axiais. Aplicando-se a técnica de blocagem aos experimentos já realizados, pode-se verificar se tal condição experimental é homogênea. Este arranjo experimental está descrito na Tab.(4). Um exame dos resultados da Anova realizada com a presença dos blocos revela um valor de P bem maior que o nível de significância, o que conduz à aceitação da hipótese nula de igualdade entre as respostas médias obtidas com os dois blocos experimentais. Assim, o fato de parte do arranjo ter sido aproveitado do fatorial completo não interferiu na análise. Desconsiderando-se, portanto, esta influência, refazse a Anova dos dados experimental, tal como se observa na tab.(5). Conclui-se, então, que o modelo quadrático completo é significativo, uma vez que todos os termos deste modelo apresentaram valores de P praticamente nulos. Não há falta de ajuste com a representação pelo modelo quadrático (P = 0,170) e sua explicação é de R2 (Adj) = 98,2 %. Para se encontrar, portanto, a condição ótima de homogeneização, compõe-se uma função objetivo a partir do modelo estatístico de regressão, tendo como restrição para a solução ótima a região experimental . Este algoritmo garantirá uma solução viável dentro de . Escrevendo-se o modelo de otimização, tem-se que: Minimizar yˆ 3,685 2,119 x1 0,918 x2 1,342 x12 0,356 x22 0,528 x1 x2 Sujeito a : xT x 1,414 x 2 (13) 74 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 4.ArranjoComposto Central Unidades Codificadas Unidades Decodificadas n Y x1 x2 X1 X2 1 -1 -1 1000 60 8,780 2 1 -1 3000 60 3,880 3 -1 1 1000 120 5,700 4 1 1 3000 120 2,910 5 -1,41421 0 585,79 90 9,707 6 1,41421 0 3414,21 90 3,160 7 0 -1,41421 2000 47,574 5,624 8 0 1,41421 2000 132,426 3,297 9 0 0 2000 90 3,608 10 0 0 2000 90 3,806 11 0 0 2000 90 3,330 12 0 0 2000 90 3,827 13 0 0 2000 90 3,852 75 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 5. Anova CCD. Termo Coef Se Coef T P Constante 3,749 0,1764 21,257 0,0000 Bloco -0,065 0,1094 -0,592 0,5760 Rotação -2,118 0,1094 -19,368 0,0000 -0,917 0,1094 -8,389 0,0000 Rotação2 1,309 0,1294 10,119 0,0000 Tempo2 0,323 0,1294 2,497 0,0470 Rotação x Tempo 0,527 0,1547 3,410 0,0140 Constante 3,685 0,1318 27,958 0,0000 Rotação -2,119 0,1042 -20,335 0,0000 Tempo -0,918 0,1042 -8,807 0,0000 Rotação2 1,342 0,1117 12,012 0,0000 Tempo2 0,356 0,1117 3,182 0,0150 Rotação X Tempo 0,528 0,1473 3,580 0,0090 Com Blocos Tempo Sem Blocos Fonte df Seq SS Regressão 5 56,5175 56,5175 11,3035 130,16 0,000 Linear 2 42,6440 42,6440 21,3220 245,53 0,000 Quadrático 2 12,7605 12,7605 6,3802 73,47 0,000 Interação 1 1,1130 1,1130 1,1130 12,82 0,009 Erro Residual 7 0,6079 0,6079 0,0868 Falta de Ajuste 3 0,4132 0,4132 0,1377 2,83 0,170 Erro Puro 4 0,1946 0,1946 0,0487 12 57,1254 Total AdjSs MS F P Aplicando-se o algoritmo GRG ao modelo de otimização descrito pela Eq. (13), obtém-se como ponto de ótimo, em unidades codificadas, [0,627; 0,825], o que representa uma rotação de 2627 rpm e um tempo de agitação de 115 s, empregando-se a Eq. (12). 76 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 A homogeneização das amostras realizada com estes parâmetros mínimos concorrerá para um erro mínimo de amostragem. 5. CONCLUSÕES Este trabalho demonstrou a utilização da metodologia de projeto de experimentos para a seleção dos parâmetros significativos de homogeneização de emulsões, bem como sua interação com métodos de otimização não-linear com restrições. Acredita-se que o ponto ótimo não seja somente um ponto de mínimo para a variável dependente (Coeficiente de Variação), mas também, um ponto a partir do qual o Coeficiente de Variação do diâmetro característico das gotas de água na matriz de petróleo não sofra reduções substanciais com o aumento da energia de agitação. Assim, toda análise feita com emulsões homogeneizadas com estes parâmetros mínimos, concorrerá para um erro mínimo na determinação da concentração. 6. REFERÊNCIAS Lasdon, L. S., Waren, A. D., Jain, A., Ratner, M., 1978, ―Design and Testing of a Generalized Reduced Gradient Code for Nonlinear Programming‖, ACM Transactions on Mathematical Software, Vol. 4, No. 1, pp. 34-50. Montgomery, D. C., 2001, ―Design and Analysis of Experiments‖, 5ª ed., Wiley, New York, 699p. Pal, R., 1999, ―Techniques for measuring the composition (oil and water content) of emulsion – a state of the art review‖, Colloids and Surfaces A: Physicochemical and Engineering Aspects, Vol. 84, pp. 141-193. 77 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Salager, J. L., 1993, ―Emulsionacion. Cuaderno FIRP 232. Modulo de Enseñanza en Fenómenos Interfaciales‖. Facultad de Ingenieria. Universidad de Los Andes. Mérida. Venezuela.1993. 78 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 ESTUDO DA MINIMIZAÇÃO DE ERRO NAS MEDIÇÕES DE CONCENTRAÇÃO DE EMULSÕES POR TITULAÇÃO KARLFISCHER UTILIZANDO-SE PROJETO DE EXPERIMENTOS Anderson Paulo de Paiva [email protected] José Henrique de Freitas Gomes [email protected] Pedro Paulo Balestrassi [email protected] Pedro José Papandréa [email protected] Natalia de Cassia Moreira [email protected] Resumo. O objetivo principal deste trabalho é estudar a eficiência da titulação Karl-Fischer como procedimento de medição de concentração de emulsões do tipo água em óleo (petróleo), bem como avaliar o melhor conjunto de parâmetros e respectivos níveis de funcionamento do equipamento de medição de concentração. Tal determinação pressupõe a identificação dos fatores que minimizem o erro de medição do equipamento e do processo. Palavras-chave: Titulação Karl-Fischer, DOE, Emulsões W/O. 1. INTRODUÇÃO A medida de determinação do conteúdo de água existente no petróleo é muito importante, tanto para a indústria petrolífera quanto para outras aplicações, como alimentos, medicamentos, etc. Entretanto, uma questão peculiar a ser respondida é sobre 79 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 a exatidão do método de Titulação Karl-Fischer, quando utilizado para determinação da concentração das emulsões de petróleo. Através da Metodologia de Projeto de Experimentos (DOE) e a análise de incerteza em medições, procurou-se estudar os fatores que possivelmente contribuiriam para a obtenção de uma medida mais confiável de concentração, bem como seus níveis ótimos. O objetivo principal deste trabalho é, portanto, estudar a eficiência da titulação Karl-Fischer como procedimento de medição de concentração de emulsões do tipo água em óleo (petróleo), bem como avaliar o melhor conjunto de parâmetros e respectivos níveis de funcionamento do equipamento de medição de concentração. Tal determinação pressupõe a identificação dos fatores que minimizem o erro de medição do processo. Por que o processo de medição de concentrações em emulsões de petróleo é importante? Existem muitas razões que justificam a necessidade de se identificar o teor de água presente nos óleos, mas especificamente, no petróleo. O petróleo é uma commodity e como tal, necessita de uma medida de garantia da sua qualidade. A concentração de água é uma delas. Uma medição precisa do teor de água no óleo é uma maneira preventiva de se evitar o pagamento de água como se fosse petróleo. Além disso, a presença de altos teores de água (0,5%) em derivados de petróleo tais como os lubrificantes, pode ser danosa a equipamentos e veículos que deles se utilizem (Pal, 1993), provocando e acelerando o processo de corrosão de tanques e tubulações. 2. MEDIÇÃO DE CONCENTRAÇÃO O Karl-Fischer Columétrico é um equipamento utilizado para a medição de concentração de água em misturas, e, não especificamente emulsões de petróleo. Segundo o manual do equipamento utilizado na pesquisa, a sua calibração é feita com uma solução de 1 mg de água em Metanol, apresentando como medida de reprodutividade um coeficiente de variação para as medições de concentração abaixo de 0,3%; entretanto, não se sabe qual é o grau de repetitividade ou a reprodutividade 80 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 fornecido pelo equipamento quando a substância analisada for uma emulsão de petróleo. A pergunta principal que se deseja responder com este trabalho é se existe um erro (típico) na medição de concentração de emulsões de petróleo quando se emprega o método de análise por titulação Karl-Fischer. Se existir, é possível minimizálo?Acredita-se que a metodologia de Projeto de Experimentos possa colaborar para a identificação de parâmetros que melhorem o desempenho deste procedimento de medição. Uma prática muito difundida é a homogeneização das amostras de emulsão de petróleo através do excesso de trituração. Contudo, este procedimento pode causar uma excessiva redução do tamanho das gotas de água presentes na matriz de petróleo. Dessa forma, é possível que a Distribuição do Tamanho de Gota (DTG) influencie a exatidão e a precisão das medidas de concentração de água em petróleo. O objeto de estudo desta pesquisa é uma emulsão do tipo água em óleo (W/O). Todo o petróleo utilizado nos experimentos é óleo cru, ºAPI 20,6. 2.1 TITULAÇÃO KARL-FISCHER O método de Titulação Karl-Fischer tem sido utilizado com sucesso para a medição de concentração de água em uma amplitude que vai desde algumas partes por milhão até teores relativamente altos (Pal, 1993). Neste método, a amostra da emulsão é dissolvida em Metanol anidro e é titrada com o reagente Karl-Fischer, formado por uma mistura de Iodina, Dióxido de Enxofre, Piridina e Metanol anidro. A Iodina presente reage com a água, consumindo-a completamente. Na titulação columétrica, que será utilizada pela presente pesquisa, a Iodina é gerada eletroliticamente na Câmara Catódica, que contém o íon de Iodo. Enquanto houver água presente no vaso de titulação, Iodina será gerada. Tão logo toda a água tenha reagido, um pequeno excesso de Iodina aparecerá na Câmara Anódica. Este excesso é detectado por um eletrodo duplo de platina (fig. (1)) e a produção de Iodina é, então, interrompida. Segundo a Lei de Faraday, a quantidade de Iodina produzida é proporcional à corrente elétrica gerada. I2 e H2O reagem na proporção de 1 para 1. Portanto, 1 mol de água (18 g) é equivalente a 2 x 96.500 coulombs, ou 10,72 81 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 coulombs/1 mg de água. A quantidade total de água presente é, então, determinada medindo-se o consumo total energia elétrica. Figura 1. Representação do processo Titulação Karl-Fischer Columétrico. A figura (1) é uma representação esquemática do equipamento de titulação presente em muitos modelos de aparelhos de Titulação Karl-Fischer Columétrico. O septo é o orifício através do qual se introduz a amostra. Tal amostra passa pelo septo pela ação de uma seringa que contém a amostra coletada. Os tubos de secagem são recipientes nos quais se mantém certa quantidade de sílica utilizada para absorver os vapores de água que porventura existam no interior do vaso de titulação. Sem este componente, o vapor de água poderia condensar-se e cair dentro da câmara anódica, aumentando o teor de água da amostra injetada e causando um erro de leitura. Para aumentar a precisão das leituras, equipamentos modernos de Titulação Karl-Fischer dispõem de procedimentos de pré-titulação. Esta função permite que a água presente no vaso de titulação seja consumida, antes que a amostra seja injetada. A câmara do Catodo é a parte do vaso de titulação que comporta os reagentes que geram a Iodina. O Anodo é a parte do vaso no qual ocorre a reação de consumo da água pela Iodina. Uma barra de agitação mantém os reagentes armazenados na Câmara do Anodo em constante movimentação, para dificultar a impregnação de asfaltenos nas paredes do vaso. Um 82 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 diafragma no fundo da Câmara do Catado permite a passagem da Iodina gerada para reagir com a água da amostra que é disposta no Anolyte. 3. PROCEDIMENTO EXPERIMENTAL O objetivo deste trabalho é encontrar os parâmetros de funcionamento do equipamento de Titulação por Karl-Fischer (Karl-Fischer Columétrico DL37 METTLER TOLEDO), e seus níveis, que proporcionem a maior eficiência de leitura. A eficiência de leitura é medida através da comparação entre a concentração gerada e a concentração fornecida pelo Karl-Fischer. Quanto menor for esta diferença, tanto melhor. De acordo com Montgomery (2001), para se estudar a influência dos parâmetros de titulação na minimização de erros de leitura, será adotado um fatorial completo 24 com 2 réplicas, de acordo com o disposto na tab. (1). Tabela 1. Parâmetros e Níveis utilizados. Fator Símbolo Nível (-1) Nível (+1) A: (2627 rpm, por 115 B: (15.000 rpm, por 240 s) s) Procedimento X1 Taxa Final de Titulação X2 0,1 g de água 0,5 g de água X3 3 g/s 7 g/s X4 2 gotas 20 gotas Taxa de Geração Iodina Volume da Amostra de Se ficar evidenciado que fatores qualitativos são significativos no processo de medição de concentração, só será possível a determinação de um modelo de regressão de primeira ordem para a a análise. 83 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 3.1 Taxa Final de Titulação e Taxa de Geração de Iodina De acordo com o Manual para o Karl-Fischer Columétrico DL37 METTLER TOLEDO (1999), a Taxa Final de Titulação (X2) é a taxa de consumo de água (em g/s), parâmetro que pode ser fixado como fim da operação de Titulação. Quando se atinge este valor o equipamento interrompe o fornecimento de energia e o conseqüentefuncionamento da célula de geração de Iodina. Por exemplo, quando a Taxa Final de Titulação de uma operação for fixada em 0,3 g/s, significa que quando o sensor duplo de platina (figura 1) detectar um consumo 0,3 g de água por segundo, interromperá a titulação. Quanto menor for o valor deste parâmetro, mais tempo será gasto para se completar a titulação. A Taxa de Geração de Iodina (X2) define a geração de Iodina. Os valores podem ser ajustados de 0 a 9; no valor 0 nenhuma Iodina é gerada enquanto que no valor 9, ocorre máxima geração de Iodina. Os níveis baixos conduzem a tempos de titulação menores. Com altos valores, a produção de Iodina será muito rápida e o tempo de titulação muito curto, podendo causar o que se denomina Over-titration. 3.2 Procedimentos de Geração de Emulsão Para se avaliar o erro de medição do processo de titulação, dois procedimentos de homogeneização serão adotados para se gerar as emulsões de concentração conhecidas. O ―Procedimento A‖ utilizará como parâmetros uma rotação de 2627 rpm e um tempo de agitação de 115 s. Como esta pesquisa se propõe a avaliar a eficiência do equipamento de titulação Karl-Fischer na medição de concentrações de emulsões de petróleo, será realizado um estudo da incerteza de medição proveniente da geração. Isto é necessário para se evitar que se transfira um erro da geração da emulsão para a leitura do equipamento. Em contraposição a este procedimento calculado, será utilizada a super-trituração das amostras, doravante denominado ―Procedimento B‖ e a homogeneização da mistura água e óleo (petróleo) consistirá em triturar a mistura por 240 segundos, utilizando-se rotações da ordem de 15.000 rpm. 84 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 3.3 Incerteza Padrão Combinada e Expandida Como se deseja avaliar a magnitude dos erros de medição de concentrações é necessário previamente se avaliar a incerteza associada à geração das emulsões, evitando-se transferir para o processo um erro associado às pesagens das massas de água e óleo. Como a concentração é uma razão entre massas, sua incerteza deve ser o resultado das incertezas das parcelas da razão combinadas. De acordo com Paiva (2008), a Incerteza Padrão Combinada de várias fontes de variação, pode ser dada por: 2 n f 2 2 u ( y ) u ( xi ) ci u ( xi ) ui2 ( y ) i 1 xi i 1 n 2 c (1) A concentração (C) de cada uma das i emulsões geradas, pode ser definida como: Ci MA ( MA MO) (2) O procedimento de geração de emulsões é realizado adicionando-se duas massas calculadas: uma de água e outra de petróleo. Procurou-se gerar emulsões de concentração aproximadamente igual a 20%; todavia, massas diferentes de água e óleo foram utilizadas em sua construção. Isto torna cada uma das 32 emulsões geradas nesta fase, amostras independentes, ou seja, cada uma delas terá sua própria incerteza padrão (combinada e expandida). Como as medições das massas de cada uma das 32 emulsões não foram repetidas, não é possível avaliar fontes de incerteza do tipo ―A‖, uma vez que não há como se calcular desviopadrão amostral s. Assim, só existe um tipo de incerteza neste procedimento: a Incerteza do Tipo ―B‖ expressa neste caso pela resolução de cada uma das duas balanças utilizadas para se pesar a água e óleo. A resolução de um instrumento de medição segue uma distribuição de probabilidades Retangular, cujo divisor é 3. 85 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Assim, considerando-se as equações (2) e (3), pode-se escrever a incerteza padrão combinada para a concentração das emulsões como: s Ci Ci uc2 ( y ) .uMA .uMO n MA MO 2 2 (3) A resolução da balança analítica de 0,0001 g e da balança de 600g, 0,1 g. Aplicando-se a eq. (3) a cada experimento, pode-se calcular a incerteza Padrão Combinada e Expandida para o procedimento ―A‖. Para o procedimento B, o cálculo é quase análogo ao utilizado no processo A, salvo algumas particularidades. Uma vez analisada a incerteza de medição presente na construção das emulsões, pode-se, então, avaliar os resultados das leituras feitas com o fatorial completo. A tabela 2 a seguir descreve o fatorial completo adotado. A resposta indicada é o ERRO, definido como a diferença entre o valor da concentração gerada e o resultado fornecido pelo Karl-Fischer. Tabela 2. Fatorial Completo para a Concentração Medida de Água em Óleo. n x1 x2 x3 x4 R1 U x 10-5 R2 U x 10-5 1 3 0,1 2 A 2,14388 3,88 2,5227 3,51 2 7 0,1 2 A 6,489 4,12 6,15 3,32 3 3 0,5 2 A 1,65404 4,04 1,30987 3,47 4 7 0,5 2 A 7,335 4,31 7,20317 3,5 5 3 0,1 20 A 1,71279 3,79 1,7928 3,43 6 7 0,1 20 A 1,86486 3,86 1,85502 3,51 7 3 0,5 20 A 1,74518 4,18 1,89121 3,59 8 7 0,5 20 A 3,805 3,62 4,2456 3,34 9 3 0,1 2 B 1,91151 3,7 1,76757 3,57 10 7 0,1 2 B 3,09832 4,13 3,17956 3,56 11 3 0,5 2 B 1,54347 3,87 1,63544 3,44 86 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 12 7 0,5 2 B 3,2125 4,17 3,21237 3,37 13 3 0,1 20 B 1,51743 3,8 1,09672 3,72 14 7 0,1 20 B 3,56051 4,02 3,471 3,39 15 3 0,5 20 B 1,80059 4,21 1,49489 2,89 16 7 0,5 20 B 2,31434 3,94 2,54714 3,14 Conforme se observa na tab. (2), a incerteza de medição para cada medida de concentração assume valores muito pequenos quando comparados às diferenças entre a concentração gerada e a concentração identificada pelo Karl-Fischer (Tabela 2). Como a incerteza expandida é extremamente pequena para os dois procedimentos, será feita a análise apenas do erro. Desse modo, pode-se afirmar que a diferença ocorrida na leitura deve-se aos parâmetros adotados para o equipamento e não ao procedimento de geração das emulsões. A análise do DOE indicará assim que parâmetros e níveis podem minimizar esta diferença. Tabela 3. Análise de Efeitos Principais e Interações da Medição de Concentração da Emulsão. TERMO EFEITO Constante COEF SE COEF T P 2,8454 0,03101 91,79 0,0000 Iodina 2,2502 1,1251 0,03101 36,28 0,0000 TFT 0,175 0,088 0,03101 2,84 0,0120 Volume -1,1033 -0,5517 0,03101 -17,79 0,0000 Procedimento -1,0223 -0,5111 0,03101 -16,48 0,0000 Iodina x TFT 0,3498 0,1749 0,03101 5,64 0,0000 Iodina x Volume -0,9237 -0,4619 0,03101 -14,89 0,0000 Iodina x Procedimento -0,7717 -0,3858 0,03101 -12,44 0,0000 TFT x Volume 0,1956 0,0978 0,03101 3,15 0,0050 TFT x Procedimento -0,4062 -0,2031 0,03101 -6,55 0,0000 Volume x Procedimento 0,8836 0,4418 0,03101 14,25 0,0000 87 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Iodina x TFT x Volume -0,1813 -0,0906 0,03101 -2,92 0,0100 Iodina x TFT x Procedimento -0,5254 -0,3127 0,03101 -10,08 0,0000 0,941 0,4705 0,03101 15,17 0,0000 TFT x Volume x Procedimento -0,3375 0,1688 0,03101 -5,44 0,0000 Iodina x TFT x Volume x Procedimento -0,256 -0,128 0,03101 -4,13 0,0010 Iodina x Volume x Procedimento Analisando-se os resultados na análise estatística contemplada nas tabelas 6.14 e 6.15, referentes às respostas ―Erro‖ (R1 e R2) , conclui-se que todos os quatro fatores (Taxa de geração de Iodina, Taxa Final de Titulação, Volume da amostra e Tipo de Procedimento) são significativos, uma vez que seus P-Values são menores que o nível de significância adotado (0,05). Além deles, a maioria das interações são também significativas. A maioria das interações também segue esta mesma tendência. Tabela 4. ANOVA Concentração (Unidades Codificadas). FONTE DF SEQ SS ADJ SS MS F P Efeitos Principais 4 58,8547 58,8547 14,7137 478,18 0,0000 Interações 2a.Ordem 5 20,4412 20,4412 3,4069 110,72 0,0000 Interações 3a.Ordem 4 11,3876 11,3876 2,8469 92,52 0,0000 Interações 4a.Ordem 1 0,5244 0,5244 0,5244 17,04 0,0010 Erro Residual 16 0,4923 0,4923 0,0308 Erro Puro 16 0,4923 0,4923 0,0308 Total 31 91,7003 A figura 3 representa o gráfico fatorial para os quatro parâmetros da Titulação Karl-Fischer. Verifica-se que a condição que minimiza o erro de leitura da concentração é encontrada aplicando-se o procedimento de homogeneização B (supertrituração), com volume de 20 gotas, taxa de geração de Iodina de 3 e Taxa Final de Titulação de 0,1 g/s de água. Este resultado, em primeira instância, refuta a utilização do procedimento de homogeneização A.. Segundo a literatura, poderia se supor que a supertrituração fosse eficiente no processo de homogeneização das emulsões. A dúvida em questão era 88 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 se a considerável redução do tamanho das gotas de água não seria prejudicial à sua identificação pelo aparelho de titulação. Em outras palavras, o sistema Karl-Fischer seria sensível à presença de gotas muito pequenas? O sistema seria capaz de identificar gotas minúsculas dentro da matriz de petróleo e com elas estabelecer a reação? Isto parece ter sido comprovado, uma vez que o erro de leitura obtido com a supertrituração é inferior ao procedimento A. I 4,0 TFT 3,5 3,0 2,5 2,0 3 7 0,1 V 4,0 0,5 P 3,5 3,0 2,5 2,0 2 20 A B Figura 3. Gráficos Fatoriais para a resposta Erro de Medição. Nota-se ainda que o volume de 20 gotas é muito mais representativo do que o volume de 2 gotas uma vez que produz um erro de leitura bem menor. Em combinação com os demais fatores, a taxa de geração de Iodina de 3 e Taxa Final de Titulação de 0,1 g/s de água são os níveis que minimizam a diferença entre a concentração lida e a gerada. Isto faz muito sentido. Uma taxa de geração de Iodina menor (3 ao invés de 7) permite que a reação ocorra de maneira mais organizada, ou seja, a taxa na qual Iodina entra em contato com a amostra é compatível com tempo necessário para a reação. Isto serve para se explicar a super-titulação, que representa o excesso de Iodina gerada que 89 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 não encontra mais água para reagir, causando o desperdício de um reagente consideravelmente caro. Uma Taxa Final de Titulação de 0,1 g/s de água também é um valor razoável. Conforme já explicado no capítulo 5, a Taxa Final de Titulação é a velocidade final com que o Karl-Fischer detecta a água presente, interrompendo o processo. Se este valor não for fixado, ou se for fixado em um parâmetro muito baixo, o sistema funcionaria indefinidamente, procurando gotas infinitesimais e que poucos alterariam a leitura final da concentração. Assim, quando o sistema começa a identificar a água à taxa de 0,1 g/s, considera-se que toda a água presente já tenha reagido. Este valor é evidentemente melhor do que 0,5, porque, assim como a taxa de geração de Iodina, permite que a reação ocorra de maneira mais eficiente, ou seja, uma Taxa Final de Titulação menor aumenta o tempo da reação, proporcionando à Iodina condições de reagir adequadamente com a água. Parece claro que a interação entre a Taxa de geração de Iodina e a Taxa Final de Titulação é forte. O estudo das interações revela conclusões muito interessantes. Quando se avalia, por exemplo, a interação entre o volume e o procedimento (Figura 4), nota-se claramente, que quando se utiliza um volume de 20 gotas, os procedimentos A e B são equivalentes quanto ao valor lido pelo Karl-Fischer. Ou seja, para volumes pequenos (2 gotas) o procedimento A não é eficaz, mas quando a amostra é maior (20 gotas), podese utilizá-lo. Percebe-se nitidamente, que em nenhuma combinação de fatores (Interação) a taxa de geração de Iodina de 7 g/s apresenta leituras menores do que com 3 g/s, confirmando o já exposto anteriormente. 90 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 0,1 0,5 2 20 A B 5,0 I 3 7 3,5 I 2,0 5,0 TFT 0,1 0,5 3,5 TFT 2,0 5,0 V 2 20 3,5 V 2,0 P Figura 4. Gráfico das Interações entre os fatores. O mesmo se aplica à taxa final de titulação, aonde a utilização de 0,5 g de água nunca conduz a uma leitura menor do que quando se utiliza 0,1 g. Considerando-se a interação Volume versus Procedimento demonstrado na fig. (4), propõe-se analisar apenas as respostas para o Volume de 20 gotas. Desse modo, se para este volume, os procedimentos forem comprovadamente equivalentes, pode-se recomendar o procedimento A como método alternativo de homogeneização, fixando em 20 gotas o tamanho adequado da amostra necessária. Tabela 5. ANOVA para os Efeitos Principais - Volume 20 gotas. TERMO EFEITO Constante COEF SE COEF T P 2,2777 0,05139 44,32 0,000 Iodina 1,2925 0,6463 0,05139 12,57 0,000 Taxa Final de Titulação 0,4055 0,2028 0,05139 3,95 0,004 Procedimento -0,1727 -0,0863 0,05139 -1,68 0,132 91 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 O que se pode notar na Tabela 5 é que, quando comparados os parâmetros da Titulação Karl-Fischer apenas para o volume de 20 gotas, os procedimentos A e B são estatisticamente iguais. Uma vez que a diferença entre os volumes não é substancial, considerando-se o volume total da amostra (aproximadamente 300 ml de emulsão), pode-se dizer que o processo obtido através da Metodologia de Projeto de Experimentos representa as condições mínimas a partir das quais se pode medir a concentração de emulsões, com um mínimo erro. A figura 5 mostra que, uma vez fixado o procedimento A, a diferença entre a leitura real e a leitura indicada pelo Karl-Fischer cai consideravelmente, quando são adotados os níveis ótimos para Iodina e Taxa final de titulação. 0,5 2,1 2,7 Hold Values PROCED A 3,3 3,6 0,4 TFT 3,0 0,3 2,4 0,2 0,1 1,8 3 4 5 IODINA 6 7 Figura 5. Gráfico de contorno da superfície de resposta para o erro (Volume de 20gotas). Conclui-se, portanto, que além dos procedimentos A e B serem estatisticamente iguais, mantém-se para o volume de 20 gotas as mesmas considerações feitas para o volume de 2 gotas. 92 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Pode-se observar nesta fase que as diferenças entre as concentrações lidas e as geradas foram todas positivas, o que pode sugerir a existência de um erro sistemático no equipamento. Porém, se este erro sistemático for de até 1,1% (que coincide com o mínimo valor encontrado no DOE) os resultados obtidos se mantém, considerando-se ainda que todas as diferenças continuam positivas. Simulando para valores maiores, verifica-se que para um erro sistemático de até 2,8% os níveis ótimos obtidos na análise precedente se mantêm mais próximos de ZERO (resposta ótima) do que os seus complementares fatoriais, embora as diferenças passem a ser tanto positivas quanto negativas. Se este erro sistemático, porém, for maior que 2,8%, a análise se inverte, e neste caso, faz-se necessário um estudo complementar. 4. CONCLUSÃO O objetivo principal deste trabalho de dissertação era investigar e determinar os níveis dos parâmetros do equipamento de Titulação Karl-Fischer que fossem capazes de minimizar a diferença entre o valor real da concentração de uma emulsão gerada e a leitura indicada pelo equipamento. É bem verdade, que no princípio não se sabia se esta diferença ou erro existia. De acordo com os resultados expostos no capítulo 6, pode-se afirmar que quando se utilizou uma taxa de geração de Iodina baixa (nível 3), com uma Taxa Final de Titulação pequena (0,1 g/s de água), um volume de 20 gotas de amostra da emulsão homogeneizada pelo procedimento B (Super Trituração), a diferença (ou erro) entre a concentração real e a concentração identificada pelo Karl-Fischer não superou 1,10%, ao passo que, utilizando-se os níveis opostos (Taxa de geração de Iodina de 7, Taxa Final de Titulação de 0,5 g/s; volume de 2 gotas de emulsão, homogeneizada pelo procedimento A) este erro chega a 7,33%, praticamente sete vezes mais. Estes resultados estatísticos demonstram uma muito grande com a realidade física do fenômeno estudado. Observando-se os valores dos parâmetros em questão nota-se que, por exemplo, utilizando-se uma taxa de geração de Iodina e uma Taxa Final de Titulação mais baixos, a reação ocorre melhor porque há mais tempo para que ela se concretize. Associado a um volume mais representativo (20 gotas), de uma emulsão 93 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 melhor homogeneizada (Procedimento B – Supertrituração), o equipamento produz uma leitura mais próxima do real. Portanto, o objetivo principal de descobrir níveis ótimos para os parâmetros de titulação foi atingido, bem como verificada a proposição 2 (item 1.7, pg.7); entretanto, quando se comparam os dois procedimentos de homogeneização, o calculado através do DOE da FASE 1 e o processo de super trituração, pode-se afirmar, dentro de um nível de significância estatística de 5%, que os procedimentos são semelhantes. Desse modo, pode-se recomendar uma rotação de 2627 RPM e um tempo de agitação de 114 segundos como parâmetros mínimos de homogeneização de uma amostra de emulsão W/O para análise por titulação em Karl-Fischer Columétrico. Portanto, foi também atingido um dos objetivos secundários deste trabalho: o de encontrar um procedimento alternativo à super trituração da amostra. Ainda relativo a este aspecto, pode-se afirmar, dentro de um nível de significância estatística de 5%, que um volume maior de amostra (cerca de 20 gotas) é mais representativo do que um volume menor (2 gotas) no caso de emulsões de petróleo. Uma das proposições iniciais do estudo assinalava que um diâmetro de gota (de água) muito pequeno poderia concorrer para o aumento da ineficiência do KARLFISCHER, o que seria explicado pelo o aumento da dificuldade encontrada pelo equipamento em detectar gotas muito pequenas de água na amostra de emulsão W/O. Isto, na verdade, foi refutado. Dentro do âmbito deste trabalho, não se pode afirmar que uma redução significativa no tamanho de gota interfira no resultado da medição. Em acordo com a proposição 1 (item 1.7), pode-se avaliar que a homogeneização da amostra realmente concorre para um adequado processo de medição de concentração de emulsões W/O. Através da aplicação do DOE da FASE 1, foi possível constatar que, para a amplitude adotada (10 a 20% de água em petróleo), a concentração não é um fator significativo para a homogeneização. Talvez este resultado não se mantenha para outros valores, uma vez que os resultados da Metodologia de Projeto de Experimentos só valem para um intervalo determinado. O mesmo se pode concluir acerca da temperatura. Na amplitude adotada (20 a 40 ºC), não se observou influência significativa deste fator. Talvez, com temperaturas mais elevadas, este resultado esteja comprometido, principalmente no que tange à evaporação dos componentes da emulsão. 94 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 REFERÊNCIAS MONTGOMERY,D.C.DesignsandAnalysisofExperiments.JohnWiley&Sons,4ed, 2001. Pal, R., 1999, Techniques for measuring the composition (oil and water content) of emulsion – a state of the art review, Colloids and Surfaces A: Physicochemical and Engineering Aspects, Vol. 84, pp. 141-193. PAIVA, E. J.,Otimização de processos de manufatura com múltiplas respostas baseada em índices de capacidade. 119 p. Dissertação (Mestrado em Engenharia deProdução) – Instituto de Engenharia de Produção e Gestão, Universidade Federal de Itajubá, Itajubá, 2008. 95 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 RISCO: MEDIDAS DE RISCO, AVERSÃO E SEU GERENCIAMENTO Pedro José Papandréa [email protected] Rafael Coradi Leme [email protected] Catarine Conceição Moura Tenório [email protected] Para referência: Papandrea P.J., Leme R.C., Tenório C.C.M., 2013. MEDIDAS DE RISCO, AVERSÃO E SEU GERENCIAMENTO. Resumo: Para um investidor, o risco é a variável que pode ser mais importante na escolha de um investimento, seja ele financeiro, físico ou em qualquer outro campo econômico. A fundamentação teórica é a base para que haja o conhecimento das medidas de risco, conceito de aversão ao risco e utilidade e o gerenciamento, além de possibilitar o conhecimento de técnicas para redução do risco pela aplicação de portfólios. O objetivo é expor ao investidor as variáveis que afetarão as suas decisões e os cálculos que pode ser feitos para a mensuração destas variáveis. Palavras-Chave: Risco, Medição, Aversão, Gerenciamento. 1. INTRODUÇÃO As medidas de risco são indicadores que contribuem para a tomada de decisão, principalmente quanto a investimentos.Para essa avaliação o horizonte de tempo é importante. Em Lien et al. (2007) as decisões de gestão têm um longo horizonte de tempo com risco significativo. Normalmente, o horizonte de tempo para esse tipo de investimento, por exemplo, florestal, é de 50-120 anos, envolvendo uma considerável incerteza sobre uma eventual produção e preços. Por outro lado há a aversão ao risco do investidor. O efeito da aversão ao risco pode se analisado como uma decisão tática, ou 96 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 seja, investir agora ou esperar, ou a nível mais estratégico de uma decisão. Lambert (1972) diz que a probabilidade de sucesso de um evento arriscado utilizados em experimentos sobre comparação entre riscos assumidos pelos individualmente e em grupos terá um impacto sobre as conclusões relativas ao risco da transação. As métricas de risco podem então serem expressas em funções probabilísticas dadas pelos eventos relativo sendo 1/ com base em uma melhoria na homogeneidade da variância: (1.1) Na realidade, o problema subjacente é muito mais importante e envolve determinar quais valores relativos, tais valores se atribuem para as diferentes probabilidades sugeridas para eles. 2. ORIGEM DAS MEDIDAS DE RISCO Na pré-época Markowitz, risco financeiro foi considerado como um fator de correção de retorno esperado e risco ajustado dos retornos. Foram definidos numa base para esta finalidade. Estas medidas primitivas tinham a vantagem de permitir uma imediata ordem preferencial de todos os investimentos. Markowitz (1952) propôs medir o risco associado ao retorno de cada investimento, com uso de um desvio da média da distribuição, retorno a variância, e no caso de uma combinação (portfólio) de ativos, a fim de avaliar o nível de risco pela covariância entre todos os pares de investimentos, já que a covariância é medida 2 a 2: (2.1) Na qual X e Y são retornos aleatórios. Temos que lembrar que o modelo de Markowitz é relacionado com as funções de utilidade, que permitemuma ordenação nos investimentos comas suas combinações. No caso de não normal, embora as distribuições sejam simétricas, as funções de utilidade devem ser quadráticas. Na prática, essa limitação restringe o uso deste modelo de carteiras caracterizadas por conjuntos de regressão da distribuição normal, por exemplo, 97 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 para o caso em que o retorno de todos os ativos, bem como a sua estrutura de dependência seja normal (Szegö G., 2005). Em teoria econômica, denomina-se utilidade, a propriedade que os produtos tangíveis e serviços têm de satisfazer as necessidades e desejos humanos. Os objetos que têm utilidade são considerados bens, do ponto-de-vista econômico. A caracterização dos bens como econômicos, requer também que os mesmos sejam escassos, isso é: estejam disponíveis em quantidades limitadas. Recentemente, a classe de variáveis aleatórias cuja correlação é linear pode ser usada como uma medida de dependência que foi totalmente identificada. Essa é a classe de caracterizados por distribuições elípticas e tem a propriedade de que as suas superfícies são de equidensidades elipsoides. Assim, o modelo de Markowitz é adequado apenas para o caso de distribuições elípticas, como normal ou distribuição t com variâncias finitas. Note-se que distribuições simétricas não são necessariamente elípticas. O coeficiente de correlação linear, se utilizado no caso de distribuições não elípticas, pode conduzir a resultados incorretos (Szegö G., 2005). Szegö G. (2005) finalmente, destaca historicamente:Nos anos 60 o conceito de (volatilidade) foi introduzido. Este desenvolvimento foi motivado pela falta de recursos computacionais. A complexidade da abordagem de média-variância foi considerada muito alta. Depois de quase 40 anos e o progresso gigantesco dos computadores, este não é mais o caso. A segunda motivação para a introdução do baseado em métodos de portfólio foram os dados insuficientes para calcular a matriz de variância-covariância: como de fato, o número de dados deve ser de pelo menos duas vezes o número de ativos, hoje em dia as técnicas de bootstrapping permitem contornar este problema e os s são quase abandonados na carteira em favor da função completa dos modelos de variância-covariância. O nome bootstrap é uma referência à história do Barão Von Münchhausee, o qual se livrou de um pântano por seus próprios esforços, fazendo alusão pelo método ser uma reamos-tragem gerada a partir dos próprios dados de uma amostra. Usando técnicas clássicas, não é fácil obter erros padrão ou intervalos de confiança para os parâmetros de uma série. Usando o bootstrap, no entanto, eles são facilmente encontrados. São criadas novas amostras, a partir de um conjunto de dados originais, por reamostragem 98 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 dos dados com reposição de valores. Ao realizar este procedimento de reamostragem muitas vezes, uma boa estimativa pode ser obtida da distribuição das estatísticas de interesse. Tais distribuições podem ser vistas como uma aproximação às verdadeiras distribuições dos estimadores e, portanto, estatísticas de interesse, (WEHRENS, 2000). É importante entender as diferenças entre o risco sistemático e o risco não sistemático. O risco não sistemático é o risco do portfólio em si, e será considerado neste trabalho, enquanto que o risco não sistemático, não diversificável ou risco de mercado é aquele relacionado às flutuações do sistema econômico como um todo e não é abordado na teoria de portfólio. 3. MEDIÇÃO DO RISCO Uma medida de risco designa um número real de uma variável aleatória.Costa e Araújo (2008) utilizaram o trabalho de Li e NG (2000) para melhor responder aos movimentos drásticos do mercado, como resultado de situações de mudanças devidas as descontinuidades de fatores externos. Formulando um modelo no qual o portfólio pode ser reavaliado de período em período e seus parâmetros possam ser modificados a contento. Podemos definir o risco em termos de mudanças de valores entre duas datas, defendemos que, por causa do risco estar relacionado à variabilidade do valor futuro de uma posição, devido às mudanças do mercado, ou, mais geralmente a eventos incertos, é melhor considerar apenas os valores futuros. Considere um conjunto com vetor de realização , no qual indica o número de estados da natureza. Esse estado ocorre com probabilidade e . O vetor representa o lucro possível da carteira (a empresa de, a companhia de seguros, banco, etc.) e perdas das realizações em um futuro comum escolhido no horizonte de tempo, digamos, . A quantidade no estado de natureza s. Valores negativos de desigualdade Definimos significa que correspondem às perdas. A para , é oretorno da carteira todo respectivamente. A . variável 99 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 aleatória discreta gerada pelo para todo e é denotada por , isto é , . A medida de risco é então uma função usando a perspectiva do presente com , medindo o risco de uma carteira . Isto é a quantidade mínima de dinheiro que o agente reguladotem que adicionar ao seu portfolio e investir em um instrumento de referência hoje, de tal forma que garanta que o risco envolvido na carteira seja aceitável para o regulador. Assumimosque o instrumento de referência tem uma recompensa em cada estado da natureza em vetor , assim, a sua realização é um . O instrumento de referência é sem risco no ―sentido clássico‖, não tendo nenhuma incerteza em seus retornos. É mais natural que se pense nisso como uma obrigação recompensaigual à zero. O preço do instrumento de referência, os fatores de desconto são denotados por domínio generalizado de . Essas medidas podem ser ajustadas para um (CSÓKA, 2007). 4. AVERSÃO AO RISCO A crença comum entre os economistas é que os seres humanos são, ou deveriam ser avessos ao risco. A introspecção revela que istoé muito plausível em muitas situações, apesar de comportamento de procura de risco que muitas vezes tem sido observado em estudos experimentais da escolha humana. Aversão ao risco é uma conclusão necessária se as pessoas enfrentam utilidade marginal decrescente, um pressuposto para o qual há um forte apelo intuitivo. Isso aumentou o apelo de aversão ao risco como a suposição padrão de comportamento humano (von NEUMANN, 1947). Trata-se da preempção do investidor de arriscar-se em um determinado negócio, sendo que a atitude de risco é afetada pela aversão à perda possibilidade de ganhos e distorções na decisão, bem como a curvatura utilidade para ambos os ganhos e perdas (DAVIES E SATCHELL, 2007). 100 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 5. GERENCIAMENTO DO RISCO A gestão de riscos é de fundamental importância, considerando o enorme risco financeiro que a economia está exposta. Os riscos de muitos agentes econômicos são regulados por diversas instituições. Por exemplo, se um comerciante financeiro quer vender opções, que dão direitos ao comprador de comprar ou vender a um determinado preço durante um horizonte de tempo especificado (ou em um determinado momento), ele tem de cumprir os requisitos de margem, ou seja, ele tem que depositar algum dinheiro ou algum outro sem risco e instrumento líquido. Empresa de mediação de uma bolsa de valores, que é responsável pelas promessas a todas as partes das transações de forma segura, sendo concluído, exige depósitos de margem. Uma medida de risco pode ser usada para determinar o requisito de margem. Quanto maior risco da carteira do comerciante, maior a margem exigida deve ser (Csóka et al., 2007). Retorno Baixo Retorno Alto Travers (2004) classifica risco em função do retorno conforme Figura 5..1: Capital de risco Mercados emergentes Setores individuais Estoques de importados Pequenos estoques Grandes estoques Títulos de longo prazo Títulos de curto prazo Dinheiro Risco Baixo Risco Alto Figura 5.1 – Risco em Função do Retorno Fonte: TRAVERS, 2004. A Teoria de Portfólio permite gerenciar o risco em um grupo de ativos para determinar uma combinação que ofereça o menor risco e o maior retorno esperado. Esse grupo é chamado de portfólio ótimo. O portfólio de ativos é uma combinação de ativos de interesse, cada um tendo retorno , ( ), o retorno do portfólio, 101 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 doravante denotado por , é a média ponderada do retorno do ativo componente, com as proporções de investimentos como colunas sendo os pesos. Organizando e em vetores e , a equação, do portfólio de retorno pode ser definida como: (5.1) A média da distribuição de probabilidade do retorno, ou o rendimento esperado, é uma indicação da rentabilidade esperada. A variância da distribuição indica a amplitude dos resultados possíveis em torno da média, isto é, quanto maior for a variância, o mais incerto é o resultado. Assim, a variância da distribuição é uma indicação intuitiva do risco envolvido. Se a taxa de retorno evolui de maneira pelo menos fracamente estacionária ao longo do tempo, cada retorno do ativo pode ser representado por um processo estocástico com retorno esperado e a variância considerando a covariância entre ativos e . Além disso, , como o retorno esperado do portfólio e sua variância podem ser escritos como: (5.2) (5.3) no qual , e fora da diagonal com ,e é a matriz de covariância, com diagonal contendo . Note-se que o da covariância mede quantos dos retornos de dois ativos se movem em relação uns aos outros. Este é o conhecido modelo abordado por Markowitz: Média-Variância do Portfolio (MVP), estabelecendo a melhor estratégia para minimizar o risco e maximizar o retorno. Ao fazer isso, atinge-se a fronteira eficiente, na qual para um dado nível de variância, não existe outro portfólio com maior retorno esperado. Da mesma forma, para um dado nível de retorno esperado, não existe qualquer outro portfólio com menor variância. A Figura 5.2 mostra a fronteira eficiente. 102 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Re tor no do po rtf óli o Variância mínima do portfólio Variância do portfólio Figura 5.2 - Fronteira eficiente média-variância 6. CONCLUSÃO Esta revisão possibilitou o entendimento de questões fundamentais sobre risco como variável de decisão para investimentos diversos. A gestão de riscos deve ser um processo contínuo - a análise de risco por si só não é suficiente. As técnicas de portfólio são uma ótima opção para redução do risco envolvido no investimento e é também um bom mecanismo de gerenciamento, o qual possibilita que o investidor mais ousado consiga ter um indicador de seus possíveis ganhos e idem para aquele mais conservador. O risco é por si só um agente de decisão, mas foi evidenciado que há fundamentação para ajuste do valor desse agente no âmbito do conceito de utilidade. É importante que haja aprofundamento dos conceitos e variáveis de risco pelo investidor. 7. REFERENCIAS BIBLIOGRÁFICAS Artzner P., Delbaen F., Eber J., Haeth D., 1999. Coherent measures of risk. Mathematical Finance 9 (3), 203–228. Csóka P., Herings P.JJ., Kóczy L.Á., 2007. Coherent measures of risk from a general equilibrium perspective / Journal of Banking & Finance 31 (2007) 2517–2534. Davies G.B., Satchell E.S., 2007. The behavioural components of risk aversion / Journal of Mathematical Psychology 51 (2007) 1–13. 103 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Eisenhauer J.G., 2006. Risk aversion and prudence in the large / Research in Economics 60 (2006) 179–187. Kreiss J.P., Paparoditis E. 2011. Bootstrap methods for dependent data: A review / Journal of the Korean Statistical Society 40 (2011) 357–378. Lambert R., 1972. Risky Shift in Relation to Choice of Metric / JOURNAL OF EXPERIMENTAL SOCIAL PSYCHOLOGY 8, 315-318 (1972). Li D., NG W.L., 2000.Optmal dynamic portfolio selection: multiperiod mean-variance formulation. Mathematical Finance, Vol. 10, No. 3, 387–406. Lien G., Størdal S., Hardaker J.B., Asheim L.J., 2006. Risk aversion and optimal forest replanting: A stochastic efficiency study / European Journal of operational Research 181 (2007) 1584–1592. Markowitz H., 1952. Portfolio selection / Journal of Finance 7, 77–91. Markowitz H., 1959. Portfolio Selection: Efficient Diversification of Investments / Wiley, New York. Prem K.P., Ng D. Pasman H.J., Sawyer M., Guo Y., Mannan M.S. Risk measures constituting a risk metrics which enables improved decision making: Value-at-Risk / Jorrnal of Loss Prevention in the Process Industries 23 (2010) 211–219. Stoica G., 2006. Relevant coherent measures of risk / Journal of Mathematical Economics 42 (2006) 794–806. Szegö G., 2005. Measures of risk / European Journal of Operational Research 163 (2005) 5–19. Travers F. J., 2004. Investment Manager Analysis. Wiley Finance, Investiment Manager Analysis. Von Neumann, J., & Morgenstern, O. (1947).The theory of games and economic behaviour. Princeton: Princeton University Press. Wehrens R., et al., 2000. The bootstrap: a tutorial. Chemometrics and Intelligent Laboratory Systems 54, 35–52. Williams T., 1995. A classified bibliography of recent research relating to project risk management /European Journal of Operational Research 85 (1995) 18-38. 104 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 105 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 106 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 107 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 108 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 109 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 110 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 111 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 112 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 113 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 114 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 115 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 116 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 117 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 118 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 119 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 PROJETO DE PARÂMETROS ROBUSTOS PARA O FRESAMENTO DE TOPO DO AÇO ABNT 1045 Tarcísio Gonçalves de Brito, [email protected] José Henrique de Freitas Gomes, [email protected] João Roberto Ferreira, [email protected] Anderson Paulo de Paiva, [email protected] Wesley Suzuki, [email protected] Resumo: A indústria metal mecânica é caracterizada pela elevada qualidade em seus componentes, sendo a usinagem responsável por uma parcela considerável de busca por melhorias em seus produtos. Na fabricação de peças para o setor, o emprego do aço ABNT 1045 destaca-se pelas suas boas propriedades mecânicas e baixo custo. No entanto, as superfícies das peças apresentam irregularidades quando observadas em detalhes, sendo estas irregularidades provocadas por sulcos ou marcas deixadas pela ferramenta. Sendo assim, este trabalho enfoca a aplicação de um método experimental para determinar as condições ótimas da rugosidade superficial Ra no fresamento de topo do aço ABNT 1045. Para isso, desenvolveu-se um modelo matemático utilizando o projeto de parâmetros robustos (RobustParameter Design – RPD), através de um arranjo combinado que considerou quatro variáveis de controle e três variáveis de ruído. As variáveis de controle analisadas foram o avanço por dente, profundidade de corte, velocidade de corte e largura de corte. As variáveis de ruído incluíram o desgaste de flanco da ferramenta, concentração do fluido de corte e vazão do fluido de corte. A partir da modelagem dual do processo, a otimização foi baseada na minimização do erro quadrático médio. Os resultados mostraram que o método utilizado foi eficiente para a estimativa dos parâmetros robustos da rugosidade Ra, otimizada com um valor médio de 0,281 m e variância de 0,005 m2. 120 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Palavras-chave: Fresamento de topo, Projeto robusto, Metodologia de Superfície de Resposta. 1. INTRODUÇÃO O fresamento é um processo que se diferencia das demais operações de usinagem principalmente por apresentar as mais variadas formas e geometrias possíveis de serem geradas (Diniz et al., 2008). No entanto, um aspecto crítico para o processo diz respeito aos diversos tipos de desgaste e avarias das ferramentas de corte, que consequentemente diminuem sua vida útil, além de possuírem influência direta sobre os custos e o acabamento da peça usinada (Sandvik, 2011; Davim, 2008; Teles, 2007; Ferraresi, 1970). Na medida em que o desgaste das ferramentas se caracteriza como uma variável de difícil controle, a busca por condições de fresamento que propiciem um melhor acabamento superficial e uma melhor integridade da superfície usinada tem sido o alvo dos trabalhos de vários pesquisadores (KopacandKrajnik, 2007; Reddyand Rao, 2005; Ghaniet al., 2004). Em relação às demais variáveis do processo, o uso de fluidos de corte em operações de fresamento também tem sido estudado com grande intensidade. Os fluidos de corte atuam na refrigeração do cavaco, ferramenta e peça, sobretudo quando o processo opera em altas velocidades de corte. Outras vantagens da utilização dos fluidos de corte incluem a lubrificação da região usinada, a redução da força de corte, a melhoria da vida da ferramenta, do acabamento superficial e da precisão dimensional da peça, e a proteção da superfície usinada devido à quebra e transporte dos cavacos (Tawakoliet al., 2010; Machado et al., 2009; Diniz et al., 2008; Trent and Wright, 2000). Entretanto, o emprego dos fluidos de corte pode estar sujeito a variações incontroladas em sua concentração e vazão de operação, o que, de certa forma, pode acabar influenciando a qualidade final do produto usinado. Portanto, considerando que os resultados do processo de fresamento, muitas vezes representados pelo acabamento superficial, podem ser afetados por variações inerentes às ferramentas e ao fluido de corte, torna-se de grande relevância que a operação seja 121 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 configurada para responder com o mínimo de sensibilidade a tais variações. Nesse contexto, este trabalho tem como objetivo a determinação de parâmetros robustos para a otimização da rugosidade Ra no fresamento de topo do aço ABNT 1045. Dado que o aço ABNT 1045 é visto como um material relevante para a indústria metal mecânica (possui boas propriedades mecânicas e baixo custo), deseja-se obter um ajuste ótimo para as variáveis de controle de modo que a rugosidade média seja a menor possível e apresente o mínimo de variabilidade em relação às inconsistências observadas nas ferramentas e no fluido de corte. Sendo assim, a otimização robusta foi desenvolvida através da minimização do erro quadrático médio construído para a rugosidade Ra, sendo as equações de média e variância desenvolvidas a partir de um arranjo combinado projetado para experimentos com quatro variáveis de controle (avanço por dente, profundidade de corte, velocidade de corte e largura de corte) e três ruídos (desgaste de flanco da ferramenta, concentração do fluido de corte e vazão do fluido de corte). A estratégia utilizada para a modelagem e otimização do fresamento de topo considerado neste trabalho é apresentada em maiores detalhes na seção seguinte. 2. PROJETO DE PARÂMETROS ROBUSTOS O projeto de parâmetros robustos (RobustParameter Design – RPD), segundo Montgomery (2005), é uma abordagem para a análise e melhoria de processos cujo foco é a determinação dos níveis das variáveis de controle visando os seguintes objetivos: (1) garantir que a média das respostas do processo se estabeleça em um nível desejado (alvo) e (2) garantir que a variabilidade em torno dos valores alvo seja a menor possível. Quanto às técnicas utilizadas para a modelagem e análise dos dados, Montgomery (2005) afirma que a Metodologia de Superfície de Resposta tem se mostrado como uma estratégia eficiente para a abordagem RPD e, nesse sentido, o método de análise é desenvolvido a partir de um dos seguintes arranjos experimentais: os arranjos cruzados ou os arranjos combinados. Para o presente trabalho, a estratégia experimental foi baseada em um arranjo combinado. 122 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Os arranjos combinados são definidos como o sequenciamento de experimentos nos quais as variáveis de ruído, para fins de experimentação, são tratadas como variáveis de controle e, dessa forma, variáveis de controle e ruídos são combinadas em um único arranjo experimental. Com isso, a partir das informações coletadas nos experimentos, torna-se possível a construção de um modelo de superfície de resposta que relaciona as variáveis de controle, os ruídos e suas respectivas interações. A Eq. (1) descreve o modelo de segunda ordem desenvolvido a partir de um arranjo combinado. k k i 1 i 1 r k r y(x, z) 0 i xi ii xi2 ij xi x j i zi ij xi z j i 1 i j (1) i 1 j 1 onde: y – Resposta de interesse xi – Variáveis de controle zi – Variáveis de ruído β0, βi, βii, βij, i, ij – Coeficientes a serem estimados k – Número de variáveis de controle r – Número de variáveis de ruído – Erro experimental Na Eq. (1), os coeficientes β0, βi, βii, βij, i e ij são estimados através do Método dos Mínimos Quadrados Ordinários (OrdinaryLeastSquares – OLS). Uma vez que o modelo de superfície de resposta representado pela Eq. (1) foi estabelecido, a equação para a média da resposta y pode ser extraída diretamente do modelo combinado. Para isso, utiliza-se o seguinte critério: k k i 1 i 1 ( y) f (x) 0 i xi ii xi2 ij xi x j (2) i j O modelo de variância é desenvolvido utilizando o princípio da propagação de erro, através da seguinte derivação: 123 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 2 y (x, z ) 2 2 zi z i i 1 r 2 ( y) (3) Para a Eq. (3), Montgomery (2005) sugere adotar z2 1 e a variável 2 i corresponde ao erro residual (MS) do modelo de superfície de resposta descrito na Eq. (1). Uma observação importante sobre as Eqs. (2) e (3) é que os modelos de média e variância descrevem a resposta y apenas como função das variáveis de controle xi, possibilitando, assim, que o processo seja configurado para que a variabilidade transmitida pelas variáveis de ruído seja a menor possível. Com o desenvolvimento das equações de média e variância, a otimização dual do processo pode ser conduzida empregando-se as diversas técnicas de otimização de múltiplos objetivos disponíveis na literatura. Neste trabalho, utilizou-se o conceito do erro quadrático médio (EQM), que é apresentado por Köksoy (2006) como a soma da variância com a diferença quadrática entre a média da resposta e o seu valor alvo. Sendo assim, a minimização do erro quadrático médio garante, então, que o valor médio da resposta se estabeleça o mais próximo possível do seu alvo, apresentando ao mesmo tempo o mínimo de variabilidade. Tal otimização é obtida a partir da seguinte formulação: Minimizar EQM ( y ) ( y ) T y 2 2 ( y) (4) Sujeito a : x T x 2 onde: EQM ( y) – Erro quadrático médio da resposta y ( y) – Modelo para a média da resposta y Ty – Alvo da resposta y 2 ( y) – Modelo para a variância da resposta y xT x 2 – Restrição esférica para o espaço experimental 124 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Vale destacar que o conceito do erro quadrático médio tem sido empregado para a otimização robusta de diferentes processos de fabricação, como pode ser observado em Paiva et al. (2012) e Gomes et al. (2012). Para a determinação dos parâmetros robustos otimizados, resolve-se o problema definido pela Eq. (4) através do emprego de algoritmos de otimização. O algoritmo Gradiente Reduzido Generalizado (GRG) (Rao, 1996) foi utilizado neste trabalho para este propósito. 3. PROCEDIMENTO EXPERIMENTAL Para a coleta dos dados, experimentos de fresamento de topo do aço ABNT 1045 foram planejados através de um arranjo combinado. Dessa forma, um arranjo composto central (central composite design – CCD) foi criado para sete variáveis, sendo quatro delas as variáveis de controle e três as variáveis de ruído. Considerando que os níveis extremos das variáveis de ruído (pontos axiais) foram desconsiderados, conforme recomendado por Montgomery (2005), e adotando 10 experimentos para os pontos centrais, o arranjo combinado ficou então composto por 82 experimentos. A Tab. 1 e a Tab. 2 apresentam as variáveis de controle e os ruídos do processo, juntamente com os seus respectivos níveis de operação. 125 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 1. Variáveis de controle e seus níveis. Níveis Parâmetros de Unidade fresamento Notação 2,828 -1 0 +1 +2,828 0,10 0,15 0,20 0,29 1,125 1,500 2,186 Avanço por dente mm/dente fz 0,01 Profundidade de corte mm ap 0,064 0,750 Velocidade de corte m/min Vc Largura de corte mm ae 254 300 325 12,26 15,00 350 396 16,50 18,00 20,74 Tabela 2. Variáveis de ruído e seus níveis. Ruídos Desgaste de flanco da ferramenta Concentração do fluido de corte Vazão do fluido de corte Unidade Notação Níveis -1 0 +1 mm VB 0,00 0,15 0,30 % C 5 10 15 l/min Q 0 10 20 Quanto aos equipamentos utilizados, os experimentos foram conduzidos em um centro de usinagem CNC da marca Fadal, com 15 kW de potência e rotação máxima de 7.500 rpm. O material usinado foi o aço ABNT 1045, forjado em blocos de dimensões 100 x 100 x 300 mm e com dureza média de 180 HB. A ferramenta utilizada se constituiu de uma fresa de topo código R390-025A25-11M, com diâmetro de 25 mm, ângulo de posição r = 90º, haste cilíndrica, passo médio com 3 insertos e fixação mecânica por pinça. Os insertos foram de metal duro ISO P25, código R390-11T308MPM GC 1025 (Sandvik-Coromant), revestidos com nitreto de titânio (TiN). Como fluido de corte, empregou-se o óleo sintético Quimatic MEII. As Figs. 1 e 2 ilustram, respectivamente, o processo de usinagem considerado e a ferramenta de corte. 126 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 1. Fresamento de topo do aço ABNT 1045. Figura 2. Ferramenta de corte (fresa de topo). A avaliação do desgaste da ferramenta foi realizada através de um microscópio estereoscópico modelo Magnification, com aumento de 40x e com uma câmera digital acoplada para aquisição de imagens. O critério adotado para o fim de vida da ferramenta foi o desgaste de flanco VBmax = 0,30 mm, conforme ilustra a Fig. 3. Após o fresamento do bloco de aço ABNT 1045 (sentido concordante) utilizando os parâmetros definidos pelo arranjo experimental, a rugosidade média Ra foi medida na superfície usinada através de um rugosímetro portátil Mitutoyo SJ-201 M/P (Fig. 4). A medição de Ra ocorreu em três pontos do bloco, sendo um no centro e um em cada extremidade, a fim de se considerar o valor médio das leituras. Com isso, após a execução e medição de todos os experimentos, foi construída a matriz experimental (Tab. 3), utilizada como fonte de dados para a modelagem e otimização do processo. Em função da grande quantidade de dados, optou-se por apresentar neste trabalho somente parte da matriz de experimentos. 127 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 (a) (b) Figura 3. Avaliação do desgaste da ferramenta: (a) ferramenta nova; (b) ferramenta desgastada (fim de vida). Figura 4. Medição da rugosidade Ra na superfície usinada. 128 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 3. Matriz experimental. Variáveis de controle codificadas Ruídos codificados Ra VB C Q (m) 1 -1 -1 -1 -1 -1 -1 1 0,297 2 1 -1 -1 -1 -1 -1 -1 1,807 3 -1 1 -1 -1 -1 -1 -1 0,657 4 1 1 -1 -1 -1 -1 1 2,573 5 -1 -1 1 -1 -1 -1 -1 0,353 6 1 -1 1 -1 -1 -1 1 3,013 7 -1 1 1 -1 -1 -1 1 0,270 8 1 1 1 -1 -1 -1 -1 2,417 9 -1 -1 -1 1 -1 -1 -1 0,320 10 1 -1 -1 1 -1 -1 1 3,170 11 -1 1 -1 1 -1 -1 1 0,280 12 1 1 -1 1 -1 -1 -1 2,877 13 -1 -1 1 1 -1 -1 1 0,270 14 1 -1 1 1 -1 -1 -1 3,030 15 -1 1 1 1 -1 -1 -1 0,550 16 1 1 1 1 -1 -1 1 1,520 17 -1 -1 -1 -1 1 -1 -1 0,497 18 1 -1 -1 -1 1 -1 1 2,770 19 -1 1 -1 -1 1 -1 1 0,383 20 1 1 -1 -1 1 -1 -1 3,247 65 -2,828 0 0 0 0 0 0 0,100 66 2,828 0 0 0 0 0 0 * 67 0 -2,828 0 0 0 0 0 0,350 68 0 2,828 0 0 0 0 0 1,573 69 0 0 -2,828 0 0 0 0 0,650 70 0 0 2,828 0 0 0 0 0,440 ae Vc ap fz Teste 129 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 71 0 0 0 -2,828 0 0 0 0,390 72 0 0 0 2,828 0 0 0 1,183 73 0 0 0 0 0 0 0 0,343 74 0 0 0 0 0 0 0 0,540 75 0 0 0 0 0 0 0 0,680 76 0 0 0 0 0 0 0 0,520 77 0 0 0 0 0 0 0 0,540 78 0 0 0 0 0 0 0 0,323 79 0 0 0 0 0 0 0 0,527 80 0 0 0 0 0 0 0 0,607 81 0 0 0 0 0 0 0 0,697 82 0 0 0 0 0 0 0 0,430 4. RESULTADOS E DISCUSSÃO A Eq. (5) apresenta o modelo de superfície de resposta do arranjo combinado escrito em termos das variáveis de controle e ruído consideradas neste trabalho. Ra (x, z ) 0 1 fz 2 ap 3Vc 4 ae 11 fz 2 22 ap 2 33Vc 2 44 ae 2 12 fz ap 13 fz Vc 14 fz ae 23ap Vc 24 ap ae 34Vc ae 1VB 2 C 3Q 11 fz VB 12 fz C 13 fz Q 21ap VB 22 ap C 23ap Q 31Vc VB 32Vc C 33Vc Q 41ae VB 42 ae C 43ae Q (5) Na equação anterior, as variáveis fz, ap, Vc e ae são expressas em sua forma codificada. Os coeficientes do modelo foram estimados utilizando o Método dos Mínimos Quadrados Ordinários (OLS) através do software estatístico Minitab®. Sendo assim, chegou-se à seguinte expressão: 130 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Ra (x, z ) 0,689 0,898 fz 0,041ap 0,066Vc 0,004ae 0,493 fz 2 0,096ap 2 0,010Vc 2 0,064ae 2 0,074 fz ap 0,087 fz Vc 0,030 fz ae 0,039ap Vc 0,018ap ae 0,043Vc ae 0,102VB 0,002C 0,005Q 0,048 fz VB 0,086 fz C 0,042 fz Q 0,013ap VB 0,073ap C 0,012ap Q 0,020Vc VB 0,034Vc C 0,041Vc Q 0,052ae VB 0,013ae C 0,025ae Q (6) Inicialmente, os coeficientes estimados para a Eq. (5) proporcionaram um ajuste do modelo (R2 adj.) correspondente a 70,08%. Dessa forma, visando aumentar a capacidade de representação dos dados, o modelo foi corrigido utilizando a ponderação pelo inverso do quadrado dos resíduos (1/e2). Após a correção, foram obtidos os valores apresentados pela Eq. (6), sendo o novo ajuste igual a 99,9%. Com a construção do modelo para o arranjo combinado, as equações de média e variância da rugosidade Ra foram extraídas utilizando as Eqs. (2) e (3). Tal procedimento gerou os seguintes resultados: ( Ra ) 0,689 0,898 fz 0,041ap 0,066Vc 0,004ae 0,493 fz 2 0,096ap 2 0,010Vc 2 0,064ae 2 0,074 fz ap 0,087 fz Vc 0,030 fz ae 0,039ap Vc 0,018ap ae 0,043Vc ae (7) 2 ( Ra ) 0,010 0,010 fz 0,002ap 0,004Vc 0,011ae 0,011 fz 2 0,006ap 2 0,003Vc 2 0,004ae 2 0,013 fz ap 0,004 fz Vc 0,005 fz ae 0,006ap Vc 0,001ap ae 0,001Vc ae (8) De acordo com o que foi discutido na seção 2, os modelos de média e variância desenvolvidos através de um arranjo combinado são escritos como função apenas das variáveis de controle, embora as variáveis de ruído sejam testadas em diferentes níveis durante os experimentos. No entanto, dado que a derivação da equação de variância leva em consideração os efeitos provocados pelas variáveis de ruído, o ajuste das variáveis de controle para se ter o mínimo de variabilidade garante a robustez do processo em relação a estes efeitos. As Figs. 5 e 6 mostram as superfícies de resposta para a média e variância da rugosidade Ra, construídas a partir das Eqs. (7) e (8). Como pode ser observado, todos 131 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 os gráficos representados apresentam um ponto de curvatura no qual existe um valor mínimo para a média e a variância de Ra. (a) (b) Figura 5. Superfícies de resposta para a média de Ra: (a) interação entre avanço por dente e velocidade de corte; (b) interação entre profundidade de corte e largura de corte. (a) (b) 132 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Figura 6. Superfícies de resposta para a variância de Ra: (a) interação entre avanço por dente e velocidade de corte; (b) interação entre largura de corte e profundidade de corte. Uma vez que as equações de média e variância foram estabelecidas, partiu-se para a otimização do processo através da minimização do erro quadrático médio. No entanto, para a construção da formulação apresentada pela Eq. (4), torna-se necessário que o valor alvo da rugosidade seja especificado. A fixação deste valor foi então baseada na otimização individual do valor médio de Ra, com a minimização da Eq. (7). Assim, adotou-se como alvo de Ra o valor de 0,23 m e a formulação do problema foi escrita como: Minimizar EQM ( Ra ) ( Ra ) 0,23 2 ( Ra ) 2 (9) Sujeito a : fz 2 ap 2 Vc 2 ae 2 4,0 onde: EQM (Ra ) – Erro quadrático médio para a rugosidade Ra (Ra ) – Modelo para a média de Ra, descrito na Eq. (7) 2 ( y) – Modelo para a variância de Ra, descrito na Eq. (8) A determinação dos parâmetros robustos para o fresamento de topo do aço ABNT 1045 foi então obtida com o emprego do algoritmo GRG na formulação anterior. Para isso, utilizou-se o suplemento Solver do Microsoft Excel®, após o problema de otimização ser devidamente programado na planilha do software. A Tab. 4 apresenta os resultados ótimos. 133 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Tabela 4. Parâmetros robustos ótimos para o fresamento de topo do aço ABNT 1045. Variáveis de controle 2(Ra) EQM(Ra) fz ap Vc ae 0,11 1,265 310 17,39 0,281 0,005 0,008 mm/dente mm m/min mm m m2 - Resultado ótimo Unidade (Ra) Os parâmetros robustos determinados para o fresamento do aço ABNT 1045 caracterizam o ponto de ótimo como uma condição satisfatória para o processo, na medida em que o resultado esperado para a média da rugosidade Ra se mostra como um valor baixo em relação às medidas observadas nos experimentos. Além disso, a variabilidade de 0,005 m2 se traduz em um desvio-padrão de 0,073 m, também considerado um valor satisfatório em comparação às medidas experimentais. Para os casos nos quais se tornar necessário ajustar o processo atribuindo ponderações diferentes entre a média e a variância de Ra, a Tab. 5 e a Fig. 7 apresentam a fronteira de Pareto construída para este problema. Dessa forma, chega-se a um conjunto de parâmetros robustos otimizados nos quais o processo pode ser configurado, de modo a se ter o melhor resultado para as respostas em diferentes cenários. Tabela 5. Parâmetros robustos determinados pela fronteira de Pareto. Peso Peso fz ap Vc ae (Ra) 2(Ra) (Ra) 2(Ra) (mm/dente) (mm) (m/min) (mm) (m) (m2) 0,90 0,10 0,10 1,168 294 17,58 0,248 0,012 0,80 0,20 0,10 1,198 302 17,43 0,260 0,009 0,70 0,30 0,10 1,223 307 17,37 0,268 0,007 0,60 0,40 0,10 1,244 309 17,37 0,275 0,006 134 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 0,50 0,50 0,11 1,265 310 17,39 0,281 0,005 0,40 0,60 0,11 1,286 310 17,43 0,289 0,005 0,30 0,70 0,11 1,310 309 17,49 0,299 0,004 0,20 0,80 0,11 1,341 308 17,58 0,315 0,003 0,10 0,90 0,11 1,390 304 17,71 0,347 0,002 Figura 7. Fronteira de Pareto. 5. CONCLUSÕES O presente trabalho apresentou a determinação dos parâmetros robustos para a rugosidade Ra no processo de fresamento de topo do aço ABNT 1045, visando à minimização dos efeitos das variáveis que são dificilmente controladas e que neste estudo foram representadas pelo desgaste de flanco da ferramenta, pela concentração e pela vazão do fluido de corte. Dessa forma, buscou-se a otimização através da minimização do erro quadrático médio, calculado a partir dos modelos de média e variância estabelecidos para Ra. O modelo de superfície de resposta desenvolvido para 135 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 o arranjo combinado foi capaz de representar adequadamente as condições operacionais do processo, na medida em que seu ajuste inicial foi de 70,08%, chegando a 99,9% após o procedimento de correção. As superfícies de resposta construídas identificaram regiões nas quais a média e a variância da rugosidade Ra apresentaram valores mínimos e onde o método de otimização empregado foi capaz de localizar um ponto de ótimo satisfatório. Sendo assim, a condição robusta para a otimização da média e variância de Ra ocorre quando o fresamento do aço ABNT 1045 é configurado com as seguintes variáveis de controle: fz = 0,11 mm/dente; ap = 1,265 mm; Vc = 310 m/min e ae = 17,39 mm. Nessa condição, a rugosidade apresenta um valor médio de 0,281 m com variância de 0,005 m2 (desvio-padrão de 0,073 m). Após da definição do ponto de ótimo anterior, estabeleceu-se através da construção da fronteira de Pareto um conjunto de parâmetros robustos otimizados, úteis para a configuração do processo quando houver a necessidade de tratar as características duais de Ra com diferentes graus de importância. 6. REFERÊNCIAS Davim, J.P., 2008, ―Machining: Fundamentals and Recent Advances‖, Ed. Springer, London, 375p. Diniz, A.E., Marcondes, F.C., Coppini, N.L., 2008, ―Tecnologia da usinagem dos materiais‖, Artliber Editora, São Paulo, 262 p. Ferraresi, D., 1970, ―Fundamentos da usinagem dos metais‖, Ed. Edgard Blücher, São Paulo, 751p. Ghani, J.A., Choudhury, I.A., Hassan, H.H., 2004, ―Application of Taguchi method in the optimization of end milling parameters‖, Journal of Materials Processing Technology, Vol. 145, No. 1, pp. 84-92. 136 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Gomes, J.H.F., Campos, P.H.S., Lopes, L.G.D., Costa, S.C., Paiva, A.P., 2012, ―Otimização robusta da diluição e da largura do cordão na soldagem com arame tubular para aplicações de revestimento do aço carbono ABNT 1020 com aço inoxidável ABNT 316L‖, Anais do VII Congresso Nacional de Engenharia Mecânica (CONEM), São Luís (MA), Brasil. Köksoy, O., 2006, ―Multiresponse robust design: Mean square error (MSE) criterion‖, Applied Mathematics and Computation, Vol. 175, No. 2, pp. 1716-1729. Kopac, J. and Krajnik, P., 2007, ―Robust design of flank milling parameters based on grey-Taguchi method‖, Journal of Materials Processing Technology, Vol. 191, No. 1-3, pp. 400-403. Machado, A.R., Coelho, R.T., Abrão, A.M, Silva, M.B., 2009, ―Teoria da Usinagem dos Materiais‖, Ed. EdgardBlücher, São Paulo, 384 p. Montgomery, D.C., 2005, ―Design and Analysis of Experiments‖, Ed. John Wiley, New York, 643 p. Paiva, A.P., Campos, P.H., Ferreira, J.R., Lopes, L.G.D., Paiva, E.J. and Balestrassi, P.P., 2012, ―A multivariate robust parameter design approach for optimization of AISI 52100 hardened steel turning with wiper mixed ceramic tool‖, International Journal of Refractory Metals and Hard Materials, Vol. 30, No. 1, pp.152-163. Rao, S.S., 1996, ―Engineering optimization: theory and practice‖, Ed. John Wiley & Sons, New Jersey, 903 p. Reddy, N.S.K. and Rao, P.V., 2005, ―A genetic algorithmic approach for optimization of surface roughness prediction model in dry milling‖, Machining Science and Technology, Vol. 9, No. 1, pp. 63-84. 137 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 SandvikCoromant, 2011, ―Manual técnico de usinagem‖, Sandviken, Suécia. Tawakoli, T., Hadad, M.J., Sadeghi, M.H., 2010, ―Influence of oil mist parameters on minimum quantity lubrication – MQL grinding process‖, International Journal of Machine Tools & Manufacture, Vol. 50, No. 6, pp. 521-531. Teles, J.M., 2007, ―Torneamento de ferro fundido nodular ferritizado com nióbio utilizando ferramentas de metal duro‖, Dissertação (Mestrado em Engenharia Mecânica), Instituto de Engenharia Mecânica, Universidade Federal de Itajubá, Itajubá, 106 p. Trent, E.M. and Wright, P.K., 2000, ―Metal cutting‖, Ed. Butterworth-Heinemann, Boston, USA, 446p. 138 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 UMA INVESTIGAÇÃO SOBRE OS COEFICIENTES C4 E C5 DAS CARTAS DE CONTROLE SHEWHART X-BARRA E S Anderson Paulo de Paiva [email protected] Pedro Paulo Balestrassi [email protected] José Henrique de Freitas Gomes [email protected] Pedro José Papandréa [email protected] Felipe Gonçalves [email protected] Abstract: This paper is an attempt to explain the origin of factors C4 and C5, constants that depend on the sample size n and that are commonly used to build the control limits for X-bar and S Control Charts, hereafter called Shewhart Control Charts. C4 and C5 are tabulated in most textbooks on statistical quality control; however, it is not common to find the complete deduction of them. Key words: Shewhart Control Charts X-bar and S, Gamma-function, Distribution of Chi-square. 1 – INTRODUÇÃO Com o advento da tecnologia, bem como com a evolução das ciências com bases computacionais, muito mais precisos, confiáveis e acessíveis têm se tornado os processos de controle de qualidade. Isto possibilitou que procedimentos matemáticos ou estatísticos mais rigorosos pudessem ser aplicados no quotidiano das organizações, na medida em que a tecnologia fosse sendo assimilada. Mais eficazes, portanto, se tornam as empresas; melhores se tornam seus produtos. 139 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Dentro desse contexto, inserem-se as cartas de controle, substituindo as análises por aproximações por processos de cálculo mais precisos. Observa-se esta relação entre as cartas X-barra e S e cartas X-barra e R, cujos modelamento de dispersão baseiam-se nas variâncias e nas amplitudes das amostras, respectivamente. Além disso, as cartas de controle baseadas na amplitude têm eficiência limitada (Montgomery, 1991), na medida em que se aumente o número de amostras. Existem muitas vantagens em se usar as cartas X-barra e S. Marquardt (1984), por exemplo, cita o fato de que estas cartas necessitam um número menor de amostras para o monitoramento da qualidade dos processos do que os outros tipos, como, por exemplo,as cartas por atributos. De acordo com os estudos de Parr (1995), na medida em que as empresas passem a conhecer melhor seus processos e tomem consciência do seu nível de qualidade, poderá criar-se uma tendência, inclusive, de substituição das cartas por atributos pelas cartas por variáveis. Por todas essas razões, parece razoável desenvolver-se um estudo mais criterioso sobre as características das cartas de controle de Shewhart para variáveis. O desenvolvimento proposto é uma tentativa de se estabelecer uma fundamentação teórica sobre a questão, ainda escassa em deduções, apesar das inúmeras literaturas de controle estatístico de processos. 2 - A DISTRIBUIÇÃO QUI-QUADRADO (2) Considerando-se n observações independentes e identicamente distribuídas, isto é, a retirada de um número finito de elementos de uma população infinita não afetará a composição da população, x1, x2, x3,...,xn , de uma população normalmente distribuída com parâmetros (,2), um estimador s2 de 2 é calculado pela fórmula: s2 1 n ( xi x) 2 n 1 i 1 (1) 140 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Se a média populacional é conhecida, o que é muito raro, o estimador s2 deve ser substituído por: sˆ 2 1 n ( xi ) 2 n i 1 (2) As n variáveis, x1 - , x2 - , x3 - ,..., xn - , incluídas na soma de quadrados acima, são independentes e distribuídas normalmente com parâmetros (0, 2). A padronização destas variáveis conduz a: n 1 n xi 2 sˆ u i2 n i 1 i 1 2 2 2 (3) Denotando a soma de quadrados padronizada como 2 , estabelece-se que: n 2 = u i2 (4) 2 (5) i 1 e ŝ 2 poderá ser escrito como: sˆ 2 2 n Considerando-se uma população de amostras, cada qual consistindo em n observações de uma população normalmente distribuída, independentes e identicamente distribuídas, com parâmetros (,2), e determinando-se a estatística do qui-quadrado para cada amostra, obtém-se uma população de valores de qui-quadrado, denominada Distribuição do Qui-quadrado, que deverá ser independente de e 2 , tendo-se 2 como função das variáveis padronizadas. Multiplicando-se os valores 2 por 2 , n obtém-se a população de valores de ŝ 2 , de acordo com a equação (5). Portanto, a distribuição 2 depende somente de n, e a distribuição de ŝ 2 pode ser derivada da distribuição 2 , utilizando-se a transformação (5). 141 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 3 - A DISTRIBUIÇÃO NORMAL A função da distribuição normal é definida como: 1 px e 2 ( x ) 2 2 2 (6) Onde: x = variável, = média aritmética e = desvio padrão da distribuição. Portanto, a probabilidade de que uma variável seja menor ou igual a x é dada por: Px 1 2 t ( x ) 2 e 2 2 dt (7) 4 - A DISTRIBUIÇÃO NORMAL PADRONIZADA Considerando-se a variável padronizada: u x (8) , com média ZERO e desvio padrão igual a UM, p{x} 1 2 e u2 2 dx , tem - se que : p{u} p{x} du x u 1 2 e u2 2 (9) A variável u é normalmente distribuída, com média 0 e variância 1, e a função (u ) 1 2 e u2 2 , (10) é denominada Função de Distribuição Normal Padronizada, e sobre ela podem ser destacadas as seguintes proposições: 142 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 1 x u2 P{x} e du 2 x P{x} {u} x u 2 1 (u ) 2 u e u2 2 (11) du 5 - DEMONSTRAÇÃO DA DISTRIBUIÇÃO DO QUI-QUADRADO A distribuição do Qui-quadrado pode ser derivada por indução. Na prova 2 seguinte y será usado no lugar de . 2 Definindo-se f como o número de graus de liberdade de uma distribuição , quando f = 1, y torna-se u 2 , o que conduz a: P{ y y0 } P{ y0 u y0 } ( y0 ) ( y0 ) 2( y0 ) 1 Diferenciando-se a equação acima em relação a y0, obtém-se: p{ y 0 } 2 d( y 0 ) d ( y 0 ) 1 1 y0 . p{ y 0 } 2 ( y 0 ). . y 0 2 dy 0 2 d ( y0 ) Utilizando-se o resultado (10), obtém-se: y 0 1 2 e y0 2 2 p( x) 1 2 1 y0 2 e 1 y0 2 (12) 2 2 Para f = 2, obtém-se a combinação y u1 u 2 , onde u1 e u2 são independentes 2 2 e identicamente distribuídos. Fazendo-se y1 u1 e y2 u2 , decorrerá que y y1 y 2 , 143 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 onde y1 e y2 são distribuídos de acordo com a equação (12). O problema torna-se, então, descobrir a distribuição da soma de duas variáveis. De acordo com a fórmula da multiplicação, a probabilidade de y1 e y2 pertencerem ao retângulo definido pelo intervalo(y1,y1+dy1) e (y2,y2+dy2) é igual a [p{y1}dy1.p{y2}dy2](13). A probabilidade de que y1 y2 y , pode ser encontrada pela integração da equação (13). y P{ y1 y 2 y} P{ y} p{ y1} 0 y y1 0 (14) p{ y 2 }dy 2 dy1 Se esta expressão é diferenciada em relação a y, a fórmula da função de distribuição da soma de duas variáveis estocásticas pode ser obtida, tal que: y p{ y} p{ y1}[ p{ y 2 }] y2 y y dy1 0 (15) 1 Introduzindo: p{ y1 } 1 1 2 y e 2 [ p{ y 2 }] y2 y y1 1. y1 2 1 2 dy1 1 2 ( y y1 ) e 1 ( y y1 ) 2 logo : 1 p{ y} 1 1 2 y y 1 e y1 2 ( y y1 ) 2 dy1 0 2 (16) e escrevendo y1 = yt, esta equação se torna: 1 p{ y} 1 1 1 1 2 y 1 2 1 y .e t (1 t ) 2 dt c. .e 2 0 2 2 Onde c denota uma constante, desde que a integral 1 t 0 1 2 1 2 (1 t ) dt seja independente de y. 144 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Para as distribuições contínuas de probabilidade, P{y} é dada como: P{ y} 0 c 2 0 e 1 y 2 dy p{ y}dy 1 (17) 1 y c lim 2e 2 0P 1 2 P 1 P 2c c c lim 2e 2 (2) 1 (c ) 2 P 2 A distribuição de y pode então ser escrita como: 1 p{ y} 1 2 y e 2 (18) Generalizando os resultados das equações (12) e (18), pode-se escrever a função de distribuição de y (Distribuição do Qui-quadrado) como combinações para f e 2 graus de liberdade, respectivamente. Assumindo que a função de distribuição para y1 i 1 ui2 é igual a: f p{ y1} 1 f 2 . 2 f 2 f 1 2 1 .y .e 1 y1 2 (19) e, genericamente, p{ y} 1 f 2 . 2 f 2 .y f 1 2 .e 1 y 2 , o que conduz a 145 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 P{ 2 } 1 f 2 . 2 f 2 . 2 0 x f 1 2 .e 1 x 2 (20) dx Onde: = Função Gama. 6 - A FUNÇÃO GAMA A Função Gama, simbolizada por (n), pode ser definida, se n>0, como: (n) u n1e u du (21) 0 Usando a Teoria das Transformadas de Laplace, algumas propriedades importantes da Função Gama podem ser deduzidas. a) Função Gama de n 0 : 0 0 P (1) u n 1e u du u 11e u du lim e u du lim (1 e P ) 1 P 0 P b) Função Gama Genérica, se n é um número inteiro e positivo : P (n 1) u n e u du lim u n e u du 0 P 0 (n 1) lim (u n )(e u ) P P 0 P P (nu n 1 )(e u )du lim P n e P n u n 1e u du P 0 0 P (n 1) n u n 1e u du n(n) n! 0 Por essa razão, por vezes,a Função Gama é chamada de Função Fatorial . c) Demonstração da propriedade 1 2 : P P Ip e x dx e y dy e seja : lim Ip I 0 2 2 P 0 PP P P 2 2 2 2 e Ip e x dx. e y dy e ( x y ) dxdy 0 0 p 00 2 ( x 2 y 2 ) dxdy 146 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 onde p representa um quadrado de lado P. e ( x2 y 2 ) 1 2 0 dxdy Ip 2 e ( x y2 ) dxdy , e usando coordenada s polares(r, Θ), pode - se escrever : 1 P e r rdrd Ip 2 2 2 0 r 0 1 e Ip 4 2 P2 2 P 2 r 0 e r rdrd 2 1 e lim Ip 4 2 P 2 P 2 I2 4 I 2 Aplicando-se a propriedade descrita no item 6.a, pode-se escrever que: 2 1 1 u 2 .e u du com : u v 2 , obtém - se : e v dv 2 2 2 0 2 0 1 Aplicando-se agora a propriedade do item 6.b, obtém-se: 1 1 3 1 1 n 1 n! nn 2 2 2 2 2 d) Demonstração do fatorial de (n/2) : 5 3 3 3 7 5 5 15 , analogamen te, para n 7, 4 8 2 2 2 2 2 2 Assim, para qualquer n, pode - se generaliza r : 147 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 n n n n 1! 1 2 ... 2 2 2 2 2 (d.1) Somando - se 1 em cada termo da equação descrita acima, deduz - se o seguinte resultado : n 1 n n n n 1 1! ! 2 2 2 2 2 (d.2) Substituindo-se (d.2) em (d.1), obtém-se: n n n n n n n ! 1! ! 1 2 ... 2 2 2 2 2 2 2 2 (d.3) expressão que, segundo Hald (1952), representa o fatorial de um número não inteiro. 7 - A DISTRIBUIÇÃO DO DESVIO PADRÃO sˆ 2 2 De acordo com o desenvolvimento proposto por Hald (1952), se s então: 2 n 1 , 2 f , onde f = (n-1) A média desta distribuição será: M {s} f M ( ) c4 . (22) 148 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 M { } f 2 2 . 2 2 f 1 2 2 f 1 r 0 . .e r 2 2 d ( ) f 2 ( f r ) 1 2 f 1 2 2 . 2 2 0 .e 2 2 d ( 2 ) ( f r ) 2 f r f r . ( r ) 2 22 2 f f f 2 2 . 2 2 M { r } desde que : 2 f r 2 ( f r ) 1 2 f r 1 . 2 2 0 .e 2 2 d ( 2 ) 1 f 1 2 Para r 1, M { } 2 , e c 4 será igual a : f 2 c4 M { } f f 1 n n 1! 2 2 2 2 2 2 f n 1 n 1 n 1 n 1 f 1! 2 2 2 (23) Portanto, a média ou o ―valor esperado‖ do desvio padrão amostral é c4, onde c4 é uma constante que depende apenas de n. A partir do resultado de (23) o desvio padrão do desvio padrão amostral pode ser então explicitado como: E ( x) c 4 . Var ( x) E ( x ) [ E ( x)] 2 2 Var ( ) E ( 2 ) [ E ( )]2 Var ( ) 2 c42 . 2 2 1 c42 s Var ( ) 2 1 c42 1 c42 (24) 149 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 8 - LIMITES DE CONTROLE PARA AS CARTAS X-BAR E S DE SHEWHART Durante a década de 20, Walter A. Shewhart propôs pela primeira vez um modelo geral de cartas de controle baseado na idéia de que, estando o processo estudado sob controle estatístico (as medidas individuais são provenientes de uma mesma população) e com distribuição normal, então uma estatística W qualquer, calculada a partir dos valores amostrais, e que tenha média (W) e desvio padrão (W) conhecidos, terá uma probabilidade próxima a um (99,74%) de estar no intervalo (W) 3(W). Conseqüentemente, os limites do gráfico de controle, para essa estatística, serão: Limite Superior de Controle LSC = (W) +3(W) Limite Médio de Controle (Central) LM = Limite Inferior de Controle LIC = (W) -3(W) (W) Assim, quando um valor cai fora do intervalo estabelecido pelos limites de controle, é possível que a hipótese de que o processo esteja sob controle não seja mais válida, indicando a presença de uma causa especial de variação (Ramos, 1995). Na prática, (W) e (W) são desconhecidos, tornando-se necessário estimá-los a partir dos valores amostrais obtidos do processo. É para uma estimativa como essa no caso de se construir uma carta do tipo X-barra/S, que se utilizam os coeficientes C4 e C5, deduzidos anteriormente. Associando C4 e C5 aos limites modelados por Shewhart, e, considerando-se que o desvio padrão amostral (s) é igual a /n1/2, obtém-se: 150 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Limite Gráfico Para Carta X-barra LSC x 3 Limite Superior de Controle s Para Carta S LSC s 3 c4 n LMC s LMC x Limite Médio de Controle (Central) LIC x 3 Limite Inferior de Controle s 1 c 42 c4 s LIC s 3 c4 n s 1 c42 c4 Tabela 1. Limites de Controle para as cartas de Shewhart 9 - TABELA DOS VALORES DOS COEFICIENTES C4 E C5: Como foi demonstrado nas seções precedentes, os coeficientes das Cartas de Shewhart X-barra e S dependem somente do tamanho da amostra n. Portanto, tem-se que: n C4 C5 2 3 4 5 6 7 8 9 10 11 12 0,798 0,886 0,921 0,940 0,952 0,959 0,965 0,969 0,973 0,975 0,978 0,603 0,463 0,389 0,341 0,308 0,282 0,262 0,246 0,232 0,221 0,211 Tabela 2. Coeficientes C4 e C5 para as cartas de Shewhart. 10 – CONCLUSÃO O presente artigo pautou-se na investigação matemática dos coeficientes usados para o estabelecimento dos limites de controle das cartas de Shewhart, bem como procurou demonstrar qual modelamento estatístico foi usado e porque ele é adequado. Procurou-se demonstrar como a Função Gama pode ser usada para descrever algumas distribuições de probabilidade, por vezes comum em literaturas do gênero, embora tenha seu emprego raramente justificado pelos escritores. 151 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 O argumento do trabalho origina-se na utilização cada vez mais constante desses tipos de cartas de controle e, não obstante, das poucas referências disponíveis sobre o assunto. Os compêndios sobre a matéria, na maioria das vezes, apenas citam os valores tabelados para os coeficientes, e, raramente fazem referência à sua origem estatística ou matemática. O presente artigo, de cunho fundamentalmente didático, pretende servir de auxílio a todos aqueles que, de alguma maneira, vivem os desafios da busca pela Qualidade Total ou se interessem pelas peculiaridades dos procedimentos de engenharia; a todos aqueles que se relacionam de alguma forma com a Engenharia de Produção, procurando, no desenvolvimento de suas competências, um melhor entendimento das questões que envolvem o Controle de Qualidade Moderno. 11- REFERÊNCIAS BIBLIOGRÁFICAS BARTMANN, Flávio C. Idéias básicas do Controle Moderno de Qualidade. 7º Simpósio Nacional de Probabilidade e Estatística. Campinas, UNICAMP, 1986, p. 4167. CHAMP, C.W. WOODALL, W.H. Exact result for Shewhart Control Charts with Supplementary Runs Rules. Technometrics. V.29, p. 393-399,1987. HALD, A. Statistical Theory with Engineering Applications. New York: John Wiley & Sons, 1952, p. 90-300. MONTGOMERY, D.C. Introduction to Statistical Quality Control. 2 ed. New York, John Wiley, 1991. NELSON, L.S. Interpreting Shewhart X-Bar Control Charts. Journal of Quality Technology, Milwaukee, V.17, n.2, p. 114-116, Apr.1985. 152 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 PARR, W.C. “How do World Class Organizations Use Statistics? (A Study of Best Practices)”. ASQC Statistics Division Newsletter 15, p. 21-27,1995. RAMOS, A.W. Controle Estatístico de Processo para Pequenos Lotes. São Paulo, Ed.Edgard Blucher Ltda., p. 7-9, 1995. WAERDEN, B. L. Mathematical Statistics. Berlin: Springer-Verlag, 1969. P.55-59. WOODAL, W.H. Control Charts based on Attribute Data: Bibliography and Review. Journal of Quality Technology, V.29, n.2, p. 174, Apr.1997. 153 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 RESENHA DO ARTIGO Experimentos com mistura para otimização de processos: Uma aplicação com respostas não normais Catarine Conceição Moura Tenório Graduando em Engenharia de Produção Faculdade de Ciências Sociais Aplicadas de Extrema(FAEX) [email protected] RESUMO Este trabalho é uma resenha do artigo ―Experimentos com mistura para otimização de processos: Uma aplicação com respostas não normais‖ de autoria de Antônio Fernando de Castro Vieira e coautoria de Luiz Henrique Abreu Dal Bello. O trabalho apresenta uma metodologia para planejamento de experimentos com mistura, ilustrada com o caso real do estudo de um misto químico que constitui um subsistema de um mecanismo de retardo para acionamento de um motor foguete. O objetivo do estudo é saber qual a proporção dos componentes da mistura que propicia um tempo de queima especificado em projeto. INTRODUÇÃO A maioria dos produtos é feitos a partir da mistura de vários componentes. Produtos farmacêuticos, alimentos, bebidas e produtos químicos são alguns exemplos. Para tais produtos, o interesse é determinar qual é a proporção dos componentes que conduz a um resultado desejado em termos de uma variável que caracteriza a qualidade 154 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 do produto. Quando não se sabe de antemão qual é a proporção ideal de cada componente, devemos realizar experimentos. Nesses experimentos são arbitradas várias combinações de proporções dos componentes e então são observados os valores correspondentes da característica de qualidade. Estes valores são denominados respostas do experimento (Vieira & Dal Bello, 2006). O objetivo do estudo é saber qual é a proporção de cada um dos componentes que propicia um tempo de queima (resposta) de 11 segundos para acionamento de um motor foguete com tolerância de 1s. Será apresentado de forma sucinta, o estudo realizado para chegar aos resultados esperados dentro dos padrões e objetivos estabelecidos. COMPONENTE EM ESTUDO O componente em estudo é composto por uma mistura de três elementos: Zarfesil (x1), Vidro Moído (x2) e Nitrocelulose (x3). Dessa forma, as restrições nas proporções dos três componentes são as seguintes: x1 + x2 + x3 = 1 0,79 ≤ x1 ≤0,87 0,08 ≤ x2 ≤ 0,16 0,05 ≤ x3 ≤ 0,07 Considera-se que em experimentos envolvendo mistura, a soma das proporções dos componentes é sempre igual a 1. Formula genérica EXPERIMENTOS Com as restrições do componente, foi utilizado o software Design-Expert para a escolha dos pontos candidatos e seleção dos pontos experimentais segundo o critério D155 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 otimização. Considerando a sugestão de Myers & Montgomery (2002) para a seleção dos pontos candidatos na região experimental resultante e sabendo que o modelo adotado inicialmente é o quadrático, o software sugere um total de 10 pontos, dos quais 6 são necessários para o ajuste do modelo quadrático e 4 pontos adicionais são para testar a falta de ajuste do modelo. Ademais, 4 dos 10 pontos são replicados para estimar o desvio-padrão da resposta, perfazendo um total de 14 observações. Com isso, o Design-Expert gera um projeto de experimento D-Ótimo conforme a Tabela 1. Nesse tipo de experimento tem-se usado sistematicamente o modelo linear clássico, baseado no método dos mínimos quadrados. Entretanto, para o caso do misto, este modelo foi considerado inadequado, uma vez que há indicação de que a variância da resposta não é constante, aumentando quando a média aumenta, o que viola um dos pressupostos do modelo linear clássico. Posteriormente foi realizado um estudo com o método Quase-verossimilhança (QV). Por analogia, a quasi-deviance de um modelo qualquer é definida como sendo o desvio deste modelo em relação ao modelo saturado, no método de quaseverossimilhança não é necessário definir a distribuição de probabilidade da resposta, 156 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 para tanto, basta definir a relação entre a média e a variância, e a forma com que os efeitos sistemáticos das variáveis regressoras são transmitidos para a média. Utilizando uma rotina de busca exaustiva, na região das restrições dos componentes da mistura, codificada na linguagem do MATLAB, foi encontrada a seguinte solução: Com este modelo, foi possível determinar a proporção de cada um dos três componentes do misto, de modo que, a previsão do tempo de retardo tenha variância mínima e valor esperado igual a 11s. Entretanto, houve evidências de que a solução atual resultaria em um processo produtivo de qualidade inadequada, sendo, portanto, necessário continuar com novos experimentos. CONCLUSÃO Foi realizado dois experimentos para estabelecer a mistura ótima com o tempo de 11 s e tolerância de 1s para o acionamento do motor foguete, entretanto o primeiro experimento não teve sucesso devido o resultado violar o modelo utilizado. O segundo experimento conseguiu chegar ao valor das misturas em relação ao tempo, mas que afetaria a qualidade do produto. Visto que para o sucesso de um projeto a variável qualidade é de suma importância, neste caso os resultados não foram 100% satisfatórios. É recomendável que continue os experimentos com o estreitamento das restrições nas proporções dos componentes do misto, visto que as restrições anteriores proporcionaram um projeto com pontos experimentais, cujas respostas resultaram no intervalo de 0,23s até 19,70s. Tal estreitamento visa obter um projeto com pontos experimentais mais próximos à solução desejada, de modo a reduzir o intervalo da resposta observada. 157 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Os autores enfatizam que este é o único caso, por eles conhecido, que considera um experimento com mistura de resposta não normal. Referências Bibliográficas Atkinson, A.C. & Riani, M. (2000). Robust Diagnostic Regression Analysis. SpringerVerlag, New York, NY. Cornell, J.A. (1990). Experiments with Mixtures: Designs, Models and the Analysis ofMixture Data. Second edition, John Wiley & Sons, New York, NY. Cook, R.D. & Weisberg, S. (1999). Applied Regression Including Computing andGraphics. John Wiley & Sons, New York, NY. Dal Bello, L.H.A. (2005). Experimentos com Mistura: Uma Aplicação com RespostasNão-Normais. Dissertação de Mestrado, PUC-Rio, Departamento de EngenhariaIndustrial. Davison, A.C. (2003). Statistical Models. Cambridge University Press, Cambridge, UK. Goldfarb, H.B.; Borror, C.M. & Montgomery, D.C. (2003).Mixture-Process VariableExperiments with Noise Variables.Journal of Quality Technology, 35, 393-405. Lewis, S.L.; Montgomery, D.C. & Myers, R.H. (2001b). Confidence IntervalCoverage for Designed Experiments Analysed With GLMs. Journal of QualityTechnology, 33, 279-292. Lindsey, J.K. (1997). Applying Generalized Linear Models. Springer-Verlag,New York, NY. 158 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 McCullagh, P. & Nelder, J.A. (1989).Generalized Linear Models.ChapmanHall,London, UK. Myers, R.H. & Montgomery, D.C. (1997). A Tutorial on Generalized Linear Models.Journal of Quality Technology, 29, 274-291. Myers, R.H. & Montgomery, D.C. (2002). Response Surface Methodology.Secondedition, John Wiley & Sons, New York, NY. Myers, R.H.; Montgomery, D.C. & Vining, G.G. (2002).Generalized Linear Modelswith Applications in Engineering and the Sciences.John Wiley & Sons, New York,NY. Prescott, P. (2004). Modelling in Misture Experiments Including Interactions withProcess Variables.Quality Technology & Quantitative Management, 1, 87-103. Prescott, P.; Dean, A.M.; Draper, N.R. & Lewis, S.M. (2002). Mixture Experiments:ILL-Conditioning and Quadratic Model Specification. Technometrics, 44, 260-268. Vieira, A.F.C. (2004). Análise da Média e Dispersão em Experimentos Fatoriais nãoReplicados para Otimização de Processos Industriais. Tese de Doutorado, PUCRio,Departamento de Engenharia Industrial. 159 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 RESENHA DO ARTIGO TEORIA DE PORTFÓLIO: COMPOSIÇÃO ÓTIMA DE UMA CARTEIRA DE INVESTIMENTO. Natalia de Cassia Moreira Graduanda em Engenharia de Produção Faculdade de Ciências Sociais Aplicadas de Extrema [email protected] Setembro de 2013 RESUMO O Objetivo do artigo é mostrar técnicas de aplicação da Teoria do Portfólio de Harry Markowitz para grandes números de ativos. Nesse, é utilizada a programação linear e a linguagem GAMS para maximizar retornos de investimentos. INTRODUÇÃO A aplicação da Teoria do Portfólio de Harry Markowitz será realizada em três partes. A primeira será uma revisão da Teoria do Portfólio, a segunda será a escolha dos ativos utilizando-se a programação linear e a terceira será a aplicação dos testes do modelo e a apresentação dos resultados. 1.0 A TEORIA DO PORTFÓLIO A Teoria do Portfólio de Harry Markowitz tem o objetivo de maximizar o retorno de investimento de acordo com os pré-requisitos do investidor e perante os riscos envolvidos. Segundo MARKOWITZ (1952), o processo de escolha de um portfólio divide-se em duas partes: primeiro, começa com observação e experiência do administrador de fundos e termina com crenças sobre a avaliação do desempenho futuro; segundo, parte das crenças relevantes sobre o desempenho futuro e termina com a escolha do portfólio. O retorno de um Portfólio é dado por: Rp =wl RI +w2 R2 + ... +wgRg; Na qual: Rp: taxa de retorno de um portfólio em um período; RG: taxa de retorno do ativo g no período; W g peso do ativo g no portfólio; G: número de ativos no portfólio. O retorno esperado de um Portfólio, com ativos arriscados, é dado pela expressão abaixo: E(Ri) p1 ri + p2 r2 + ... + pn m 160 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Na qual: m: taxa de retorno possível para o ativo i; pn: probabilidade da taxa de retorno n ocorrer para o ativo i; N: número de possíveis ocorrências da taxa de retorno. Para medir o risco do investimento são usuais as ferramentas estatísticas variância, desvio padrão e correlação entre os ativos. A diversificação de Markowitz relaciona o grau de correlação entre os retornos dos ativos e procura combinar ativos que têm correlações baixas, permitindo a composição de uma carteira com baixo desvio padrão. 2.0 A TEORIA DO PORTFÓLIO E A PROGRAMAÇÃO LINEAR Na construção de um portfólio eficiente com um grande número de ativos são necessários muitos cálculos. Nesse caso, a programação linear será uma ótima ferramenta para realizar esses cálculos. Com os cálculos, será possível fazer análise do investimento. 2.1 UM ESTUDO DE CASO O diretor-presidente do Grupo X, Dr. Joaquim, deseja aplicar R$ 100.000,00 em CDB e nas principais ações do IBOVESPA. O princípio é "maior lucro com menor risco possível". Para isso, foram selecionadas, por um gerente financeiro, as dez principais ações conforme a tabela abaixo: Tabela 1: Carteira teórica das principais ações componentes do IBOVESPA Ação TELB4 PETR4 TELB3 TLSP4 ELET3 ELET6 CMIG4 VALE4 BESP4 BBDC4 TELEBRÁS PETROBRÁS TELEBRÁS TELESP ELETROBRÁS ELETROBRÁS CEMIG V ALE RIO DOCE BANESPA BRADESCO Tipo Qnte Teórica (1) Participação(%)(2) PN* PN* ON* PN* ON* PNB* PN* PNA PN* PN* 32.216,50 3.280,30 4.662,41 1.611,93 11.950,33 11.060,72 8.262,82 12,54 4.486,24 27.906,17 40,977 8,356 4,507 4,431 3,986 3,902 3,157 3,044 2,713 2,467 (*) Cotação por lote de mil ações. 161 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 (l) Quantidade Teórica válida para o período de vigência da carteira, sujeita a alterações somente no caso de distribuição de proventos (dividendo, bonificação e subscrição) pelas empresas. (2) Participação relativa das ações da carteira, divulgada para a abertura dos negócios do dia 23/07/98, sujeita a alterações em função das evoluções dos preços desses papéis. Fonte: http//:www.enfoque.com.br/cotacoes (31/07/98). Com as escolhas dos ativos, foram calculadas as correlações entre os mesmo e foram escolhidas as correlações mais baixas conforme diz a teoria. Segue os cálculos na tabela abaixo: Tabela 2: Correlação entre as principais ações componentes do IBOVESPA Cód. BES4 BBD4 CMI4 ELE3 ELE6 PET4 TEL3 TEL4 TLS4 VAL4 BES4 1 0,59 0,6 0,36 0,4 0,81 0,62 0,57 0,68 0,8 BBD4 0,59 1 0,87 0,69 0,72 0,8 0,77 0,86 0,8 0,76 CMI4 0,6 0,87 1 0,88 0,89 0,91 0,89 0,88 0,88 0,69 ELE3 0,36 0,69 0,88 1 0,99 0,74 0,89 0,81 0,78 0,45 ELE6 0,4 0,72 0,89 0,99 1 0,77 0,9 0,82 0,81 0,49 PET4 0,81 0,8 0,91 0,74 0,77 1 0,87 0,84 0,89 0,85 TEL3 0,62 0,77 0,89 0,89 0,9 0,87 1 0,9 0,86 0,68 TEL4 0,57 0,86 0,88 0,81 0,82 0,84 0,9 1 0,79 0,78 TLS4 0,68 0,8 0,88 0,78 0,81 0,89 0,86 0,79 1 0,75 VAL4 0,8 0,76 0,69 0,45 0,49 0,85 0,68 0,78 0,75 1 A correlação foi calculada com base no preço de fechamento dos ativos de 1/01 a 30/07/98 Os ativos escolhidos estão na tabela a abaixo: Tabela 3: Correlação entre as ações escolhidas para compor o portfólio Código ELE3 TEL4 BES4 VAU BES4 0,36 0,57 1 0,8 VAL4 0,45 0,78 0,8 1 ELE3 1 0,81 0,36 0,45 TEL4 0,81 1 0,57 0,78 Com a escolha dos ativos, Dr. Joaquim quer saber quanto deve aplicar em cada ativo para o mês de julho/98 fazendo as seguintes exigências: * Poderá perder, no máximo, 1% das "sobras"; * Para evitar concentração em determinados ativos, exige que, no maximo, 20% seja aplicado em CDB, 40% em BANESPA, 10% em ELETROBRAS, 10% em TELEBRAS e 20% em VALE DO RIO DOCE; e a carteira deverá render, no mínimo, igual ao rendimento da CDB. 162 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 A formulação matemática do problema será: * Objetivo: Maximizar o retorno da Carteira; * Alternativas: Aplicação em CDB (xl); Aplicação em BANESPA (x2); Aplicação em ELETROBRAS (x3); Aplicação em TELEBRAS (x4); Aplicação em VALE R.DOCE (x5); * Restrições: Capital; risco; exigências máximas da quantidade de ativos; e rentabilidade mínima. A estrutura matemática deste exercício pode ser apresentada assim: MAX RC = RM1X1+ RM2X2+ RM3X3+ RM4X4+ RM5X5 sujeito à: DP1X1 + DP2 X2 + DP3X3 + DP4X4 + DP5X5<= 1.000; X1 <= 20.000; X2<= 40.000; X3 <= 10.000; X4<= 10.000; X5<= 20.000; RM1X1+ RM2X2+ RM3X3+ RM4X4+ RM5X5 > = RM1* 100.000 RMiXi.: retorno médio/dia para o ativo i; e DPiXi.: desvio padrão do ativo i. Nota: o cálculo do retorno médio diário e do desvio padrão de cada ativo foram elaborados com base no período de 31/01 a 30/07/98. Após estruturar o modelo matemático para cada período e aplicar a linguagem GAMS, o Sr. Joaquim fez a aplicação de acordo com a tabela abaixo: Tabela 4: Parcela do capital aplicado em cada Ativo, em R$. FEV Xl X2 X3 X4 X5 CDB 20.000,00 40.000,00 10.000,00 1.016,87 MAR ABR 20.000,00 0,00 8.348,13 0,00 10.000,00 0,00 10.000,00 0,00 0,00 20.000,00 0,00 28.983,13 31.651,87 100.000,00 MAI 0,00 JUN 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 100.000,00 100.000,00 163 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 Os períodos que não cumpriram as imposições do Dr. Joaquim, no caso abril, maio e junho, o capital seria aplicado em CDB, pois a eventual aplicação em ações traria um rendimento médio negativo. Segue o retorno médio ótimo do investimento na tabela abaixo: Tabela 5 - Retorno médio da carteira e CDB para cada período, em R$. MAR FEV Carteira CDB Total ABR MAI JUN 4.869,90 5.535,20 0,00 0,00 0,00 344,90 487,75 1.128,00 1.250,00 1.209,00 5.214,80 6.022,95 1.128,00 1.250,00 1.209,00 O peso do retorno de cada mês sobre a soma dos rendimentos totais para os cinco períodos, que foi de R$14.824,75 se encontra na tabela a seguir: Tabela 6 - Ponderação do retorno médio mensal de cada mês sobre o rendimento médio total para o período (fev-jun/98). TOTAL JUN 5.214,80 6.022,95 1.128,00 1.250,00 1.209,00 14.824,75 35% 41% 8% 8% 8% 100% FEV MAR ABR MAI Esses pesos foram utilizados usados para fazer os ativos da carteira do mês de julho multiplicando o peso inerente a cada mês com a parcela de capital aplicada em cada ativo para o mesmo mês, obteve-se a seguinte distribuição: Tabela 7 - Quantidade de R$ a ser aplicada em cada ativo, considerando o peso de cada mês sobre o retorno médio total para o período (fev-jun/98). FEV X1 X2 X3 X4 X5 CDB MAR ABR MAI 7.035,20 8.125,60 0,00 0,00 14.070,40 3.391,68 0,00 0,00 3.517,60 4.062,80 0,00 0,00 57,69 7.062,80 0,00 0,00 0,00 8.125,60 0,00 0,00 10.195,11 12.859,52 7.609,00 8.432,00 JUL JUN 0,00 15160,00 0,00 14462,00 0,00 7580,40 0,00 7420,49 0,00 8125,60 8.155,00 47.250,63 Total 99999,12 De acordo com o exemplo, o mês de fevereiro, que teve R$20.000,00 aplicado em Xl (CDB). Multiplicando esse valor pelo peso de ativo no rendimento total deste mês (35,176%), obtém-se R$7.035,20. Somando com os valores obtidos para X1 em relação aos outros meses, chega-se ao valor de R$15.160,00 a ser aplicado em Xl, em julho. De 164 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 acordo com os dados reais para o mês de julho/98, vamos comparar o rendimento dessa proposta de carteira de investimentos mostrados na tabela a seguir: Tabela 8- Quantidade de R$ aplicada em julho/98, considerando o peso de cada mês sobre o retorno médio total para o período (fev-jun/98) QNTE APLICADA EM JULHO ATIVO X1 X2 X3 X4 X5 CDB TOTAL 15.160,00 14.462,00 7.580,40 7420,49 8.125,60 47.250,63 99999,12 RENDIMENTO DO ATIVO EM JULHO(1) 1,142% 16,801% 3,826% 14,871% 8,655% 1,142% RETORNO DE CADA ATIVO 173,06 2429,70 289,25 1103,53 703,31 539,39 5238,25 (1 ) Rendimento de cada ativo no mês de julho foi considerado como a divisão preço do ativo no dia 31/07 pelo preço do ativo no dia 01/07. De acordo com os dados acima, verificamos que o retorno da carteira proposta (5,238%) foi bem superior ao rendimento mensal do CDB (1,142%). O montante do Sr Joaquim foi de R$ 105.238,25. A estratégia gerou um retorno excedente de R$ 4.186,25 sobre o CDB (caso ele aplicasse o capital total somente em CDB, teria um montante de R$ 101.142,00, assim, R$ 105.238,25 -R$ 101.142,00 = R$ 4.186,25). CONCLUSÃO A Teoria do Portfólio de Harry Markowitz tem o objetivo de maximizar o retorno de investimento de acordo com os pré-requisitos do investidor e perante os riscos envolvidos. O Intuito do artigo foi diminuir os riscos do capital do investidor Dr Joaquim para o mês de julho/98 melhorando a alocação do mesmo. Foi utilizada a linguagem GAMS e as técnicas de programação linear, respeitando os pré-requisitos exigidos pelo investidor. Se caso o Dr Joaquim aplicasse suas sobras de caixas de acordo com a proposta desse artigo, ele obteria um retorno superior a mais de quatro vezes e meio de uma simples aplicação em CDB (5,283% da carteira contra 1,142% do CDB). A carteira proposta foi ponderada pelas quantidades sugeridas pela resolução do problema e pelo retorno médio de cada mês. Lembre-se que foi feito um estudo estatístico dos riscos, ou seja, uma estimativa do risco real dos ativos. Os estudos dos riscos dos ativos podem variar de acordo com o perfil de cada investidor, podendo ser ele mais ou menos avesso ao risco, modificando as quantidades máximas de ativos ou incluindo ações mais voláteis (1). (1) Ação Volátil - Tipo de ação que normalmente apresenta um grau de variação de cotação maior que o conjunto do mercado. 165 E-LOCUÇÃO | REVISTA CIENTÍFICA DA FAEX Edição 04 – Ano 2 – 2013 REFERÊNCIAS BIBLIOGRÁFICAS FABOZZI, F.J. lJ ivestment management. New Jersey: Prentice Hall, 1995. FUNDOS de investimento terão nova regulamentação. A Cidade, Ribeirão Preto, 09 ago. 1998. MYERS, S.e., ROBICHEK, A. A. Otimização das decisões financeiras. São Paulo: Atlas, 1971. MARKOWITZ, H.M. Portfolio selection Journal of Finance, v.07, p.77-91, mar. 1952. STlX, G. A Ca1culus of risk Scientific American, v.87 ,n.03, may 1998 . 166