Anais do 14O Encontro de Iniciação Científica e Pós-Graduação do ITA – XIV ENCITA / 2008 Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Brasil, Outubro, 20 a 23, 2008. Software para Furação e Rebitagem de Fuselagem de Aeronaves Thiago Sampaio de Athayde Ermes Ferreira Costa Neto Instituto Tecnológico de Aeronáutica - ITA Praça Marechal Praça Marechal Eduardo Gomes, 50 - Vila das Acácias CEP 12.228-900 – São José dos Campos – SP – Brasil Bolsista PIBIC-CNPq [email protected] Resumo: O processo de montagem estrutural aeronáutica exige que a etapa de abertura de furos atenda aos requisitos de tolerância dimensional, de posição, forma e isenção de rebarbas descritas no projeto. Quando esta etapa é executada de modo convencional torna-se dispendiosa, e requer mão de obra especializada e de ferramentais dedicados. Neste contexto, alguns trabalhos sugerem a automação do processo de furação de estruturas aeronáuticas com a utilização de manipuladores robóticos e ferramentas adequadas.Porém, o uso de manipuladores robóticos exige o desenvolvimento de compoentes que garantam o correto posicionamento da ferramenta de acordo com os requisitos do processo. O presente trabalho apresenta o projeto e a implementação de um módulo computacional para correção do posicionamento do robô industrial utilizando visão computacional no ambiente computacional LabVIEW™. Palavras chave: aeronave, fuselagem, rebitagem, visão computacional. 1. Introdução A necessidade de automatização do processo de montagem de aeronaves está presente na indústria de aeronáutica nacional. De acordo com Kihlman (2005) e Naing (2004), o custo de montagem de uma aeronave consome até 40% do custo de fabricação da estrutura do avião. Sendo um processo relativamente lento, requer operadores altamente treinados que utilizam ferramentas de alto custo. Atualmente, as inovações na indústria aeronáutica são direcionadas para o aumento de capacidade produtiva e de flexibilidade com redução de custo e garantia de qualidade do produto. Neste cenário, o Centro de Competência em Manufatura do Instituto Tecnológico de Aeronáutica (CCM-ITA) apresenta uma proposta de inovação, que propõe a análise e desenvolvimento do processo de furação orbital – por fresamento – em estruturas aeronáuticas (EFORB – Efetuador para Furação Orbital). Devido à composição de seus movimentos, o processo de furação orbital proporciona melhor qualidade de furos, isento de rebarbas, eliminando etapas do processo de furação de estruturas de aeronaves, devido à redução dos esforços de corte envolvidos, permitindo a automação do processo de fabricação com a utilização de robôs industriais. O EFORB conjuntamente com o manipulador robótico deve se posicionar corretamente para a execução da solução proposta. Assim, este trabalho apresenta um sistema modular para a correção do posicionamento do robô industrial, por meio do uso de visão computacional. 2. Descrição do Sistema O sistema proposto para o projeto é composto por uma câmera e sistema óptico, sistema de iluminação, algoritmo computacional e mensurando (marcação na estrutura aeronáutica). A Figura 1, adaptada de modelos apresentados por Gonzales (2002) e Ramesh (1995), apresenta, de forma esquemática, as etapas envolvidas no processo, agrupadas por funções. Condicionador Conjunto Sensores Mensurando de Sinal de lentes Sistema de Unidade de Iluminação Processamento Valores das Medições Figura 1. Componentes gerais do sistema de visão. Anais do XIV ENCITA 2008, ITA, Outubro, 20-23, 2008 , São descritos a seguir, os principais componentes do sistema de visão. 2.1 Câmera A câmera é um dispositivo que converte os estílumos recebidos do meio externo na forma de energia eletromagnetica (luz visível) em sinais elétricos ordenados. Sensor: É uma matriz de elementos foto-sensíveis, que recebem e mapeiam o nível de intensidade luminosa, transformando em sinal elétrico analógico proporcional, segundo Jähne (1999). Sistema Ótico: Regula os feixes de luz refletidos pelo objeto físico, fornecendo ao sensor a quantidade ideal de luninosidade. 2.1.1 Modelagem da Câmera As câmeras podem ser representadas por modelos que descrevem a forma como os objetos de uma cena são visualizados. Os modelos definem a transformação de um ponto no espaço (3D) para uma representação bidimensional (2D) na imagem formada pela câmera. 2.1.2 Modelagem Geométrica do Sistema Óptico O sistema ótico é formado por um conjunto de lentes e uma câmara escura. A dinâmica do processo é regida pelas leis da ótica geométrica.Os principais parâmetros associados a esse tipo de sistema são: a geometria das lentes, a distância focal do sistema de lentes e as variáveis geométricas do sistema como descrito na Figura 2. Figura 2. Modelo clássico da geometria de cálculo para lentes finas. Di Do D × Mi F= o 1+ Mi Mi = Mi : em que, Ampliação da imagem; Do : Distância da imagem; Di : Distância do objeto; F : Ho : H1 : Distância focal; Dimensão do objeto; Dimensão da imagem. (1) (2) Anais do XIV ENCITA 2008, ITA, Outubro, 20-23, 2008 , Neste trabalho foi usada a câmera digital da marca Pixelink, modelo PL-B774U, com resolução 1600x1200 pixel, taxa de transmissão da imagem 480 Mbps-Usb 2.0 e sistema ótico COSMICAR/PENTAX modelo TV LENS 25 mm. 2.2 Sistema de Iluminação O sistema de iluminação é responsável por garantir o nível da intensidade luminosa recebido pelo sistema óptico, a fim de garantir seu funcionamento correto. Segundo Erhardt-Ferron (2000) e Jähne (1999), o sistema de iluminação realça características superficiais do objeto, tais como geometria, estrutura, cor, transparência e refletância, viabilizando a etapa de processamento de imagem. A iluminação utilizada nesse trabalho é descrita como multi-direcional: há várias fontes de luz posicionadas a mesma distância do mensurando. A vantegem dessa técnica está no fato de se garantir uma melhor ilumunição, evitando-se a formação de sombras. A fonte luminosa é composta por duas lanternas de LED brancos de alta intesnidade com 24 LED cada. 2.3 Unidade de Processamento Gonzalez (2002) descreve esta unidade como a responsável pelo processamento e a tomada de decisão. Esta é formada por hardware adequado, computador hospedeiro (unidade de processamento e memória) que recebe o sinal enviado pela câmera, e software - para a automação do sistema – que contém o algoritmo desenvolvido para a aplicação de medição dimensional. 3 Método de Medição 3.1 Preparação do Sistema Para que as informações processadas por meio do sistema proposto sejam confiáveis deve-se garantir que todas as etapas do processo tenham seus parâmetros situados dentro de uma faixa de valores adequados. Desta forma, a calibração de fatores como a abertura do obturador, distância ao mensurando, focalização do sistema ótica e intensidade de iluminação devem ser feitas. 3.2 Algoritmo Uma vez que o sinal luminoso chega ao sensor da câmera de forma adequada, é transformado em um sinal elétrico que é enviado ao computador hospedeiro. Esse sinal é processado de acordo com as etapas descritas a seguir, gerando como resposta as coordenadas procuradas. 3.3 Aquisição de Imagem Para aquisição da imagem, utiliza-se a ferramenta NI-Vision™ do aplicativo LabVIEW™. O algoritmo é descrito a seguir: 1. 2. 3. 4. 5. 6. Inicializar e configurar uma seção para aquisição das imagens. Reservar um espaço na memória correspondente a um arquivo de imagem na mesma resolução daquela fornecida pela câmera inicializada em 1. Iniciar à aquisição das imagens em tempo real. Mostrar a imagem na linha de dados (a mesma imagem que está sendo adquirida em 3). Encerrar a seção após a captura da imagem. Transformar a imagem capturada em tons de cinza (esse é um requisito das funções subsequentes). 3.4 Tratamento da Imagem As etapas do algoritmo de tratamento da imagem implementadas no toolbox NI-Vision™ do aplicativo LabView™ são descritas a seguir: 1. 2. 3. 4. Aplicar o algoritmo de threshold para binarização da imagem. Os experimentos mostraram que os intervalos entre 180 e 255 devem ser ajustados para 255 (branco) e o restante para 0 (preto). Abrir a seção de aquisição de imagem via USB. Aplicar o algoritmo de morfologia matemática denominada fechamento, descrito por Facon (1996) e Hasan (2000), para eliminar os ruídos da imagem. Aplicar a função edge detection responsável por identificar as fronteiras da imagem. Entenda-se como fronteira, toda linha que delimita duas regiões separadas da imagem. Anais do XIV ENCITA 2008, ITA, Outubro, 20-23, 2008 , 5. Transformar a imagem em uma matriz de duas dimensões. 3.5 Determinação do Centro e Raio da Região Circular A etapa seguinte é a execução de uma rotina de varredura de uma determinada região que busca fronteiras com o formato circular. Uma vez encontrada a fronteira circular, a rotina determina a posição e o tamanho dessa região. As etapas deste algoritmo são descritas como se segue: 1. 2. 3. 4. 5. 6. Determinar o ponto a partir do qual será iniciada a varredura. Informar qual o tamanho aproximado das regiões circulares procuradas. Coletar as informações sobre o centro e o raio. Processar as informações obtidas e encontrar o valor que melhor represente os paramêtros raio e centro. Enviar as informações para o sistema de posicionamento do robô. Reiniciar o processo (essa etapa ocorre caso a diferença entre a posição atual e a desejada esteja fora da margem de tolerância). 4. IHM (interface homem máquina) A interface do sistema proposto, mostrada na figura 3, é composta por componentes padrões das bibliotecas do LabView™. Esta figura ilustra também a aquisição e a disponibilização para o usuário de uma imagem de um furo circular. O processamento desta imagem resulta na identificação da fronteira do furo e na determinação de seu raio e centro, conforme ilustrado na Figura 4. As circunferências encontradas são desenhadas em vermelho. No canto superior direito são apresentados os valores referentes às circunferências. O próximo passo é usar o valor das coordenadas das circunferências para ajustar a posição do robô. Figura 3. Captura da imagem. Anais do XIV ENCITA 2008, ITA, Outubro, 20-23, 2008 , Figura 4. Determinação dos valores desejados. Na figuras 3 e 4 podemos ver dois conjuntos de coordenadas (x,y) e (x2,y2), o primeiro corresponde a uma medição feita na região interna delimitada pela marcação e a segunda é feita na região externa. O resultado final é a média entre essas duas medições. 5. Conclusão Devido à dificuldade em encontrar e configurar o sistema de iluminação adequado não foi possível até o momento realizar testes na montagem final. Os testes realizados em laboratório demonstraram que o sistema opera de forma adequada e que quando integrado ao sistema final deve ser capaz de atender os objetivos propostos, sendo capaz de auxiliar o robô no processo de rebitagem da fuselagem de aeronaves. A automação desses processos é um passo fundamental para a redução dos custos de fabricação dos aviões. 6. Referências bibliográficas COSTA NETO, E. F.; GOMES, V. E. O. SUTERIO, R.; TRABASSO, L.G. Aplicação do Método de Visão Computacional para a Medição Bidimensional de Furos em Fuselagem Aeronáutica. Anais do CONEM 2008. HOUSEMAN, O.;TIWARI, A.; ROY, R. A Methodology for the Selection of New Technologies in the Aviation Industry, Decision Engineering Report Series, Cranfield University, UK, 2004. KIHLMAN, H. Affordable Automation for Airframe Assembly, PhD thesis, Linköping University, Sweden, 2005. NAING, S. Feature Based Design for Jigless Assembly, PhD thesis, Cranfield University, UK, 2004.