CONTROLE HÍBRIDO DE POSIÇÃO-FORÇA PARA MANIPULAÇÃO ROBÓTICA COOPERATIVA BASEADO EM ESTIMAÇÃO DE FORÇA INDIRETA Rafael O. Faria, Antonio C. Leite, Fernando Lizarralde∗ ∗ Departamento de Engenharia Elétrica Universidade Federal do Rio de Janeiro - COPPE Caixa Postal 68504, CEP 21941-972 RJ, Rio de Janeiro, Brasil Email: [email protected], [email protected], [email protected] Resumo— Neste trabalho considera-se o problema de manipulação robótica cooperativa de objetos. O objetivo consiste em utilizar um sistema robótico com dois manipuladores e duas câmeras acopladas, para identificar visualmente a pose de um objeto localizado no espaço de trabalho para em seguida manipulá-lo de maneira segura e eficiente. Uma metodologia de controle hı́brido de posição e força é utilizada para combinar o controle de movimento e o controle da interação do efetuador com o objeto, a fim de garantir uma preensão adequada durante a execução da tarefa de manipulação. Além disso, um método de medição de força indireta é proposto para estimar as forças externas aplicadas ao efetuador a partir do torque medido em cada junta do robô, que é uma alternativa viável para sistemas robóticos que não possuem sensores de força/torque acoplados ao efetuador. Resultados experimentais, obtidos com um robô Baxter, ilustram o desempenho do esquema de controle proposto. Palavras-chave— controle de robôs, controle hı́brido, manipulação de objetos, medição indireta de força, identificação visual de pose, robôs cooperativos. 1 Introdução Diversas aplicações de robótica na área de automação industrial requerem que um robô manipulador interaja com objetos do ambiente ou execute operações sobre uma superfı́cie de contato, tais como polimento, perfuração, etc. Outras tarefas como, por exemplo, agarrar e mover um objeto de grandes dimensões requerem a utilização de múltiplos robôs trabalhando cooperativamente. Neste contexto, não somente o movimento do efetuador e a força de contato devem ser simultaneamente controlados, mas também é necessário que a pose do objeto manipulado seja modificada durante a execução da tarefa (Siciliano et al., 2009). Para lidar com esses desafios, diferentes metodologias foram desenvolvidas para combinar o controle de movimento com o controle de interação para sistemas robóticos compostos por múltiplos manipuladores (Wen e Kreutz-Delgado, 1992; Caccavale e Uchiyama, 2008). As estratégias de controle de interação podem ser classificadas em métodos indiretos (e.g., controle de complacência, controle de impedância) e métodos diretos (e.g., controle hı́brido, controle paralelo). A principal diferença entre os dois métodos é que as estratégias do segundo grupo permitem que a força de contato seja controlada, a partir do fechamento explı́cito de um laço de realimentação de força. Neste contexto, alguns autores tem considerado o uso de controle de impedância como uma solução viável quando um sensor de força não está disponı́vel (Schneider e Cannon, 1992; Caccavale et al., 2008). Porém, as soluções mais utilizadas são baseadas na estratégia de controle hı́brido, que apresenta laços de controle de posição e de força desacoplados e projetados de maneira independente (Yamano et al., 1998; Tinos et al., 2006). Seguindo essa tendência, diversas estratégias foram desenvolvidas e aplicadas para solucionar o problema de controle hı́brido de posição e força de manipuladores cooperativos (Hayati, 1986; Caccavale e Uchiyama, 2008). Alguns desafios relacionados ao problema de controle hı́brido envolvem, por exemplo, a interação do efetuador com superfı́cies de contato com geometria incerta, bem como a utilização de estratégias de controle adaptativo, que são mais robustas às incertezas nos parâmetros mecânicos do sistema robótico (Doulgeri e Karayiannidis, 2007; Leite et al., 2009). Em geral, para realizar um controle de interação bem sucedido sensores de força podem ser acoplados aos efetuadores dos sistemas robóticos, de acordo com a tarefa de interesse. Porém, a instalação desses sensores requer uma adaptação customizada do efetuador ou da ferramenta do robô, já que os mesmos adicionam massa ao sistema e possuem diferentes interfaces de comunicação. Além disso, sensores de força especı́ficos para uma aplicação particular podem ter custo elevado ou não estar disponı́veis comercialmente. Nesse sentido, alguns autores apresentam soluções para o problema de controle de interação sem o uso de sensores de força (Eom et al., 1998; Choi et al., 2008). Atualmente, existe uma tendência de utilizar robôs com elementos flexı́veis (e.g., juntas e elos) para aplicações práticas que requerem uma interação segura com seres humanos. Por exemplo, os robôs Dexter (Scienzia Machinale), DLR LWR-III (German Aerospace Center), e Baxter (Rethink Robotics) são fabricados com atuadores elásticos do tipo SEA (do inglês, series elastic actuator) compostos por molas e possuem sensores de torque acoplados nas juntas (De Luca e Book, 2008). Nesse enfoque, o problema de estimação de força a partir da informação de torque nas juntas pode ser formulado como um problema de otimização convexa em tempo real (Linderoth et al., 2013) ou pode ser solucionado pela combinação de diferentes técnicas de estimação (Choi et al., 2012). Neste trabalho, apresenta-se uma metodologia para lidar com o problema de manipulação robótica cooperativa de objetos. A solução proposta é aplicada para sistemas robóticos compostos por dois manipuladores com câmeras acopladas, e sensores de torques nas juntas. Um esquema de controle hı́brido de posição e força é utilizado para realizar primeiramente a preensão do objeto e em seguida sua manipulação. É apresentado também um método analı́tico para estimar a força de interação entre o efetuador e o objeto a partir dos torques medidos nas juntas e do vetor de ação gravitacional no robô. O desempenho e a viabilidade do esquema de controle proposto são verificados a partir de ensaios experimentais de manipulação de objetos com um robô Baxter. 2 Formulação do Problema Considere um sistema robótico cooperativo composto por dois robôs manipuladores, duas câmeras acopladas, uma em cada braço, e sensores de torques nas juntas. A tarefa de interesse consiste em realizar a preensão de um objeto e a sua posterior movimentação até uma localização desejada no espaço de trabalho. As caracterı́sticas fı́sicas do objeto são consideradas incertas, mas considera-se que sua largura seja determinada durante a execução do procedimento de preensão. Por simplicidade, assume-se que as dimensões do objeto não sejam suficientemente pequenas para que ele possa ser agarrado por uma pinça ou garra, mas que sua largura seja suficientemente grande para que ele possa ser transportado por dois robôs manipuladores com capacidade de carga conhecida. O problema de manipulação cooperativa proposto é ilustrado na Figura 1, juntamente com os seguintes sistemas de coordenadas: base do robô Fb , centro de massa do objeto Fo , câmeras esquerda/direita FcL /FcR , efetuadores esquerdo/direito FeL / FeR . do objeto, inserido em seu espaço de trabalho, e realizar a preensão entre dois pontos de contato diametralmente opostos, a fim de assegurar que objeto permaneça seguro durante a manipulação. Para identificar a pose do objeto utiliza-se as câmeras posicionadas na extremidade dos manipuladores e o algoritmo de estimação visual proposto em (Faria et al., 2015). A força de contato desejada fd é definida experimentalmente e não pode ultrapassar os valores limites, durante a preensão e a movimentação do objeto, a fim de evitar que o contato seja perdido (fd < fmin ) ou que o objeto seja danificado (fd > fmax ). Neste trabalho, considera-se que não existe sensor de força acoplado ao efetuador do robô e a estimativa da força de contato é obtida a partir da medição direta dos torques em cada junta. Portanto, a solução proposta envolve diversos desafios como, por exemplo, (i) controlar a pose de um objeto manipulado por dois braços robóticos; (ii) controlar a força de contato indiretamente a partir da medição dos torques nas juntas; (iii) identificar visualmente a pose inicial do objeto para realizar o procedimento de preensão de maneira segura e eficiente. 3 Nesta seção, apresenta-se o procedimento desenvolvido para realizar a preensão do objeto durante a tarefa de manipulação cooperativa. Primeiramente, considera-se a estimação visual da pose do objeto localizado no espaço de trabalho e em seguida essa informação é utilizada no procedimento de alinhamento dos manipuladores que antecede o procedimento de preensão. No presente trabalho, utiliza-se o algoritmo iterativo de estimação visual proposto em (Faria et al., 2015) que foi desenvolvido para a manipulação automatizada de válvulas de controle baseada em sensoreamento visual. Em contraste com a solução original onde os autores utilizam LEDs como caracterı́stica visual, no presente trabalho utilizase marcadores circulares coloridos, por serem de fácil fixação no objeto e não necessitarem de fonte de alimentação externa. 3.1 Figura 1: Sistemas de coordenadas, robô Baxter do CENPES/Petrobras e objeto a ser manipulado. Na tarefa de manipulação cooperativa o sistema robótico deve ser capaz de identificar a pose Procedimento para Preensão Modelagem do objeto Considere um objeto de forma retangular com massa m, largura l e superfı́cie sujeita à deformação elástica, com constante elástica ks . Assumese que as forças de contato ηL e ηR são aplicadas nesse objeto através dos manipuladores esquerdo E L e direito E R respectivamente. Essas forças atuam no objeto apenas na direção do vetor unitário ~hLR , paralelo ao segmento de reta que interliga os pontos de contato dos efetuadores. Seja p ∈ R3 o vetor posição do sistema de coordenadas do ob3 jeto Fo , pL e ∈ R o vetor posição do sistema de co3 ordenadas do efetuador esquerdo FeL e pR e ∈R o l d EL FeL ks L Fm ks Fo m R Fm E R ~hLR FeR Figura 2: Modelo do objeto a ser manipulado. vetor posição do sistema de coordenadas do efetuador direito FeR , ambos expressos com respeito ao sistema de coordenadas da base do robô Fb . Nas laterais esquerda e direita do objeto adicionam-se marcadores visuais, e os sistema de coordenadas L R Fm e Fm , respectivamente. Uma vez que as forças de contato são projetadas ao longo da direção do vetor unitário ~hLR , o problema de controle de força é essencialmente unidimensional. Nesse caso, utiliza-se um modelo massa-mola como mostrado na Figura 2 e a equação de movimento para o objeto é dada por (Kruse et al., 2015): R m p̈ = η L + η R = ks (p − pL e ) + ks (p − pe ) . (1) 3.2 Alinhamento dos manipuladores Seja Tij ∈ R4×4 a matriz de transformação homogênea usada para denotar a pose do sistema de coordenadas Fj em relação ao sistema de coordenadas Fi (Siciliano et al., 2009). O problema de alinhamento dos manipuladores para a preensão do objeto consiste em combinar a pose do objeto em relação à câmera acoplada a um dos robôs manipuladores, Tco , com a pose da câmera em relação ao sistema de coordenadas da base do robô, Tbc , obtendo-se a pose do objeto em relação à base do robô, Tbo . Então, Tbo será utilizada como referência para calcular as poses desejadas para os efetuadores esquerdo e direito em relação a base L R do robô, Tbe e Tbe , respectivamente. Considere o modelo do objeto apresentado na R 3 Fig. 2. Seja pL c , pc ∈ R as posições das câmeras acopladas aos efetuadores esquerdo e direito, resR 3 pectivamente. Considere também pL m , pm ∈ R as posições dos marcadores visuais fixados do lado esquerdo e do lado direito do objeto, respectivamente. Assume-se como hipótese que o objeto encontra-se no plano xb -yb do sistema de coordenadas da base Fb e sua pose inicial é incerta. No presente trabalho, utiliza-se a informação visual de ambos conjuntos de marcadores como entrada do algoritmo de estimação visual proposto em (Faria et al., 2015) e obtém-se como saı́da uma estimativa do vetor unitário ~hLR , bem como a disi tância rmc de cada câmera ao marcador correspondente. Dessa forma, pode-se determinar a posição de cada marcador pim , como: i pim = pic + rmc . i = {L, R} . (2) É válido mencionar que, a posição de cada marcador pim representa um ponto de contato sobre o objeto que também pode ser utilizada para a preensão do mesmo durante a tarefa de manipulação. Adicionalmente, define-se uma distância d ∈ R que os efetuadores devem, inicialmente, manter em relação aos pontos de preensão. Dessa forma, calcula-se as posições desejadas pid antes da preensão, para os braços direito e esquerdo usando: pid = pim + d hLR , i = {L, R} . (3) Finalmente, define-se o ângulo α, que representa o rumo do objeto quando este está posicionado sem inclinação em relação ao plano xb -yb . Este ângulo pode ser obtido a partir dos vetores unitários ~hLR e ~xb , da base do robô, usando a seguinte relação: α = arccos(~hLR · ~xb ) − π/2 . Então, a orientação desejada para a preensão pode ser expressa em termos do ângulo α como: Rdi = Rx (α) , i = {L, R} . (4) Após a realização deste procedimento de posicionamento inicial, utiliza-se o controle de força para aproximar os efetuadores na direção do vetor unitário ~hLR até que uma força de contato mı́nima fmin seja atingida. 4 Estimação da Força de Contato O objetivo do método de estimação de força utilizado nesse trabalho é determinar as forças generalizadas nos efetuadores (forças e momentos) quando os mesmos interagem com um objeto do ambiente. Nesse contexto, considera-se que existem sensores de torque acoplados em cada junta dos robôs manipuladores. O torque medido em cada junta é obtido por (Linderoth et al., 2013): τm = τg + τdin + τext + τd , (5) onde τm ∈ Rn é o vetor de torques medidos pelos sensores acoplados às juntas flexı́veis, τg ∈ Rn é o vetor de torques provenientes das forças gravitacionais sobre o manipulador, τdin ∈ Rn é o vetor de torques dinâmicos gerados pelas acelerações do manipulador, τext ∈ Rn é o vetor de torques gerados pela ação de elementos externos e τd ∈ Rn é o vetor de torques devido à perturbações como, por exemplo, erros de modelagem, ruı́dos de medição e forças de atrito. Os torques dinâmicos τdin podem ser calculados a partir dos parâmetros dinâmicos do robô. Contudo, para as tarefas de manipulação consideradas nesse trabalho, esse valores serão considerados desprezı́veis uma vez que ao interagir com um objeto ou com o ambiente externo não é adequado utilizar velocidades elevadas e/ou acelerações com grandes variações. Por outro lado, os torques devido à perturbações τd exigem uma análise mais complexa, baseada em modelos de atrito, para serem precisamente estimados. Nesse trabalho, es- ses torques também serão considerados desprezı́veis implicando, portanto, no surgimento de erros na estimação da força externa. Os torques externos τext são produzidos pela interação do efetuador com um objeto ou com o ambiente, produzindo forças externas generalizadas Fext = [ f T µT ]T , onde f ∈ R3 é a força de contato e µ ∈ R3 é o momento angular. A aplicação do princı́pio do trabalho virtual permite expressar a relação entre os torques externos e as forças externas generalizadas como (Siciliano et al., 2009): τext = J T (θ) Fext . (6) Levando em consideração que τdin e τd são desprezı́veis, pode-se finalmente obter a estimação da força externa aplicada ao efetuador a partir dos torques medidos e do torque gravitacional como: fˆ T T F̂ext = = τext J † (θ) = (τm − τg )T J † (θ) . (7) µ̂ 5 Modelagem e Controle Cinemático Considere o problema de controle cinemático para um robô manipulador com n graus de mobilidade. Assume-se aqui que o robô possui uma malha interna de controle de velocidade de alto desempenho para acionamento direto das juntas. Então, o movimento do robô pode ser descrito por: θ̇i = ui , i = 1, · · · , n , (8) em que θi and θ̇i são respectivamente a posição e a velocidade angulares da i-ésima junta e ui é o sinal de controle de velocidade aplicado ao driver do motor da i-ésima junta. Essa abordagem é válida quando as taxas de redução nas engrenagens são elevadas e as tarefas de interesse não exigem altas velocidades ou rápidas acelerações. A posição e orientação dos sistemas de coordenadas do efetuador Fe em relação ao sistema de coordenadas da base Fb pode ser obtida através da cinemática direta como: pe = f (θ) , qe = h(θ) , (9) em que pe ∈ R3 denota a posição do efetuador com respeito à base do robô, qe ∈ H denota o quatérnio unitário1 que representa a orientação do efetuador em relação à base. Note que, f (·) : Rn 7→ R3 é uma função de mapeamento não-linear do espaço das juntas para o espaço Cartesiano, h(·) : Rn 7→ H é uma função de mapeamento não-linear do espaço das juntas para o espaço de quatérnios. A partir da derivada no tempo da equação de cinemática direta (9), obtém-se a seguinte relação de cinemática diferencial: ṗe = Jp (θ) θ̇ , q̇e = Jq (θ) θ̇ , (10) 1 O sı́mbolo H denota o grupo dos quatérnios unitários que satisfaz a álgebra dos quatérnios (Siciliano et al., 2009). 3×n 4×n em que Jp = ∂f e Jq = ∂h denotam ∂θ ∈ R ∂θ ∈ R as matrizes que relacionam as contribuições das velocidades das juntas para as derivadas no tempo da posição e da orientação do efetuador. A partir da regra de propagação do quatérnio, a derivada no tempo do quatérnio unitário q̇e ∈ H pode ser relacionada a velocidade angular do efetuador ωe ∈ R3 como ωe = Jr (qe ) q̇e , onde Jr (qe ) ∈ R3×4 é o Jacobiano da representação. A velocidade do efetuador no espaço Cartesiano ve é relacionada a velocidade das juntas através da equação de cinemática diferencial: ṗe Jp (θ) ve = = θ̇ = J(θ) θ̇ , (11) ωe Jo (θ) em que J(θ) ∈ R6×n é o Jacobiano geométrico do manipulador e Jo (θ) = Jr (qe ) Jq (θ) ∈ R3×n . Um sinal de controle vc (t) projetada no espaço Cartesiano pode ser transformada em um sinal de controle no espaço das juntas usando a seguinte relação linearizante: vh u = J † (θ) vc , vc = , (12) vo em que vh , vo ∈ R3 são os sinais de controle Cartesiano projetados para controlar a posição e orientação do efetuador respectivamente. Pode-se mostrar que, o sinal de controle (12) minimiza localmente a norma das velocidades das juntas desde que a cinemática do robô seja conhecida e vc (t) não conduza o robô para configurações singulares, onde a matriz Jacobiana tem posto deficiente. Na abordagem de controle hı́brido, a variável de controle vh é utilizada para controlar a posição do efetuador e a interação entre o efetuador e a superfı́cie de contato como (Siciliano et al., 2009): vh = vhp + vhf , T vhp = Rbs Sp Rbs vp , (13) T vhf = Rbs Sf Rbs vf , onde Sp , Sf ∈ R3×3 são matrizes de seleção, ortogonais complementares, que determinam quais os graus de liberdade são controlados por posição ou força; Rbs ∈ SO(3) é a matriz de rotação do sistema de coordenadas da superfı́cie Fs em relação ao sistema de coordenadas da base Fb ; vp , vf ∈ R3 são as leis de controle de posição e força respectivamente, que são projetadas de acordo com as estratégias de controle propostas em (Leite et al., 2010). 6 Resultados Experimentais Nesta seção, apresenta-se os resultados experimentais obtidos com um robô Baxter (Rethink Robotics) para demonstrar o desempenho e a viabilidade da metodologia de controle proposta. O robô Baxter possui dois manipuladores de 7 graus de liberdade com sensores de torque, posição e velocidade embutidos em cada junta. Cada manipulador possui um efetuador no qual foi adicionado um disco emborrachado para facilitar a preensão do objeto e uma câmera embutida. Contudo, para obter um melhor desempenho para o algoritmo de estimação visual utiliza-se uma câmera Logitech HD Webcam C270, diretamente conectada ao computador por uma porta USB. Posição do objeto, p e trajetória desejada, p d px pxd m 0.6 20 40 0.6 60 0.5 py m −0.5 0 1 20 z, m 0 pyd 40 fˆL 0.3 60 pz (a) Força nos efetuadores, fˆ 15 0.4 N m 0.5 0 0.5 ção desejadas para o objeto utilizando uma interface gráfica desenvolvida ad-hoc. A referência de posição é uma trajetória circular definida no plano yb -zb com raio rc = 0, 2 m e frequência angular ωc = π/10 rad s−1 . O algoritmo de controle é implementado em Python e o laço de controle é executado com periódo de amostragem de 20 ms em um processador Intel i7-3770 3.4 GHz com 4 GB de memória RAM. Os parâmetros de controle utilizados foram: kp = 0,8 s−1 , ko = 0,7 rad s−1 , e kf = 0,5 m N −1 s−1 . 0.2 pzd p pd 0.1 0.5 0.2 0 0 20 40 0 y, m−0.2−0.4 60 0.5 fdL fdR 10 5 0 10 20 30 40 50 60 70 (b) Erro de força, ef 5 x, m N Tempo, s 0.55 fˆR 0 eLf Figura 3: Posição do objeto e trajetória desejada. −5 0 10 20 30 40 50 eR f 60 70 Tempo, s O software do robô é desenvolvido em C++ e Python e é estruturado para utilização com o ROS (Robot Operating System), uma plataforma de código aberto com bibliotecas e ferramentas disponı́veis para auxiliar no desenvolvimento de aplicações para sistemas robóticos. Nesse ambiente de programação, cria-se um cenário experimental, onde um objeto de formato retangular é inserido dentro do espaço de trabalho do robô. Neste objeto foram adicionados quatro marcadores circulares. O algoritmo de estimação visual identifica a pose do objeto por meio destes marcadores e alinha os manipuladores para iniciar a etapa de preensão do objeto. Após a pegada do objeto, o sistema robótico utiliza a estratégia de controle hı́brido proposta em (Leite et al., 2010) para realizar a tarefa de manipulação cooperativa. (a) Erro de posição, ep m 0.1 epx epy epz 0 −0.1 0 10 20 30 40 50 60 70 Figura 5: (a) Força estimada nos efetuadores; (b) erro de força nos efetuadores. A evolução no tempo da posição do objeto e a posição do objeto no espaço Cartesiano são ilustradas na Figura 3, onde ambas são comparadas com a trajetória desejada. A Figura 4, (a) e (b), ilustra a evolução no tempo dos erros de posição e de orientação do objeto durante a tarefa de manipulação. A evolução no tempo da força de contato, estimada indiretamente, que os efetuadores aplicam sobre o objeto é ilustrada na Figura 5 (a). A Figura 5 (b) ilustra o comportamento temporal do erro de força, onde observa-se que a interação dos efetuadores com o objeto foi satisfatória não ocorrendo perda de contato ou escorregamento durante a execução da tarefa de manipulação. Os sinais de controle nas juntas para os braços direito e esquerdo são apresentados na Figura 6, (a) e (b) respectivamente, onde pode-se observar a limitabilidade das velocidades das juntas. 7 Considerações Finais (b) Erro de orientação, eo 0.2 eoy eox eoz 0 −0.2 0 10 20 30 40 50 60 70 Tempo, s Figura 4: (a) Erro de posição do objeto; (b) erro de orientação do objeto. Inicialmente, o robô posiciona o objeto em uma posição inicial fixa e, posteriormente, o operador transmite a referência de posição e orienta- Neste trabalho, considera-se o problema de manipulação cooperativa de objetos utilizando um sistema robótico de dois braços e duas câmeras acopladas, uma em cada braço. O algoritmo de estimação visual é baseado no uso de marcadores fixados na superfı́cie do objeto para identificar a sua pose antes da etapa de manipulação. Uma estratégia de controle hı́brido é utilizada para controlar o movimento e a interação entre os efetuadores e o objeto, a fim de garantir uma preensão segura e eficiente durante a execução da tarefa. Como uma alternativa para sistemas robóticos que não De Luca, A. e Book, W. (2008). Robots with flexible elements, in B. Siciliano e O. Khatib (eds), Springer Handbook of Robotics, Springer Berlin Heidelberg, pp. 287–319. (a) Velocidade das juntas do braço esquerdo, uL rad s−1 0.2 0 −0.2 0 u L1 10 u L2 20 u L3 30 u L4 40 u L5 u L6 50 u L7 60 70 (b) Velocidade das juntas do braço direito, uR rad s−1 0.2 0 −0.2 0 uR 1 10 uR 2 20 uR 3 30 uR 4 40 uR 5 50 uR 6 uR 7 60 70 Tempo, s Figura 6: Sinais de controle nas juntas: (a) braço esquerdo uL ; (a) braço direito uR . possuem sensores de força, é proposto um método de estimação de forças externas generalizadas a partir de um sensor de torque instalado em cada junta do robô. Ensaios experimentais, conduzidos com um robô Baxter manipulando um objeto retangular, ilustram o desempenho e a viabilidade da metodologia de controle apresentada. Como propostas para trabalhos futuros pretende-se considerar a flexibilidade das juntas do robô Baxter na formulação do problema de controle hı́brido e utilizar objetos de dimensões, formatos e elasticidades diferentes para as tarefas de manipulação cooperativa. Uma ideia interessante é desenvolver uma metodologia de manipulação de objetos, onde operador pode posicionar o objeto em locais desejados a partir de um procedimento de reconhecimento de comandos de voz e movimentos dos braços para coordenar os movimentos entre o ser humano e o robô. Neste procedimento, os movimentos dos braços do operador são capturados por um dispositivo de interface natural e transformados em sinais de referência para o sistema de controle de posicionamento do robô. Referências Caccavale, F., Chiacchio, P., Marino, A. e Villani, L. (2008). Six-dof impedance control of dual-arm cooperative manipulators, IEEE/ASME Trans. Mech. 13(5): 576–586. Caccavale, F. e Uchiyama, M. (2008). Cooperative manipulators, in B. Siciliano e O. Khatib (eds), Springer Handbook of Robotics, Springer Berlin Heidelberg, pp. 701–718. Doulgeri, Z. e Karayiannidis, Y. (2007). Force/position tracking of a robot in compliant contact with unknown stiffness and surface kinematics, Proc. IEEE Int. Conf. Rob. Aut., pp. 4190–4195. Eom, K. S., Suh, I. H., Chung, W. K. e Oh, S.-R. (1998). Disturbance observer based force control of robot manipulator without force sensor, Proc. IEEE Conf. Rob. and Aut., pp. 3012–3017. Faria, R. O., Kucharczak, F., Freitas, G. M., Leite, A. C., Lizarralde, F., Galassi, M. e From, P. J. (2015). A methodology for autonomous robotic manipulation of valves using visual sensing, Proc. 2nd IFAC Works. Aut. Cont. Offshore O&G Produc., pp. 228–234. Hayati, S. (1986). Hybrid position/force control of multi-arm cooperating robots, Proc. IEEE Int. Conf. Rob. Aut., pp. 82–89. Kruse, D., Wen, J. e Radke, R. (2015). A sensorbased dual-arm tele-robotic system, IEEE Trans. Autom. Science and Eng. 12(1): 4–18. Leite, A. C., Lizarralde, F. e Hsu, L. (2009). Hybrid adaptive vision-force control for robot manipulators interacting with unknown surfaces, Int. J. Rob. Res. 28(7): 911–926. Leite, A. C., Lizarralde, F. e Hsu, L. (2010). A cascaded-based hybrid position-force control for robot manipulators with nonnegligible dynamics, Proc. Amer. Contr. Conf., pp. 5260–5265. Linderoth, M., Stolt, A., Robertsson, A. e Johansson, R. (2013). Robotic force estimation using motor torques and modeling of low velocity friction disturbances, Proc. IEEE/RSJ Int. Conf. Intell. Rob. Syst., pp. 3550–3556. Schneider, S. e Cannon, R.H., J. (1992). Object impedance control for cooperative manipulation: theory and experimental results, IEEE Trans. Rob. Autom. 8(3): 383–394. Siciliano, B., Sciavicco, L., Villani, L. e Oriolo, G. (2009). Robotics: Modeling, Planning and Control, Springer Verlag London. Tinos, R., Terra, M. e Ishihara, J. (2006). Motion and force control of cooperative robotic manipulators with passive joints, IEEE Trans. Cont. Syst. Tech. 14(4): 725–734. Choi, J., Kang, S. et al. (2012). External force estimation using joint torque sensors for a robot manipulator, Proc. IEEE Int. Conf. Rob. Aut., pp. 4507–4512. Wen, J. T. e Kreutz-Delgado, K. (1992). Motion and force control of multiple robotic manipulators, Automatica 28(4): 729–743. Choi, J. Y., Choi, Y. e Yi, B.-J. (2008). Force sensor-less interaction force control in the deburring task using dual-arm manipulation, Proc. IEEE/RSJ Int. Conf. Intell. Rob. and Syst., pp. 967–973. Yamano, M., Kim, J.-S. e Uchiyama, M. (1998). Hybrid position/force control of two cooperative flexible manipulators working in 3d space, Proc. IEEE Int. Conf. Rob. Aut., pp. 1110–1115.