Desenvolvimento e Análise de uma Aplicação para o Controle do Cursor Através do Emotiv EPOC Marcelo Abi-Acl Xavier PUC Minas [email protected] +55 31 8392-0000 RESUMO Essa pesquisa tem como objetivo desenvolver um sistema que permite com que pessoas com restrição motora controlem um cursor através de um sistema de Interface Cérebro-Máquina (ICM) para realizar tarefas em um computador. Este sistema pode oferecer mais independência e capacidade de comunicação para essas pessoas proporcionando assim, uma melhor qualidade de vida[3]. O presente trabalho propõe analisar o dispositivo de ICM Emotiv EPOC[2], desenvolver soluções estatísticas na identificação dos sinais elétricos cerebrais pelo dispositivo, desenvolver uma aplicação que permita o controle do cursor através do dispositivo e realizar testes, baseados em clicar em botões na tela e digitar frases em um teclado virtual, com 20 indivíduos com e sem restrição motora para avaliar qualitativamente e quantitativamente a utilização do computador. Os resultados mostram que 90% das pessoas, incluindo 4 das 5 com deficiência, foram capazes de realizar tarefas no computador de modo satisfatório. Houve uma média de 20,14 segundos para o usuário clicar em um botão na tela e 24,22 segundos para o usuário clicar em uma letra no teclado virtual. A solução desenvolvida melhorou o desempenho em 65%. Concluiu-se que o sistema desenvolvido possibilitou a utilização do computador de modo satisfatório provendo acessibilidade a computadores por pessoas com restrição motora. Palavras-chave Interface Cérebro-Computador; Tecnologia Assistiva; Restrição motora; Usabilidade; Acessibilidade. ABSTRACT This research aims to develop a system that allows physical disabled people to control a cursor through brain-computer interface (BCI) to perform tasks on a computer. It can provide more independence and improve communication skills for those people thus providing a better quality of life. [3] The present paper proposes to analyze the EMOTIV Epoc[2] BCI device, develop statistic solutions on brain activity patterns identified by the device, develop an application to allow the cursor’s control through the device and perform tests with 20 people with and without physical disabilities, based on clicking an object on the screen and typing sentences on a virtual keyboard, to evaluate quantitatively and qualitatively the use of the computer. The results showed that 90% of people, including 4 of 5 Rosilane Ribeiro da Mota PUC Minas [email protected] disabled subjects, were able to perform tasks on the computer satisfactorily. There was an average of 20.14 seconds for the user to click an object on the screen and 24.22 seconds for the user to click a button on the virtual keyboard. The developed solution improved cursor’s control by 65%. It was concluded that the system allowed the use of the computer satisfactorily providing accessibility to computers for physical disabled people. Author Keywords Brain Computer Interface; Cursor control; Assistive Technology; Restricted mobility; Usability; Accessibility. INTRODUÇÃO Danos e doenças na medula espinhal, no tronco cerebral ou doenças musculares podem levar o indivíduo a perder os movimentos e a sensibilidade das pernas para baixo (paraplegia), dos braços para baixo (tetraplegia) ou até mesmo do corpo todo a privando de falar, mover os olhos, dentre outros[1]. Entretanto, mesmo paralisadas, essas pessoas continuam com suas atividades cerebrais normais, mas algumas são incapazes de expressar seus sentimentos, pensamentos e necessidades.[1] A qualidade de vida dessas pessoas é fortemente prejudicada devido às limitações físicas adquiridas, dependência de outras pessoas para realizar atividades básicas e cotidianas e, principalmente, relacionadas ao domínio das relações sociais e afetivas.[5] Com o avanço da medicina, ciência e tecnologia, tais barreiras de comunicação e a dependência de pessoas com essas limitações estão sendo superadas a cada dia através da área de Acessibilidade e Tecnologia Assistiva, criando expectativas otimistas na comunicação com o mundo exterior e na melhoria de sua qualidade de vida. [3] Sistemas de Interface Cérebro Máquina são sistemas que capturam a atividade do cérebro através de sensores, podendo ser utilizados para o controle de algum dispositivo, como por exemplo, um computador.[4] Esta nova área do conhecimento é importante para auxiliar pessoas paralisadas a interagirem com um computador ou dispositivo eletrônico e, consequentemente, possibilitando a comunicação com o mundo exterior. [4] O Emotiv EPOC é um dispositivo de ICM não invasivo que capta a atividade cerebral através de sensores em um capacete que é posicionado sobre a cabeça do usuário. O dispositivo fornece uma plataforma pronta para desenvolvimento de aplicações, identificando expressões faciais (Expressive Suite), intenções de movimento (Cognitive Suite) e sentimentos (Affective Suite) do usuário em níveis entre zero (0%) e um (100%), que podem ser usadas como interface com o usuário e um dispositivo eletrônico.[2] O presente trabalho é focado em Tecnologia Assistiva e na Acessibilidade de computadores por pessoas com restrições motoras nos membros superiores, possibilitando-as realizar tarefas como digitar em um teclado virtual e navegar na internet, sem a necessidade de usar os membros superiores para controlar um teclado ou um mouse. Este trabalho visa identificar as funcionalidades disponíveis do dispositivo Emotiv EPOC[2] para a interface cérebro computador, analisar o seu desempenho na identificação da atividade cerebral para expressões faciais, desenvolver uma aplicação com soluções que permitam o controle de um cursor de modo eficaz e satisfatório e realizar testes com 20 indivíduos com restrição e sem restrição motora para qualificar a efetividade da aplicação desenvolvida para a realização de atividades em um computador, tais como clicar em botões e digitar em um teclado virtual. ANÁLISE DO EMOTIV EPOC Foi realizada uma análise do dispositivo de ICM EPOC da empresa Emotiv System[2] para identificar e entender as funcionalidades que possibilitam a comunicação da atividade elétrica cerebral mapeada em eventos em um computador. Foram levantadas características das principais funções do dispositivo como, controle consciente do usuário sobre a atividade cerebral identificada pelo dispositivo (controlabilidade) e facilidade de identificação da ação do usuário pelo dispositivo. Esse levantamento resultou na escolha da função mais adequada para ser utilizada no controle do cursor, o Expressive Suite[2], que identifica expressões faciais do usuário como, por exemplo, “levantar a sobrancelha”, “franzir a sobrancelha”, “cerrar os dentes”, “sorrir com o canto esquerdo da boca”, “sorrir com o canto direito da boca” e piscar os olhos. Após a escolha do Expressive Suite, foi realizada uma análise dessa funcionalidade utilizando dados coletados de testes preliminares com três indivíduos para identificar seu comportamento e encontrar inconformidades, falhas e imprecisões entre a ação do usuário e a identificação da expressão facial pelo dispositivo. Neste teste três participantes realizaram as sete expressões faciais identificadas pelo dispositivo e a ação de piscar os olhos. Os dados dos níveis de identificação de cada expressão facial e identificação de piscadas dos olhos foram registrados em cada atividade, sendo delimitado o intervalo de tempo entre o início e o fim de cada ação. Em seguida os participantes realizaram uma atividade de clicar em botões na tela do computador controlando o cursor com as expressões faciais descritas acima. Foi concluído que existem imprecisões na identificação do dispositivo em algumas expressões faciais executadas pelo usuário, as expressões faciais imprecisas variam para cada individuo, foi constatado identificações de expressões faciais diferentes da que o usuário estava realizando, e principalmente, a identificação de alguma expressão facial quando o usuário não executava nenhuma das expressões faciais. DESENVOLVIMENTO DA SOLUÇÃO Baseado na análise do comportamento do Expressive Suite foi desenvolvido as soluções propostas neste trabalho, resultantes das características e inconformidades identificadas no teste preliminar e técnicas estatísticas, para serem utilizadas na aplicação desenvolvida que movimenta e clica o cursor utilizando as expressões faciais do usuário identificadas pelo dispositivo Emotiv EPOC[2]. Para permitir a movimentação do cursor para cima foi utilizada a expressão “levantar a sobrancelha” ou “franzir a sobrancelha”, para baixo “cerrar os dentes”, para a esquerda “sorrir com o canto esquerdo da boca”, para a direita “sorrir com o canto direito da boca” e para clicar era necessário que o usuário pisque com os olhos duas vezes rapidamente. Para minimizar movimentos errôneos do cursor, resultante de imprecisões na identificação das expressões faciais pelo dispositivo, foi desenvolvida uma funcionalidade que visa identificar essas imprecisões e impedir que elas façam o cursor se mover. Essa funcionalidade é composta de uma atividade onde o usuário executa as expressões faciais e o sistema coleta os dados identificados pelo dispositivo. Após a coleta de dados a aplicação identifica quais valores foram inconsistentes perante a ação do usuário e calcula um limiar que impede o cursor de se mover quando houver essas inconsistências. Esse limiar é calculado a partir da média mais o desvio padrão dos valores que foram inconsistentes perante a ação do usuário, separando os valores que movimentam o cursor (valores acima do limiar) dos valores que não movimentam o cursor (valores abaixo do limiar). Isso impede com que o cursor se mova quando expressões faciais são identificadas pelo dispositivo e o usuário está no estado de repouso, ou seja, sem executar nenhuma das expressões faciais identificadas pelo dispositivo (Ver Figura 1). DESENVOLVIMENTO DA APLICAÇÃO A aplicação deste trabalho foi desenvolvida na linguagem C# utilizando a IDE Visual Studio 2010. O SDK do dispositivo EPOC foi utilizado para realizar a aquisição, a Figura 1. Gráfico representando o calculo do limiar. Figura 2. Tela principal da aplicação. filtragem, a comunicação e a interpretação dos sinais capturados pelos sensores do dispositivo, gerando os dados de saída com valores entre zero (0%) e um (100%), representando o nível da expressão executada pelo usuário. Para o controle do cursor, foi utilizada a biblioteca edk.dll[2] da API da empresa Emotiv, que disponibiliza ferramentas para receber os dados dos níveis das expressões faciais identificadas e utilizá-los para controlar o cursor. De acordo com a Figura 2, a aplicação conecta com o dispositivo em no botão “conectar”, realiza a solução descrita na seção anterior para eliminar movimentos errôneos do cursor no botão “treinar”, uma tela com botões e um teclado virtual para a realização dos testes é aberta no botão “Teste de Desempenho” e o cursor é controlado pelas expressões faciais clicando no botão “Mover Cursor”. TESTES Após o desenvolvimento da aplicação, foram realizados testes com quinze pessoas sem restrição motora e cinco pessoas com movimentação motora limitada. Os testes foram divididos em duas partes. Na primeira parte, o aplicativo desenvolvido foi utilizado para calcular o limiar da solução desenvolvida. Na segunda parte, um teste composto de duas etapas com tarefas de movimentar e clicar o cursor foi realizado para controlar o cursor com as expressões faciais descritas anteriormente. Estas tarefas representam atividades em um computador comum como clicar em 8 botões na tela e digitar uma frase de 15 letras em um teclado virtual. Dados como tempo de resposta do dispositivo, tempo de realização de cada tarefa, cliques involuntários do mouse, movimentos involuntários do mouse, tempo de digitação de cada letra e erros na digitação foram coletados para medir o desempenho e eficácia da aplicação ao utilizar expressões faciais identificadas pelo dispositivo Emotiv EPOC para controlar um cursor. RESULTADOS Os dados dos testes demonstraram os resultados quantitativos demonstrados na tabela 1. Além desses dados 100% dos participantes conseguiram clicar nos botões, 90% conseguiram digitar frases no teclado virtual, incluindo 4 dos 5 participantes com restrição motora, 65% das vezes a Atividade Média Tempo para clicar em um botão na tela 20,41 seg. Tempo para clicar em uma letra correta 24,22 seg. Cliques não intencionados pelo usuário 14,05 cliques Movimentos para direções não desejadas 13,8 vezes Vezes que o cursor posicionou em um local não desejado pelo usuário 8,55 vezes Letras digitadas erradas 4,77 letras Tabela 1. Resultados quantitativos. solução desenvolvida no trabalho eliminou ou reduziu movimentos errôneos do cursor e 95% dos participantes acharam a aplicação válida e satisfatória para controlar o cursor e utilizar o computador. CONCLUSÃO A partir da análise dos resultados dos testes, pode-se concluir que, a grande maioria dos usuários sem nenhuma experiência prévia com o uso do dispositivo conseguiu clicar em ícones na tela do computador de modo satisfatório, mesmo ocorrendo erros de movimentação, de posicionamento e de cliques do cursor. É possível concluir também que a maioria dos usuários conseguiu digitar frases em um teclado virtual padrão, mesmo errando algumas letras e ocorrendo erros de movimentação e posicionamento do cursor. A partir dessas conclusões pode-se afirmar que o sistema desenvolvido no trabalho possibilita de modo satisfatório a realização de tarefas no computador sem a utilização dos membros superiores através do dispositivo Emotiv EPOC, promovendo a acessibilidade por parte de pessoas com restrição motoras em tais membros. REFERENCES 1. Apparelyzed, Spinal Cord Injury. http://www.apparelyzed.com 2. Emotiv, Emotiv Software Development Kit. http://www.emotiv.com/epoc. 3. Kübler, A. et al. Brain computer communication: Unlocking the lock in. Psychological Bulletin, 127, 3(2001), 358-375. 4. Nicolelis, and M. A., Lebedev, M. A. Brain machine interfaces: past, present and future. Trends in Neuroscience, 29, 9(2006), 536-546. 5. Xavier, I.S. el al. Qualidade de vida de adultos com lesão medular. Ver Esc Enferm USP, 45, 6(2011), 13631371.