UFPE – UNIVERSIDADE FEDERAL DE PERNAMBUCO CIN – CENTRO DE INFORMÁTICA PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO UM ESTUDO DE DOMÍNIO DA LÍNGUA BRASILEIRA DE SINAIS A FIM DE COLHER REQUISITOS PARA A CRIAÇÃO DE UM MODELO COMPUTACIONAL DESCRITIVO DESSE IDIOMA Autor Lucas Araújo Mello Soares Orientador Prof. Dr. Jaelson Freire Brelaz de Castro Recife, Março de 2014 Resumo Segundo a Federação Nacional de Educação e Integração dos Surdos (FENEIS), o censo de 2010 registrou 10 milhões de surdos no Brasil. O idioma oficial dessa comunidade é a Língua Brasileira de Sinais (Libras), necessária para que seus membros se comuniquem e tenham acesso informação, processos imprescindíveis para inclusão social. Porém, embora usadas no mesmo país, a Libras é bem diferente da Língua Portuguesa, o que acaba criando uma ―barreira de comunicação‖ entre surdos e ouvintes, diminuindo o relacionamento entre eles. Consequentemente, tais deficientes ficam excluídos da sociedade, vivendo em guetos e se só comunicando de forma efetiva entre si ou com os poucos ouvintes que conseguem se expressar através da língua de sinais. Com o aumento das discussões de políticas públicas e investimentos em tecnologias assistivas realizados em todo o mundo, várias aplicações vêm sendo desenvolvidas com o intuito de promover a inclusão social dos deficientes auditivos. Algumas dessas soluções funcionam traduzindo algum texto digitado ou som falado para a língua de sinais, através de um avatar 3D que faz o papel de um intérprete virtual. Dessa forma, o surdo tanto entende o que alguém fala para ele, como informações contidas em algum texto escrito, pois tudo é traduzido para sua língua natural e oficial. Porém, cada país tem sua própria Língua de Sinais e as soluções desenvolvidas no Brasil para fins de tradução são tecnicamente limitadas, além de não fornecerem ferramentas intuitivas para o cadastro de novos sinais, que é o carro-chefe para qualquer solução de tradução para Língua de Sinais. Nesse contexto, o objetivo desse trabalho foi realizar um estudo sobre a Língua Brasileira de Sinais a fim de enumerar todas as variáveis linguísticas que são combinadas para a execução de seus sinais. A partir dos dados obtidos, foi possível desenvolver uma linguagem visual, intuitiva e completa o suficiente para descrever computacionalmente qualquer sinal em Libras. Por fim, foi desenvolvido o interpretador dessa linguagem, gerando como output o avatar que executa o sinal especificado. Todos esses passos formam a base do sistema de tradução. Palavras chave: Surdos, Libras, Comunicação, Acessibilidade, Inclusão Social, Tecnologias Assistivas, Computação Gráfica, Avatar, Intérprete Virtual, Tradutor. Sumário Considerações Iniciais ............................................................................................. 6 1.1Introdução ........................................................................................................... 7 1.2 Motivação ........................................................................................................... 8 1.3 Objetivos .......................................................................................................... 10 Um estudo sobre a Língua de Sinais..................................................................... 13 2.1 Origem da Língua de Sinais ............................................................................. 14 2.2 Desenvolvimento da Língua de Sinais ao redor do mundo .............................. 15 2.3 Surgimento e evolução da Língua Brasileira de Sinais - Libras ....................... 17 2.4 Libras, uma Língua Natural .............................................................................. 21 2.5 Parâmetros das Línguas de Sinais .................................................................. 22 2.5.1 Configuração de Mãos ......................................................................................................... 22 2.5.2 Ponto de Articulação ............................................................................................................ 23 2.5.3 Movimento ........................................................................................................................... 24 2.5.4 Orientação/Direcionalidade ................................................................................................. 25 2.5.5 Expressão Facial ou Não Manual.......................................................................................... 25 2.6 Datilologia ........................................................................................................ 26 2.7 Considerações Finais....................................................................................... 27 Sistemas de Transcrição para Língua de Sinais .................................................. 29 3.1 Introdução ........................................................................................................ 30 3.2 Notação de Stokoe........................................................................................... 31 3.3 HamNoSys ....................................................................................................... 34 3.4 SignWriting ....................................................................................................... 36 3.5 Modelo de Liddell & Johnson ........................................................................... 38 3.6 Considerações Finais....................................................................................... 42 Solução Proposta .................................................................................................... 44 4.1Requisitos para a criação um Sistema de Transcrição Computável da Língua de Sinais ..................................................................................................................... 45 4.2 Sistema de Transcrição Proposto .................................................................... 46 4.2.1 Notação Textual Adotada ..................................................................................................... 47 4.2.2 Atribuição das Configurações de mão.................................................................................. 48 4.2.3 Atribuição da Localização e Orientação ............................................................................... 49 4.2.4 Atribuição das Expressões Não Manuais ............................................................................. 49 4.2.5 Abordagem para Simultaneidade, Sequencialidade e Movimento ..................................... 50 4.2.6 Organizando o XML .............................................................................................................. 52 4.2.7 O Sinal OLÁ descrito no XML proposto ................................................................................ 53 4.2.8 Exibição do Agente Virtual Sinalizador................................................................................. 57 4.3 Uma Linguagem Visual para Criação de Sinais ............................................... 58 4.4 Considerações Finais....................................................................................... 59 Contribuições do Trabalho Desenvolvido ............................................................ 61 5.1 ProDeaf ............................................................................................................ 62 5.1.1 ProDeaf Móvel...................................................................................................................... 62 5.1.2 ProDeaf para WebSites ........................................................................................................ 63 5.1.3 Incorporação do Sistema de Transcrição ao ProDeaf .......................................................... 64 5.2 Editor de Sinais Disponível na Internet ............................................................ 66 Conclusão ................................................................................................................ 68 6.1 Considerações Finais....................................................................................... 69 Referências Bibliográficas ..................................................................................... 72 LISTA DE FIGURAS FIGURA 1 – AVATAR 3D EXECUTANDO GESTOS DA LÍNGUA DE SINAIS ...................................................................................... 9 FIGURA 2 – CONFIGURAÇÕES DE MÃOS DA LIBRAS ........................................................................................................... 23 FIGURA 3 – SINAIS DA LIBRAS COM DIFERENTES PONTOS DE ARTICULAÇÃO ........................................................................... 24 FIGURA 4 – SINAIS DA LIBRAS COM E SEM MOVIMENTOS .................................................................................................. 24 FIGURA 5 – SINAIS DA LIBRAS COM DIVERSAS DIRECIONALIDADES......................................................................................... 25 FIGURA 6 – SINAIS DA LIBRAS ENFATIZADOS COM EXPRESSÕES FACIAIS ................................................................................. 26 FIGURA 7 – ALFABETO MANUAL OU DATILOLOGIA............................................................................................................ 27 FIGURA 8 - NOTAÇÃO UTILIZADA POR STOKOE PARA REPRESENTAÇÃO DE ALGUMAS CONFIGURAÇÕES DE MÃO DA ASL ................... 32 FIGURA 9 - SINAL CASA (ASL): MÃOS EM CONFIGURAÇÃO DE B, PONTAS DOS DEDOS DAS DUAS MÃOS SE TOCAM. MÃOS MOVEM-SE SEPARADAMENTE, DE MANEIRA ESPELHADA, AFASTANDO-SE UMA DA OUTRA COM UM MOVIMENTO PARA BAIXO E NA DIAGONAL. DEPOIS DE UM TEMPO, AS MÃOS CONTINUAM A DESCER, MAS NUM MOVIMENTO RETO, NÃO MAIS NA DIAGONAL. O MOVIMENTO REALIZADO LEMBRA O CONTORNO DO TELHADO E DAS PAREDES DE UMA CASA. (AMARAL, 2012) ................. 33 FIGURA 10 - SINAL CASA ESCRITO NO SISTEMA DE TRANSCRIÇÃO STOKOE ............................................................................. 33 FIGURA 11 - EXEMPLOS DE CONFIGURAÇÕES DE MÃOS DO SISTEMA HAMNOSYS .................................................................. 34 FIGURA 12 - EXEMPLOS DE EXPRESSÕES NÃO MANUAIS DO SISTEMA HAMNOSYS. CONFIGURAÇÕES DA BOCA, LÁBIOS E LÍNGUA.... 35 FIGURA 13 - ESTRUTURA DE UM SINAL EXPRESSO EM HAMNOSYS....................................................................................... 35 FIGURA 14 - DESCRIÇÃO DO SINAL GOING-TO EM SIGML (ANTUNES, 2011) .................................................................. 36 FIGURA 15 - TEXTO ESCRITO EM SIGNWRITING ................................................................................................................ 37 FIGURA 16 - SINAL "SAUDAÇÃO" ESCRITO EM SWML ................................................................................................... 38 FIGURA 17 – SEGMENTO DE SUSPENSÃO (A) E SEGMENTO DE MOVIMENTO (B) DO MODELO DE LIDDELL & JOHNSON .................. 40 FIGURA 18 – ELIMINAÇÃO DAS REDUNDÂNCIAS DOS SEGMENTOS DE SUSPENSÃO E MOVIMENTO (DIGIAMPIETRI, 2012). ........... 41 FIGURA 19 – AVATAR EXECUTANDO A SEQUÊNCIA DE MOVIMENTOS DO SINAL “OLÁ” ........................................................... 57 FIGURA 20 – EDITOR GRÁFICO PARA CRIAÇÃO DE SINAIS ................................................................................................... 59 FIGURA 21 – PRODEAF MÓVEL SENDO USADO NUMA TRADUÇÃO DO PORTUGUÊS PARA LIBRAS (HTTP://WWW.PRODEAF.NET/PRODEAF-MOVEL/) ................................................................................................... 62 FIGURA 22 – PRODEAF PARA WEBSITES SENDO USADO PARA TRADUZIR A PÁGINA DO BRADESCO SEGUROS ................................ 63 FIGURA 23 – ÍCONE INDICANDO QUE O SITE ESTÁ ACESSÍVEL EM LIBRAS ................................................................................ 64 FIGURA 24 – FLUXO DE DADOS PARA O CADASTRO DE SINAIS .............................................................................................. 65 FIGURA 25 – FLUXO DE DADOS PARA O PROCESSO DE TRADUÇÃO......................................................................................... 65 Capítulo 1 Considerações Iniciais Este capítulo relata as principais motivações para realização deste trabalho, lista os objetivos de pesquisa almejados, os desafios que são esperados em sua realização e, finalmente, mostra como está estruturado o restante da presente dissertação. 1.1Introdução Desde os primórdios da existência humana, a comunicação esteve presente como uma unidade básica de sobrevivência e socialização. Foi a partir dela que as pessoas puderam estabelecer relações entre si e entender as mensagens que eram transmitidas ou evocadas. Os seres humanos, por serem naturalmente sociais, desenvolveram e dependeram fortemente de protocolos de comunicação para se relacionarem e conviverem em sociedade. Tais relações sociais permitem uma maior aproximação das pessoas, fortalecendo o intercâmbio de culturas, a interação pessoal e profissional, a convivência com diferentes hábitos, entre outros. Para que uma comunicação seja estabelecida é necessário que haja um transmissor, um receptor e uma mensagem. Porém, há casos em que a mensagem enviada pelo transmissor não é compreendida pelo receptor, acarretando numa falha ou até falta de comunicação. Tal falha pode ocorrer, por exemplo, na tentativa de comunicação entre pessoas de diferentes nacionalidades, quando uma não compreende o idioma (mensagem) da outra, ou até mesmo entre pessoas de mesma nacionalidade, que é o que pode ocorrer numa tentativa de comunicação entre um surdo e um ouvinte que, mesmo tendo nascido no mesmo país, possuem línguas próprias (Libras e Língua Portuguesa, respectivamente, caso sejam brasileiros). Nesse último caso, a falha de comunicação ocorre pelo fato da Língua Portuguesa ser bem diferente da Libras em aspectos expressionais, sintáticos, semânticos e gramáticos. São por essas divergências entre as línguas que um surdo não consegue compreender, também, um texto escrito em português, a não ser que ele seja alfabetizado na língua. É justamente essa falha de comunicação entre surdos e ouvintes que o presente trabalho avalia, a fim de propor soluções e ferramentas que minimizem a sensação de exclusão daquela minoria. 1.2 Motivação Imagine por um instante que você não consiga compreender uma palavra do que seus amigos dizem numa conversa, que aquele filme sem legendas não está fazendo qualquer sentido ou que então praticamente nada da sua aula favorita está entrando na sua cabeça. Estes são desafios básicos, cotidianos, de quem tem incapacidades auditivas. Segundo a Organização Mundial de Saúde (OMS), 2.7% da população mundial apresenta algum nível elevado de deficiência auditiva. Desses, 1.8% são completamente surdos. De acordo com a federação nacional para educação e integração dos surdos (FENEIS), o censo de 2010 registrou 10 milhões de surdos no Brasil, um número bastante significativo, maior, por exemplo, do que toda população de Pernambuco. O idioma oficial dos surdos é a Língua de Sinais, uma língua própria, completa e com uma sintaxe, semântica e gramática bem definida. No Brasil, tal língua é chamada de Libras (Linguagem Brasileira de Sinais) e foi decretado por lei como a segunda língua oficial do país, o que tem incentivado mais pesquisas sobre o assunto. Porém, embora usadas no mesmo país, a Libras é bem diferente da Língua Portuguesa, o que acaba criando uma ―barreira de comunicação‖ entre surdos e ouvintes, diminuindo o relacionamento entre eles. Consequentemente, tais deficientes ficam excluídos da sociedade, vivendo em guetos e se só comunicando de forma efetiva entre si ou com os poucos ouvintes que conseguem se expressar através da língua de sinais. Não é raro ouvir dizer que os surdos são estrangeiros dentro do seu próprio país e isso se deve ao fato deles não serem capazes de se comunicar com o resto da população local através do idioma oficial do país. Desde o ensino primário, as escolas são ineficientes ao lidar com deficientes auditivos, desse modo, eles sofrem desde o início por não serem capazes de obter uma educação de qualidade. Consequentemente, por não conviverem e não se relacionarem de maneira efetiva com ouvintes, a grande maioria das pessoas surdas vivem de subempregos e/ou ajuda governamental, sendo julgados incapazes de executar certos tipos de trabalhos que os possibilitariam de ascender socialmente. Com o aumento das discussões de políticas públicas e investimentos em tecnologias assistivas realizados em todo o mundo, várias aplicações vêm sendo desenvolvidas para garantir a inclusão social dos deficientes auditivos. Diversas dessas soluções funcionam traduzindo algum texto digitado ou som falado para a língua de sinais, através de um avatar 3D (Figura 1), que faz o papel de um intérprete virtual. Dessa forma, o surdo tanto entende o que alguém fala para ele, como informações contidas em algum texto escrito, pois tudo é traduzido para sua língua natural/oficial. Figura 1 – Avatar 3D executando gestos da língua de sinais Porém, cada país tem sua própria Língua de Sinais e as soluções desenvolvidas no Brasil para fins de tradução são tecnicamente limitadas, além fornecerem ferramentas pouco intuitivas e produtivas para o cadastro de novos sinais, que é o carro-chefe para qualquer solução de tradução para Língua de Sinais. Desse modo, baseado em todos os problemas de exclusão social vivenciados diariamente por cada membro da comunidade surda brasileira, unido à carência de ferramentas que os proporcionariam obterem informações em sua língua natural, a Libras, motiva o desenvolvimento de uma solução efetiva e de qualidade para os milhões de surdos brasileiros. 1.3 Objetivos O objetivo principal desse trabalho é realizar um estudo detalhado sobre a Língua Brasileira de Sinais a fim de enumerar todas as variáveis linguísticas que são combinadas para a execução de seus sinais, como configuração de mãos, movimentos, velocidade, além de expressões faciais. A partir dos dados obtidos, será possível desenvolver uma linguagem visual, intuitiva e completa o suficiente para descrever computacionalmente qualquer sinal em Libras. Por fim, será desenvolvido o interpretador dessa linguagem, gerando como output o avatar que executa o sinal especificado. Todos esses passos formam a base do sistema de tradução. De uma forma mais detalhada e didática, executaremos as seguintes atividades: I. Mapeamento de todas as possibilidades de Sinais/Movimentos em Libras: ao contrário do que pode parecer para um leigo, os movimentos em língua de sinais não usam apenas as mãos. Na verdade, os sinais surgem da combinação de configurações de mãos, movimentos, pontos de articulação — locais no espaço ou no corpo onde os sinais são feitos — e expressões faciais, os quais juntos compõem as unidades básicas das línguas de sinais. Assim, será realizado um estudo completo desses itens que configuram uma unidade léxica na língua de sinais; II. Definição da linguagem (Domain Specific Language) que representa palavras, orações e ideias completas em língua de sinais: tomando como base o levantamento do item anterior, será criada uma linguagem multiplataforma, baseada no padrão XML (formato de arquivo para dados semiestruturados), que dará suporte à representação dos itens léxicos de qualquer sinal em Libras, assim como as possíveis combinações entre eles. Sendo assim, cada palavra da língua portuguesa estará associada a um arquivo XML desses, contendo sua representação em Libras e podendo ser interpretadas por um avatar. III. Desenvolvimento de um Editor Gráfico para o cadastro de sinais em Libras: até aqui, para cadastrar qualquer sinal em Libras, o usuário teria que escrevê-lo na linguagem XML apresentada no item anterior. Um processo custoso, pouco produtivo e com quase nenhum reuso. Por isso, será desenvolvida uma linguagem visual e intuitiva (o editor gráfico) para a criação de novos sinais, com o objetivo de abstrair o formato XML do usuário. Paralelamente, à medida que o usuário vai cadastrando um novo sinal através desse editor gráfico, o XML vai sendo gerado pela aplicação, pois o mesmo representa o modelo computável que será usado pelo avatar na interpretação/gesticulação do sinal. Tal ferramenta será o carro-chefe da solução global, resolvendo os principais problemas de baixa produtividade no cadastro de sinais presentes nas atuais soluções. IV. Desenvolvimento do protótipo do tradutor português -> Libras: nessa etapa será desenvolvido um protótipo do tradutor tomando como base a integração entre os resultados obtidos pelas etapas anteriores e os resultados obtidos no desenvolvimento do avatar 3D. Basicamente, tal protótipo exibirá um avatar gesticulando/traduzindo, em Libras, alguma palavra ou texto da língua portuguesa e, para isso, consultará todos os sinais que foram cadastrados através da linguagem XML ou Editor Gráfico (itens II e III). Para permitir o desenvolvimento de aplicações multiplataforma (iPhone, Android e Windows Phone, Web, Desktop), será escolhida a plataforma Unity. Capítulo 2 Um estudo sobre a Língua de Sinais Neste capítulo faremos um tour pela história da Língua de Sinais, discutindo sobre sua origem, evolução e adoção em diversos países. Por fim, detalharemos as unidades básicas da Língua Brasileira de Sinais. Isso será feito com o objetivo de enumerar todas as variáveis linguísticas que, juntas, são combinadas para a execução de qualquer um de seus sinais. 2.1 Origem da Língua de Sinais As Línguas de Sinais sempre despertaram o interesse dos educadores. Como surgiram? Quando? Por que não existe uma Língua de Sinais única para que os surdos de todo o mundo possam se comunicar entre si? Essas perguntas, porém, são as mesmas que se fazem com relação à própria existência da linguagem humana. Desde que o homem passa a refletir sobre sua existência enquanto homem, ele reflete sobre essa questão. O mito ocidental da Torre de Babel pode servir como símbolo dessa busca de respostas. São incontáveis os estudos linguísticos, históricos e sociológicos sobre o surgimento da língua falada pela humanidade. Houve um desenvolvimento gradual, progressivo da linguagem, no qual ela se tornou o sistema complexo de significação e comunicação que é hoje, ou, como consideram outros pesquisadores, desde que existe é a linguagem formalmente completa, idêntica ao que conhecemos hoje em dia? O primeiro ponto de vista é defendido por cientistas como G. Révész, que, em seu livro Origine et Préhistoire du langage (KRISTEVA, 1981), aponta para uma perspectiva evolutiva na qual, em seis etapas, traça uma linha desde a comunicação animal até a linguagem humana altamente desenvolvida e complexa. O homem em seu estado primitivo estaria associado à dêixis, aos gritos e aos gestos. Essa visão, compartilhada durante muito tempo pela comunidade científica trouxe, e traz ainda, uma boa dose de rejeição às Línguas de Sinais das comunidades surdas, associando-as à gestualidade primitiva e, portanto, à inferioridade. Mais recentemente, autores passam a considerar a existência de uma língua somente a partir do momento que exista uma cultura a ela ligada, não delimitando os meios de transmissão utilizados, a extensão do vocabulário, o tipo de som emitido pelos ―falantes‖. Podemos afirmar, sob esse ponto de vista, que as Línguas de Sinais existiram desde que existe a língua oral humana, e sempre que existirem surdos reunidos por mais de duas gerações em comunidades (SACKS, 1990). Pelo fato de as Línguas de Sinais serem ―faladas‖, carentes de registros escritos, existe muita dificuldade de se localizarem as origens das mesmas. Por se tratarem também de comunidades pequenas e não reunidas geograficamente, o que se conhece até hoje sobre os surdos e suas Línguas de Sinais ainda é pouco. 2.2 Desenvolvimento da Língua de Sinais ao redor do mundo O primeiro livro conhecido em inglês que descreve a Língua de Sinais como um sistema complexo, na qual "homens que nascem surdos e mudos (...) podem argumentar e discutir retoricamente através de sinais", data de 1644, com autoria de J. Bulwer, Chirologia. Mesmo acreditando que a Língua de Sinais que conhecia era universal e seus elementos constitutivos "naturais" (icônicos, de certa forma), o fato de ter sido publicado um livro a respeito do assunto em uma época que eram raras as edições em geral já demonstra o interesse do tema, evidenciando uma preocupação com a educação dos surdos. Preocupação essa ratificada com a publicação, em 1648, do livro Philocophus, do mesmo autor, dedicado a dois surdos: o baronês Sir Edward Gostwick e seu irmão William Gostwick, no qual se afirma que o surdo pode expressar-se verdadeiramente por sinais se ele souber essa língua tanto quanto um ouvinte domine sua língua oral (WOLL,1987:12). Quase dois séculos depois, em 1809, Watson (que era neto de Thomas Braidwood, fundador da primeira escola para surdos na Inglaterra) descreve em seu livro ―Instruction of the deaf and dumb‖ um método combinado de sinais e desenvolvimento da fala. Em 1760, na França, o abade l'Epée (Charles Michel de l'Epée: 1712 -1789) iniciou o trabalho de instrução formal com duas surdas a partir da Língua de Sinais que se falava pelas ruas de Paris (datilologia/alfabeto manual e sinais criados) e obteve grande êxito, sendo que a partir dessa época a metodologia por ele desenvolvida tornou-se conhecida e respeitada, assumida pelo então Instituto de Surdos e Mudos (atual Instituto Nacional de Jovens Surdos), em Paris, como o caminho correto para a educação dos seus alunos. Thomas Hopkins Gallaudet, professor americano de surdos, visitou a instituição em 1815 com o objetivo de conhecer o trabalho lá realizado (antes ele tinha passado pela Inglaterra tentando aprender com os Braidwod acerca da metodologia oralista que eles desenvolviam, não obtendo aceitação, pois os profissionais negaram-se a ensinar em poucos meses o que sabiam). De tão impressionado que ficou, Gallaudet convidou um dos melhores alunos da escola, Laurence Clerc, a acompanhá-lo de volta aos Estados Unidos. Lá, em 1817, os dois fundaram a primeira escola permanente para surdos em Hartford, Connecticut. Ao lado de escolas que continuaram a desenvolver o método oralista, em 1821 todas as escolas públicas americanas passaram a se mover em direção à ASL (Língua de Sinais Americana) como sua língua de instrução, o que levou em 1835 a uma total aceitação da ASL na educação de surdos nos Estados Unidos. RAMOS (1992:65) relata que houve em consequência dessa atitude uma elevação do grau de escolarização das crianças surdas, que passaram a atingir o mercado profissional de nível mais alto, a maioria delas optando por se tornarem professores de surdos. Pesquisando sobre a educação de surdos em dezessete países (Austrália, Rússia, Alemanha, Holanda, França, Espanha, França, Espanha, Suíça, Itália, Dinamarca, Suécia, Itália, Dinamarca, Suécia, Argentina e Venezuela) RAMOS (1995) observou que esse movimento em direção à utilização das Línguas de Sinais na educação dos surdos passa a acontecer na maioria dos países e com as mesmas consequências. Surpreendentemente, em 1880, no famoso Congresso de Milão, que reuniu professores de surdos, as Línguas de Sinais passam a ser progressivamente banidas na educação de surdos, só sendo retomadas a partir da década de 1940 ou mais tarde. O que aconteceu para que ocorresse essa mudança radical de pensamento? Ainda não existem respostas claras, apenas indícios apontando para o desenvolvimento da tecnologia das próteses reabilitadoras gerando uma expectativa de superação da surdez, sobre lutas de poder entre os ―novos‖ professores surdos exigindo o afastamento dos professores ouvintes. O que temos aqui, realmente, é uma lacuna histórica a ser preenchida. 2.3 Surgimento e evolução da Língua Brasileira de Sinais - Libras É conhecida como o "início oficial" da educação dos surdos brasileiros a fundação, no Rio de Janeiro, do Instituto Nacional de Surdos-Mudos (INSM, atual Instituto Nacional de Educação de Surdos- INES), através da Lei 839, que D. Pedro II assinou em 26 de setembro de 1857. Porém, já em 1835, um deputado de nome Cornélio Ferreira apresentara à Assembleia um projeto de lei que criava o cargo de "professor de primeiras letras para o ensino de cegos e surdo-mudos" (REIS,1992:57). Projeto esse que não conseguiu ser aprovado. Reis relata que o professor Geraldo Cavalcanti de Albuquerque, discípulo do professor João Brasil Silvado (diretor do INSM em 1907), informou-lhe em entrevista que o interesse do imperador D. Pedro II em educação de surdos viria do fato de ser a princesa Isabel mãe de um filho surdo e casada com o Conde D‘Eu, parcialmente surdo. Sabe-se que, realmente, houve empenho especial por parte de D. Pedro II quanto à fundação de uma escola para surdos, mandando inclusive trazer para o país em 1855 um professor surdo francês, Ernest Huet, vindo do Instituto de SurdosMudos de Paris, para que o trabalho com os surdos estivesse atualizado com as novas metodologias educacionais. A Libras, em consequência, foi bastante influenciada pela Língua Francesa de Sinais. É de 1873 a publicação do mais importante documento encontrado até hoje sobre a Língua Brasileira de Sinais, o Iconographia dos Signaes dos Surdos-Mudos, de autoria do aluno surdo Flausino José da Gama, com ilustrações de sinais separados por categorias (animais, objetos, etc). Como é explicado no prefácio do livro, a inspiração para o trabalho veio de um livro publicado na França e que se encontrava à disposição dos alunos na Biblioteca do INSM. Vale ressaltar que Flausino foi autor das ilustrações e da própria impressão em técnica de litografia, técnica de gravura envolve a criação de marcas (ou desenhos) sobre uma matriz (pedra calcária) com o auxílio de um lápis gorduroso. Em 1911, seguindo os passos internacionais que, em 1880 no Congresso de Milão, proibira o uso da Língua de Sinais na educação de surdos, estabelece-se que o INSM passaria a adotar o método oralista puro em todas as disciplinas. Mesmo assim, muitos professores, funcionários surdos e os ex-alunos que sempre mantiveram o hábito de frequentar a escola propiciaram a formação de um foco de resistência e manutenção da Língua de Sinais. Somente em 1957, por iniciativa da diretora Ana Rímoli de Faria Doria e por influência da pedagoga Alpia Couto, finalmente a Língua de Sinais foi oficialmente proibida em sala de aula. Medidas como o impedimento do contato de alunos mais velhos com os novatos foram tomadas, mas nunca o êxito foi pleno e a LIBRAS sobreviveu durante esses anos dentro do atual INES. Em depoimento informal, uma professora que atuou naquela época de proibições (que durou, aliás, até a década de 1980) contou-nos que os sinais nunca desapareceram da escola, sendo feitos por debaixo da própria roupa das crianças ou embaixo das carteiras escolares ou ainda em espaços em que não havia fiscalização. É evidente, porém, que um tipo de proibição desses gera prejuízos irrecuperáveis para uma língua e para uma cultura. Pesquisar as origens da Libras é realmente uma tarefa a ser realizada, pois surpreende a todos aqueles que trabalham com a comunidade surda brasileira (tão espalhada pelo país) a homogeneidade linguística da mesma. Apesar dos "sotaques" regionais, observam-se apenas algumas variações lexicais que não comprometem em nenhum momento sua unidade estrutural. Em 1969, foi feita uma primeira tentativa no sentido de tentar registrar, de forma escrita, a Língua de Sinais falada no Brasil. Eugênio Oates, um missionário americano, publica um pequeno dicionário de sinais, Linguagem das mãos, que segundo FERREIRA BRITO (1993), apresenta um índice de aceitação por parte dos surdos de 50% dos sinais listados. A partir de 1970, quando a filosofia da Comunicação Total e, em seguida, do Bilinguismo, firmaram raízes na educação dos surdos brasileiros, atividades e pesquisas relativas à LIBRAS têm aumentado enormemente. Em 2001 foi lançado em São Paulo o Dicionário Enciclopédico Ilustrado de LIBRAS, em um projeto coordenado pelo Professor Doutor (Instituto de Psicologia/USP) Fernando Capovilla e em março de 2002 o Dicionário LIBRAS/Português em CD-ROM, trabalho realizado pelo INES/MEC e coordenado pela Professora Doutora Tanya Mara Felipe/UFPE/FENEIS. Desde então, o idioma só vem ganhando força. No Brasil, o DECRETO Nº 5.626, de 22 de dezembro de 2005, que regulamenta a Lei no 10.436, de 24 de abril de 2002 sobre a Língua Brasileira de Sinais - Libras, e o art. 18 da Lei no 10.098, de 19 de dezembro de 2000, prevê em seu Capítulo III: “DA INCLUSÃO DA LIBRAS COMO DISCIPLINA CURRICULAR Art. 3o A Libras deve ser inserida como disciplina curricular obrigatória nos cursos de formação de professores para o exercício do magistério, em nível médio e superior, e nos cursos de Fonoaudiologia, de instituições de ensino, públicas e privadas, do sistema federal de ensino e dos sistemas de ensino dos Estados, do Distrito Federal e dos Municípios. §1o Todos os cursos de licenciatura, nas diferentes áreas do conhecimento, o curso normal de nível médio, o curso normal superior, o curso de Pedagogia e o curso de Educação Especial são considerados cursos de formação de professores e profissionais da educação para o exercício do magistério. § 2o A Libras constituir-se-á em disciplina curricular optativa nos demais cursos de educação superior e na educação profissional, a partir de um ano da publicação deste Decreto.‖ Nacionalmente, a LIBRAS foi, recentemente, oficializada através da Lei n.º 4.857 / 2002, enquanto língua dos surdos brasileiros e segunda língua oficial do Brasil, o que, aliada à aceitação da Libras pelo MEC, irá tornar a educação e vida dos surdos cada vez mais fácil, além de incentivarem pesquisadores a desenvolverem iniciativas sobre o assunto. 2.4 Libras, uma Língua Natural ―A Libras, como toda Língua de Sinais, é uma língua de modalidade gestualvisual porque utiliza, como canal ou meio de comunicação, movimentos gestuais e expressões faciais que são percebidos pela visão; portanto, diferencia-se da Língua Portuguesa, que é uma língua de modalidade oral-auditiva por utilizar, como canal ou meio de comunicação, sons articulados que são percebidos pelos ouvidos. Mas, as diferenças não estão somente na utilização de canais diferentes, estão também nas estruturas gramaticais de cada língua‖ (Revista da FENEIS, número 2:16). Para que as Línguas de Sinais tenham chegado ao ponto de serem reconhecidas como línguas naturais, entendendo o conceito natural em oposição a código e linguagem, avaliaram-se, evidentemente, as semelhanças existentes entre as mesmas e as línguas orais. Uma dessas semelhanças, a existência de unidades mínimas formadoras de unidades complexas, pode ser observada em todas as Línguas de Sinais espalhadas pelo mundo, possuidoras dos níveis fonológico, morfológico, sintático, semântico e pragmático. A existência de registros diversos (por categoria profissional, status social, idade, nível escolar etc.), além de dialetos regionais, também referendam as semelhanças com as línguas orais. Como consequência, ANTUNES (2011) avalia que as Línguas de Sinais são conceituadas como sistemas linguísticos legítimos, capazes de proporcionar aos surdos o meio adequado para a realização de todas as suas potencialidades linguísticas, como expressar sentimentos, estados psicológicos, conceitos concretos e abstratos e processos de raciocínio. A sua forma de representação guarda especificidades que a diferencia do Português, mas possibilitam a expressão de qualquer conceito ou referência de dados da realidade. 2.5 Parâmetros das Línguas de Sinais Resumidamente, podemos afirmar que qualquer sinal nessa língua é formado a partir da combinação do movimento das mãos com um determinado formato em um determinado lugar, podendo este lugar ser uma parte do corpo ou um espaço em frente ao corpo. Estas articulações das mãos, que podem ser comparadas aos fonemas e às vezes aos morfemas, são chamadas de parâmetros. São cinco os parâmetros gerais da Língua de Sinais: Configuração de Mãos, Ponto de Articulação, Movimento, Orientação/Direcionalidade, Expressão Facial/Corporal. 2.5.1 Configuração de Mãos A Configuração de Mão é a forma assumida pela mão durante a articulação de um determinado sinal, ou seja, a disposição dos dedos na mão dominante ou nas duas mãos durante a realização do sinal. A configuração da mão pode ser a mesma durante a execução de um sinal, mas também pode variar para outra configuração, ou seja, existem sinais que são constituídos por mais de uma configuração de mão. Figura 2 – Configurações de Mãos da Libras A Libras dispõe de 56 configurações de mãos diferentes que variam de acordo com as posições, número de dedos abertos, curvados, flexionados ou fechados, contato e contração das mãos (Figura 2). 2.5.2 Ponto de Articulação Este parâmetro representa a região do corpo ou no espaço onde o sinal é realizado. Os sinais podem ser realizados em pontos do corpo, nas mãos ou no espaço. Os pontos de articulação no espaço compreendem os locais à frente do enunciador em que são realizados os sinais. Em determinadas situações o local exato no espaço não é relevante para definir o sinal que está sendo articulado, neste caso, este local é definido como espaço neutro. Figura 3 – Sinais da Libras com Diferentes Pontos de Articulação Os sinais TRABALHAR e BRINCAR são feitos no espaço neutro e os sinais ESQUECER e APRENDER são feitos na testa (Figura 3). 2.5.3 Movimento O parâmetro de movimento é definido como a ação das mãos no espaço em torno do enunciador. Os sinais podem ter movimento ou não. Figura 4 – Sinais da Libras Com e Sem Movimentos Os sinais RIR, CHORAR e CONHECER possuem movimentos e os sinais AJOELHAR, EM-PÉ e SENTAR não possuem (Figura 4). 2.5.4 Orientação/Direcionalidade A orientação é a direção para a qual a palma da mão aponta durante a execução de um sinal. A orientação da palma pode ser para cima, para baixo, para o corpo, para frente e para os lados (direita e esquerda). Figura 5 – Sinais da Libras com diversas direcionalidades Os sinais podem ter uma direção e a inversão desta pode significar ideia de oposição, contrário ou concordância número-pessoal, como os sinais IR e VIR (Figura 5). 2.5.5 Expressão Facial ou Não Manual Além dos parâmetros principais das línguas de sinais, existe ainda as expressões não manuais, que compreendem movimentos da face, olhos, cabeça e tronco. Muitos sinais, além dos quatro parâmetros mencionados, em sua configuração têm como traço diferenciador também a expressão facial. Assim, essas expressões são importantes, pois auxiliam na definição e na diferenciação do significado de determinados sinais. Por exemplo, as expressões faciais podem transmitir alegria, tristeza, raiva, entre outros. Além disso, existem situações em que o enunciador precisa realizar sinais disfarçados. Neste caso, os sinais são realizados apenas com a expressão facial, por exemplo, o sinal de ―relação sexual‖, que é feito somente com o movimento das bochechas, inflando e desinflando. Figura 6 – Sinais da Libras enfatizados com Expressões Faciais 2.6 Datilologia Para as pessoas que estão começando a aprender Libras, uma das primeiras coisas estudadas é o Alfabeto Manual ou Datilologia (Figura 7). Ele é produzido por diferentes configurações de mãos que representam as letras do alfabeto. Figura 7 – Alfabeto Manual ou Datilologia Como qualquer língua, a Libras evolui com o tempo, assim, é possível que num dado momento ainda não exista um sinal para o que se queira referenciar. Nesse caso a Datilologia é usada, por exemplo, para soletrar o nome de pessoas, lugares e outras palavras que ainda não possuem sinal (representação em Libras). Entretanto, as palavras soletradas são, muitas vezes, substituídas ao longo do tempo por sinais criados pelos surdos, ou seja, no momento em que o conceito de um sinal é entendido por seus interlocutores, substitui-se a datilologia da palavra. 2.7 Considerações Finais Neste capítulo foi feito uma breve viagem pela história da Língua de Sinais, discutindo as incertezas quanto a sua origem e destacando importantes marcos durante sua evolução. Foi visto que, mesmo enfrentando diversos problemas e preconceitos para sua adoção, tal língua ultrapassou barreiras históricas, sendo hoje considerada uma língua oficial em diversos países, o que fortalece a identidade da cultura Surda e gera interesse em pesquisas acadêmicas e iniciativas voltadas para acessibilidade. Como o interesse final do presente trabalho é desenvolver um modelo computacional que descreva, suporte e represente os itens léxicos da Língua Brasileira de Sinais, assim como as possíveis combinações entre eles, o capítulo foi finalizado com a discussão de cada parâmetro utilizado na execução de qualquer sinal. Dando continuidade ao conhecimento adquirido, o próximo capítulo abordará alguns Sistemas de Transcrição (ou sistemas de escrita) já desenvolvidos para a Língua de Sinais. Notar-se-á que cada Sistema desses, dependendo de sua finalidade, exibe os parâmetros da língua de forma diferente, enfatizando ou escondendo algum aspecto. Dentre estes, estarão os Sistemas de Escrita focados numa interpretação computacional. A ideia é avaliar os aspectos positivos e negativos de cada uma para, num momento posterior, descrever o modelo proposto por esse trabalho. Capítulo 3 Sistemas de Transcrição para Língua de Sinais Uma das atividades deste trabalho é propor um sistema de transcrição para a Língua de Sinais na forma escrita para, posteriormente, criar um programa de computador que o interprete e seja capaz de realizar a sinalização automaticamente, através do avatar 3D. Portanto, é oportuno analisar os principais sistemas já propostos, enumerando seus pontos fortes e restrições para serem adaptados numa versão computável. 3.1 Introdução A Língua de Sinais é considerada a primeira língua da comunidade Surda, logo, seus membros são educados e induzidos a pensar, raciocinar e se comunicar através deste idioma. Porém, no Brasil, a Libras possui diferenças sintáticas, semânticas e gramaticais em relação à Língua Portuguesa, consequentemente, um Surdo não consegue compreender adequadamente um texto escrito em português. Nota-se, aqui, um problema, pois todos os meios de comunicação (jornais, livros, sites, artigos, etc) registram seus conhecimentos através do português escrito. E a mesma situação é observada em outros países, com seus respectivos idiomas locais. Para o problema acima, duas soluções poderiam ser propostas. A primeira seria alfabetizar os surdos em português. Defendida por uns, mas combatida por diversos grupos ideológicos, acreditando que a cultura e identidade Surda somente será valorizada com a efetiva adoção e prática da Libras. A segunda solução, então, seria a criação de um Sistema de Escrita (Sistema de Transcrição) padronizado para a Língua de Sinais, onde seriam abordados todos seus aspectos e nuances. Assim, a comunidade Surda usaria tal modelo para registrar e adquirir conhecimentos na forma escrita. Baseado nessa última opção é que, desde meados de 1950, pesquisadores propuseram diversos modelos de transcrição para a Língua de Sinais, cada uma com seu propósito, com o intuito de fornecer ferramentas para os surdos registrarem seus conhecimentos. (AMARAL, 2012). Segundo MILLER (1994), a criação de um sistema de transcrição para Língua de Sinais é um desafio, principalmente pelo seu caráter gestual-visual, possuindo parâmetros espaciais que podem agir de forma simultânea, o que torna a escrita complexa e, às vezes, icônicas. Tal característica se opõe a língua falada, que por ser linear facilita a criação do modelo escrito. Como citado no Capítulo 1 (seção Objetivos), uma das atividades deste trabalho é propor um sistema de transcrição para a Língua Brasileira de Sinais na forma escrita (XML) com o objetivo de criar um programa de computador que o interprete e seja capaz de realizar a sinalização automaticamente, através do avatar 3D. Portanto, é oportuno analisar os principais sistemas já propostos, enumerando seus pontos fracos e fortes. 3.2 Notação de Stokoe Em 1960, Stokoe propôs um sistema de transcrição para a ASL (Língua de Sinais Americana), sendo considerado um dos precursores na área (Stokoe, 1960). Um dos seus objetivos era demonstrar que os sinais da ASL, assim como os das demais línguas de sinais, não eram mímicas ou gestos soltos, mas sim expressões formadas por itens lexicais passíveis de decomposições em unidades menores (AMARAL, 2012). Stokoe definiu a existência de três unidades que, combinadas, seriam suficientes para expressar qualquer sinal da língua, assim como os fonemas da língua falada (LIDDELL & JOHNSON, 1989). Para cada unidade foi dado o nome de querema, são elas: 1. Configuração de mão: forma assumida pela mão durante a articulação de um determinado sinal. 2. Localização: a região do corpo ou no espaço onde o sinal é realizado. 3. Movimento: deslocamento das mãos no espaço em torno do enunciador. Figura 8 - Notação utilizada por Stokoe para representação de algumas configurações de mão da ASL O sistema proposto teve sua importância no registro e estudo das línguas de sinais. Porém, AMARAL discute que tal modelo não é apropriado para ser usado como uma descrição computacional, com o objetivo de gerar agentes sinalizadores virtuais (avatares). O primeiro motivo é que a notação de Stokoe tem uma característica sequencial, não abordando os aspectos de simultaneidade observados na língua de sinais. De fato, a maioria dos sinais da língua são expressos através da combinação de queremas de forma simultânea, não sequencial. Outro fator é que o modelo trabalha com um número finito de configurações de mão. Pelo fato da língua de sinais ser dinâmica, se uma nova configuração de mão surgir com o tempo, a solução seria usar uma configuração mais parecida já presente no modelo, o que é algo indesejado. Por fim, Stokoe não apresenta em seu modelo as expressões faciais, indispensáveis para a representação de diversos sinais, além de enfatizar emoções, podendo mudar completamente o sentido da oração. Para exemplificar a não adequação deste modelo para fins computacionais, Amaral analisa o sinal CASA, escrito na notação de Stokoe. Figura 9 - Sinal CASA (ASL): Mãos em configuração de B, pontas dos dedos das duas mãos se tocam. Mãos movem-se separadamente, de maneira espelhada, afastando-se uma da outra com um movimento para baixo e na diagonal. Depois de um tempo, as mãos continuam a descer, mas num movimento reto, não mais na diagonal. O movimento realizado lembra o contorno do telhado e das paredes de uma casa. (AMARAL, 2012) Figura 10 - Sinal CASA escrito no sistema de transcrição Stokoe A letra B aparece duas vezes, indicando que se deve usar a ‗configuração de mão‘ desta letra nas duas mãos (mãos abertas, como foi visto na datilologia). O sinal ^ indica que as mãos apontam para cima. A setinha apontada para cima indica que os dedos se tocam. O sinal de ÷ indica que as mãos movem-se separadamente e o sinal de v indica que esse movimento é para baixo. No entanto, como observado por Amaral, ―a notação não descreve que o movimento para baixo primeiro é na diagonal e depois é reto. Não é descrito também como ocorre o contato entre as duas mãos, qual parte dos dedos toca qual parte da outra mão, por exemplo. Outra característica da notação de Stokoe é a descrição apenas de sinais isolados sem a opção de contextualização de sinais para criar conteúdo‖. O sistema de Stokoe foi a primeira notação que representou os componentes fonológicos da Língua de Sinais Americana por meio de símbolos. A partir daí, outros países a estenderam e adaptaram à sua realidade, como foi o caso da Suécia, Holanda, Itália, Inglaterra, entre outros (FRIEDMAN, 2011). Em uma dessas adaptações surgiu o Sistema HamNoSys, que será descrito a seguir. 3.3 HamNoSys Acrônimo de Hamburg Sign Language Notation System, o HamNoSys foi desenvolvido na Alemanha com o objetivo de ser um sistema de transcrição universal, usado para descrever qualquer língua de sinais. Foi derivado da Notação de Stokoe e possui cerca de duzentos símbolos (PRILLWITZ, 1989), cada um sendo representado pelos parâmetros configuração de mão, localização e movimento em forma sequencial. Uma das novidades desse modelo é a introdução das expressões não manuais, sendo usada por diversos pesquisadores até hoje. Figura 11 - Exemplos de Configurações de Mãos do Sistema HamNoSys Figura 22 - Exemplos de Expressões Não Manuais do Sistema HamNoSys. Configurações da boca, lábios e língua Figura 33 - Estrutura de um sinal expresso em HamNoSys O HamNoSys serviu de inspiração para criação de sistemas de transcrições computáveis, como o SiGML (Signing Gesture Markup Language). Tal linguagem de marcação é baseada em XML e adaptou o HamNoSys com o objetivo de transcrever a língua de sinais num formato entendível por uma máquina (ELLIOTT, 2001). O SiGML serviu de base para o desenvolvimento do projeto eSign. Basicamente, a solução consiste no desenvolvimento de um plugin para browsers com o intuito de gerar um avatar que gesticulará tudo que estiver ali escrito. Figura 14 - Descrição do sinal GOING-TO em SiGML (ANTUNES, 2011) Assim como a notação de Stokoe, o sistema HamNoSys possui suas limitações para ser usada como um modelo de transcrição computacional. A primeira é em relação ao caráter sequencial em que os sinais são descritos, criando muitas vezes interpretações ambíguas quanto a simultaneidade das sinalização. Outro problema é que o modelo não aborda a contextualização, composição e simetria dos sinais. Sobre a criação do SiGML, o próprio criador da linguagem revelou que o HamNoSys teve que sofrer modificações para sua adaptação como um modelo computacional (KENNAWAY, 2004). E, mesmo assim, o SiGML ainda é falho em relação a alguns aspectos, como na especificação da velocidade de execução dos sinais, limitando-se a devagar, rápido e velocidade média. Além disso, ele não permite alterar a velocidade no mesmo sinal. Porém, como se sabe, o mesmo sinal pode começar com uma velocidade e terminar com outra (AMARAL, 2012). 3.4 SignWriting O SignWriting foi criado em 1974 por Valerie Sutton. Inicialmente, ela criou um sistema de transcrição que tinha como objetivo descrever os movimentos obervados na dança, batizando-o de DanceWriting. O estudo despertou a curiosidade dos pesquisadores da língua de sinais dinamarquesa que estavam procurando uma forma de escrever os sinais. Dessa forma, o DanceWriting foi sendo adaptado para o SingWriting (QUADROS, 2007). O SignWriting é uma notação para a escrita visual das línguas de sinais e, assim como a HamNoSys, é universal. CAPOVILLA & RAPHAEL (2001) destaca a importância desta notação, sendo uma ferramenta essencial para que os surdos e estudantes de Libras obtenham o conhecimento da língua, observando todas as unidades necessárias para a realização dos sinais. Parâmetros como configuração de mão, localização, movimento, orientação e expressões faciais podem ser visualizadas facilmente com o SignWriting (ANTUNES, 2011). Figura 15 - Texto escrito em SignWriting Para AMARAL (2012), um grande diferencial do SignWriting é a descrição da dinâmica dos movimentos. Segundo ela, "símbolos de dinâmica podem ser adicionados aos símbolos de movimento ou de expressões faciais para representar simultaneidade, como por exemplo quando ambas as mãos movem-se ao mesmo tempo, em movimentos alternados, rápidos, suaves, tensos ou relaxado". Com o objetivo de se criar uma descrição computacional do SignWriting, YOSRA & MOHAMED (2013) desenvolveram o SWML (SignWriting Makup Language). Seu trabalho tinha como objetivo reusar a notação a fim de gerar agentes sinalizadores virtuais da língua de sinais. Figura 16 - Sinal "SAUDAÇÃO" escrito em SWML Porém, segundo seu próprio criador, existem alguns inconvenientes no SWML que dificultam sua interpretação correta pelo avatar. Primeiro, na linguagem não há nenhuma definição formal de ordem temporal em que os símbolos devem ser escritos. Segundo, o formato SWML codifica apenas os "ícones" originais do SignWriting, fazendo com que uma certa quantidade de informação será omitida. Por exemplo, o SignWriting não descreve o parâmetro localização de forma exata. Esses motivos possibilitam a existência de interpretações ambíguas. E, por fim, a velocidade em que os sinais são executados é omitida do modelo. 3.5 Modelo de Liddell & Johnson Os modelos de transcrição estudados até aqui, por não terem sido criados com o propósito de serem interpretados por uma máquina, mas sim como uma maneira de registrar conhecimentos em língua de sinais, escondem alguns detalhes que geram ambiguidades em suas interpretações. Como foi discutido nas seções anteriores, um dos problemas encontrados ao ler "textos" escritos nas notações apresentadas é que não é óbvio inferir quando ocorrem aspectos de simultaneidade ou sequencialidade na execução de um sinal. Por exemplo, se as duas mãos levantam ao mesmo tempo ou em sequência (uma depois a outra). Se um sinal é executado com certos movimentos das mãos e dedos em paralelo ou se move as mãos pra depois mexer os dedos, entre outros. São detalhes pequenos, observados em grandes números de sinais. Baseado nisso, LIDDELL & JOHNSON (1989) estudaram a estrutura das línguas de sinais e criaram uma representação bem mais abrangente e completa, sendo utilizada por inúmeros linguistas da atualidade (AMARAL, 2012). Durante suas observações, LIDDELL (1984) verificou que na execução dos sinais há momentos em que as mãos ficam em movimento contínuo e há outros em que elas ficam estacionadas. Baseado nisso, o modelo proposto por LIDDELL & JOHNSON (1989) define que qualquer sinal da língua sinalizada é formado por segmentos. Os segmentos definidos pela ausência de movimento e estabilidade de seus aspectos formacionais (ou seja, de sua configuração de mão, localização e orientação) são denominados suspensões (holds). Já os segmentos caracterizados pela presença de movimento e pela alteração de pelo menos um dos aspectos que os descrevem são designados como movimentos (movements) (DIGIAMPIETRI et al., 2012). Cada um desses dois segmentos possui ainda uma estrutura interna, consistindo de feixes segmentais e articulatórios. O feixe segmental tem como função especificar o tipo de segmento, ou seja, se é uma suspensão ou movimento. Se for movimento, dever-se-á ainda descrever como se dá o movimento (linear, curvo, circular, entre outros). Já o feixe articulatório tem como função especificar os parâmetros do sinal (configuração de mão, localização, orientação, expressão não manual). A figura abaixo (Figura 17) apresenta os conceitos abordados até aqui. Como citado, cada sinal da língua de sinais pode ser representado por um segmento ou uma sequência deles. Figura 17 – Segmento de Suspensão (a) e Segmento de Movimento (b) do Modelo de Liddell & Johnson Nota-se que no segmento de suspensão (Figura 17 - a), onde há ausência de movimento, só é necessário especificar o feixe segmental como sendo suspensão e o feixe articulatório com os parâmetros do sinal. Já no segmento de movimento (Figura 17 - b), em que há dinamicidade e pelo menos um parâmetro de sinalização modificado, é necessário especificar o feixe segmental como sendo movimento e, além disso, eles requerem dois feixes articulatórios (um inicial e outro final), através dos quais são especificadas as mudanças articulatórias ocorridas durante a sua execução. Porém, LIDDELL & JOHNSON observaram que segmentos de movimento realizados entre duas suspensões têm suas características articulatórias iniciais e finais idênticas às especificadas nas suspensões que os antecedem e os sucedem, respectivamente. Por esse motivo, é eliminada a representação de tal redundância, como mostra a figura abaixo (Figura 18). Figura 18 – Eliminação das redundâncias dos segmentos de suspensão e movimento (DIGIAMPIETRI, 2012). Numa visão macro, o segmento de movimento fará uma interpolação entre os parâmetros especificados nos segmentos de suspensão que o antecedem e sucedem. Para exemplificar, imaginemos que, como na ―Figura 18 (b)‖, é apresentado um sinal destrinchado em três segmentos, dois de suspensão e um de movimento entre eles. Vamos supor que: O primeiro segmento de suspensão foi especificado como: configuração de mão: letra A localização: Peito Esquerdo orientação: palma da mão virada pro corpo O segundo segmento de suspensão foi especificado como: configuração de mão: letra C localização: centro da testa orientação: palma da mão virada pra baixo Por fim, o segmento de movimento foi especificado como: movimento em arco, com curva pra esquerda Nesse caso, a execução do sinal será feita da seguinte forma: a mão fará a trajetória de um arco, partindo do peito esquerdo e indo até o centro da testa. Durante este percurso, a configuração de mão vai mudando da letra A (mão aberta) para a letra C (mão fechada), além de também ir mudado a orientação da palma. Observa-se que o modelo proposto aborda questões de simultaneidade e a sequencialidade. Enquanto a simultaneidade é o princípio organizador da estrutura de cada segmento, a sequencialidade é o princípio organizador da estrutura interna de cada sinal, uma vez que este pode ser constituído por um ou mais segmentos. Embora não discutido nesta seção, o sistema de transcrição de Liddell & Johnson ainda possui matrizes que descrevem aspectos não manuais da língua de sinais (XAVIER, 2006). 3.6 Considerações Finais Como o presente trabalho visa propor um modelo de descrição computacional da Língua Brasileira de Sinais, este capítulo teve como objetivo analisar os principais sistemas de transcrição já desenvolvidos, discutindo seus pontos fortes e, principalmente, suas restrições para serem adaptados numa versão computável. Tais restrições existem porque, no início, a criação dessas notações tinha um só objetivo: ser uma ferramenta para que os Surdos pudessem registrar e adquirir conhecimentos na forma escrita. Dessa forma, elas muitas vezes representam os itens lexicais de forma icônica e escondem detalhes que geram ambiguidades de interpretação, como aspectos de localização e simultaneidade/sequencialidade (MILLER, 1994). Mas, com o avanço nas iniciativas de acessibilidade através da tecnologia, vários estudos foram feitos com o intuito de adaptar tais modelos para que pudessem ser interpretados por agentes sinalizadores virtuais. Entre todos os sistemas vistos, o proposto por Liddell & Johnson é o que melhor se adapta a uma versão computável, pois descreve de forma mais sistematizada as unidades lexicais da língua de sinais, abordando, entre outros, aspectos de sequencialidade e simultaneidade na execução dos sinais. Tal modelo vem sendo usado em projetos que visam transcrever computacionalmente a língua de sinais e servirá de base para o sistema proposto neste trabalho. Capítulo 4 Solução Proposta Este capítulo terá como objetivo enumerar todos os requisitos necessários para que seja criado um sistema de transcrição computacional da Língua Brasileira de Sinais. Em seguida, baseado nessas características, será apresentado em detalhes o modelo proposto por esse trabalho. 4.1Requisitos para a criação um Sistema de Transcrição Computável da Língua de Sinais Para que um sistema de transcrição da língua de sinais seja considerado adequado o suficiente para ser interpretado por uma máquina, gerando como output um agente sinalizador virtual, o mesmo deve dar suporte a certas características consideradas essenciais para execução de qualquer sinal. AMARAL (2012) enumera tais características como sendo: 1. Configuração de mão 2. Pontos de localização no espaço tridimensional 3. Velocidade de movimento 4. Repetição de movimento 5. Expressões não manuais 6. Simultaneidade e sequencialidade de ações 7. Contextualização e parametrização de sinais 8. Dinâmica das mãos no movimento 9. Notação textual Os cinco primeiros itens não serão discutidos aqui, pois suas definições e importâncias já foram detalhadas nos capítulos anteriores. Segundo MILLER (1994), durante a execução de um dado sinal alguns parâmetros devem ser descritos como ocorrendo de forma simultânea enquanto outros como sequenciais. Não deixando explícitos os momentos em que ocorrem os chaveamentos entre simultaneidade/sequencialidade enfraquece o modelo, dando margens a ambiguidade de interpretação. Outro fator a ser considerado é a contextualização de sinais. Assim como na língua portuguesa, em que alguma palavra pode mudar seu sentido e/ou escrita dependendo do contexto da oração, também ocorre na língua de sinais. Dependendo do âmbito em que esteja inserido, o sinal pode sofrer alterações nos seus parâmetros de formação, ocorrendo, por exemplo, nas flexões de palavras. Já a dinâmica das mãos indica a relação entre elas durante a execução do sinal. As mãos podem se movimentar de forma simétrica (espelhada), alternada e até juntas. Abordar tal conceito no sistema de transcrição favorece também na produtividade durante a tarefa de criação de sinais, pois o usuário poderá especificar somente os parâmetros de uma mão, pois a outra irá se mover de acordo com a dinâmica atribuída (espelhada, alternada...). Por fim, adotar uma notação textual para o sistema de transcrição é indispensável para viabilizar a interpretação por um computador. Como visto no capítulo anterior, os principais modelos descreviam os sinais de forma icônica ao invés de textual, dessa forma a importação dos sinais para serem interpretados por uma aplicação computacional era dificultada, precisando de uma adaptação. Para AMARAL (2012), ―com tais características é possível traçar um perfil desejável de um sistema de transcrição para que o mesmo seja implementado com sucesso em um sinalizador virtual das línguas de sinais‖. 4.2 Sistema de Transcrição Proposto Tomando como base as nove características essenciais listadas na seção anterior, será proposto aqui um sistema de transcrição da Língua Brasileira de Sinais passível de ser interpretado por um computador. Como já visto no capítulo 3, dentre as notações estudadas, o modelo de LIDDELL & JOHNSON (1989) é o mais completo e que representa de forma mais sistematizada as unidades léxicas da língua de sinais. No entanto, embora o mesmo dê suporte a diversos aspectos essenciais da língua, ainda é bem genérico e diagramático, sendo necessária sua adaptação para que sirva de entrada para uma máquina. Por isso, uma das atividades do presente trabalho é justamente promover tal adaptação. E como se dará o processo? De um modo mais amplo, será examinada cada uma das nove características citadas na seção anterior, analisando a forma como o modelo de Liddell & Johnson as trata e, por seguinte, adaptando-as para uma descrição computacional proposta por este trabalho. Começar-se-á pela característica ―notação textual‖, que será usada como padrão para descrever as outras oito restantes. Para um melhor entendimento do que vem a seguir, é recomendando a leitura da seção 3.5, onde é descrito o modelo de Liddell & Johnson. Seguem as decisões de projeto tomadas para a criação do sistema de transcrição proposto. 4.2.1 Notação Textual Adotada Como o sistema de Liddell & Johnson descreve os sinais através de imagens e diagramas (Figura 18), sua interpretação por uma máquina é dificultada. Deve-se, portanto, desenvolver uma notação textual que traduza os detalhes desse modelo. Como em outros projetos já desenvolvidos com essa finalidade (Figura 16), a notação textual adotada será baseada no padrão XML (formato de arquivo para dados semiestruturados), que dará suporte à representação dos itens léxicos de qualquer sinal em Libras, assim como as possíveis combinações entre eles. Ao final, cada palavra da língua portuguesa estará associada a um arquivo XML desses, contendo sua representação em Libras. <?xml version="1.0"?> <Sign> <Word>OLÁ</Word> <!-- A partir daqui será descrito, em xml, como se dá a execução do sinal OLÁ --> </Sign> O XML acima mostra o esqueleto inicial do sistema proposto. Primeiramente é colocada a tag <XML version=”1.0” ?>, indicando que se trata de um arquivo escrito nesse formato. Logo após vem o elemento <Sign>, responsável por encapsular toda a estrutura do sinal. O elemento <Word> é o primeiro elemento dentro de <Sign> e diz qual palavra será representada em Libras, nesse caso ―OLÁ‖. Depois disso é descrito os detalhes do sinal em questão, esclarecidos nas próximas seções. 4.2.2 Atribuição das Configurações de mão A Configuração de Mão é a forma assumida pela mão durante a articulação de um determinado sinal. Conforme observado na Figura 2, a Libras dispõe de 56 configurações de mãos diferentes. Para uma melhor identificação e simplicidade, cada configuração de mão será mapeada em um código único, indicando qual a disposição dos dedos na mão dominante ou nas duas mãos durante a realização do sinal. <H handShape="c56" ... /> O XML proposto contém o elemento <H> ou <Hand>, que contém informações sobre as mãos num dado instante de tempo. Um dos seus atributos é o handShape, usado para especificar a configuração de mão. Para o sinal ―OLÁ‖, seu valor será ―c56‖, representando a configuração de mão ―mão aberta‖. 4.2.3 Atribuição da Localização e Orientação Enquanto o parâmetro localização representa a região do corpo ou no espaço onde o sinal é realizado, a orientação informa a direção para a qual a palma da mão aponta durante a execução de um sinal. Assim como a configuração de mão, ambos são especificados no elemento <H>. <H handShape="c56" handPosition="63, 38, 08" handRotation="540, -645, 233" elbowPosition="130, 423, 121" /> Os atributos handPosition e handRotation especificam a localização da mão e sua orientação no espaço tridimensional num determinado instante de tempo, respectivamente. Adicionalmente, como o sinal será executado por um avatar, é necessário descrever a posição do cotovelo, através do atributo elbowPosition. 4.2.4 Atribuição das Expressões Não Manuais Expressões não manuais compreendem movimentos da face, olhos, cabeça e tronco. Muitos sinais, em sua configuração, as têm como traço diferenciador, auxiliando na definição do significado e atribuindo emoções ao mesmo. <M eye="0.000, -0.026" mouth="0.39744"> <Morph key="boca sorriso value="1.00" /><Morph key="sobrancelhas levantadas" value="0.47" /></M> aberto" Expressões não manuais, num dado instante de tempo, são especificadas através dos elementos <M> e <Morph>. Dentro de <M> temos os atributos eye e mouth que indicam, respectivamente, a posição da íris e a distância entre os dentes da arcada superior e inferior (observado a olho nu somente quando a boca estiver aberta). Já no elemento <Morph> são especificadas outras expressões faciais, como as de humor (alegria, raiva, dúvida, surpresa), níveis de sorriso, disposição das sobrancelhas, aparência da boca, bochecha inflada, entre outros. Este elemento apresenta os atributos key (representando a expressão) e value (indicando o nível da expressão, por exemplo, o quão levantado estarão as sobrancelhas). 4.2.5 Abordagem para Simultaneidade, Sequencialidade e Movimento Até agora foi visto como nossa linguagem recém-criada representa os parâmetros de forma isolada e num dado instante de tempo. Mas, a execução dos sinais só fará sentido quando unirmos suas unidades formadoras (parâmetros) e definirmos o momento em que cada uma será executada. Exatamente como observado no sistema de Liddell & Johnson, o XML proposto especifica que cada sinal da língua de sinais é formado por um segmento ou uma sequência deles, suportando, assim, questões de simultaneidade e sequencialidade. Enquanto a simultaneidade será o princípio organizador da estrutura de cada segmento, a sequencialidade será o princípio organizador da estrutura interna de cada sinal. <?xml version="1.0"?> <Sign> <Word>OLÁ</Word> <SignSegments> <!—Abaixo estão os três segmentos formadores do sinal ‘OLÁ’ --> <H handShape="..." handPosition="..." handRotation="..." elbowPosition="..." startTime="..." duration="..." interpolation="..." /> <H handShape="..." handPosition="..." handRotation="..." elbowPosition="..." startTime="..." duration="..." interpolation="..." /> <H handShape="..." handPosition="..." handRotation="..." elbowPosition="..." startTime="..." duration="..."/> </SignSegments> </Sign> O XML acima mostra como o sistema proposto adapta os conceitos de simultaneidade e sequencialidade. Dando continuidade à descrição do sinal ―OLÁ‖, foi adicionado o elemento <SignSegments>, responsável por agrupar os segmentos formadores do sinal. Para esse caso, foram colocados três segmentos, todos representando informações relativas à mão (elemento <H>). Basicamente, cada segmento desses representa a disposição de uma das mãos num dado momento. Para o sinal ―OLÁ‖, através dos atributos handPosition, handRotation e elbowPosition, o primeiro segmento indica que a mão se posicionará no centro, o segundo indica que a mão sofrerá uma leve rotação se posicionará um pouco mais à esquerda e, por fim, o terceiro indica que a mão sofrerá uma rotação no sentido contrário e se posicionará um pouco mais à direita. Será similar ao movimento executado pelas mãos quando damos um ―tchau‖. Para esse caso, todos os três segmentos especificarão o mesmo valor para o atributo handShape, indicando ―mão aberta‖. São apresentados mais atributos do elemento <H>. O startTime indica qual o momento (em segundos) em que o avatar configurará sua mão com os valores indicados pelos demais atributos. Toda animação começa com o segundo zero. O atributo duration indica a duração, também em segundos, em que o avatar ficará parado naquela configuração indicada pelos demais atributos. Por fim, o interpolation especificará como será o movimento de um elemento para outro (nesse exemplo, entre os elementos <H>), podendo ser reto ou curvilíneo, exatamente uma adaptação dos Segmentos de Movimento do modelo de Liddell & Johnson. Quando o interpretador for acionado, surgirá um avatar executando o sinal ―OLÁ‖, realizando movimentos de interpolação entre os três segmentos escritos. 4.2.6 Organizando o XML Para a criação de um sinal simples, sem expressão facial ou contendo movimentos de uma só mão, o XML pode até ficar limpo e legível. Porém, à medida que detalhes são atribuídos ao sinal, a fim de exibir mais realidade e preciosismo nos movimentos, o XML pode ficar muito extenso, necessitando de uma organização para promover uma melhor legibilidade. Isso é de suma importância, pois tal linguagem será usada pelos usuários no cadastro de sinais e, sem organização, sua manutenção será dificultada. Assim, a proposta é categorizar e agrupar os segmentos de acordo com a parte do corpo que os executam. <?xml version="1.0"?> <Sign> <Word>BANCO</Word> <SignSegments target="right"> <H handShape="c52" handPosition="" handRotation="" elbowPosition="" startTime="" duration="" interpolation="" /> <H handShape="c52" handPosition="" handRotation="" elbowPosition="" startTime="" duration="" interpolation="" /> </SignSegments> <SignSegments target="left"> <H handShape="c52" handPosition="" handRotation="" elbowPosition="" startTime="" duration="" interpolation="" /> </SignSegments> <SignSegments target="face"> <M startTime="" duration="" eye="" mouth="" interpolation=""><Morph key="" value="" /></M> <M startTime="" duration="" eye="" mouth="" interpolation=""><Morph key="" value="" /></M> </SignSegments> <SignSegments target="neck"> <R startTime="" duration="" rotation="" interpolation="" /> <R startTime="" duration="" rotation="" interpolation="" /> </SignSegments> <SignSegments target="torso"> <R startTime="" duration="" rotation="" interpolation="" /> </SignSegments> </Sign> Nota-se que agora os segmentos estão agrupados. Foi adicionado o atributo target no elemento <SignSegments>, indicando o órgão que irá realizar os movimentos. Quando seu valor for right, os segmentos nele contidos (<H>) indicam especificações na mão direta. Analogamente, left conterá segmentos (<H>) especificando detalhes na mão esquerda. Face, como o próprio nome diz, agrupará os segmentos (<M>) que expressam movimentos na face (boca, bochecha, sobrancelha, olhos). Neck agrupará os segmentos (<R>) que indicam movimentos do pescoço e, por fim, torso as especificações do tronco (<R>). Uma questão importante é que, a partir de agora, os segmentos subsequentes não seguem uma ordem temporal, ou seja, não serão necessariamente executados em sequencia pelo interpretador. Para saber a ordem em que os segmentos serão executados, o interpretador criará uma timeline se baseando no atributo startTime, obrigatório em qualquer segmento. 4.2.7 O Sinal OLÁ descrito no XML proposto Para finalizar de forma mais didática, analisaremos aqui como o sistema de transcrição proposto pode ser usado para representar o sinal ―OLÁ‖, por completo. <?xml version="1.0"?> <Sign> <Word>OLÁ</Word> <SignSegments target="right"> <H handShape="c56" handPosition="0.063, 0.538, 0.5401, -0.6453, -0.2337" elbowPosition="0.1300, duration="0.00" interpolation="easeinout" /> <H handShape="c56" handPosition="0.053, 0.538, 0.2881, -0.4893, -0.4812" elbowPosition="0.1269, duration="0.00" interpolation="easeinout" /> <H handShape="c56" handPosition="0.073, 0.538, 0.2881, -0.4893, -0.4812" elbowPosition="0.1269, duration="0.20" interpolation="easeinout" /> 0.108" handRotation="0.4872, 0.4223, 0.0771" startTime="0.00" 0.108" handRotation="0.6678, 0.4198, 0.0771" startTime="0.50" 0.108" handRotation="0.6678, 0.4198, 0.0771" startTime="1.00" </SignSegments> <SignSegments target="left"> <N startTime="0.00" duration="0.00" interpolation="easeinout" /> </SignSegments> <SignSegments target="face"> <M startTime="0.00" duration="0.00" eye="0.000, -0.103" mouth="0.46154" interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.16" /><Morph key="sobrancelhas levantadas" value="0.65" /></M> <M startTime="0.50" duration="0.20" eye="0.000, -0.103" mouth="0.46154" interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.66" /><Morph key="sobrancelhas levantadas" value="0.85" /></M> </SignSegments> <SignSegments target="neck"> <N startTime="0.00" duration="0.00" interpolation="easeinout" /> <R startTime="0.60" duration="0.20" rotation="-0.5236, 0.4753, 0.5088, 0.4910" interpolation="easeinout" /> </SignSegments> <SignSegments target="torso"> <N startTime="0.00" duration="0.00" interpolation="easeinout" /> <R startTime="0.90" duration="0.00" rotation="-0.4716, 0.5269, 0.4876, -0.5121" interpolation="easeinout" /> </SignSegments> </Sign> Vamos detalhar a dinâmica ocorrida em cada parte do corpo, agrupados pelos elementos <SignSegments>. a) Mão direita <SignSegments target="right"> <H handShape="c56" handPosition="0.063, 0.538, 0.108" handRotation="0.4872, 0.5401, -0.6453, -0.2337" elbowPosition="0.1300, 0.4223, 0.0771" startTime="0.00" duration="0.00" interpolation="easeinout" /> <H handShape="c56" handPosition="0.053, 0.538, 0.108" handRotation="0.6678, 0.2881, -0.4893, -0.4812" elbowPosition="0.1269, 0.4198, 0.0771" startTime="0.50" duration="0.00" interpolation="easeinout" /> <H handShape="c56" handPosition="0.073, 0.538, 0.108" handRotation="0.6678, 0.2881, -0.4893, -0.4812" elbowPosition="0.1269, 0.4198, 0.0771" startTime="1.00" duration="0.20" interpolation="easeinout" /> </SignSegments> Dentro de <SignSegments target=”right”> estão os segmentos que representam as disposições da mão direita ao longo da execução do sinal. Como já visto na seção 4.2.5, nesse sinal temos três segmentos, representados pelos elementos <H>. Ao observar os atributos handPosition e handRotation dos três elementos, nota-se que incialmente a mão se posicionará no centro, depois sofrerá uma leve rotação e se posicionará um pouco mais à esquerda e, por fim, sofrerá uma rotação no sentido contrário e se posicionará um pouco mais à direita, como se tivesse dando um ―tchau‖. Os atributos startTime, além de especificar o momento exato em que cada segmento é realizado, também revelam a velocidade com que o movimento é feito, nesse caso 0,5 segundos pra mão chegar no lado esquerdo e mais 0,5 segundos pra chegar no lado direito. E, por fim, a configuração de mão usada será sempre o ―c56‖ (handShape), indicando ―mão aberta‖. b) Mão esquerda <SignSegments target="left"> <N startTime="0.00" duration="0.00" interpolation="easeinout" /> </SignSegments> Como no sinal ―OLÁ‖ a mão esquerda fica em repouso, não há maiores detalhes em sua descrição. Mas, caso tivesse, poderíamos especificar seus elementos e atributos da mesma forma que fizemos com a mão direita. c) Face <SignSegments target="face"> <M startTime="0.00" duration="0.00" eye="0.000, -0.103" mouth="0.46154" interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.16" /><Morph key="sobrancelhas levantadas" value="0.65" /></M> <M startTime="0.50" duration="0.20" eye="0.000, -0.103" mouth="0.46154" interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.66" /><Morph key="sobrancelhas levantadas" value="0.85" /></M> </SignSegments> Durante a execução do sinal ―OLÁ‖, gostaríamos que o avatar demonstrasse alegria, logo, foram inseridos dois segmentos <M>. O objetivo é que o avatar vá intensificando seu sorriso e, paralelamente, vá levantando a sobrancelha. Assim, o primeiro segmento <M>, que indica a expressão facial inicial do avatar (startTime=‖0.00‖), contém o elemento <Morph> especificando um ―boca sorriso aberto‖ e ―sobrancelhas levantadas‖, cada um com seus respectivos valores, 0.16 e 0.65. Já no segundo segmento é observado que depois de 0,5 segundos (startTime=‖0.05‖) os valores dos atributos são aumentados para 0.66 e 0.85, respectivamente, denotando que o sorriso será intensificado e as sobrancelhas ficarão mais elevadas. d) Pescoço <SignSegments target="neck"> <N startTime="0.00" duration="0.00" interpolation="easeinout" /> <R startTime="0.60" duration="0.20" rotation="-0.5236, 0.4753, 0.5088, 0.4910" interpolation="easeinout" /> </SignSegments> À medida que o sinal vai sendo executado, é desejável também que o avatar mova e rotacione seu pescoço um pouco para a direita. Assim, foram introduzidos dois segmentos. O primeiro, representado pelo elemento <N> ou <Neutro>, indica que inicialmente (startTime=”0.00”) o pescoço ficará na posição original, parado. O segundo segmento descreve que depois de 0,6 segundos (startTime=”0.60”) o pescoço estará rotacionado para direita. Neste último segmento também é observado que o valor do atributo duration é 0.2 segundos, ou seja, o pescoço vai ficar esse tempo parado quando chegar ao lado direito. e) Tronco <SignSegments target="torso"> <N startTime="0.00" duration="0.00" interpolation="easeinout" /> <R startTime="0.90" duration="0.00" rotation="-0.4716, 0.5269, 0.4876, 0.5121" interpolation="easeinout" /> </SignSegments> A explicação para o movimento feito pelo tronco é similar ao realizado pelo pescoço. No início ele ficará numa posição neutra e, depois, inclinará um pouco para esquerda. Esse fato é observado pela variação dos atributos startTime e rotation. 4.2.8 Exibição do Agente Virtual Sinalizador A partir do momento que temos algum sinal descrito no sistema de transcrição proposto, o agente virtual (avatar) pode ser acionado para executá-lo. A figura abaixo exibe o mesmo gesticulando o sinal ―OLÁ‖. Figura 19 – Avatar Executando a Sequência de Movimentos do Sinal ―OLÁ‖ Assim como foi especificado no XML da seção anterior, inicialmente o avatar posicionará sua mão direita no centro e, em seguida, fará movimentos para a esquerda e direita. Observa-se também que seu sorriso é intensificado ao longo do tempo, assim como suas sobrancelhas se elevam, realçando a emoção. Por fim, à medida que o sinal é executado, o avatar inclina levemente seu pescoço para a direita. 4.3 Uma Linguagem Visual para Criação de Sinais Até agora, como tal tecnologia é manuseada pelo usuário final? Primeiramente, respeitando as regras sintáticas e semânticas definidas no XML desenvolvido, o usuário escreve como é representado em Libras cada palavra da língua portuguesa. Por exemplo, imaginemos que será cadastrada a palavra ―TCHAU‖. Então o usuário escreverá, em XML, que é preciso levantar a mão direita até a altura do ombro e fazer rotações de 45 graus para a esquerda e direta, alternadamente, numa velocidade qualquer. Após essa etapa, o interpretador da linguagem gerará um avatar 3D, que realizará o movimento especificado. E assim funciona para cada nova palavra cadastrada, até que se tenha uma base de dados grande o suficiente para que seja realizada qualquer tradução. Porém, durante o processo de validação com usuários finais, foi verificada a baixa produtividade na execução do cadastro de sinais. Isso porque para cada palavra era necessário escrever, no formato XML, sua representação em Libras, tornando o processo bem cansativo. Nesse processo o reuso era quase inexistente. Além de que usuários não pertencentes à área de computação sentiram muita dificuldade em assimilar tal formato e perdiam muito tempo no cadastro. Baseado nesse problema foi desenvolvido um editor gráfico para a criação de tais sinais (Figura 20), que teve como objetivo abstrair o formato XML do usuário. Figura 20 – Editor Gráfico para Criação de Sinais Através desse editor, o usuário pode cadastrar os sinais de maneira intuitiva, sem precisar conhecer o mínimo de XML. Todos os itens (elementos e atributos) presentes no XML podem ser editados aqui de maneira gráfica. Basicamente, é exibido um avatar em posição neutra no qual se pode, com o mouse, arrastar seus braços e mãos para a posição desejada, controlar a sequência de movimentos através de uma timeline, escolher uma configuração de mão adequada e até definir expressões não manuais para qualquer sinal. Paralelamente, à medida que o usuário vai cadastrando um novo sinal através desse editor gráfico, o XML vai sendo gerado pela aplicação, pois o mesmo representa o modelo computável que será usado pelo avatar na interpretação/gesticulação do sinal. 4.4 Considerações Finais Este capítulo teve como objetivo enumerar todos os requisitos necessários para a criação um sistema de transcrição computacional da Língua Brasileira de Sinais. Em seguida, baseado nessas características, foi apresentado em detalhes a estrutura do modelo proposto. À princípio, um modelo textual (XML) tinha que ser usado para o descrever qualquer sinal em Libras, porém, ao observar seus problemas relacionados a produtividade e usabilidade, foi adicionada uma camada visual ao mesmo, deixando a atividade de cadastro mais natural e intuitiva. Para construir uma aplicação que traduz português para Libras, é essencial que se tenha um sistema de cadastro de sinais bem projetado, proporcionando produtividade nessa atividade. Isso porque, em teoria, todos os sinais do dicionário devem ser cadastrados e armazenados num banco de dados para, posteriormente, serem requisitados durante a tradução. Por exemplo, imagine que se deseja traduzir a frase ―EU GOSTO DE VOCÊ‖ para Libras, através de um avatar. Assim, a aplicação de tradução requisitará ao banco de dados as palavras ―EU‖, ―GOSTAR‖ e ―VOCÊ‖. O banco de dados, por sua vez, fará uma busca interna pelos arquivos XMLs representantes dessas palavras e os enviarão para a aplicação de tradução. Finalmente, tendo os XMLs em mãos, o avatar gesticulará a frase em Libras. No próximo capítulo será discutido como o sistema de transcrição proposto por esse trabalho vem contribuindo com essas soluções que realizam tradução de português para Libras. Capítulo 5 Contribuições do Trabalho Desenvolvido Neste capítulo serão mostradas as contribuições que o presente trabalho trouxe para a comunidade Surda, estudantes de Libras e brasileiros envolvidos com acessibilidade. 5.1 ProDeaf O sistema de transcrição proposto por esse trabalho foi incorporado ao projeto ProDeaf, um software de tradução de texto e voz para Libras, com o objetivo de realizar a comunicação entre surdos e ouvintes. Atualmente, o ProDeaf é utilizado por surdos, estudantes de Libras e fonoaudiólogos de todo o território brasileiro, além de também ser usado como uma ferramenta provedora de acessibilidade dentro de grandes empresas, como o Bradesco Seguros. O ProDeaf foi projetado para ser usado em diversas plataformas. Duas delas serão apresentadas a seguir. 5.1.1 ProDeaf Móvel Figura 21 – ProDeaf Móvel sendo usado numa tradução do Português para Libras (http://www.prodeaf.net/prodeaf-movel/) O objetivo desse módulo para smartphones é permitir que o surdo entenda qualquer informação – escrita ou falada – que esteja na língua portuguesa. Pois, através deste aplicativo, qualquer pessoa pode falar ou escrever pequenas frases em português e, automaticamente, o avatar traduzirá o conteúdo para Libras. Além disso, o sistema contém um dicionário português-Libras, permitindo que o usuário selecione alguma palavra em português e veja sua representação em Libras, através do avatar 3D. Assim, além de viabilizar a comunicação entre surdos e ouvintes, o aplicativo provê um cunho educacional, onde estudantes de Libras podem usá-lo para aprender a representação dos sinais. Atualmente o aplicativo está disponível para download, podendo ser executado em smartphones com Android, iOS e Windows Phone 8. 5.1.2 ProDeaf para WebSites Figura 22 – ProDeaf para WebSites sendo usado para traduzir a página do Bradesco Seguros Este módulo do ProDeaf tem como objetivo promover a acessibilidade na Internet, permitindo que o surdo entenda o conteúdo de qualquer página web. Como funciona? Ao entrar num site que contenha o plugin do ProDeaf instalado, o usuário verá o ícone ―Acessível em Libras‖ (Figura 23). Ao clicar no ícone, o avatar aparecerá na tela e ficará de prontidão para realizar a tradução. Por fim, o usuário poderá clicar em qualquer frase do site e o avatar fará a tradução para Libras, como mostra a Figura 22. Figura 23 – Ícone indicando que o site está acessível em Libras 5.1.3 Incorporação do Sistema de Transcrição ao ProDeaf Como já explicado, para construir uma aplicação que traduz português para Libras, como é o caso do ProDeaf, é essencial que se tenha um sistema de transcrição bem projetado para o cadastro de sinais. Isso porque, em teoria, todos os sinais do dicionário devem ser cadastrados e armazenados num banco de dados para, posteriormente, serem requisitados durante a tradução. A seguir será explicado como o sistema de transcrição proposto por esse trabalho é acoplado ao ProDeaf. Figura 24 – Fluxo de dados para o cadastro de sinais Através do Editor de Sinais desenvolvido neste trabalho, o usuário cria o sinal desejado e, no final da edição, o sistema automaticamente gera o XML que representa todas as unidades léxicas do sinal recém-criado. Tal arquivo é enviado ao Servidor do ProDeaf que, por sua vez, o armazena no banco de dados que contém os demais sinais já cadastrados. Figura 25 – Fluxo de dados para o processo de tradução A partir do momento que os sinais estão cadastrados, o sistema fica apto para realizar a tradução do português para Libras. Para exemplificar este processo, a Figura 25 mostra como se dá o fluxo de dados para traduzir a frase ―EU QUERO ACESSIBILIDADE‖, proveniente de uma das aplicações do ProDeaf. Primeiramente, a frase é enviada ao servidor do ProDeaf, que separará as palavras (―EU‖, ―QUERER‖ e ―ACESSIBILIDADE‖) e buscará no banco de dados suas respectivas representações em Libras. O banco de dados devolve os arquivos XML ao servidor que, por sua vez, os envia para a aplicação que o requisitou (ProDeaf Móvel ou ProDeaf para WebSites). Por fim, com o arquivo em mãos, o avatar realizará a tradução para Libras. Caso o XML de uma palavra específica ainda não tiver cadastrado no banco de dados, o avatar irá soletrar a mesma. Por exemplo, se o sinal de ―ACESSIBILIDADE‖ ainda não tiver sido criado, o avatar gesticulará cada letra em sequência (A-C-E-S-S-I-B-I-L-I-D-A-D-E). Por isso, é essencial que as letras sejam os primeiros sinais a serem cadastrados no sistema. 5.2 Editor de Sinais Disponível na Internet Não é difícil perceber que, num sistema de tradução, um dos trabalhos mais cansativos se encontra na tarefa de cadastrar os sinais. Isso porque, para a tradução ser adequada o suficiente, praticamente cada palavra da língua portuguesa deverá ter sua representação em Libras. Para se ter uma ideia, o dicionário português-Libras desenvolvido por CAPOVILLA (2011), contém 9.828 sinais catalogados. Ir cadastrando um por um de fato não é rápido, principalmente se for requerido alta qualidade nos sinais. A primeira etapa para deixar essa tarefa mais produtiva já foi realizada: a abstração do XML num editor visual para criação de sinais. Mas isso não é o suficiente. Então, com a finalidade acelerar o crescimento da base de sinais, o Editor Gráfico de Sinais (Figura 20) ficará disponível na Internet. Através dele qualquer usuário, como surdos, estudantes de Libras, fonoaudiólogos, designers e interessados em acessibilidade, poderão cadastrar os sinais ainda não criados e, além disso, aprimorar os já existentes, realçando seus aspectos de naturalidade. Dessa forma, toda tradução será enriquecida, pois tanto a quantidade quanto a qualidade dos sinais estarão em constante evolução. Capítulo 6 Conclusão Neste capítulo apresentamos as considerações finais sobre o trabalho desenvolvido. 6.1 Considerações Finais Pelo fato dos membros da comunidade Surda não conseguirem estabelecer uma comunicação fluente com os ouvintes, antigamente eles eram tratados como sujeitos inferiores, excluídos da normalidade, sendo submetidos a procedimentos extremos a fim de ―corrigir‖ e remover sua deficiência (ANTUNES, 2011). Contudo, com o passar do tempo, o que se viu foi uma comunidade (Surda) cada vez mais unida, lutando pelas suas causas que, entre outras, englobam a cobrança de iniciativas que respeitem seus aspectos culturais e linguísticos, geradores da sua identidade (SKLIAR, 1999). No Brasil, essas lutas vêm gerando resultados grandiosos. Recentemente, a Libras foi oficializada através da Lei n.º 4.857 / 2002, enquanto língua dos surdos brasileiros e segunda língua oficial do Brasil. Além disso, o DECRETO Nº 5.626, de 22 de dezembro de 2005 prevê em seu Capítulo III: “DA INCLUSÃO DA LIBRAS COMO DISCIPLINA CURRICULAR Art. 3o A Libras deve ser inserida como disciplina curricular obrigatória nos cursos de formação de professores para o exercício do magistério, em nível médio e superior, e nos cursos de Fonoaudiologia, de instituições de ensino, públicas e privadas, do sistema federal de ensino e dos sistemas de ensino dos Estados, do Distrito Federal e dos Municípios. §1o Todos os cursos de licenciatura, nas diferentes áreas do conhecimento, o curso normal de nível médio, o curso normal superior, o curso de Pedagogia e o curso de Educação Especial são considerados cursos de formação de professores e profissionais da educação para o exercício do magistério. § 2o A Libras constituir-se-á em disciplina curricular optativa nos demais cursos de educação superior e na educação profissional, a partir de um ano da publicação deste Decreto.‖ Num processo similar, leis foram criadas para que empresas do setor público e instituições financeiras prestem atendimento e forneçam soluções de acessibilidade aos Surdos, onde qualquer conteúdo deve ser traduzido para Libras (DECRETOS 5.296/2004 e 5.626/2005). Todas essas iniciativas vêm tornando a educação e vida dos surdos cada vez mais fáceis, além de incentivarem pesquisadores a desenvolverem iniciativas sobre o assunto. Com o aumento dessas discussões de políticas públicas e investimentos em tecnologias assistivas realizados em todo o mundo, várias soluções vêm sendo desenvolvidas no Brasil para garantir a inclusão social dos deficientes auditivos. Entre elas podemos citar o Dicionário da Língua Brasileira de Sinais, o NAMBIQUARA, CELIG, Projeto Rybená, FLIBRAS, entre outros. Dentre as soluções, também estão as que funcionam traduzindo algum texto digitado ou som falado para a língua de sinais, através de um avatar 3D que faz o papel de um intérprete virtual. Esse tipo de aplicação é de suma importância, pois, como a maioria dos ouvintes desconhece a Libras e o surdo não conhece o mínimo de Português, é necessária a presença constante de um intérprete, o que muitas vezes é inviável. Assim, todas as questões abordadas nessa seção justificam a importância da solução proposta por esse trabalho, tendo um papel fundamental no incentivo da propagação e adoção da Língua Brasileira de Sinais contribuindo, por consequência, pelo respeito da identidade e cultura Surda. Todo o trabalho descrito aqui foi desenvolvido no contexto de um projeto maior, chamado ProDeaf, um software de tradução de texto e voz para Libras, com o objetivo de realizar a comunicação entre surdos e ouvintes. Em 2012, o ProDeaf foi aprovado pelo MCT/CNPq e recebeu um investimento usado em bolsas para sua execução, inclusive financiando as pesquisas descritas neste presente documento. Portanto, a empresa ProDeaf detém os direitos comerciais de todo o trabalho aqui apresentado. Referências Bibliográficas FERREIRA BRITO, Lucinda. Integração social & educação de surdos. R.J.: Babel, 1993. Por uma gramática de Língua de Sinais. R.J.: Tempo Brasileiro, 1995. KRISTEVA, Julia. Le langage, cet inconnu. Une initiation à la lingüistique. Paris: Éditions du Seuil, 1981. RAMOS, Clélia Regina & GOLDFELD, Marcia. ―Vendo Vozes: os passos dados na direção da realização de um programa de televisão para crianças surdas‖ in GELES número 6, Ano 5, Babel, 1992. REIS, Vania Prata Ferreira. A criança surda e seu mundo: o estado-da-arte, as políticas e as intervenções necessárias. Dissertação de mestrado (n.p.). Vitória: Universidade Federal do Espírito Santo, 1992. REVISTA DA FENEIS. Números 1 ao 13. R.J. 1999/2002. REVISTA NOVA ESCOLA. Ano VIII. Número 69. Setembro de 1993. S.P.: Fundação Victor Civita. SACKS, Oliver. Vendo Vozes: uma jornada pelo mundo dos surdos. Rio de Janeiro: Imago, 1990. WOLL, Bencie. ―Historical and comparative aspects of British Sign Language‖ in Sign and school: using Signs in deaf Children’s Development. Clevendon: Multilingual Matters Ltd., 1987. RAMOS, Clélia Regina. LIBRAS: a língua de sinais dos surdos brasileiros, 1995. [s.d]. Disponível em <http://www.editora-arara-azul.com.br>. Acesso em: 17 mar. 2014. ANTUNES, D. R. Um modelo de descrição computacional da fonologia da língua de sinais brasileira. 2011. 168f. Dissertação (Mestrado) – Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática, Curitiba. 2011. AMARAL, Wanessa. M. Sistema de transcrição da língua brasileira de sinais voltado à produção de conteúdo sinalizado por avatares 3D. 2012. Tese (Doutorado em Engenharia Elétrica) - Universidade Estadual de Campinas. Campinas, SP. MILLER, C. (1994). A note on notation. Sign Post: v. 7(3), 191-202. Durham: University of Durham. STOKOE, W.C. (1960) Sign language structure: an outline of the visual communication system of the american deaf. Studies in Linguistics: Occasional Papers 8. Buffalo, NY: Buffalo University. LIDDELL, S. K (1984). THINK and BELIEVE: Sequentiality in American Sign Language, 60:372–99. LIDDELL, S. K. & Johnson, R. E. (1989). American Sign Language: the phonological base. Sign Language Studies.,64:195–278. FRIEDMAN, L. (1976). Phonology of a soundless language: Phonological structure of the American Sign Language. Doctoral dissertation, University of California, Berkeley. S. PRILLWITZ; R. Leven; H. Zienert; T. Hanke; J. Henning e Colleagues. Hamnosys version 2.0: Hamburg notation system for sign languages: An introductory guide. International Studies on Sign Language and the Communication of the Deaf. 1989. KENNAWAY, J. R., Glauert, J. R.W., & Zwitserlood, I. (2007). Providing signed content on the internet by synthesized animation. ACM Trans. Comput.-Hum. Interact. 14, 3, Article 15. R. ELLIOTT; J. Glauert; J. Kennaway e K. Parsons. D5-2: Sigml definition. Technical report working document. Relatório técnico, ViSiCAST Project, 2001 QUADROS, Ronice Muller de. A History of SignWriting written in Brazilian Portuguese. 2007. Disponível em <http://www.signwriting.org/library/history/hist010.html>. Acesso em: 10 mar. 2014. F. C. CAPOVILLA e W. D. RAPHAEL. Dicionário Enciclopédico Ilustrado Trilíngue da Língua de Sinais Brasileira. Vol.I: Sinais de A à L. Editora da Universidade de São Paulo, São Paulo, 2001. YOSRA Bouzid, MOHAMED Jemni. ‖Gesture Synthesis from SignWriting Notation.‖ The 10th International Gesture Workshop (GW) and the 3rd Gesture and Speech in Interaction (GESPIN) Conference, June 19-21, 2013, The Netherlands. SLEVINSKI, S. The SignPuddle Standard for SignWriting Text. 2012. DIGIAMPIETRI, Maria Carolina Casati; AGUIAR, Mônica Cruz de; DEDINO, Magaly de Lourdes Serpa Monteiro. Libras em estudo: descrição e análise. Mirandópolis, Sp: Feneis Ltda, 2012. XAVIER, A. N. (2006) Descrição Fonético-Fonológica dos Sinais da Língua de Sinais Brasileira (libras). Dissertação de mestrado, Faculdade de Filosofia, Letras e Ciências Humanas, USP. PALMA, Luciana Erina. Comunicação: um jogo de movimentos entre o surdo e a educação física. Disponível em: http://www.sj.ifsc.edu.br, acesso em: 13/10/11. BERLO, D.K. - O Processo da Comunicação: Introdução à Teoria e Prática. Rio de Janeiro. Editora Fundo de Cultura. 2008. BORDENAVE, J.E.D.; - O que é Comunicação. Nova cultural Brasiliense. Coleção Primeiros Passos. São Paulo. 1986. COUTO, R. M. de S. et al. Do concreto ao virtual: interação e interatividade no letramento de indivíduos surdos. In: CONGRESSO INTERNACIONAL DE DESIGN DA INFORMAÇÃO, 2., 2005. São Paulo. Anais do 2º Congresso Internacional de Design da Informação. São Paulo, 2005. TAMBOSI, S. L. P. A. S. – Programa de Auxílio à Surdez. In: CONGRESSO BRASILEIRO DE COMPUTAÇÃO, 2002. Fórum de Informática aplicada a Pessoas Portadoras de Necessidades Especiais. Itajaí, Santa Catarina, 2002. FOWLER, Martin. ―Domain Specific Languages‖. 2010. SAFAR and I. Marshall. "The Architecture of an English-Text-to-SignLanguages Translation System". School of Information Systems, University of East Anglia. YEATES, E. J. Holden and R. Owens. ―Real-Time 3d Graphics For Human Modelling And Teaching Sign Language‖, Zakopane, 2002, Pag.25-29. eSIGN project. ―Animating Sign Language: The eSIGN Approach‖. M. JEMNI, O. Elghoul. ―Towards Web-Based automatic interpretation of written text to Sign Language‖, ICTA‘07, April 12-14, Hammamet, Tunisia, 2007. C. SKLIAR. A Surdez: Um Olhar Sobre a Diferença. Mediação, Porto Alegre, 1 edition, 1999. ACESSO BRASIL. Libras - Dicionário da Língua Brasileira de Sinais. Disponível em <http://www.acessobrasil.org.br/libras>, Acesso em: 31 mar. 2014. NAMBIQUARA. Brava Autonomia. Disponível em <http://www.bravaautonomia.com.br/#solucoes_brava>, Acesso em: 31 mar. 2014. BAPTISTA, Fabrício. F-Libras: Ambiente integrado de ensino-aprendizagem para a Língua Brasileira de Sinais. Dissertação de Mestrado, Programa de Mestrado em Ciência da Computação, Centro Universitário Eurípedes de Marília, Marília, SP, 2007. RYBENÁ. Projeto Rybená. Disponível em <http://www.grupoicts.com.br>, Acesso em: 31 mar. 2014.