UFPE – UNIVERSIDADE FEDERAL DE PERNAMBUCO
CIN – CENTRO DE INFORMÁTICA
PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
UM ESTUDO DE DOMÍNIO DA LÍNGUA BRASILEIRA DE SINAIS A
FIM DE COLHER REQUISITOS PARA A CRIAÇÃO DE UM MODELO
COMPUTACIONAL DESCRITIVO DESSE IDIOMA
Autor
Lucas Araújo Mello Soares
Orientador
Prof. Dr. Jaelson Freire Brelaz de Castro
Recife, Março de 2014
Resumo
Segundo a Federação Nacional de Educação e Integração dos Surdos
(FENEIS), o censo de 2010 registrou 10 milhões de surdos no Brasil. O idioma oficial
dessa comunidade é a Língua Brasileira de Sinais (Libras), necessária para que
seus membros se comuniquem e tenham
acesso informação, processos
imprescindíveis para inclusão social. Porém, embora usadas no mesmo país, a
Libras é bem diferente da Língua Portuguesa, o que acaba criando uma ―barreira de
comunicação‖ entre surdos e ouvintes, diminuindo o relacionamento entre eles.
Consequentemente, tais deficientes ficam excluídos da sociedade, vivendo em
guetos e se só comunicando de forma efetiva entre si ou com os poucos ouvintes
que conseguem se expressar através da língua de sinais.
Com o aumento das discussões de políticas públicas e investimentos em
tecnologias assistivas realizados em todo o mundo, várias aplicações vêm sendo
desenvolvidas com o intuito de promover a inclusão social dos deficientes auditivos.
Algumas dessas soluções funcionam traduzindo algum texto digitado ou som falado
para a língua de sinais, através de um avatar 3D que faz o papel de um intérprete
virtual. Dessa forma, o surdo tanto entende o que alguém fala para ele, como
informações contidas em algum texto escrito, pois tudo é traduzido para sua língua
natural e oficial. Porém, cada país tem sua própria Língua de Sinais e as soluções
desenvolvidas no Brasil para fins de tradução são tecnicamente limitadas, além de
não fornecerem ferramentas intuitivas para o cadastro de novos sinais, que é o
carro-chefe para qualquer solução de tradução para Língua de Sinais.
Nesse contexto, o objetivo desse trabalho foi realizar um estudo sobre a
Língua Brasileira de Sinais a fim de enumerar todas as variáveis linguísticas que são
combinadas para a execução de seus sinais. A partir dos dados obtidos, foi possível
desenvolver uma linguagem visual, intuitiva e completa o suficiente para descrever
computacionalmente qualquer sinal em Libras. Por fim, foi desenvolvido o
interpretador dessa linguagem, gerando como output o avatar que executa o sinal
especificado. Todos esses passos formam a base do sistema de tradução.
Palavras chave: Surdos, Libras, Comunicação, Acessibilidade, Inclusão Social,
Tecnologias Assistivas, Computação Gráfica, Avatar, Intérprete Virtual, Tradutor.
Sumário
Considerações Iniciais ............................................................................................. 6
1.1Introdução ........................................................................................................... 7
1.2 Motivação ........................................................................................................... 8
1.3 Objetivos .......................................................................................................... 10
Um estudo sobre a Língua de Sinais..................................................................... 13
2.1 Origem da Língua de Sinais ............................................................................. 14
2.2 Desenvolvimento da Língua de Sinais ao redor do mundo .............................. 15
2.3 Surgimento e evolução da Língua Brasileira de Sinais - Libras ....................... 17
2.4 Libras, uma Língua Natural .............................................................................. 21
2.5 Parâmetros das Línguas de Sinais .................................................................. 22
2.5.1 Configuração de Mãos ......................................................................................................... 22
2.5.2 Ponto de Articulação ............................................................................................................ 23
2.5.3 Movimento ........................................................................................................................... 24
2.5.4 Orientação/Direcionalidade ................................................................................................. 25
2.5.5 Expressão Facial ou Não Manual.......................................................................................... 25
2.6 Datilologia ........................................................................................................ 26
2.7 Considerações Finais....................................................................................... 27
Sistemas de Transcrição para Língua de Sinais .................................................. 29
3.1 Introdução ........................................................................................................ 30
3.2 Notação de Stokoe........................................................................................... 31
3.3 HamNoSys ....................................................................................................... 34
3.4 SignWriting ....................................................................................................... 36
3.5 Modelo de Liddell & Johnson ........................................................................... 38
3.6 Considerações Finais....................................................................................... 42
Solução Proposta .................................................................................................... 44
4.1Requisitos para a criação um Sistema de Transcrição Computável da Língua de
Sinais ..................................................................................................................... 45
4.2 Sistema de Transcrição Proposto .................................................................... 46
4.2.1 Notação Textual Adotada ..................................................................................................... 47
4.2.2 Atribuição das Configurações de mão.................................................................................. 48
4.2.3 Atribuição da Localização e Orientação ............................................................................... 49
4.2.4 Atribuição das Expressões Não Manuais ............................................................................. 49
4.2.5 Abordagem para Simultaneidade, Sequencialidade e Movimento ..................................... 50
4.2.6 Organizando o XML .............................................................................................................. 52
4.2.7 O Sinal OLÁ descrito no XML proposto ................................................................................ 53
4.2.8 Exibição do Agente Virtual Sinalizador................................................................................. 57
4.3 Uma Linguagem Visual para Criação de Sinais ............................................... 58
4.4 Considerações Finais....................................................................................... 59
Contribuições do Trabalho Desenvolvido ............................................................ 61
5.1 ProDeaf ............................................................................................................ 62
5.1.1 ProDeaf Móvel...................................................................................................................... 62
5.1.2 ProDeaf para WebSites ........................................................................................................ 63
5.1.3 Incorporação do Sistema de Transcrição ao ProDeaf .......................................................... 64
5.2 Editor de Sinais Disponível na Internet ............................................................ 66
Conclusão ................................................................................................................ 68
6.1 Considerações Finais....................................................................................... 69
Referências Bibliográficas ..................................................................................... 72
LISTA DE FIGURAS
FIGURA 1 – AVATAR 3D EXECUTANDO GESTOS DA LÍNGUA DE SINAIS ...................................................................................... 9
FIGURA 2 – CONFIGURAÇÕES DE MÃOS DA LIBRAS ........................................................................................................... 23
FIGURA 3 – SINAIS DA LIBRAS COM DIFERENTES PONTOS DE ARTICULAÇÃO ........................................................................... 24
FIGURA 4 – SINAIS DA LIBRAS COM E SEM MOVIMENTOS .................................................................................................. 24
FIGURA 5 – SINAIS DA LIBRAS COM DIVERSAS DIRECIONALIDADES......................................................................................... 25
FIGURA 6 – SINAIS DA LIBRAS ENFATIZADOS COM EXPRESSÕES FACIAIS ................................................................................. 26
FIGURA 7 – ALFABETO MANUAL OU DATILOLOGIA............................................................................................................ 27
FIGURA 8 - NOTAÇÃO UTILIZADA POR STOKOE PARA REPRESENTAÇÃO DE ALGUMAS CONFIGURAÇÕES DE MÃO DA ASL ................... 32
FIGURA 9 - SINAL CASA (ASL): MÃOS EM CONFIGURAÇÃO DE B, PONTAS DOS DEDOS DAS DUAS MÃOS SE TOCAM. MÃOS MOVEM-SE
SEPARADAMENTE, DE MANEIRA ESPELHADA, AFASTANDO-SE UMA DA OUTRA COM UM MOVIMENTO PARA BAIXO E NA DIAGONAL.
DEPOIS DE UM TEMPO, AS MÃOS CONTINUAM A DESCER, MAS NUM MOVIMENTO RETO, NÃO MAIS NA DIAGONAL. O
MOVIMENTO REALIZADO LEMBRA O CONTORNO DO TELHADO E DAS PAREDES DE UMA CASA. (AMARAL, 2012) ................. 33
FIGURA 10 - SINAL CASA ESCRITO NO SISTEMA DE TRANSCRIÇÃO STOKOE ............................................................................. 33
FIGURA 11 - EXEMPLOS DE CONFIGURAÇÕES DE MÃOS DO SISTEMA HAMNOSYS .................................................................. 34
FIGURA 12 - EXEMPLOS DE EXPRESSÕES NÃO MANUAIS DO SISTEMA HAMNOSYS. CONFIGURAÇÕES DA BOCA, LÁBIOS E LÍNGUA.... 35
FIGURA 13 - ESTRUTURA DE UM SINAL EXPRESSO EM HAMNOSYS....................................................................................... 35
FIGURA 14 - DESCRIÇÃO DO SINAL GOING-TO EM SIGML (ANTUNES, 2011) .................................................................. 36
FIGURA 15 - TEXTO ESCRITO EM SIGNWRITING ................................................................................................................ 37
FIGURA 16 - SINAL "SAUDAÇÃO" ESCRITO EM SWML ................................................................................................... 38
FIGURA 17 – SEGMENTO DE SUSPENSÃO (A) E SEGMENTO DE MOVIMENTO (B) DO MODELO DE LIDDELL & JOHNSON .................. 40
FIGURA 18 – ELIMINAÇÃO DAS REDUNDÂNCIAS DOS SEGMENTOS DE SUSPENSÃO E MOVIMENTO (DIGIAMPIETRI, 2012). ........... 41
FIGURA 19 – AVATAR EXECUTANDO A SEQUÊNCIA DE MOVIMENTOS DO SINAL “OLÁ” ........................................................... 57
FIGURA 20 – EDITOR GRÁFICO PARA CRIAÇÃO DE SINAIS ................................................................................................... 59
FIGURA 21 – PRODEAF MÓVEL SENDO USADO NUMA TRADUÇÃO DO PORTUGUÊS PARA LIBRAS
(HTTP://WWW.PRODEAF.NET/PRODEAF-MOVEL/) ................................................................................................... 62
FIGURA 22 – PRODEAF PARA WEBSITES SENDO USADO PARA TRADUZIR A PÁGINA DO BRADESCO SEGUROS ................................ 63
FIGURA 23 – ÍCONE INDICANDO QUE O SITE ESTÁ ACESSÍVEL EM LIBRAS ................................................................................ 64
FIGURA 24 – FLUXO DE DADOS PARA O CADASTRO DE SINAIS .............................................................................................. 65
FIGURA 25 – FLUXO DE DADOS PARA O PROCESSO DE TRADUÇÃO......................................................................................... 65
Capítulo 1
Considerações Iniciais
Este capítulo relata as principais motivações para realização deste trabalho,
lista os objetivos de pesquisa almejados, os desafios que são esperados em sua
realização e, finalmente, mostra como está estruturado o restante da presente
dissertação.
1.1Introdução
Desde os primórdios da existência humana, a comunicação esteve presente
como uma unidade básica de sobrevivência e socialização. Foi a partir dela que as
pessoas puderam estabelecer relações entre si e entender as mensagens que eram
transmitidas ou evocadas. Os seres humanos, por serem naturalmente sociais,
desenvolveram e dependeram fortemente de protocolos de comunicação para se
relacionarem e conviverem em sociedade. Tais relações sociais permitem uma maior
aproximação das pessoas, fortalecendo o intercâmbio de culturas, a interação
pessoal e profissional, a convivência com diferentes hábitos, entre outros.
Para que uma comunicação seja estabelecida é necessário que haja um
transmissor, um receptor e uma mensagem. Porém, há casos em que a mensagem
enviada pelo transmissor não é compreendida pelo receptor, acarretando numa falha
ou até falta de comunicação. Tal falha pode ocorrer, por exemplo, na tentativa de
comunicação entre pessoas de diferentes nacionalidades, quando uma não
compreende o idioma (mensagem) da outra, ou até mesmo entre pessoas de
mesma nacionalidade, que é o que pode ocorrer numa tentativa de comunicação
entre um surdo e um ouvinte que, mesmo tendo nascido no mesmo país, possuem
línguas próprias (Libras e Língua Portuguesa, respectivamente, caso sejam
brasileiros). Nesse último caso, a falha de comunicação ocorre pelo fato da Língua
Portuguesa ser bem diferente da Libras em aspectos expressionais, sintáticos,
semânticos e gramáticos. São por essas divergências entre as línguas que um surdo
não consegue compreender, também, um texto escrito em português, a não ser que
ele seja alfabetizado na língua.
É justamente essa falha de comunicação entre surdos e ouvintes que o
presente trabalho avalia, a fim de propor soluções e ferramentas que minimizem a
sensação de exclusão daquela minoria.
1.2 Motivação
Imagine por um instante que você não consiga compreender uma palavra do
que seus amigos dizem numa conversa, que aquele filme sem legendas não está
fazendo qualquer sentido ou que então praticamente nada da sua aula favorita está
entrando na sua cabeça. Estes são desafios básicos, cotidianos, de quem tem
incapacidades auditivas. Segundo a Organização Mundial de Saúde (OMS), 2.7% da
população mundial apresenta algum nível elevado de deficiência auditiva. Desses,
1.8% são completamente surdos. De acordo com a federação nacional para
educação e integração dos surdos (FENEIS), o censo de 2010 registrou 10 milhões
de surdos no Brasil, um número bastante significativo, maior, por exemplo, do que
toda população de Pernambuco. O idioma oficial dos surdos é a Língua de Sinais,
uma língua própria, completa e com uma sintaxe, semântica e gramática bem
definida. No Brasil, tal língua é chamada de Libras (Linguagem Brasileira de Sinais)
e foi decretado por lei como a segunda língua oficial do país, o que tem incentivado
mais pesquisas sobre o assunto.
Porém, embora usadas no mesmo país, a Libras é bem diferente da Língua
Portuguesa, o que acaba criando uma ―barreira de comunicação‖ entre surdos e
ouvintes, diminuindo o relacionamento entre eles. Consequentemente, tais
deficientes ficam excluídos da sociedade, vivendo em guetos e se só comunicando
de forma efetiva entre si ou com os poucos ouvintes que conseguem se expressar
através da língua de sinais. Não é raro ouvir dizer que os surdos são estrangeiros
dentro do seu próprio país e isso se deve ao fato deles não serem capazes de se
comunicar com o resto da população local através do idioma oficial do país. Desde o
ensino primário, as escolas são ineficientes ao lidar com deficientes auditivos, desse
modo, eles sofrem desde o início por não serem capazes de obter uma educação de
qualidade. Consequentemente, por não conviverem e não se relacionarem de
maneira efetiva com ouvintes, a grande maioria das pessoas surdas vivem de
subempregos e/ou ajuda governamental, sendo julgados incapazes de executar
certos tipos de trabalhos que os possibilitariam de ascender socialmente.
Com o aumento das discussões de políticas públicas e investimentos em
tecnologias assistivas realizados em todo o mundo, várias aplicações vêm sendo
desenvolvidas para garantir a inclusão social dos deficientes auditivos. Diversas
dessas soluções funcionam traduzindo algum texto digitado ou som falado para a
língua de sinais, através de um avatar 3D (Figura 1), que faz o papel de um
intérprete virtual. Dessa forma, o surdo tanto entende o que alguém fala para ele,
como informações contidas em algum texto escrito, pois tudo é traduzido para sua
língua natural/oficial.
Figura 1 – Avatar 3D executando gestos da língua de sinais
Porém, cada país tem sua própria Língua de Sinais e as soluções
desenvolvidas no Brasil para fins de tradução são tecnicamente limitadas, além
fornecerem ferramentas pouco intuitivas e produtivas para o cadastro de novos
sinais, que é o carro-chefe para qualquer solução de tradução para Língua de
Sinais.
Desse modo, baseado em todos os problemas de exclusão social vivenciados
diariamente por cada membro da comunidade surda brasileira, unido à carência de
ferramentas que os proporcionariam obterem informações em sua língua natural, a
Libras, motiva o desenvolvimento de uma solução efetiva e de qualidade para os
milhões de surdos brasileiros.
1.3 Objetivos
O objetivo principal desse trabalho é realizar um estudo detalhado sobre a
Língua Brasileira de Sinais a fim de enumerar todas as variáveis linguísticas que são
combinadas para a execução de seus sinais, como configuração de mãos,
movimentos, velocidade, além de expressões faciais. A partir dos dados obtidos,
será possível desenvolver uma linguagem visual, intuitiva e completa o suficiente
para descrever computacionalmente qualquer sinal em Libras. Por fim, será
desenvolvido o interpretador dessa linguagem, gerando como output o avatar que
executa o sinal especificado. Todos esses passos formam a base do sistema de
tradução.
De uma forma mais detalhada e didática, executaremos as seguintes
atividades:
I.
Mapeamento de todas as possibilidades de Sinais/Movimentos em
Libras: ao contrário do que pode parecer para um leigo, os movimentos em
língua de sinais não usam apenas as mãos. Na verdade, os sinais surgem da
combinação de configurações de mãos, movimentos, pontos de articulação —
locais no espaço ou no corpo onde os sinais são feitos — e expressões
faciais, os quais juntos compõem as unidades básicas das línguas de sinais.
Assim, será realizado um estudo completo desses itens que configuram uma
unidade léxica na língua de sinais;
II.
Definição da linguagem (Domain Specific Language) que representa
palavras, orações e ideias completas em língua de sinais: tomando como
base o levantamento do item anterior, será criada uma linguagem
multiplataforma, baseada no padrão XML (formato de arquivo para dados
semiestruturados), que dará suporte à representação dos itens léxicos de
qualquer sinal em Libras, assim como as possíveis combinações entre eles.
Sendo assim, cada palavra da língua portuguesa estará associada a um
arquivo XML desses, contendo sua representação em Libras e podendo ser
interpretadas por um avatar.
III.
Desenvolvimento de um Editor Gráfico para o cadastro de sinais em
Libras: até aqui, para cadastrar qualquer sinal em Libras, o usuário teria que
escrevê-lo na linguagem XML apresentada no item anterior. Um processo
custoso, pouco produtivo e com quase nenhum reuso. Por isso, será
desenvolvida uma linguagem visual e intuitiva (o editor gráfico) para a criação
de novos sinais, com o objetivo de abstrair o formato XML do usuário.
Paralelamente, à medida que o usuário vai cadastrando um novo sinal
através desse editor gráfico, o XML vai sendo gerado pela aplicação, pois o
mesmo representa o modelo computável que será usado pelo avatar na
interpretação/gesticulação do sinal. Tal ferramenta será o carro-chefe da
solução global, resolvendo os principais problemas de baixa produtividade no
cadastro de sinais presentes nas atuais soluções.
IV.
Desenvolvimento do protótipo do tradutor português -> Libras: nessa
etapa será desenvolvido um protótipo do tradutor tomando como base a
integração entre os resultados obtidos pelas etapas anteriores e os resultados
obtidos no desenvolvimento do avatar 3D. Basicamente, tal protótipo exibirá
um avatar gesticulando/traduzindo, em Libras, alguma palavra ou texto da
língua portuguesa e, para isso, consultará todos os sinais que foram
cadastrados através da linguagem XML ou Editor Gráfico (itens II e III). Para
permitir o desenvolvimento de aplicações multiplataforma (iPhone, Android e
Windows Phone, Web, Desktop), será escolhida a plataforma Unity.
Capítulo 2
Um estudo sobre a Língua de Sinais
Neste capítulo faremos um tour pela história da Língua de Sinais, discutindo
sobre sua origem, evolução e adoção em diversos países. Por fim, detalharemos as
unidades básicas da Língua Brasileira de Sinais. Isso será feito com o objetivo de
enumerar todas as variáveis linguísticas que, juntas, são combinadas para a
execução de qualquer um de seus sinais.
2.1 Origem da Língua de Sinais
As Línguas de Sinais sempre despertaram o interesse dos educadores. Como
surgiram? Quando? Por que não existe uma Língua de Sinais única para que os
surdos de todo o mundo possam se comunicar entre si? Essas perguntas, porém,
são as mesmas que se fazem com relação à própria existência da linguagem
humana. Desde que o homem passa a refletir sobre sua existência enquanto
homem, ele reflete sobre essa questão. O mito ocidental da Torre de Babel pode
servir como símbolo dessa busca de respostas.
São incontáveis os estudos linguísticos, históricos e sociológicos sobre o
surgimento da língua falada pela humanidade. Houve um desenvolvimento gradual,
progressivo da linguagem, no qual ela se tornou o sistema complexo de significação
e comunicação que é hoje, ou, como consideram outros pesquisadores, desde que
existe é a linguagem formalmente completa, idêntica ao que conhecemos hoje em
dia?
O primeiro ponto de vista é defendido por cientistas como G. Révész, que, em
seu livro Origine et Préhistoire du langage (KRISTEVA, 1981), aponta para uma
perspectiva evolutiva na qual, em seis etapas, traça uma linha desde a comunicação
animal até a linguagem humana altamente desenvolvida e complexa. O homem em
seu estado primitivo estaria associado à dêixis, aos gritos e aos gestos. Essa visão,
compartilhada durante muito tempo pela comunidade científica trouxe, e traz ainda,
uma boa dose de rejeição às Línguas de Sinais das comunidades surdas,
associando-as à gestualidade primitiva e, portanto, à inferioridade.
Mais recentemente, autores passam a considerar a existência de uma língua
somente a partir do momento que exista uma cultura a ela ligada, não delimitando os
meios de transmissão utilizados, a extensão do vocabulário, o tipo de som emitido
pelos ―falantes‖. Podemos afirmar, sob esse ponto de vista, que as Línguas de
Sinais existiram desde que existe a língua oral humana, e sempre que existirem
surdos reunidos por mais de duas gerações em comunidades (SACKS, 1990).
Pelo fato de as Línguas de Sinais serem ―faladas‖, carentes de registros
escritos, existe muita dificuldade de se localizarem as origens das mesmas. Por se
tratarem também de comunidades pequenas e não reunidas geograficamente, o que
se conhece até hoje sobre os surdos e suas Línguas de Sinais ainda é pouco.
2.2 Desenvolvimento da Língua de Sinais ao redor do mundo
O primeiro livro conhecido em inglês que descreve a Língua de Sinais como
um sistema complexo, na qual "homens que nascem surdos e mudos (...) podem
argumentar e discutir retoricamente através de sinais", data de 1644, com autoria de
J. Bulwer, Chirologia. Mesmo acreditando que a Língua de Sinais que conhecia era
universal e seus elementos constitutivos "naturais" (icônicos, de certa forma), o fato
de ter sido publicado um livro a respeito do assunto em uma época que eram raras
as edições em geral já demonstra o interesse do tema, evidenciando uma
preocupação com a educação dos surdos. Preocupação essa ratificada com a
publicação, em 1648, do livro Philocophus, do mesmo autor, dedicado a dois surdos:
o baronês Sir Edward Gostwick e seu irmão William Gostwick, no qual se afirma que
o surdo pode expressar-se verdadeiramente por sinais se ele souber essa língua
tanto quanto um ouvinte domine sua língua oral (WOLL,1987:12).
Quase dois séculos depois, em 1809, Watson (que era neto de Thomas
Braidwood, fundador da primeira escola para surdos na Inglaterra) descreve em seu
livro ―Instruction of the deaf and dumb‖ um método combinado de sinais e
desenvolvimento da fala.
Em 1760, na França, o abade l'Epée (Charles Michel de l'Epée: 1712 -1789)
iniciou o trabalho de instrução formal com duas surdas a partir da Língua de Sinais
que se falava pelas ruas de Paris (datilologia/alfabeto manual e sinais criados) e
obteve grande êxito, sendo que a partir dessa época a metodologia por ele
desenvolvida tornou-se conhecida e respeitada, assumida pelo então Instituto de
Surdos e Mudos (atual Instituto Nacional de Jovens Surdos), em Paris, como o
caminho correto para a educação dos seus alunos.
Thomas Hopkins Gallaudet, professor americano de surdos, visitou a
instituição em 1815 com o objetivo de conhecer o trabalho lá realizado (antes ele
tinha passado pela Inglaterra tentando aprender com os Braidwod acerca da
metodologia oralista que eles desenvolviam, não obtendo aceitação, pois os
profissionais negaram-se a ensinar em poucos meses o que sabiam). De tão
impressionado que ficou, Gallaudet convidou um dos melhores alunos da escola,
Laurence Clerc, a acompanhá-lo de volta aos Estados Unidos. Lá, em 1817, os dois
fundaram a primeira escola permanente para surdos em Hartford, Connecticut.
Ao lado de escolas que continuaram a desenvolver o método oralista, em
1821 todas as escolas públicas americanas passaram a se mover em direção à ASL
(Língua de Sinais Americana) como sua língua de instrução, o que levou em 1835 a
uma total aceitação da ASL na educação de surdos nos Estados Unidos. RAMOS
(1992:65) relata que houve em consequência dessa atitude uma elevação do grau
de escolarização das crianças surdas, que passaram a atingir o mercado profissional
de nível mais alto, a maioria delas optando por se tornarem professores de surdos.
Pesquisando sobre a educação de surdos em dezessete países (Austrália,
Rússia, Alemanha, Holanda, França, Espanha, França, Espanha, Suíça, Itália,
Dinamarca, Suécia, Itália, Dinamarca, Suécia, Argentina e Venezuela) RAMOS
(1995) observou que esse movimento em direção à utilização das Línguas de Sinais
na educação dos surdos passa a acontecer na maioria dos países e com as
mesmas consequências.
Surpreendentemente, em 1880, no famoso Congresso de Milão, que reuniu
professores de surdos, as Línguas de Sinais passam a ser progressivamente
banidas na educação de surdos, só sendo retomadas a partir da década de 1940 ou
mais tarde.
O que aconteceu para que ocorresse essa mudança radical de pensamento?
Ainda não existem respostas claras, apenas indícios apontando para o
desenvolvimento da tecnologia das próteses reabilitadoras gerando uma expectativa
de superação da surdez, sobre lutas de poder entre os ―novos‖ professores surdos
exigindo o afastamento dos professores ouvintes. O que temos aqui, realmente, é
uma lacuna histórica a ser preenchida.
2.3 Surgimento e evolução da Língua Brasileira de Sinais - Libras
É conhecida como o "início oficial" da educação dos surdos brasileiros a
fundação, no Rio de Janeiro, do Instituto Nacional de Surdos-Mudos (INSM, atual
Instituto Nacional de Educação de Surdos- INES), através da Lei 839, que D. Pedro
II assinou em 26 de setembro de 1857. Porém, já em 1835, um deputado de nome
Cornélio Ferreira apresentara à Assembleia um projeto de lei que criava o cargo de
"professor de primeiras letras para o ensino de cegos e surdo-mudos"
(REIS,1992:57). Projeto esse que não conseguiu ser aprovado.
Reis relata que o professor Geraldo Cavalcanti de Albuquerque, discípulo do
professor João Brasil Silvado (diretor do INSM em 1907), informou-lhe em entrevista
que o interesse do imperador D. Pedro II em educação de surdos viria do fato de ser
a princesa Isabel mãe de um filho surdo e casada com o Conde D‘Eu, parcialmente
surdo. Sabe-se que, realmente, houve empenho especial por parte de D. Pedro II
quanto à fundação de uma escola para surdos, mandando inclusive trazer para o
país em 1855 um professor surdo francês, Ernest Huet, vindo do Instituto de SurdosMudos de Paris, para que o trabalho com os surdos estivesse atualizado com as
novas metodologias educacionais. A Libras, em consequência, foi bastante
influenciada pela Língua Francesa de Sinais.
É de 1873 a publicação do mais importante documento encontrado até hoje
sobre a Língua Brasileira de Sinais, o Iconographia dos Signaes dos Surdos-Mudos,
de autoria do aluno surdo Flausino José da Gama, com ilustrações de sinais
separados por categorias (animais, objetos, etc). Como é explicado no prefácio do
livro, a inspiração para o trabalho veio de um livro publicado na França e que se
encontrava à disposição dos alunos na Biblioteca do INSM. Vale ressaltar que
Flausino foi autor das ilustrações e da própria impressão em técnica de litografia,
técnica de gravura envolve a criação de marcas (ou desenhos) sobre uma matriz
(pedra calcária) com o auxílio de um lápis gorduroso.
Em 1911, seguindo os passos internacionais que, em 1880 no Congresso de
Milão, proibira o uso da Língua de Sinais na educação de surdos, estabelece-se que
o INSM passaria a adotar o método oralista puro em todas as disciplinas. Mesmo
assim, muitos professores, funcionários surdos e os ex-alunos que sempre
mantiveram o hábito de frequentar a escola propiciaram a formação de um foco de
resistência e manutenção da Língua de Sinais.
Somente em 1957, por iniciativa da diretora Ana Rímoli de Faria Doria e por
influência da pedagoga Alpia Couto, finalmente a Língua de Sinais foi oficialmente
proibida em sala de aula. Medidas como o impedimento do contato de alunos mais
velhos com os novatos foram tomadas, mas nunca o êxito foi pleno e a LIBRAS
sobreviveu durante esses anos dentro do atual INES.
Em depoimento informal, uma professora que atuou naquela época de
proibições (que durou, aliás, até a década de 1980) contou-nos que os sinais nunca
desapareceram da escola, sendo feitos por debaixo da própria roupa das crianças
ou embaixo das carteiras escolares ou ainda em espaços em que não havia
fiscalização. É evidente, porém, que um tipo de proibição desses gera prejuízos
irrecuperáveis para uma língua e para uma cultura.
Pesquisar as origens da Libras é realmente uma tarefa a ser realizada, pois
surpreende a todos aqueles que trabalham com a comunidade surda brasileira (tão
espalhada pelo país) a homogeneidade linguística da mesma. Apesar dos
"sotaques" regionais, observam-se apenas algumas variações lexicais que não
comprometem em nenhum momento sua unidade estrutural.
Em 1969, foi feita uma primeira tentativa no sentido de tentar registrar, de
forma escrita, a Língua de Sinais falada no Brasil. Eugênio Oates, um missionário
americano, publica um pequeno dicionário de sinais, Linguagem das mãos, que
segundo FERREIRA BRITO (1993), apresenta um índice de aceitação por parte dos
surdos de 50% dos sinais listados.
A partir de 1970, quando a filosofia da Comunicação Total e, em seguida, do
Bilinguismo, firmaram raízes na educação dos surdos brasileiros, atividades e
pesquisas relativas à LIBRAS têm aumentado enormemente.
Em 2001 foi lançado em São Paulo o Dicionário Enciclopédico Ilustrado de
LIBRAS, em um projeto coordenado pelo Professor Doutor (Instituto de
Psicologia/USP)
Fernando
Capovilla
e
em
março
de
2002
o
Dicionário
LIBRAS/Português em CD-ROM, trabalho realizado pelo INES/MEC e coordenado
pela Professora Doutora Tanya Mara Felipe/UFPE/FENEIS.
Desde então, o idioma só vem ganhando força. No Brasil, o DECRETO Nº
5.626, de 22 de dezembro de 2005, que regulamenta a Lei no 10.436, de 24 de abril
de 2002 sobre a Língua Brasileira de Sinais - Libras, e o art. 18 da Lei no 10.098, de
19 de dezembro de 2000, prevê em seu Capítulo III:
“DA
INCLUSÃO
DA
LIBRAS
COMO
DISCIPLINA
CURRICULAR
Art. 3o A Libras deve ser inserida como disciplina curricular obrigatória nos
cursos de formação de professores para o exercício do magistério, em nível
médio e superior, e nos cursos de Fonoaudiologia, de instituições de ensino,
públicas e privadas, do sistema federal de ensino e dos sistemas de ensino
dos Estados, do Distrito Federal e dos Municípios.
§1o Todos
os
cursos
de
licenciatura,
nas
diferentes
áreas
do
conhecimento, o curso normal de nível médio, o curso normal superior, o
curso de Pedagogia e o curso de Educação Especial são considerados cursos
de formação de professores e profissionais da educação para o exercício do
magistério.
§ 2o A Libras constituir-se-á em disciplina curricular optativa nos demais
cursos de educação superior e na educação profissional, a partir de um ano
da publicação deste Decreto.‖
Nacionalmente, a LIBRAS foi, recentemente, oficializada através da Lei n.º
4.857 / 2002, enquanto língua dos surdos brasileiros e segunda língua oficial do
Brasil, o que, aliada à aceitação da Libras pelo MEC, irá tornar a educação e vida
dos surdos cada vez mais fácil, além de incentivarem pesquisadores a
desenvolverem iniciativas sobre o assunto.
2.4 Libras, uma Língua Natural
―A Libras, como toda Língua de Sinais, é uma língua de modalidade gestualvisual porque utiliza, como canal ou meio de comunicação, movimentos gestuais e
expressões faciais que são percebidos pela visão; portanto, diferencia-se da Língua
Portuguesa, que é uma língua de modalidade oral-auditiva por utilizar, como canal
ou meio de comunicação, sons articulados que são percebidos pelos ouvidos. Mas,
as diferenças não estão somente na utilização de canais diferentes, estão também
nas estruturas gramaticais de cada língua‖ (Revista da FENEIS, número 2:16).
Para que as Línguas de Sinais tenham chegado ao ponto de serem
reconhecidas como línguas naturais, entendendo o conceito natural em oposição a
código e linguagem, avaliaram-se, evidentemente, as semelhanças existentes entre
as mesmas e as línguas orais. Uma dessas semelhanças, a existência de unidades
mínimas formadoras de unidades complexas, pode ser observada em todas as
Línguas de Sinais espalhadas pelo mundo, possuidoras dos níveis fonológico,
morfológico, sintático, semântico e pragmático. A existência de registros diversos
(por categoria profissional, status social, idade, nível escolar etc.), além de dialetos
regionais, também referendam as semelhanças com as línguas orais.
Como consequência, ANTUNES (2011) avalia que as Línguas de Sinais são
conceituadas como sistemas linguísticos legítimos, capazes de proporcionar aos
surdos o meio adequado para a realização de todas as suas potencialidades
linguísticas, como expressar sentimentos, estados psicológicos, conceitos concretos
e abstratos e processos de raciocínio. A sua forma de representação guarda
especificidades que a diferencia do Português, mas possibilitam a expressão de
qualquer conceito ou referência de dados da realidade.
2.5 Parâmetros das Línguas de Sinais
Resumidamente, podemos afirmar que qualquer sinal nessa língua é formado
a partir da combinação do movimento das mãos com um determinado formato em
um determinado lugar, podendo este lugar ser uma parte do corpo ou um espaço em
frente ao corpo. Estas articulações das mãos, que podem ser comparadas aos
fonemas e às vezes aos morfemas, são chamadas de parâmetros. São cinco os
parâmetros gerais da Língua de Sinais: Configuração de Mãos, Ponto de
Articulação, Movimento, Orientação/Direcionalidade, Expressão Facial/Corporal.
2.5.1 Configuração de Mãos
A Configuração de Mão é a forma assumida pela mão durante a articulação
de um determinado sinal, ou seja, a disposição dos dedos na mão dominante ou nas
duas mãos durante a realização do sinal. A configuração da mão pode ser a mesma
durante a execução de um sinal, mas também pode variar para outra configuração,
ou seja, existem sinais que são constituídos por mais de uma configuração de mão.
Figura 2 – Configurações de Mãos da Libras
A Libras dispõe de 56 configurações de mãos diferentes que variam de
acordo com as posições, número de dedos abertos, curvados, flexionados ou
fechados, contato e contração das mãos (Figura 2).
2.5.2 Ponto de Articulação
Este parâmetro representa a região do corpo ou no espaço onde o sinal é
realizado. Os sinais podem ser realizados em pontos do corpo, nas mãos ou no
espaço. Os pontos de articulação no espaço compreendem os locais à frente do
enunciador em que são realizados os sinais. Em determinadas situações o local
exato no espaço não é relevante para definir o sinal que está sendo articulado, neste
caso, este local é definido como espaço neutro.
Figura 3 – Sinais da Libras com Diferentes Pontos de Articulação
Os sinais TRABALHAR e BRINCAR são feitos no espaço neutro e os sinais
ESQUECER e APRENDER são feitos na testa (Figura 3).
2.5.3 Movimento
O parâmetro de movimento é definido como a ação das mãos no espaço em
torno do enunciador. Os sinais podem ter movimento ou não.
Figura 4 – Sinais da Libras Com e Sem Movimentos
Os sinais RIR, CHORAR e CONHECER possuem movimentos e os sinais
AJOELHAR, EM-PÉ e SENTAR não possuem (Figura 4).
2.5.4 Orientação/Direcionalidade
A orientação é a direção para a qual a palma da mão aponta durante a
execução de um sinal. A orientação da palma pode ser para cima, para baixo, para o
corpo, para frente e para os lados (direita e esquerda).
Figura 5 – Sinais da Libras com diversas direcionalidades
Os sinais podem ter uma direção e a inversão desta pode significar ideia de
oposição, contrário ou concordância número-pessoal, como os sinais IR e VIR
(Figura 5).
2.5.5 Expressão Facial ou Não Manual
Além dos parâmetros principais das línguas de sinais, existe ainda as
expressões não manuais, que compreendem movimentos da face, olhos, cabeça e
tronco. Muitos sinais, além dos quatro parâmetros mencionados, em sua
configuração têm como traço diferenciador também a expressão facial.
Assim, essas expressões são importantes, pois auxiliam na definição e na
diferenciação do significado de determinados sinais. Por exemplo, as expressões
faciais podem transmitir alegria, tristeza, raiva, entre outros. Além disso, existem
situações em que o enunciador precisa realizar sinais disfarçados. Neste caso, os
sinais são realizados apenas com a expressão facial, por exemplo, o sinal de
―relação sexual‖, que é feito somente com o movimento das bochechas, inflando e
desinflando.
Figura 6 – Sinais da Libras enfatizados com Expressões Faciais
2.6 Datilologia
Para as pessoas que estão começando a aprender Libras, uma das primeiras
coisas estudadas é o Alfabeto Manual ou Datilologia (Figura 7). Ele é produzido por
diferentes configurações de mãos que representam as letras do alfabeto.
Figura 7 – Alfabeto Manual ou Datilologia
Como qualquer língua, a Libras evolui com o tempo, assim, é possível que
num dado momento ainda não exista um sinal para o que se queira referenciar.
Nesse caso a Datilologia é usada, por exemplo, para soletrar o nome de pessoas,
lugares e outras palavras que ainda não possuem sinal (representação em Libras).
Entretanto, as palavras soletradas são, muitas vezes, substituídas ao longo do
tempo por sinais criados pelos surdos, ou seja, no momento em que o conceito de
um sinal é entendido por seus interlocutores, substitui-se a datilologia da palavra.
2.7 Considerações Finais
Neste capítulo foi feito uma breve viagem pela história da Língua de Sinais,
discutindo as incertezas quanto a sua origem e destacando importantes marcos
durante sua evolução. Foi visto que, mesmo enfrentando diversos problemas e
preconceitos para sua adoção, tal língua ultrapassou barreiras históricas, sendo hoje
considerada uma língua oficial em diversos países, o que fortalece a identidade da
cultura Surda e gera interesse em pesquisas acadêmicas e iniciativas voltadas para
acessibilidade.
Como o interesse final do presente trabalho é desenvolver um modelo
computacional que descreva, suporte e represente os itens léxicos da Língua
Brasileira de Sinais, assim como as possíveis combinações entre eles, o capítulo foi
finalizado com a discussão de cada parâmetro utilizado na execução de qualquer
sinal.
Dando continuidade ao conhecimento adquirido, o próximo capítulo abordará
alguns Sistemas de Transcrição (ou sistemas de escrita) já desenvolvidos para a
Língua de Sinais. Notar-se-á que cada Sistema desses, dependendo de sua
finalidade, exibe os parâmetros da língua de forma diferente, enfatizando ou
escondendo algum aspecto. Dentre estes, estarão os Sistemas de Escrita focados
numa interpretação computacional. A ideia é avaliar os aspectos positivos e
negativos de cada uma para, num momento posterior, descrever o modelo proposto
por esse trabalho.
Capítulo 3
Sistemas de Transcrição para Língua de Sinais
Uma das atividades deste trabalho é propor um sistema de transcrição para a
Língua de Sinais na forma escrita para, posteriormente, criar um programa de
computador que o interprete e seja capaz de realizar a sinalização automaticamente,
através do avatar 3D. Portanto, é oportuno analisar os principais sistemas já
propostos, enumerando seus pontos fortes e restrições para serem adaptados numa
versão computável.
3.1 Introdução
A Língua de Sinais é considerada a primeira língua da comunidade Surda,
logo, seus membros são educados e induzidos a pensar, raciocinar e se comunicar
através deste idioma. Porém, no Brasil, a Libras possui diferenças sintáticas,
semânticas e gramaticais em relação à Língua Portuguesa, consequentemente, um
Surdo não consegue compreender adequadamente um texto escrito em português.
Nota-se, aqui, um problema, pois todos os meios de comunicação (jornais, livros,
sites, artigos, etc) registram seus conhecimentos através do português escrito. E a
mesma situação é observada em outros países, com seus respectivos idiomas
locais.
Para o problema acima, duas soluções poderiam ser propostas. A primeira
seria alfabetizar os surdos em português. Defendida por uns, mas combatida por
diversos grupos ideológicos, acreditando que a cultura e identidade Surda somente
será valorizada com a efetiva adoção e prática da Libras. A segunda solução, então,
seria a criação de um Sistema de Escrita (Sistema de Transcrição) padronizado para
a Língua de Sinais, onde seriam abordados todos seus aspectos e nuances. Assim,
a comunidade Surda usaria tal modelo para registrar e adquirir conhecimentos na
forma escrita.
Baseado nessa última opção é que, desde meados de 1950, pesquisadores
propuseram diversos modelos de transcrição para a Língua de Sinais, cada uma
com seu propósito, com o intuito de fornecer ferramentas para os surdos registrarem
seus conhecimentos. (AMARAL, 2012).
Segundo MILLER (1994), a criação de um sistema de transcrição para Língua
de Sinais é um desafio, principalmente pelo seu caráter gestual-visual, possuindo
parâmetros espaciais que podem agir de forma simultânea, o que torna a escrita
complexa e, às vezes, icônicas. Tal característica se opõe a língua falada, que por
ser linear facilita a criação do modelo escrito.
Como citado no Capítulo 1 (seção Objetivos), uma das atividades deste
trabalho é propor um sistema de transcrição para a Língua Brasileira de Sinais na
forma escrita (XML) com o objetivo de criar um programa de computador que o
interprete e seja capaz de realizar a sinalização automaticamente, através do avatar
3D. Portanto, é oportuno analisar os principais sistemas já propostos, enumerando
seus pontos fracos e fortes.
3.2 Notação de Stokoe
Em 1960, Stokoe propôs um sistema de transcrição para a ASL (Língua de
Sinais Americana), sendo considerado um dos precursores na área (Stokoe, 1960).
Um dos seus objetivos era demonstrar que os sinais da ASL, assim como os das
demais línguas de sinais, não eram mímicas ou gestos soltos, mas sim expressões
formadas por itens lexicais passíveis de decomposições em unidades menores
(AMARAL, 2012).
Stokoe definiu a existência de três unidades que, combinadas, seriam
suficientes para expressar qualquer sinal da língua, assim como os fonemas da
língua falada (LIDDELL & JOHNSON, 1989). Para cada unidade foi dado o nome de
querema, são elas:
1. Configuração de mão: forma assumida pela mão durante a
articulação de um determinado sinal.
2. Localização: a região do corpo ou no espaço onde o sinal é realizado.
3. Movimento: deslocamento das mãos no espaço em torno do
enunciador.
Figura 8 - Notação utilizada por Stokoe para representação de algumas
configurações de mão da ASL
O sistema proposto teve sua importância no registro e estudo das línguas de
sinais. Porém, AMARAL discute que tal modelo não é apropriado para ser usado
como uma descrição computacional, com o objetivo de gerar agentes sinalizadores
virtuais (avatares). O primeiro motivo é que a notação de Stokoe tem uma
característica sequencial, não abordando os aspectos de simultaneidade observados
na língua de sinais. De fato, a maioria dos sinais da língua são expressos através da
combinação de queremas de forma simultânea, não sequencial. Outro fator é que o
modelo trabalha com um número finito de configurações de mão. Pelo fato da língua
de sinais ser dinâmica, se uma nova configuração de mão surgir com o tempo, a
solução seria usar uma configuração mais parecida já presente no modelo, o que é
algo indesejado. Por fim, Stokoe não apresenta em seu modelo as expressões
faciais, indispensáveis para a representação de diversos sinais, além de enfatizar
emoções, podendo mudar completamente o sentido da oração. Para exemplificar a
não adequação deste modelo para fins computacionais, Amaral analisa o sinal
CASA, escrito na notação de Stokoe.
Figura 9 - Sinal CASA (ASL): Mãos em configuração de B, pontas dos dedos das
duas mãos se tocam. Mãos movem-se separadamente, de maneira espelhada,
afastando-se uma da outra com um movimento para baixo e na diagonal. Depois de
um tempo, as mãos continuam a descer, mas num movimento reto, não mais na
diagonal. O movimento realizado lembra o contorno do telhado e das paredes de
uma casa. (AMARAL, 2012)
Figura 10 - Sinal CASA escrito no sistema de transcrição Stokoe
A letra B aparece duas vezes, indicando que se deve usar a ‗configuração de
mão‘ desta letra nas duas mãos (mãos abertas, como foi visto na datilologia). O sinal
^ indica que as mãos apontam para cima. A setinha apontada para cima indica que
os dedos se tocam. O sinal de ÷ indica que as mãos movem-se separadamente e o
sinal de v indica que esse movimento é para baixo. No entanto, como observado por
Amaral, ―a notação não descreve que o movimento para baixo primeiro é na
diagonal e depois é reto. Não é descrito também como ocorre o contato entre as
duas mãos, qual parte dos dedos toca qual parte da outra mão, por exemplo. Outra
característica da notação de Stokoe é a descrição apenas de sinais isolados sem a
opção de contextualização de sinais para criar conteúdo‖.
O sistema de Stokoe foi a primeira notação que representou os componentes
fonológicos da Língua de Sinais Americana por meio de símbolos. A partir daí,
outros países a estenderam e adaptaram à sua realidade, como foi o caso da
Suécia, Holanda, Itália, Inglaterra, entre outros (FRIEDMAN, 2011). Em uma dessas
adaptações surgiu o Sistema HamNoSys, que será descrito a seguir.
3.3 HamNoSys
Acrônimo de Hamburg Sign Language Notation System, o HamNoSys foi
desenvolvido na Alemanha com o objetivo de ser um sistema de transcrição
universal, usado para descrever qualquer língua de sinais. Foi derivado da Notação
de Stokoe e possui cerca de duzentos símbolos (PRILLWITZ, 1989), cada um sendo
representado pelos parâmetros configuração de mão, localização e movimento em
forma sequencial. Uma das novidades desse modelo é a introdução das expressões
não manuais, sendo usada por diversos pesquisadores até hoje.
Figura 11 - Exemplos de Configurações de Mãos do Sistema HamNoSys
Figura 22 - Exemplos de Expressões Não Manuais do Sistema HamNoSys.
Configurações da boca, lábios e língua
Figura 33 - Estrutura de um sinal expresso em HamNoSys
O HamNoSys serviu de inspiração para criação de sistemas de transcrições
computáveis, como o SiGML (Signing Gesture Markup Language). Tal linguagem de
marcação é baseada em XML e adaptou o HamNoSys com o objetivo de transcrever
a língua de sinais num formato entendível por uma máquina (ELLIOTT, 2001). O
SiGML serviu de base para o desenvolvimento do projeto eSign. Basicamente, a
solução consiste no desenvolvimento de um plugin para browsers com o intuito de
gerar um avatar que gesticulará tudo que estiver ali escrito.
Figura 14 - Descrição do sinal GOING-TO em SiGML (ANTUNES, 2011)
Assim como a notação de Stokoe, o sistema HamNoSys possui suas
limitações para ser usada como um modelo de transcrição computacional. A primeira
é em relação ao caráter sequencial em que os sinais são descritos, criando muitas
vezes interpretações ambíguas quanto a simultaneidade das sinalização. Outro
problema é que o modelo não aborda a contextualização, composição e simetria dos
sinais. Sobre a criação do SiGML, o próprio criador da linguagem revelou que o
HamNoSys teve que sofrer modificações para sua adaptação como um modelo
computacional (KENNAWAY, 2004). E, mesmo assim, o SiGML ainda é falho em
relação a alguns aspectos, como na especificação da velocidade de execução dos
sinais, limitando-se a devagar, rápido e velocidade média. Além disso, ele não
permite alterar a velocidade no mesmo sinal. Porém, como se sabe, o mesmo sinal
pode começar com uma velocidade e terminar com outra (AMARAL, 2012).
3.4 SignWriting
O SignWriting foi criado em 1974 por Valerie Sutton. Inicialmente, ela criou
um sistema de transcrição que tinha como objetivo descrever os movimentos
obervados na dança, batizando-o de DanceWriting. O estudo despertou a
curiosidade dos pesquisadores da língua de sinais dinamarquesa que estavam
procurando uma forma de escrever os sinais. Dessa forma, o DanceWriting foi sendo
adaptado para o SingWriting (QUADROS, 2007).
O SignWriting é uma notação para a escrita visual das línguas de sinais e,
assim como a HamNoSys, é universal. CAPOVILLA & RAPHAEL (2001) destaca a
importância desta notação, sendo uma ferramenta essencial para que os surdos e
estudantes de Libras obtenham o conhecimento da língua, observando todas as
unidades necessárias para a realização dos sinais. Parâmetros como configuração
de mão, localização, movimento, orientação e expressões faciais podem ser
visualizadas facilmente com o SignWriting (ANTUNES, 2011).
Figura 15 - Texto escrito em SignWriting
Para AMARAL (2012), um grande diferencial do SignWriting é a descrição da
dinâmica dos movimentos. Segundo ela, "símbolos de dinâmica podem ser
adicionados aos símbolos de movimento ou de expressões faciais para representar
simultaneidade, como por exemplo quando ambas as mãos movem-se ao mesmo
tempo, em movimentos alternados, rápidos, suaves, tensos ou relaxado".
Com o objetivo de se criar uma descrição computacional do SignWriting,
YOSRA & MOHAMED (2013) desenvolveram o SWML (SignWriting Makup
Language).
Seu trabalho tinha como objetivo reusar a notação a fim de gerar
agentes sinalizadores virtuais da língua de sinais.
Figura 16 - Sinal "SAUDAÇÃO" escrito em SWML
Porém, segundo seu próprio criador, existem alguns inconvenientes no SWML
que dificultam sua interpretação correta pelo avatar. Primeiro, na linguagem não há
nenhuma definição formal de ordem temporal em que os símbolos devem ser
escritos. Segundo, o formato SWML codifica apenas os "ícones" originais do
SignWriting, fazendo com que uma certa quantidade de informação será omitida. Por
exemplo, o SignWriting não descreve o parâmetro localização de forma exata. Esses
motivos possibilitam a existência de interpretações ambíguas. E, por fim, a
velocidade em que os sinais são executados é omitida do modelo.
3.5 Modelo de Liddell & Johnson
Os modelos de transcrição estudados até aqui, por não terem sido criados
com o propósito de serem interpretados por uma máquina, mas sim como uma
maneira de registrar conhecimentos em língua de sinais, escondem alguns detalhes
que geram ambiguidades em suas interpretações. Como foi discutido nas seções
anteriores, um dos problemas encontrados ao ler "textos" escritos nas notações
apresentadas é que não é óbvio inferir quando ocorrem aspectos de simultaneidade
ou sequencialidade na execução de um sinal. Por exemplo, se as duas mãos
levantam ao mesmo tempo ou em sequência (uma depois a outra). Se um sinal é
executado com certos movimentos das mãos e dedos em paralelo ou se move as
mãos pra depois mexer os dedos, entre outros. São detalhes pequenos, observados
em grandes números de sinais. Baseado nisso, LIDDELL & JOHNSON (1989)
estudaram a estrutura das línguas de sinais e criaram uma representação bem mais
abrangente e completa, sendo utilizada por inúmeros linguistas da atualidade
(AMARAL, 2012).
Durante suas observações, LIDDELL (1984) verificou que na execução dos
sinais há momentos em que as mãos ficam em movimento contínuo e há outros em
que elas ficam estacionadas. Baseado nisso, o modelo proposto por LIDDELL &
JOHNSON (1989) define que qualquer sinal da língua sinalizada é formado por
segmentos. Os segmentos definidos pela ausência de movimento e estabilidade de
seus aspectos formacionais (ou seja, de sua configuração de mão, localização e
orientação) são denominados suspensões (holds). Já os segmentos caracterizados
pela presença de movimento e pela alteração de pelo menos um dos aspectos que
os descrevem são designados como movimentos (movements) (DIGIAMPIETRI et
al., 2012).
Cada um desses dois segmentos possui ainda uma estrutura interna,
consistindo de feixes segmentais e articulatórios. O feixe segmental tem como
função especificar o tipo de segmento, ou seja, se é uma suspensão ou movimento.
Se for movimento, dever-se-á ainda descrever como se dá o movimento (linear,
curvo, circular, entre outros). Já o feixe articulatório tem como função especificar os
parâmetros do sinal (configuração de mão, localização, orientação, expressão não
manual).
A figura abaixo (Figura 17) apresenta os conceitos abordados até aqui. Como
citado, cada sinal da língua de sinais pode ser representado por um segmento ou
uma sequência deles.
Figura 17 – Segmento de Suspensão (a) e Segmento de Movimento (b) do Modelo
de Liddell & Johnson
Nota-se que no segmento de suspensão (Figura 17 - a), onde há ausência de
movimento, só é necessário especificar o feixe segmental como sendo suspensão e
o feixe articulatório com os parâmetros do sinal. Já no segmento de movimento
(Figura 17 - b), em que há dinamicidade e pelo menos um parâmetro de sinalização
modificado, é necessário especificar o feixe segmental como sendo movimento e,
além disso, eles requerem dois feixes articulatórios (um inicial e outro final), através
dos quais são especificadas as mudanças articulatórias ocorridas durante a sua
execução.
Porém, LIDDELL & JOHNSON observaram que segmentos de movimento
realizados entre duas suspensões têm suas características articulatórias iniciais e
finais idênticas às especificadas nas suspensões que os antecedem e os sucedem,
respectivamente. Por esse motivo, é eliminada a representação de tal redundância,
como mostra a figura abaixo (Figura 18).
Figura 18 – Eliminação das redundâncias dos segmentos de suspensão e
movimento (DIGIAMPIETRI, 2012).
Numa visão macro, o segmento de movimento fará uma interpolação entre os
parâmetros especificados nos segmentos de suspensão que o antecedem e
sucedem.
Para exemplificar, imaginemos que, como na ―Figura 18 (b)‖, é apresentado
um sinal destrinchado em três segmentos, dois de suspensão e um de movimento
entre eles. Vamos supor que:
O primeiro segmento de suspensão foi especificado como:

configuração de mão: letra A

localização: Peito Esquerdo

orientação: palma da mão virada pro corpo
O segundo segmento de suspensão foi especificado como:

configuração de mão: letra C

localização: centro da testa

orientação: palma da mão virada pra baixo
Por fim, o segmento de movimento foi especificado como:

movimento em arco, com curva pra esquerda
Nesse caso, a execução do sinal será feita da seguinte forma: a mão fará a
trajetória de um arco, partindo do peito esquerdo e indo até o centro da testa.
Durante este percurso, a configuração de mão vai mudando da letra A (mão aberta)
para a letra C (mão fechada), além de também ir mudado a orientação da palma.
Observa-se que o modelo proposto aborda questões de simultaneidade e a
sequencialidade. Enquanto a simultaneidade é o princípio organizador da estrutura
de cada segmento, a sequencialidade é o princípio organizador da estrutura interna
de cada sinal, uma vez que este pode ser constituído por um ou mais segmentos.
Embora não discutido nesta seção, o sistema de transcrição de Liddell &
Johnson ainda possui matrizes que descrevem aspectos não manuais da língua de
sinais (XAVIER, 2006).
3.6 Considerações Finais
Como o presente trabalho visa propor um modelo de descrição computacional
da Língua Brasileira de Sinais, este capítulo teve como objetivo analisar os principais
sistemas de transcrição já desenvolvidos, discutindo seus pontos fortes e,
principalmente, suas restrições para serem adaptados numa versão computável.
Tais restrições existem porque, no início, a criação dessas notações tinha um só
objetivo: ser uma ferramenta para que os Surdos pudessem registrar e adquirir
conhecimentos na forma escrita. Dessa forma, elas muitas vezes representam os
itens lexicais de forma icônica e escondem detalhes que geram ambiguidades de
interpretação, como aspectos de localização e simultaneidade/sequencialidade
(MILLER, 1994).
Mas, com o avanço nas iniciativas de acessibilidade através da tecnologia,
vários estudos foram feitos com o intuito de adaptar tais modelos para que
pudessem ser interpretados por agentes sinalizadores virtuais. Entre todos os
sistemas vistos, o proposto por Liddell & Johnson é o que melhor se adapta a uma
versão computável, pois descreve de forma mais sistematizada as unidades lexicais
da língua de sinais, abordando, entre outros, aspectos de sequencialidade e
simultaneidade na execução dos sinais. Tal modelo vem sendo usado em projetos
que visam transcrever computacionalmente a língua de sinais e servirá de base para
o sistema proposto neste trabalho.
Capítulo 4
Solução Proposta
Este capítulo terá como objetivo enumerar todos os requisitos necessários
para que seja criado um sistema de transcrição computacional da Língua Brasileira
de Sinais. Em seguida, baseado nessas características, será apresentado em
detalhes o modelo proposto por esse trabalho.
4.1Requisitos para a criação um Sistema de Transcrição
Computável da Língua de Sinais
Para que um sistema de transcrição da língua de sinais seja considerado
adequado o suficiente para ser interpretado por uma máquina, gerando como output
um agente sinalizador virtual, o mesmo deve dar suporte a certas características
consideradas essenciais para execução de qualquer sinal.
AMARAL (2012)
enumera tais características como sendo:
1. Configuração de mão
2. Pontos de localização no espaço tridimensional
3. Velocidade de movimento
4. Repetição de movimento
5. Expressões não manuais
6. Simultaneidade e sequencialidade de ações
7. Contextualização e parametrização de sinais
8. Dinâmica das mãos no movimento
9. Notação textual
Os cinco primeiros itens não serão discutidos aqui, pois suas definições e
importâncias já foram detalhadas nos capítulos anteriores.
Segundo MILLER (1994), durante a execução de um dado sinal alguns
parâmetros devem ser descritos como ocorrendo de forma simultânea enquanto
outros como sequenciais. Não deixando explícitos os momentos em que ocorrem os
chaveamentos entre simultaneidade/sequencialidade enfraquece o modelo, dando
margens a ambiguidade de interpretação.
Outro fator a ser considerado é a contextualização de sinais. Assim como na
língua portuguesa, em que alguma palavra pode mudar seu sentido e/ou escrita
dependendo do contexto da oração, também ocorre na língua de sinais.
Dependendo do âmbito em que esteja inserido, o sinal pode sofrer alterações nos
seus parâmetros de formação, ocorrendo, por exemplo, nas flexões de palavras.
Já a dinâmica das mãos indica a relação entre elas durante a execução do
sinal. As mãos podem se movimentar de forma simétrica (espelhada), alternada e
até juntas. Abordar tal conceito no sistema de transcrição favorece também na
produtividade durante a tarefa de criação de sinais, pois o usuário poderá especificar
somente os parâmetros de uma mão, pois a outra irá se mover de acordo com a
dinâmica atribuída (espelhada, alternada...).
Por fim, adotar uma notação textual para o sistema de transcrição é
indispensável para viabilizar a interpretação por um computador. Como visto no
capítulo anterior, os principais modelos descreviam os sinais de forma icônica ao
invés de textual, dessa forma a importação dos sinais para serem interpretados por
uma aplicação computacional era dificultada, precisando de uma adaptação.
Para AMARAL (2012), ―com tais características é possível traçar um perfil
desejável de um sistema de transcrição para que o mesmo seja implementado com
sucesso em um sinalizador virtual das línguas de sinais‖.
4.2 Sistema de Transcrição Proposto
Tomando como base as nove características essenciais listadas na seção
anterior, será proposto aqui um sistema de transcrição da Língua Brasileira de Sinais
passível de ser interpretado por um computador.
Como já visto no capítulo 3, dentre as notações estudadas, o modelo de
LIDDELL & JOHNSON (1989) é o mais completo e que representa de forma mais
sistematizada as unidades léxicas da língua de sinais. No entanto, embora o mesmo
dê suporte a diversos aspectos essenciais da língua, ainda é bem genérico e
diagramático, sendo necessária sua adaptação para que sirva de entrada para uma
máquina. Por isso, uma das atividades do presente trabalho é justamente promover
tal adaptação. E como se dará o processo? De um modo mais amplo, será
examinada cada uma das nove características citadas na seção anterior, analisando
a forma como o modelo de Liddell & Johnson as trata e, por seguinte, adaptando-as
para uma descrição computacional proposta por este trabalho. Começar-se-á pela
característica ―notação textual‖, que será usada como padrão para descrever as
outras oito restantes.
Para um melhor entendimento do que vem a seguir, é recomendando a leitura
da seção 3.5, onde é descrito o modelo de Liddell & Johnson.
Seguem as decisões de projeto tomadas para a criação do sistema de
transcrição proposto.
4.2.1 Notação Textual Adotada
Como o sistema de Liddell & Johnson descreve os sinais através de imagens
e diagramas (Figura 18), sua interpretação por uma máquina é dificultada. Deve-se,
portanto, desenvolver uma notação textual que traduza os detalhes desse modelo.
Como em outros projetos já desenvolvidos com essa finalidade (Figura 16), a
notação textual adotada será baseada no padrão XML (formato de arquivo para
dados semiestruturados), que dará suporte à representação dos itens léxicos de
qualquer sinal em Libras, assim como as possíveis combinações entre eles. Ao final,
cada palavra da língua portuguesa estará associada a um arquivo XML desses,
contendo sua representação em Libras.
<?xml version="1.0"?>
<Sign>
<Word>OLÁ</Word>
<!-- A partir daqui será descrito, em xml, como se dá a execução do sinal OLÁ -->
</Sign>
O XML acima mostra o esqueleto inicial do sistema proposto. Primeiramente é
colocada a tag <XML version=”1.0” ?>, indicando que se trata de um arquivo escrito
nesse formato. Logo após vem o elemento <Sign>, responsável por encapsular toda
a estrutura do sinal. O elemento <Word> é o primeiro elemento dentro de <Sign> e
diz qual palavra será representada em Libras, nesse caso ―OLÁ‖. Depois disso é
descrito os detalhes do sinal em questão, esclarecidos nas próximas seções.
4.2.2 Atribuição das Configurações de mão
A Configuração de Mão é a forma assumida pela mão durante a articulação
de um determinado sinal. Conforme observado na Figura 2, a Libras dispõe de 56
configurações de mãos diferentes.
Para uma melhor identificação e simplicidade, cada configuração de mão será
mapeada em um código único, indicando qual a disposição dos dedos na mão
dominante ou nas duas mãos durante a realização do sinal.
<H handShape="c56" ... />
O XML proposto contém o elemento <H> ou <Hand>, que contém
informações sobre as mãos num dado instante de tempo. Um dos seus atributos é o
handShape, usado para especificar a configuração de mão. Para o sinal ―OLÁ‖, seu
valor será ―c56‖, representando a configuração de mão ―mão aberta‖.
4.2.3 Atribuição da Localização e Orientação
Enquanto o parâmetro localização representa a região do corpo ou no espaço
onde o sinal é realizado, a orientação informa a direção para a qual a palma da mão
aponta durante a execução de um sinal. Assim como a configuração de mão, ambos
são especificados no elemento <H>.
<H handShape="c56" handPosition="63, 38, 08" handRotation="540, -645, 233"
elbowPosition="130, 423, 121" />
Os atributos handPosition e handRotation especificam a localização da mão e
sua orientação no espaço tridimensional num determinado instante de tempo,
respectivamente. Adicionalmente, como o sinal será executado por um avatar, é
necessário descrever a posição do cotovelo, através do atributo elbowPosition.
4.2.4 Atribuição das Expressões Não Manuais
Expressões não manuais compreendem movimentos da face, olhos, cabeça e
tronco. Muitos sinais, em sua configuração, as têm como traço diferenciador,
auxiliando na definição do significado e atribuindo emoções ao mesmo.
<M
eye="0.000,
-0.026"
mouth="0.39744">
<Morph
key="boca
sorriso
value="1.00" /><Morph key="sobrancelhas levantadas" value="0.47" /></M>
aberto"
Expressões não manuais, num dado instante de tempo, são especificadas
através dos elementos <M> e <Morph>. Dentro de <M> temos os atributos eye e
mouth que indicam, respectivamente, a posição da íris e a distância entre os dentes
da arcada superior e inferior (observado a olho nu somente quando a boca estiver
aberta). Já no elemento <Morph> são especificadas outras expressões faciais, como
as de humor (alegria, raiva, dúvida, surpresa), níveis de sorriso, disposição das
sobrancelhas, aparência da boca, bochecha inflada, entre outros. Este elemento
apresenta os atributos key (representando a expressão) e value (indicando o nível
da expressão, por exemplo, o quão levantado estarão as sobrancelhas).
4.2.5 Abordagem para Simultaneidade, Sequencialidade e Movimento
Até agora foi visto como nossa linguagem recém-criada representa os
parâmetros de forma isolada e num dado instante de tempo. Mas, a execução dos
sinais só fará sentido quando unirmos suas unidades formadoras (parâmetros) e
definirmos o momento em que cada uma será executada.
Exatamente como observado no sistema de Liddell & Johnson, o XML
proposto especifica que cada sinal da língua de sinais é formado por um segmento
ou uma sequência deles, suportando, assim, questões de simultaneidade e
sequencialidade. Enquanto a simultaneidade será o princípio organizador da
estrutura de cada segmento, a sequencialidade será o princípio organizador da
estrutura interna de cada sinal.
<?xml version="1.0"?>
<Sign>
<Word>OLÁ</Word>
<SignSegments>
<!—Abaixo estão os três segmentos formadores do sinal ‘OLÁ’ -->
<H handShape="..." handPosition="..." handRotation="..." elbowPosition="..."
startTime="..." duration="..." interpolation="..." />
<H handShape="..." handPosition="..." handRotation="..." elbowPosition="..."
startTime="..." duration="..." interpolation="..." />
<H handShape="..." handPosition="..." handRotation="..." elbowPosition="..."
startTime="..." duration="..."/>
</SignSegments>
</Sign>
O XML acima mostra como o sistema proposto adapta os conceitos de
simultaneidade e sequencialidade. Dando continuidade à descrição do sinal ―OLÁ‖,
foi adicionado o elemento <SignSegments>, responsável por agrupar os segmentos
formadores do sinal. Para esse caso, foram colocados três segmentos, todos
representando informações relativas à mão (elemento <H>). Basicamente, cada
segmento desses representa a disposição de uma das mãos num dado momento.
Para o sinal ―OLÁ‖, através dos atributos handPosition, handRotation e
elbowPosition, o primeiro segmento indica que a mão se posicionará no centro, o
segundo indica que a mão sofrerá uma leve rotação se posicionará um pouco mais à
esquerda e, por fim, o terceiro indica que a mão sofrerá uma rotação no sentido
contrário e se posicionará um pouco mais à direita. Será similar ao movimento
executado pelas mãos quando damos um ―tchau‖. Para esse caso, todos os três
segmentos especificarão o mesmo valor para o atributo handShape, indicando ―mão
aberta‖.
São apresentados mais atributos do elemento <H>. O startTime indica qual o
momento (em segundos) em que o avatar configurará sua mão com os valores
indicados pelos demais atributos. Toda animação começa com o segundo zero. O
atributo duration indica a duração, também em segundos, em que o avatar ficará
parado naquela configuração indicada pelos demais atributos. Por fim, o
interpolation especificará como será o movimento de um elemento para outro (nesse
exemplo, entre os elementos <H>), podendo ser reto ou curvilíneo, exatamente uma
adaptação dos Segmentos de Movimento do modelo de Liddell & Johnson.
Quando o interpretador for acionado, surgirá um avatar executando o sinal
―OLÁ‖, realizando movimentos de interpolação entre os três segmentos escritos.
4.2.6 Organizando o XML
Para a criação de um sinal simples, sem expressão facial ou contendo
movimentos de uma só mão, o XML pode até ficar limpo e legível. Porém, à medida
que detalhes são atribuídos ao sinal, a fim de exibir mais realidade e preciosismo
nos movimentos, o XML pode ficar muito extenso, necessitando de uma organização
para promover uma melhor legibilidade. Isso é de suma importância, pois tal
linguagem será usada pelos usuários no cadastro de sinais e, sem organização, sua
manutenção será dificultada.
Assim, a proposta é categorizar e agrupar os segmentos de acordo com a
parte do corpo que os executam.
<?xml version="1.0"?>
<Sign>
<Word>BANCO</Word>
<SignSegments target="right">
<H handShape="c52" handPosition="" handRotation="" elbowPosition="" startTime=""
duration="" interpolation="" />
<H handShape="c52" handPosition="" handRotation="" elbowPosition="" startTime=""
duration="" interpolation="" />
</SignSegments>
<SignSegments target="left">
<H handShape="c52" handPosition="" handRotation="" elbowPosition="" startTime=""
duration="" interpolation="" />
</SignSegments>
<SignSegments target="face">
<M startTime="" duration="" eye="" mouth="" interpolation=""><Morph key=""
value="" /></M>
<M startTime="" duration="" eye="" mouth="" interpolation=""><Morph key=""
value="" /></M>
</SignSegments>
<SignSegments target="neck">
<R startTime="" duration="" rotation="" interpolation="" />
<R startTime="" duration="" rotation="" interpolation="" />
</SignSegments>
<SignSegments target="torso">
<R startTime="" duration="" rotation="" interpolation="" />
</SignSegments>
</Sign>
Nota-se que agora os segmentos estão agrupados. Foi adicionado o atributo
target no elemento <SignSegments>, indicando o órgão que irá realizar os
movimentos. Quando seu valor for right, os segmentos nele contidos (<H>) indicam
especificações na mão direta. Analogamente, left conterá segmentos (<H>)
especificando detalhes na mão esquerda. Face, como o próprio nome diz, agrupará
os segmentos (<M>) que expressam movimentos na face (boca, bochecha,
sobrancelha, olhos). Neck agrupará os segmentos (<R>) que indicam movimentos
do pescoço e, por fim, torso as especificações do tronco (<R>).
Uma questão importante é que, a partir de agora, os segmentos
subsequentes
não
seguem
uma
ordem
temporal,
ou
seja,
não
serão
necessariamente executados em sequencia pelo interpretador. Para saber a ordem
em que os segmentos serão executados, o interpretador criará uma timeline se
baseando no atributo startTime, obrigatório em qualquer segmento.
4.2.7 O Sinal OLÁ descrito no XML proposto
Para finalizar de forma mais didática, analisaremos aqui como o sistema de
transcrição proposto pode ser usado para representar o sinal ―OLÁ‖, por completo.
<?xml version="1.0"?>
<Sign>
<Word>OLÁ</Word>
<SignSegments target="right">
<H handShape="c56" handPosition="0.063, 0.538,
0.5401, -0.6453, -0.2337" elbowPosition="0.1300,
duration="0.00" interpolation="easeinout" />
<H handShape="c56" handPosition="0.053, 0.538,
0.2881, -0.4893, -0.4812" elbowPosition="0.1269,
duration="0.00" interpolation="easeinout" />
<H handShape="c56" handPosition="0.073, 0.538,
0.2881, -0.4893, -0.4812" elbowPosition="0.1269,
duration="0.20" interpolation="easeinout" />
0.108" handRotation="0.4872,
0.4223, 0.0771" startTime="0.00"
0.108" handRotation="0.6678,
0.4198, 0.0771" startTime="0.50"
0.108" handRotation="0.6678,
0.4198, 0.0771" startTime="1.00"
</SignSegments>
<SignSegments target="left">
<N startTime="0.00" duration="0.00" interpolation="easeinout" />
</SignSegments>
<SignSegments target="face">
<M startTime="0.00" duration="0.00" eye="0.000, -0.103" mouth="0.46154"
interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.16" /><Morph
key="sobrancelhas levantadas" value="0.65" /></M>
<M startTime="0.50" duration="0.20" eye="0.000, -0.103" mouth="0.46154"
interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.66" /><Morph
key="sobrancelhas levantadas" value="0.85" /></M>
</SignSegments>
<SignSegments target="neck">
<N startTime="0.00" duration="0.00" interpolation="easeinout" />
<R startTime="0.60" duration="0.20" rotation="-0.5236, 0.4753, 0.5088, 0.4910" interpolation="easeinout" />
</SignSegments>
<SignSegments target="torso">
<N startTime="0.00" duration="0.00" interpolation="easeinout" />
<R startTime="0.90" duration="0.00" rotation="-0.4716, 0.5269, 0.4876, -0.5121"
interpolation="easeinout" />
</SignSegments>
</Sign>
Vamos detalhar a dinâmica ocorrida em cada parte do corpo, agrupados pelos
elementos <SignSegments>.
a) Mão direita
<SignSegments target="right">
<H handShape="c56" handPosition="0.063, 0.538, 0.108" handRotation="0.4872,
0.5401, -0.6453, -0.2337" elbowPosition="0.1300, 0.4223, 0.0771" startTime="0.00"
duration="0.00" interpolation="easeinout" />
<H handShape="c56" handPosition="0.053, 0.538, 0.108" handRotation="0.6678,
0.2881, -0.4893, -0.4812" elbowPosition="0.1269, 0.4198, 0.0771" startTime="0.50"
duration="0.00" interpolation="easeinout" />
<H handShape="c56" handPosition="0.073, 0.538, 0.108" handRotation="0.6678,
0.2881, -0.4893, -0.4812" elbowPosition="0.1269, 0.4198, 0.0771" startTime="1.00"
duration="0.20" interpolation="easeinout" />
</SignSegments>
Dentro de <SignSegments target=”right”>
estão os segmentos que
representam as disposições da mão direita ao longo da execução do sinal. Como já
visto na seção 4.2.5, nesse sinal temos três segmentos, representados pelos
elementos <H>. Ao observar os atributos handPosition e handRotation dos três
elementos, nota-se que incialmente a mão se posicionará no centro, depois sofrerá
uma leve rotação e se posicionará um pouco mais à esquerda e, por fim, sofrerá
uma rotação no sentido contrário e se posicionará um pouco mais à direita, como se
tivesse dando um ―tchau‖. Os atributos startTime, além de especificar o momento
exato em que cada segmento é realizado, também revelam a velocidade com que o
movimento é feito, nesse caso 0,5 segundos pra mão chegar no lado esquerdo e
mais 0,5 segundos pra chegar no lado direito. E, por fim, a configuração de mão
usada será sempre o ―c56‖ (handShape), indicando ―mão aberta‖.
b) Mão esquerda
<SignSegments target="left">
<N startTime="0.00" duration="0.00" interpolation="easeinout" />
</SignSegments>
Como no sinal ―OLÁ‖ a mão esquerda fica em repouso, não há maiores
detalhes em sua descrição. Mas, caso tivesse, poderíamos especificar seus
elementos e atributos da mesma forma que fizemos com a mão direita.
c) Face
<SignSegments target="face">
<M startTime="0.00" duration="0.00" eye="0.000, -0.103" mouth="0.46154"
interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.16" /><Morph
key="sobrancelhas levantadas" value="0.65" /></M>
<M startTime="0.50" duration="0.20" eye="0.000, -0.103" mouth="0.46154"
interpolation="easeinout"><Morph key="boca sorriso aberto" value="0.66" /><Morph
key="sobrancelhas levantadas" value="0.85" /></M>
</SignSegments>
Durante a execução do sinal ―OLÁ‖, gostaríamos que o avatar demonstrasse
alegria, logo, foram inseridos dois segmentos <M>. O objetivo é que o avatar vá
intensificando seu sorriso e, paralelamente, vá levantando a sobrancelha. Assim, o
primeiro segmento <M>, que indica a expressão facial inicial do avatar
(startTime=‖0.00‖),
contém o elemento <Morph> especificando um ―boca sorriso
aberto‖ e ―sobrancelhas levantadas‖, cada um com seus respectivos valores, 0.16 e
0.65. Já no segundo segmento é observado que depois de 0,5 segundos
(startTime=‖0.05‖) os valores dos atributos são aumentados para 0.66 e 0.85,
respectivamente, denotando que o sorriso será intensificado e as sobrancelhas
ficarão mais elevadas.
d) Pescoço
<SignSegments target="neck">
<N startTime="0.00" duration="0.00" interpolation="easeinout" />
<R startTime="0.60" duration="0.20" rotation="-0.5236, 0.4753, 0.5088, 0.4910" interpolation="easeinout" />
</SignSegments>
À medida que o sinal vai sendo executado, é desejável também que o avatar
mova e rotacione seu pescoço um pouco para a direita. Assim, foram introduzidos
dois segmentos. O primeiro, representado pelo elemento <N> ou <Neutro>, indica
que inicialmente (startTime=”0.00”) o pescoço ficará na posição original, parado. O
segundo segmento descreve que depois de 0,6 segundos (startTime=”0.60”) o
pescoço estará rotacionado para direita. Neste último segmento também é
observado que o valor do atributo duration é 0.2 segundos, ou seja, o pescoço vai
ficar esse tempo parado quando chegar ao lado direito.
e) Tronco
<SignSegments target="torso">
<N startTime="0.00" duration="0.00" interpolation="easeinout" />
<R startTime="0.90" duration="0.00" rotation="-0.4716, 0.5269, 0.4876, 0.5121" interpolation="easeinout" />
</SignSegments>
A explicação para o movimento feito pelo tronco é similar ao realizado pelo
pescoço. No início ele ficará numa posição neutra e, depois, inclinará um pouco para
esquerda. Esse fato é observado pela variação dos atributos startTime e rotation.
4.2.8 Exibição do Agente Virtual Sinalizador
A partir do momento que temos algum sinal descrito no sistema de transcrição
proposto, o agente virtual (avatar) pode ser acionado para executá-lo. A figura
abaixo exibe o mesmo gesticulando o sinal ―OLÁ‖.
Figura 19 – Avatar Executando a Sequência de Movimentos do Sinal ―OLÁ‖
Assim como foi especificado no XML da seção anterior, inicialmente o avatar
posicionará sua mão direita no centro e, em seguida, fará movimentos para a
esquerda e direita. Observa-se também que seu sorriso é intensificado ao longo do
tempo, assim como suas sobrancelhas se elevam, realçando a emoção. Por fim, à
medida que o sinal é executado, o avatar inclina levemente seu pescoço para a
direita.
4.3 Uma Linguagem Visual para Criação de Sinais
Até agora, como tal tecnologia é manuseada pelo usuário final?
Primeiramente, respeitando as regras sintáticas e semânticas definidas no
XML desenvolvido, o usuário escreve como é representado em Libras cada palavra
da língua portuguesa. Por exemplo, imaginemos que será cadastrada a palavra
―TCHAU‖. Então o usuário escreverá, em XML, que é preciso levantar a mão direita
até a altura do ombro e fazer rotações de 45 graus para a esquerda e direta,
alternadamente, numa velocidade qualquer. Após essa etapa, o interpretador da
linguagem gerará um avatar 3D, que realizará o movimento especificado. E assim
funciona para cada nova palavra cadastrada, até que se tenha uma base de dados
grande o suficiente para que seja realizada qualquer tradução.
Porém, durante o processo de validação com usuários finais, foi verificada a
baixa produtividade na execução do cadastro de sinais. Isso porque para cada
palavra era necessário escrever, no formato XML, sua representação em Libras,
tornando o processo bem cansativo. Nesse processo o reuso era quase inexistente.
Além de que usuários não pertencentes à área de computação sentiram muita
dificuldade em assimilar tal formato e perdiam muito tempo no cadastro.
Baseado nesse problema foi desenvolvido um editor gráfico para a criação de
tais sinais (Figura 20), que teve como objetivo abstrair o formato XML do usuário.
Figura 20 – Editor Gráfico para Criação de Sinais
Através desse editor, o usuário pode cadastrar os sinais de maneira intuitiva,
sem precisar conhecer o mínimo de XML. Todos os itens (elementos e atributos)
presentes no XML podem ser editados aqui de maneira gráfica. Basicamente, é
exibido um avatar em posição neutra no qual se pode, com o mouse, arrastar seus
braços e mãos para a posição desejada, controlar a sequência de movimentos
através de uma timeline, escolher uma configuração de mão adequada e até definir
expressões não manuais para qualquer sinal. Paralelamente, à medida que o
usuário vai cadastrando um novo sinal através desse editor gráfico, o XML vai sendo
gerado pela aplicação, pois o mesmo representa o modelo computável que será
usado pelo avatar na interpretação/gesticulação do sinal.
4.4 Considerações Finais
Este capítulo teve como objetivo enumerar todos os requisitos necessários
para a criação um sistema de transcrição computacional da Língua Brasileira de
Sinais. Em seguida, baseado nessas características, foi apresentado em detalhes a
estrutura do modelo proposto. À princípio, um modelo textual (XML) tinha que ser
usado para o descrever qualquer sinal em Libras, porém, ao observar seus
problemas relacionados a produtividade e usabilidade, foi adicionada uma camada
visual ao mesmo, deixando a atividade de cadastro mais natural e intuitiva.
Para construir uma aplicação que traduz português para Libras, é essencial
que se tenha um sistema de cadastro de sinais bem projetado, proporcionando
produtividade nessa atividade. Isso porque, em teoria, todos os sinais do dicionário
devem ser cadastrados e armazenados num banco de dados para, posteriormente,
serem requisitados durante a tradução. Por exemplo, imagine que se deseja traduzir
a frase ―EU GOSTO DE VOCÊ‖ para Libras, através de um avatar. Assim, a
aplicação de tradução requisitará ao banco de dados as palavras ―EU‖, ―GOSTAR‖ e
―VOCÊ‖. O banco de dados, por sua vez, fará uma busca interna pelos arquivos
XMLs representantes dessas palavras e os enviarão para a aplicação de tradução.
Finalmente, tendo os XMLs em mãos, o avatar gesticulará a frase em Libras.
No próximo capítulo será discutido como o sistema de transcrição proposto
por esse trabalho vem contribuindo com essas soluções que realizam tradução de
português para Libras.
Capítulo 5
Contribuições do Trabalho Desenvolvido
Neste capítulo serão mostradas as contribuições que o presente trabalho
trouxe para a comunidade Surda, estudantes de Libras e brasileiros envolvidos com
acessibilidade.
5.1 ProDeaf
O sistema de transcrição proposto por esse trabalho foi incorporado ao
projeto ProDeaf, um software de tradução de texto e voz para Libras, com o objetivo
de realizar a comunicação entre surdos e ouvintes. Atualmente, o ProDeaf é
utilizado por surdos, estudantes de Libras e fonoaudiólogos de todo o território
brasileiro, além de também ser usado como uma ferramenta provedora de
acessibilidade dentro de grandes empresas, como o Bradesco Seguros.
O ProDeaf foi projetado para ser usado em diversas plataformas. Duas delas
serão apresentadas a seguir.
5.1.1 ProDeaf Móvel
Figura 21 – ProDeaf Móvel sendo usado numa tradução do Português para Libras
(http://www.prodeaf.net/prodeaf-movel/)
O objetivo desse módulo para smartphones é permitir que o surdo entenda
qualquer informação – escrita ou falada – que esteja na língua portuguesa. Pois,
através deste aplicativo, qualquer pessoa pode falar ou escrever pequenas frases
em português e, automaticamente, o avatar traduzirá o conteúdo para Libras. Além
disso, o sistema contém um dicionário português-Libras, permitindo que o usuário
selecione alguma palavra em português e veja sua representação em Libras, através
do avatar 3D. Assim, além de viabilizar a comunicação entre surdos e ouvintes, o
aplicativo provê um cunho educacional, onde estudantes de Libras podem usá-lo
para aprender a representação dos sinais.
Atualmente o aplicativo está disponível para download, podendo ser
executado em smartphones com Android, iOS e Windows Phone 8.
5.1.2 ProDeaf para WebSites
Figura 22 – ProDeaf para WebSites sendo usado para traduzir a página do Bradesco
Seguros
Este módulo do ProDeaf tem como objetivo promover a acessibilidade na
Internet, permitindo que o surdo entenda o conteúdo de qualquer página web. Como
funciona? Ao entrar num site que contenha o plugin do ProDeaf instalado, o usuário
verá o ícone ―Acessível em Libras‖ (Figura 23). Ao clicar no ícone, o avatar
aparecerá na tela e ficará de prontidão para realizar a tradução. Por fim, o usuário
poderá clicar em qualquer frase do site e o avatar fará a tradução para Libras, como
mostra a Figura 22.
Figura 23 – Ícone indicando que o site está acessível em Libras
5.1.3 Incorporação do Sistema de Transcrição ao ProDeaf
Como já explicado, para construir uma aplicação que traduz português para
Libras, como é o caso do ProDeaf, é essencial que se tenha um sistema de
transcrição bem projetado para o cadastro de sinais. Isso porque, em teoria, todos
os sinais do dicionário devem ser cadastrados e armazenados num banco de dados
para, posteriormente, serem requisitados durante a tradução. A seguir será
explicado como o sistema de transcrição proposto por esse trabalho é acoplado ao
ProDeaf.
Figura 24 – Fluxo de dados para o cadastro de sinais
Através do Editor de Sinais desenvolvido neste trabalho, o usuário cria o sinal
desejado e, no final da edição, o sistema automaticamente gera o XML que
representa todas as unidades léxicas do sinal recém-criado. Tal arquivo é enviado
ao Servidor do ProDeaf que, por sua vez, o armazena no banco de dados que
contém os demais sinais já cadastrados.
Figura 25 – Fluxo de dados para o processo de tradução
A partir do momento que os sinais estão cadastrados, o sistema fica apto para
realizar a tradução do português para Libras. Para exemplificar este processo, a
Figura 25 mostra como se dá o fluxo de dados para traduzir a frase ―EU QUERO
ACESSIBILIDADE‖, proveniente de uma das aplicações do ProDeaf. Primeiramente,
a frase é enviada ao servidor do ProDeaf, que separará as palavras (―EU‖,
―QUERER‖ e ―ACESSIBILIDADE‖) e buscará no banco de dados suas respectivas
representações em Libras. O banco de dados devolve os arquivos XML ao servidor
que, por sua vez, os envia para a aplicação que o requisitou (ProDeaf Móvel ou
ProDeaf para WebSites). Por fim, com o arquivo em mãos, o avatar realizará a
tradução para Libras.
Caso o XML de uma palavra específica ainda não tiver cadastrado no banco
de dados, o avatar irá soletrar a mesma. Por exemplo, se o sinal de
―ACESSIBILIDADE‖ ainda não tiver sido criado, o avatar gesticulará cada letra em
sequência (A-C-E-S-S-I-B-I-L-I-D-A-D-E). Por isso, é essencial que as letras sejam
os primeiros sinais a serem cadastrados no sistema.
5.2 Editor de Sinais Disponível na Internet
Não é difícil perceber que, num sistema de tradução, um dos trabalhos mais
cansativos se encontra na tarefa de cadastrar os sinais. Isso porque, para a
tradução ser adequada o suficiente, praticamente cada palavra da língua portuguesa
deverá ter sua representação em Libras. Para se ter uma ideia, o dicionário
português-Libras desenvolvido por CAPOVILLA (2011), contém 9.828 sinais
catalogados. Ir cadastrando um por um de fato não é rápido, principalmente se for
requerido alta qualidade nos sinais.
A primeira etapa para deixar essa tarefa mais produtiva já foi realizada: a
abstração do XML num editor visual para criação de sinais. Mas isso não é o
suficiente.
Então, com a finalidade acelerar o crescimento da base de sinais, o Editor
Gráfico de Sinais (Figura 20) ficará disponível na Internet. Através dele qualquer
usuário, como surdos, estudantes de Libras, fonoaudiólogos, designers e
interessados em acessibilidade, poderão cadastrar os sinais ainda não criados e,
além disso, aprimorar os já existentes, realçando seus aspectos de naturalidade.
Dessa forma, toda tradução será enriquecida, pois tanto a quantidade quanto a
qualidade dos sinais estarão em constante evolução.
Capítulo 6
Conclusão
Neste capítulo apresentamos as considerações finais sobre o trabalho
desenvolvido.
6.1 Considerações Finais
Pelo fato dos membros da comunidade Surda não conseguirem estabelecer
uma comunicação fluente com os ouvintes, antigamente eles eram tratados como
sujeitos inferiores, excluídos da normalidade, sendo submetidos a procedimentos
extremos a fim de ―corrigir‖ e remover sua deficiência (ANTUNES, 2011). Contudo,
com o passar do tempo, o que se viu foi uma comunidade (Surda) cada vez mais
unida, lutando pelas suas causas que, entre outras, englobam a cobrança de
iniciativas que respeitem seus aspectos culturais e linguísticos, geradores da sua
identidade (SKLIAR, 1999).
No Brasil, essas lutas vêm gerando resultados grandiosos. Recentemente, a
Libras foi oficializada através da Lei n.º 4.857 / 2002, enquanto língua dos surdos
brasileiros e segunda língua oficial do Brasil. Além disso, o DECRETO Nº 5.626, de
22 de dezembro de 2005 prevê em seu Capítulo III:
“DA
INCLUSÃO
DA
LIBRAS
COMO
DISCIPLINA
CURRICULAR
Art. 3o A Libras deve ser inserida como disciplina curricular obrigatória nos
cursos de formação de professores para o exercício do magistério, em nível
médio e superior, e nos cursos de Fonoaudiologia, de instituições de ensino,
públicas e privadas, do sistema federal de ensino e dos sistemas de ensino
dos Estados, do Distrito Federal e dos Municípios.
§1o Todos
os
cursos
de
licenciatura,
nas
diferentes
áreas
do
conhecimento, o curso normal de nível médio, o curso normal superior, o
curso de Pedagogia e o curso de Educação Especial são considerados cursos
de formação de professores e profissionais da educação para o exercício do
magistério.
§ 2o A Libras constituir-se-á em disciplina curricular optativa nos demais
cursos de educação superior e na educação profissional, a partir de um ano
da publicação deste Decreto.‖
Num processo similar, leis foram criadas para que empresas do setor público
e
instituições
financeiras
prestem
atendimento
e
forneçam
soluções
de
acessibilidade aos Surdos, onde qualquer conteúdo deve ser traduzido para Libras
(DECRETOS 5.296/2004 e 5.626/2005). Todas essas iniciativas vêm tornando a
educação e vida dos surdos cada vez mais fáceis, além de incentivarem
pesquisadores a desenvolverem iniciativas sobre o assunto.
Com o aumento dessas discussões de políticas públicas e investimentos em
tecnologias assistivas realizados em todo o mundo, várias soluções vêm sendo
desenvolvidas no Brasil para garantir a inclusão social dos deficientes auditivos.
Entre elas podemos citar o Dicionário da Língua Brasileira de Sinais, o
NAMBIQUARA, CELIG, Projeto Rybená, FLIBRAS, entre outros.
Dentre as soluções, também estão as que funcionam traduzindo algum texto
digitado ou som falado para a língua de sinais, através de um avatar 3D que faz o
papel de um intérprete virtual. Esse tipo de aplicação é de suma importância, pois,
como a maioria dos ouvintes desconhece a Libras e o surdo não conhece o mínimo
de Português, é necessária a presença constante de um intérprete, o que muitas
vezes é inviável.
Assim, todas as questões abordadas nessa seção justificam a importância da
solução proposta por esse trabalho, tendo um papel fundamental no incentivo da
propagação e adoção da Língua Brasileira de Sinais contribuindo, por consequência,
pelo respeito da identidade e cultura Surda.
Todo o trabalho descrito aqui foi desenvolvido no contexto de um projeto
maior, chamado ProDeaf, um software de tradução de texto e voz para Libras, com o
objetivo de realizar a comunicação entre surdos e ouvintes. Em 2012, o ProDeaf foi
aprovado pelo MCT/CNPq e recebeu um investimento usado em bolsas para sua
execução, inclusive financiando as pesquisas descritas neste presente documento.
Portanto, a empresa ProDeaf detém os direitos comerciais de todo o trabalho aqui
apresentado.
Referências Bibliográficas
FERREIRA BRITO, Lucinda. Integração social & educação de surdos. R.J.:
Babel, 1993. Por uma gramática de Língua de Sinais. R.J.: Tempo Brasileiro, 1995.
KRISTEVA, Julia. Le langage, cet inconnu. Une initiation à la lingüistique.
Paris: Éditions du Seuil, 1981.
RAMOS, Clélia Regina & GOLDFELD, Marcia. ―Vendo Vozes: os passos
dados na direção da realização de um programa de televisão para crianças surdas‖
in GELES número 6, Ano 5, Babel, 1992.
REIS, Vania Prata Ferreira. A criança surda e seu mundo: o estado-da-arte,
as políticas e as intervenções necessárias. Dissertação de mestrado (n.p.). Vitória:
Universidade Federal do Espírito Santo, 1992.
REVISTA DA FENEIS. Números 1 ao 13. R.J. 1999/2002.
REVISTA NOVA ESCOLA. Ano VIII. Número 69. Setembro de 1993. S.P.:
Fundação Victor Civita.
SACKS, Oliver. Vendo Vozes: uma jornada pelo mundo dos surdos. Rio de
Janeiro: Imago, 1990.
WOLL, Bencie. ―Historical and comparative aspects of British Sign Language‖
in Sign and school: using Signs in deaf Children’s Development. Clevendon:
Multilingual Matters Ltd., 1987.
RAMOS, Clélia Regina. LIBRAS: a língua de sinais dos surdos brasileiros,
1995. [s.d]. Disponível em <http://www.editora-arara-azul.com.br>. Acesso em: 17
mar. 2014.
ANTUNES, D. R. Um modelo de descrição computacional da fonologia da
língua de sinais brasileira. 2011. 168f. Dissertação (Mestrado) – Universidade
Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em
Informática, Curitiba. 2011.
AMARAL, Wanessa. M. Sistema de transcrição da língua brasileira de sinais
voltado à produção de conteúdo sinalizado por avatares 3D. 2012. Tese (Doutorado
em Engenharia Elétrica) - Universidade Estadual de Campinas. Campinas, SP.
MILLER, C. (1994). A note on notation. Sign Post: v. 7(3), 191-202. Durham:
University of Durham.
STOKOE, W.C. (1960) Sign language structure: an outline of the visual
communication system of the american deaf. Studies in Linguistics: Occasional
Papers 8. Buffalo, NY: Buffalo University.
LIDDELL, S. K (1984). THINK and BELIEVE: Sequentiality in American Sign
Language, 60:372–99.
LIDDELL, S. K. & Johnson, R. E. (1989). American Sign Language: the
phonological base. Sign Language Studies.,64:195–278.
FRIEDMAN, L. (1976). Phonology of a soundless language: Phonological
structure of the American Sign Language. Doctoral dissertation, University of
California, Berkeley.
S. PRILLWITZ; R. Leven; H. Zienert; T. Hanke; J. Henning e Colleagues.
Hamnosys version 2.0: Hamburg notation system for sign languages: An introductory
guide. International Studies on Sign Language and the Communication of the Deaf.
1989.
KENNAWAY, J. R., Glauert, J. R.W., & Zwitserlood, I. (2007). Providing signed
content on the internet by synthesized animation. ACM Trans. Comput.-Hum.
Interact. 14, 3, Article 15.
R. ELLIOTT; J. Glauert; J. Kennaway e K. Parsons. D5-2: Sigml definition.
Technical report working document. Relatório técnico, ViSiCAST Project, 2001
QUADROS, Ronice Muller de. A History of SignWriting written in Brazilian
Portuguese.
2007.
Disponível
em
<http://www.signwriting.org/library/history/hist010.html>. Acesso em: 10 mar. 2014.
F. C. CAPOVILLA e W. D. RAPHAEL. Dicionário Enciclopédico Ilustrado
Trilíngue da Língua de Sinais Brasileira. Vol.I: Sinais de A à L. Editora da
Universidade de São Paulo, São Paulo, 2001.
YOSRA Bouzid, MOHAMED Jemni. ‖Gesture Synthesis from SignWriting
Notation.‖ The 10th International Gesture Workshop (GW) and the 3rd Gesture and
Speech in Interaction (GESPIN) Conference, June 19-21, 2013, The Netherlands.
SLEVINSKI, S. The SignPuddle Standard for SignWriting Text. 2012.
DIGIAMPIETRI, Maria Carolina Casati; AGUIAR, Mônica Cruz de; DEDINO,
Magaly de Lourdes Serpa Monteiro. Libras em estudo: descrição e análise.
Mirandópolis, Sp: Feneis Ltda, 2012.
XAVIER, A. N. (2006) Descrição Fonético-Fonológica dos Sinais da Língua de
Sinais Brasileira (libras). Dissertação de mestrado, Faculdade de Filosofia, Letras e
Ciências Humanas, USP.
PALMA, Luciana Erina. Comunicação: um jogo de movimentos entre o surdo
e a educação física. Disponível em: http://www.sj.ifsc.edu.br, acesso em: 13/10/11.
BERLO, D.K. - O Processo da Comunicação: Introdução à Teoria e Prática.
Rio de Janeiro. Editora Fundo de Cultura. 2008.
BORDENAVE, J.E.D.; - O que é Comunicação. Nova cultural Brasiliense.
Coleção Primeiros Passos. São Paulo. 1986.
COUTO, R. M. de S. et al. Do concreto ao virtual: interação e interatividade no
letramento de indivíduos surdos. In: CONGRESSO INTERNACIONAL DE DESIGN
DA INFORMAÇÃO, 2., 2005. São Paulo. Anais do 2º Congresso Internacional de
Design da Informação. São Paulo, 2005.
TAMBOSI, S. L. P. A. S. – Programa de Auxílio à Surdez. In: CONGRESSO
BRASILEIRO DE COMPUTAÇÃO, 2002. Fórum de Informática aplicada a Pessoas
Portadoras de Necessidades Especiais. Itajaí, Santa Catarina, 2002.
FOWLER, Martin. ―Domain Specific Languages‖. 2010.
SAFAR and I. Marshall. "The Architecture of an English-Text-to-SignLanguages Translation System". School of Information Systems, University of East
Anglia.
YEATES, E. J. Holden and R. Owens. ―Real-Time 3d Graphics For Human
Modelling And Teaching Sign Language‖, Zakopane, 2002, Pag.25-29.
eSIGN project. ―Animating Sign Language: The eSIGN Approach‖.
M. JEMNI, O. Elghoul. ―Towards Web-Based automatic interpretation of written text
to Sign Language‖, ICTA‘07, April 12-14, Hammamet, Tunisia, 2007.
C. SKLIAR. A Surdez: Um Olhar Sobre a Diferença. Mediação, Porto Alegre, 1
edition, 1999.
ACESSO BRASIL. Libras - Dicionário da Língua Brasileira de Sinais. Disponível em
<http://www.acessobrasil.org.br/libras>, Acesso em: 31 mar. 2014.
NAMBIQUARA. Brava Autonomia. Disponível em
<http://www.bravaautonomia.com.br/#solucoes_brava>, Acesso em: 31 mar. 2014.
BAPTISTA, Fabrício. F-Libras: Ambiente integrado de ensino-aprendizagem para a
Língua Brasileira de Sinais. Dissertação de Mestrado, Programa de Mestrado em
Ciência da Computação, Centro Universitário Eurípedes de Marília, Marília, SP,
2007.
RYBENÁ. Projeto Rybená. Disponível em <http://www.grupoicts.com.br>, Acesso
em: 31 mar. 2014.
Download

UM ESTUDO DE DOMÍNIO DA LÍNGUA BRASILEIRA DE SINAIS A