Escola Regional de Informática
SBC Mato Grosso
Apoio:
Parceiro:
Realização:
Fundação de Amparo à Pesquisa do Estado de Mato Grosso
INSTITUTO FEDERAL DE
EDUCAÇÃO, CIÊNCIA E TECNOLOGIA
MATO GROSSO
UFMT
PROCEV
ORGANIZAÇÃO
Comissão Organizadora
Cristiano Maciel UFMT – (Coordenador Geral)
Alexandre Martins dos Anjos - UFMT
Andreia Gentil Bonfante – UFMT
Claudia Aparecida Martins - UFMT
Clodoaldo Nunes - IFMT
Deive de Oliveira Souza - UFMT
Eunice Pereira dos Santos Nunes - UFMT
Evandro César Freiberger - UFMT
Ivairton Monteiro Santos - UFMT-BG
João Paulo Delgado Preti - UFMT
Luciana Correia L. de Faria Borges - UFMT
Mara A. Dota - UFMT-ROO
Maurício Lima Pereira - UFMT
Nielsen Cassiano Simões – UFMT
Patricia Cristiane de Souza - UFMT
Raul Teruel dos Santos - UFMT
Wilnice Tavares Reis Oliveira - IFMT
Alunos do Centro Acadêmico de Computação – UFMT
Alunos da Empresa Junior em Computação da UFMT
Alunos do Departamento da Área de Informática (DAI) – IFMT
Comitê Científico
Patricia Cristiane de Souza - UFMT (Coordenadora)
Adriana Vivacqua – DCC-IM/UFRJ
Andreia Gentil Bonfante - UFMT
Ana Claudia Azevedo – IFMT
Avanilde Kemczins - UDESC
Claudia Aparecida Martins - UFMT
Cristiano Maciel – UFMT
Ed’ Wilson Ferreira – IFMT
Gleber Nelson Marques – UNEMAT
Idalmis Milián Sardiña – UFF
Jésus Franco Bueno – UFMT
José Viterbo - UFF
Josiel Maimone de Figueiredo – UFMT
Junia Anacleto – UFSCar
Karina Valdivia-Delgado – USP
Mauricio Fernando Pereira Lima – UFMT
Nélson Tenório Junior. – CESUMAR
Raul S. Wazlawick - UFSC
Ruy de Oliveira – IFMT
Ruy Ferreira – UFMT
Valtemir do Nascimento – IFMT
Vânia Neris - UNICAMP
Wilnice Tavares Reis Oliveira - IFMT
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e negócios
SUMÁRIO
A AVALIAÇÃO DO USO DE APLICATIVOS COMO PROPOSTA DE SUPRIR A
CARÊNCIA DE SOFTWARES EDUCATIVOS PARA O ENSINO DE GEOGRAFIA . 8
Carlos José Braga da Silva .................................................................................................................................. 8
Juvenal Silva Neto ............................................................................................................................................... 8
A PARTICIPAÇÃO E A INTERAÇÃO DOS ALUNOS EM AMBIENTES VIRTUAIS
DE APRENDIZAGEM: O USO DOS RELATÓRIOS DE ATIVIDADES DO MOODLE10
Danilo Garcia da Silva ....................................................................................................................................... 10
Kátia M. Alonso ................................................................................................................................................ 10
Cristiano Maciel ................................................................................................................................................ 10
ADAPTANDO PADRÕES DE ACESSIBILIDADE PARA GOVERNO ELETRÔNICO
USANDO A PLATAFORMA LIFERAY ..................................................................... 12
Marco aurelio Campos ...................................................................................................................................... 12
Rômulo Prandini Lima ...................................................................................................................................... 12
Patricia Cristiane Souza ..................................................................................................................................... 12
Cristiano Maciel ................................................................................................................................................ 12
AMBIENTE WEB SOCIAL DE INFORMAÇÃO POLÍTICA ÚTIL AO CONTROLE E TRANSPARÊNCIA
DA VIDA PÚBLICA ........................................................................................................................................ 14
AMBIENTES VIRTUAIS DE APRENDIZAGEM: O USO DOS RELATÓRIOS DE
ATIVIDADES DO MOODLE NO CURSO DE PEDAGOGIA DA UFMT, ACORDO
BRASIL/JAPÃO ........................................................................................................ 16
Danilo Garcia da Silva ....................................................................................................................................... 16
Kátia M. Alonso ................................................................................................................................................ 16
Cristiano Maciel ................................................................................................................................................ 16
ANÁLISE TÉCNICA DE ARQUITETURAS DE VIRTUALIZAÇÃO .......................... 18
André Valente do Couto .................................................................................................................................... 18
Claudio Toyoshy Onohara ................................................................................................................................. 18
Reginaldo Hugo S. Dos Santos.......................................................................................................................... 18
ARQUITETURA ORIENTADA A SERVIÇOS E COMPONENTES PARA GESTÃO
AMBIENTAL ATRAVÉS DE IMAGENS MULTI-ESPECTRAIS................................ 20
Gustavo Liberatti ............................................................................................................................................... 20
Rodicrisller Rodrigues ....................................................................................................................................... 20
Josiel Maimone de Figueiredo ........................................................................................................................... 20
Cláudia Martins ................................................................................................................................................. 20
Andreia Gentil Bonfante .................................................................................................................................... 20
BENEFÍCIOS DE MVC PARA OS PROJETOS DE SOFTWARE ............................ 23
Robison Karls Custódio ..................................................................................................................................... 23
Wagner Santos Lino .......................................................................................................................................... 23
Ghanem Arfox ................................................................................................................................................... 23
CERBEROS: SOFTWARE LIVRE PARA ADMINISTRAÇÃO DO SQUID ............... 25
André L. L. De Oliveira .................................................................................................................................... 25
COMPUTADOR EMBARCADO BASEADO EM MICROCONTROLADORES ARM
PARA APLICAÇÃO EM AGRICULTURA DE PRECISÃO ....................................... 28
Maurício Fernando Lima Pereira ....................................................................................................................... 28
Filipe Pereira Ferraz .......................................................................................................................................... 28
Wellington Sales Eugênio Santos ...................................................................................................................... 28
Elmo Batista de Faria ........................................................................................................................................ 28
Josiel Maimone de Figueiredo ........................................................................................................................... 28
Raul Teruel dos Santos ...................................................................................................................................... 28
CONSTRUÇÃO DE UMA BASE DE TREINAMENTO DE IDS UTILIZANDO O
PROTOCOLO SNMP PARA CAPTURA DE DADOS EM UMA REDE 802.11 ........ 30
Filipe Araújo Molina ......................................................................................................................................... 30
Nelcileno Virgílio de Souza Araújo .................................................................................................................. 30
Ed’Wilson Tavares Ferreira............................................................................................................................... 30
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e negócios
Ruy de Oliveira ................................................................................................................................................. 30
CONVERSÃO DE DIAGRAMA DE ATIVIDADES UML PARA SAN: GERAÇÃO DE
CASOS DE TESTE DE SOFTWARE ........................................................................ 32
Toni Amorim de Oliveira .................................................................................................................................. 32
CRIAÇÃO DE MODELOS DE PRODUTIVIDADE DE SOJA PARA FIDELIZAÇÃO
DE ASSOCIADOS EM COOPERATIVAS DE PRODUÇÃO..................................... 34
Gilso César Valiati ............................................................................................................................................ 34
Sandro da Silva Camargo .................................................................................................................................. 34
CRIAÇÃO DE MODELOS PREDITIVOS DE EVASÃO ESCOLAR ......................... 36
Fernanda Milani ................................................................................................................................................ 36
Sandro da Silva Camargo .................................................................................................................................. 36
DATA WEBHOUSE CEB-INEP – UM DATA WEBHOUSE A PARTIR DOS
MICRODADOS DO CENSO ESCOLAR BÁSICO INEP/MEC .................................. 38
Fernando Maia da Mota..................................................................................................................................... 38
Leila Lisiane Rossi ............................................................................................................................................ 38
Marcelo Augusto Santos Turine ........................................................................................................................ 38
Alex de Lima Campelo ...................................................................................................................................... 38
DESENVOLVIMENTO DE UM SHELL DE COMANDOS PARA COMUNICAÇÃO
COM MICRONTROLADORES ARM COM FREERTOS........................................... 40
Izandro Monteiro Metello .................................................................................................................................. 40
Josiel Maimone de Figueiredo ........................................................................................................................... 40
Maurício Fernando Lima Pereira ....................................................................................................................... 40
DESENVOLVIMENTO DE UM SIMULADOR MULTIMÍDIA PARA O ENSINO DE
ESCALONAMENTO DE PACOTES ......................................................................... 42
Gustavo X. Santana ........................................................................................................................................... 42
Tatiana Annoni Pazeto ...................................................................................................................................... 42
ESTIMATIVA DE EVAPOTRANSPIRAÇÃO UTILIZANDO REDES NEURAIS ....... 44
Thiago Meirelles Ventura .................................................................................................................................. 44
ETIQUETAS INTELIGENTES - RFID ....................................................................... 46
Bruno Delanne Porto Dourado .......................................................................................................................... 46
Lidia Martins da Silva ....................................................................................................................................... 46
FORMAÇÃO TECNOLÓGICA CONTINUADA NAS ESCOLAS ESTADUAIS DA
REGIÃO NORTE DE CUIABÁ – TRANSPONDO BARREIRAS .............................. 48
Elza Santos Moura de Jesus............................................................................................................................... 48
GCOMPRIS E A INCLUSÃO DIGITAL ..................................................................... 50
Laura M. S. Cunha ............................................................................................................................................ 50
Alex F. de Araújo .............................................................................................................................................. 50
Carlos A. S. J. Gulo ........................................................................................................................................... 50
GERENCIAMENTO
E
ARMAZENAMENTO
DE
DADOS
MICROMETEOROLÓGICOS .................................................................................... 52
Allan Gonçalves de Oliveira.............................................................................................................................. 52
Thiago Meirelles Ventura .................................................................................................................................. 52
Josiel Maimone de Figueiredo ........................................................................................................................... 52
Claudia Aparecida Martins ................................................................................................................................ 52
Andréia Bonfante Gentil .................................................................................................................................... 52
HOTSPOT COM CAPTIVE PORTAL PARA ACESSO A INTERNET ...................... 54
André Valente do Couto .................................................................................................................................... 54
Wellyngton Rodrigues Siqueira......................................................................................................................... 54
INTEGRAÇÃO DE DADOS: UM ESTUDO DE CASO NA ÁREA EDUCACIONAL . 56
Maicon Ança dos Santos ................................................................................................................................... 56
Sandro da Silva Camargo .................................................................................................................................. 56
INTERFACE EM LINGUAGEM NATURAL USANDO AGENTES INTELIGENTES . 58
Marcos Eduardo Rizzi ....................................................................................................................................... 58
INTERNET NOS LABORATÓRIOS DE INFORMÁTICA DAS ESCOLAS, COMO
ADMINISTRAR O USO? – UMA AÇÃO DE EXTENSÃO ........................................ 60
Francisco Sanches Banhos Filho ....................................................................................................................... 60
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e negócios
Ralf Hermes Siebiger ........................................................................................................................................ 60
LINHA DE PRODUTOS DE SOFTWARE NO PROCESSO DE GERAÇÃO DE
APLICAÇÕES WEB E-PARTICIPATIVAS ............................................................... 63
Edie Correia Santana ......................................................................................................................................... 63
Marcelo Augusto Santos Turine ........................................................................................................................ 63
Cristiano Maciel ................................................................................................................................................ 63
LINUX EDUCACIONAL: EXPERIÊNCIA DE ENSINO PARA ALUNOS ENTRE 9 E
13 ANOS DE ESCOLA PÚBLICA DE RONDONÓPOLIS-MT.................................. 65
Liana S. L. Mesquita ......................................................................................................................................... 65
Mirian S. Riva ................................................................................................................................................... 65
Luis Fernando Refatti ........................................................................................................................................ 65
Luzane Francisca Gomes ................................................................................................................................... 65
Mara Dota .......................................................................................................................................................... 65
MAPEAMENTO DAS AÇÕES REALIZADAS NO ÂMBITO DE UM CURSO DE
LICENCIATURA EM INFORMÁTICA ....................................................................... 67
Leandro Arruda de Rezende .............................................................................................................................. 67
Soraia Silva Prietch ........................................................................................................................................... 67
Tatiana Annoni Pazeto ...................................................................................................................................... 67
MÉTODOS PRÁTICOS DE ESTEGANOGRAFIA DIGITAL ..................................... 69
Patrícia Ladislau Silva ....................................................................................................................................... 69
André Valente do Couto .................................................................................................................................... 69
Lídia Martins Silva ............................................................................................................................................ 69
O PROCESSO DE APRENDIZAGEM DE ESTRUTURA DE DADOS ATRAVÉS DA
PRODUÇÃO DE VÍDEOS EDUCATIVOS................................................................. 71
Rodrigo A. Morbach .......................................................................................................................................... 71
Cleverson R. M. Fernandes ............................................................................................................................... 71
Soraia Silva Prietch ........................................................................................................................................... 71
O USO DE REDES SOCIAIS COMO MECANISMO DE INCLUSÃO SOCIAL NA
PERIFERIA DE CUIABÁ .......................................................................................... 73
Taciane Garcez Maurício .................................................................................................................................. 73
Tadeusa Margarida de Melo .............................................................................................................................. 73
Cristiano Maciel ................................................................................................................................................ 73
ORGANIZAÇÃO E DISPONIBILIZAÇÃO DE CONTEÚDOS POR MEIO DE
TAXONOMIA ............................................................................................................ 75
Aline Wollinger ................................................................................................................................................. 75
Custódio Gastão da Silva Júnior ........................................................................................................................ 75
OS PROFESSORES E A TECNOLOGIA: A QUALIFICAÇÃO TECNOLÓGICA NAS
LICENCIATURAS DO CUR-UFMT ........................................................................... 78
Luzane Francisca Gomes ................................................................................................................................... 78
Prof. Dr. Ruy Ferreira ........................................................................................................................................ 78
PERSPECTIVAS SOBRE A INTERAÇÃO ENTRE ONTOLOGIAS E WEB
SEMÂNTICA ............................................................................................................. 80
Adriana Cássia da Costa .................................................................................................................................... 80
Custódio Gastão da Silva Júnior ........................................................................................................................ 80
PLANEJAMENTO PARA REDES FWA BASEADO EM ALGORITMOS
GENÉTICOS ............................................................................................................. 82
Aline Paulino Domingos de Souza .................................................................................................................... 82
Alexandre Torrezam .......................................................................................................................................... 82
André Valente do Couto .................................................................................................................................... 82
PORTAIS EDUCACIONAIS E CULTURA MIDIÁTICA: ESPECIFICAÇÃO DE
REQUISITOS EM CONTEXTOS DE EXTENSÃO À DISTÂNCIA ............................ 84
Juvenal Silva Neto ............................................................................................................................................. 84
Gleber Nelson Marques ..................................................................................................................................... 84
PROCESSAMENTO DE CONSULTAS EM SISTEMA DE GERENCIAMENTO DE
BANCO DE DADOS ................................................................................................. 86
Raphael de Souza Rosa Gomes ......................................................................................................................... 86
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e negócios
Josiel Maimone Figueiredo ............................................................................................................................... 86
PRODUÇÃO DE INSTRUMENTO DE AVALIAÇÃO DE CURSOS DE GRADUAÇÃO
E PROPOSTA DE APLICAÇÃO ESPECÍFICA EM UM CURSO DE LICENCIATURA
EM INFORMÁTICA ................................................................................................... 88
Denise Pires Liceras .......................................................................................................................................... 88
Danilo Escobar .................................................................................................................................................. 88
Soraia Silva Prietch ........................................................................................................................................... 88
Tatiana Annoni Pazeto ...................................................................................................................................... 88
PROJETO DE INTERAÇÃO BASEADO EM CONTROLE 3D ................................. 90
Alexandre Torrezam .......................................................................................................................................... 90
Aline Paulino Domingos de Souza .................................................................................................................... 90
Diego Duarte Almeida ....................................................................................................................................... 90
PROJETO DE UM SISTEMA ONLINE DE AUXÍLIO À FISCALIZAÇÃO DA VIDA
PÚBLICA DOS POLÍTICOS ..................................................................................... 92
PROJETO E IMPLEMENTAÇÃO DE UMA PLATAFORMA WEB PARA
CONTROLE E GERENCIAMENTO DE REDES DE SENSORES SEM FIO ............ 94
Leonardo de Souza Alves .................................................................................................................................. 94
Otto Julio Ahlert Pinno da Silva ........................................................................................................................ 94
Maxweel Carmo ................................................................................................................................................ 94
PROPOSTA DE SOFTWARE EDUCATIVO PARA AUXILIAR NO PROCESSO DE
ENSINO-APRENDIZAGEM DE MÉTODOS CLÁSSICOS........................................ 96
Thaís Santos Santana ......................................................................................................................................... 96
Nair Crisitina dos Santos Ribeiro ...................................................................................................................... 96
Simone Fátima Ferreira ..................................................................................................................................... 96
Soraia Silva Prietch ........................................................................................................................................... 96
PROPOSTA DE UM PROCESSO DE DESENVOLVIMENTO DE SOFTWARE
PARA FACILITAR A INTEGRAÇÃO DA EQUIPE DE DESENVOLVIMENTO ........ 98
Maria Cristina Delgado Preti ............................................................................................................................. 98
Cristiano Maciel ................................................................................................................................................ 98
RECONHECIMENTO DE PADRÕES ATRAVÉS DA MODELAGEM E
TREINAMENTO DE REDES NEURAIS UTILIZANDO BACKPROPAGATION
MULTILAYER PERCEPTION IMPLEMENTADO EM SCILAB .............................. 100
André Valente do Couto .................................................................................................................................. 100
Gérson Kazuyoshi Kida ................................................................................................................................... 100
Marilson Oliveira Corrêa ................................................................................................................................. 100
REDES SOCIAIS E CONTROLE POLÍTICO .......................................................... 102
Ângelo Carlotto ............................................................................................................................................... 102
Frederico Scarcelli ........................................................................................................................................... 102
Gilberto Valandro ............................................................................................................................................ 102
Luís Márcio Resende ....................................................................................................................................... 102
Cristiano Maciel .............................................................................................................................................. 102
SHEEPBOT – UM MOTOR DE BUSCA E FORMADOR DE ONTOLOGIAS
POLÍTICAS ............................................................................................................. 104
Suliane de Oliveira Carneiro ........................................................................................................................... 104
Custódio Gastão da Silva Júnior ...................................................................................................................... 104
SIMILARIDADE CONCEITUAL ENTRE DOCUMENTOS DE REQUISITOS
USANDO O MODELO VETORIAL DE RECUPERAÇÃO DE INFORMAÇÃO ....... 107
Adriana Cássia da Costa .................................................................................................................................. 107
Custódio Gastão da Silva Júnior ...................................................................................................................... 107
UM ESTUDO COMPARATIVO DAS TÉCNICAS DE ELICITAÇÃO DE
REQUISITOS: AMENIZANDO PROBLEMAS NO LEVANTAMENTO DOS
REQUISITOS .......................................................................................................... 110
Luã Marcelo Muriana ...................................................................................................................................... 110
Cristiano Maciel .............................................................................................................................................. 110
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e negócios
UM ESTUDO DAS ARQUITETURAS DE ARMAZENAMENTO DE DADOS
VOLTADOS À WEB ............................................................................................... 112
Talita Finger .................................................................................................................................................... 112
Cristiano Maciel .............................................................................................................................................. 112
Banco de Dados, Web, Redes Sociais. ............................................................... 113
UM LEVANTAMENTO SOBRE SOFTWARES NO APRENDIZADO DE CRIANÇAS
COM DEFICIENCIA NAS ESCOLAS PÚBLICAS DE RONDONÓPOLIS/MT........ 114
Arthur de Lima Lira......................................................................................................................................... 114
UM MODELO DE SISTEMA AUTOMATIZADO DE CLASSIFICAÇÃO DE
ABELHAS BASEADO EM RECONHECIMENTO DE PADRÕES .......................... 116
Jésus Franco Bueno ......................................................................................................................................... 116
Bruna Elisa Zanchetta Buani ........................................................................................................................... 116
Antonio Mauro Saraiva ................................................................................................................................... 116
André Riyuiti Hirakawa .................................................................................................................................. 116
Tiago Maurício Francoy .................................................................................................................................. 116
Vera Lúcia Imperatriz-Fonseca ....................................................................................................................... 116
UMA ABORDAGEM DE BANCO DE DADOS ORIENTADO A OBJETOS NO
CONTEXTO DE DESENVOLVIMENTO DE SOFTWARE ...................................... 119
Arthur Mendes Molina .................................................................................................................................... 119
Juliana Saragiotto Silva ................................................................................................................................... 119
UMA ABORDAGEM PARA REUTILIZAÇÃO DE MODELOS DE NEGÓCIOS EM
LINHAS DE PRODUTO DE SOFTWARE ............................................................... 121
Edie Correia Santana ....................................................................................................................................... 121
Marcelo Augusto Santos Turine ...................................................................................................................... 121
Cristiano Maciel .............................................................................................................................................. 121
UMA ANÁLISE DAS PRÁTICAS DE IHC PARA ADOÇÃO EM PROCESSOS DE
ENGENHARIA DE SOFTWARE ............................................................................. 123
Joyce Cristina Souza Bastos ............................................................................................................................ 123
Sandro Ronaldo Bezerra Oliveira .................................................................................................................... 123
UTILIZANDO POLLING COMO MECANISMO DE CONTROLE DE ACESSO AO
MEIO EM REDES DE SENSORES PARA O CORPO HUMANO ........................... 125
Luís Fernando Refatti ...................................................................................................................................... 125
Tatiana Annoni Pazeto .................................................................................................................................... 125
WEB WIRELESS SENSOR MANAGER (W²SM) UMA PLATAFORMA PARA
GERENCIAMENTO DE REDES DE SENSORES SEM FIO ................................... 127
Itamar Eduardo Gonçalves de Oliveira............................................................................................................ 127
Tatiana Annoni Pazeto .................................................................................................................................... 127
WEBQUEST “GÊNEROS DO DISCURSO”: UM PROCEDIMENTO DE ENSINOAPRENDIZAGEM DE LÍNGUA PORTUGUESA .................................................... 129
Niulian R. Carrijo ............................................................................................................................................ 129
Gleber N. Marques .......................................................................................................................................... 129
Marilena I. de Souza ........................................................................................................................................ 129
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e negócios
8
A AVALIAÇÃO DO USO DE APLICATIVOS COMO PROPOSTA DE
SUPRIR A CARÊNCIA DE SOFTWARES EDUCATIVOS PARA O
ENSINO DE GEOGRAFIA
1
Carlos José Braga da Silva – [email protected]
1
Juvenal Silva Neto – [email protected]
1 – UNEMAT – Universidade do Estado de Mato Grosso – Alto Araguaia / MT.
RESUMO
Com o surgimento das novas tecnologias surgiram também novos recursos
pedagógicos digitais para auxiliar o processo de ensino/aprendizagem nas
escolas. É fato que os recursos tecnológicos contribuem de maneira significativa e
atraente no ensino de conteúdos considerados difíceis de serem assimilados. Um
dos recursos tecnológicos que corroboram com a educação são os softwares
educativos, que constituem-se de ferramentas auxiliadoras do aprendizado de um
domínio especifico como matemática, geografia, física, etc., e outros tipos de
softwares que por sua vez não são desenvolvidos especificamente para a área
educacional, mas que contemplam alguns requisitos básicos, permitindo que
sejam utilizados no ensino - estes são apresentados aqui como sendo softwares
educacionais. O trabalho a seguir avalia a utilização de quatro softwares
aplicativos gratuitos, todos aproveitados na disciplina de geografia, com os alunos
da 8ª série do Ensino Fundamental, com o intuito de definir quais seriam os
requisitos básicos de um software para ser considerado educacional. Para isto,
nos orientamos pela metodologia de avaliação proposta por Thomas Reeves apud
Campos (1996), que considera tanto os aspectos pedagógicos quanto os de
qualidade de uso da interface do software. Os softwares escolhidos para a
avaliação foram o Google Earth, Sun Times, Altas Eletrônico Rodoviário do
Estado de Mato Grosso e Atlas de Desenvolvimento Humano no Brasil por serem
bastante populares e conhecidos pelo realizador desta pesquisa. Utilizou-se para
o levantamento dos requisitos os critérios de Reeves, que se orienta por meio de
um checklist gráfico com avaliação por escala em dois sentidos. À direita, o
conceito mais positivo e, à esquerda, o conceito mais negativo. Reeves em seu
método de avaliação de software educacional define duas abordagens para
serem usadas na analise e avaliação de software educacional, sendo que a
primeira consiste em fazer a análise de quatorze critérios pedagógicos:
epistemologia, filosofia pedagógica, psicologia subjacente, objetividade,
seqüencia instrucional, validade experimental, papel do instrutor, valorização do
erro, motivação, estruturação, acomodação de diferenças individuais, controle de
aluno, atividade do usuário, aprendizado cooperativo. A segunda abordagem
refere-se a analise de dez critérios relacionados à interface com o usuário:
facilidade de uso, navegação, carga cognitiva, mapeamento, design de tela,
compatibilidade do conhecimento, apresentação da informação, integração das
mídias, estética, funcionalidade geral. O software Google Earth foi utilizado na
tarefa de localizar a BR 364 e ver por quais Estados ele está presente. Quanto ao
software Sun Times, os alunos fizeram comparações entre os fusos horários do
Brasil. O software Atlas Eletrônico Rodoviário do Estado de Mato Grosso foi
utilizado no cálculo das distâncias entre o município de Alto Araguaia-MT e outros
municípios. O software Atlas de Desenvolvimento Humano no Brasil utilizado para
apresentar a densidade demográfica urbana e rural do município de Alto
Araguaia-MT, analisando o crescimento das populações do ano de 1991 a 2000.
Após a utilização dos softwares os alunos receberam um questionário contendo
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
9
quatorze perguntas baseadas nos critérios de Reeves, com as respostas em
formato de escala iniciando em um (conceito mais negativo) até cinco (conceito
mais positivo).
O único software avaliado que não atendeu minimamente aos
critérios pedagógicos e que também foi reprovado nos critérios relacionados à
interface foi o Sun Times. Alguns dos critérios que foram avaliados negativamente
pelos alunos no referido software foram: facilidade de leitura da tela, clareza dos
comandos, adaptabilidade ao nível do usuário, tempo de resposta, existência de
tratamento de erro, adequação ao vocabulário, etc. Nesta pesquisa pode-se
descobrir que de quatro softwares aplicativos sugeridos, três foram considerados
potenciais para o uso na educação uma vez que receberam mais de 60%
(sessenta porcento) de avaliações positivas dos alunos em um processo que
visou destacar aspectos pedagógicos e qualidades relacionadas à interface. Uma
vez sendo considerados eficientes como ferramenta de auxílio ao processo de
ensino/aprendizagem, os softwares aplicativos podem inclusive atender às
diversas necessidades pedagógicas de aplicações multimídia, simulações,
modelagens, jogos, tutoriais, etc, na disciplina de geografia quanto em outras
disciplinas escolares. Da mesma forma que há certa dificuldade em se encontrar
softwares educativos variados e suficientes para as diversas áreas da educação,
também nos deparamos com vários softwares educativos que não abrangem
plenamente os conteúdos vistos em sala de aula. Sugerimos aqui, visando
amenizar essa deficiência, a utilização de softwares aplicativos que possam
atender às propostas educacionais de forma aderente aos objetivos de
ensino/aprendizagem, que, verificados e validados a partir de um processo de
avaliação simples e adequado como o método de Reeves, podem se tornar
ferramentas muito úteis para professores e alunos.
PALAVRAS-CHAVE
Avaliação de Software, Ensino de Geografia, Requisitos de Software, Software
Educacional.
TIPO DE TRABALHO: TRABALHO DE GRADUAÇÃO
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
10
A PARTICIPAÇÃO E A INTERAÇÃO DOS ALUNOS EM
AMBIENTES VIRTUAIS DE APRENDIZAGEM: O USO DOS
RELATÓRIOS DE ATIVIDADES DO MOODLE
1
Danilo Garcia da Silva – [email protected]
2
Kátia M. Alonso – [email protected]
3
Cristiano Maciel – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
2 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
3 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
Este trabalho apresenta os resultados parciais de uma pesquisa de mestrado que
investiga que recursos presentes no Ambiente Virtual de Aprendizagem – AVA Moodle permitem identificar a participação e a interação dos sujeitos da
aprendizagem. Objetivamos verificar se é possível mensurar o nível de
participação e de interação dos alunos através dos relatórios de atividades do
Moodle. As conclusões admitem que os dados armazenados por estes recursos
seguem a perspectiva de relatórios computacionais, sendo, portanto, dados
quantitativos passíveis de análises qualitativas podendo contribuir no processo de
avaliação da aprendizagem, mas que não são usados pelos atores da formação.
O curso de Licenciatura em Pedagogia a distância, acordo Brasil/Japão,
coordenado pela Universidade Federal de Mato Grosso (UFMT) em parceria com
a Universidade de Tokai, é realizado no AVA/Moodle. Entendemos que os AVA
podem possibilitar maior dinamicidade e flexibilidade ao processo de ensino e
aprendizagem. Frente a essas possibilidades não se pode desconsiderar também
as limitações que estes ambientes investem no trabalho cotidiano com eles.
Dessa forma, nos questionamos como mensurar a participação e a interação dos
alunos nos cursos em AVA?
Partimos da compreensão de que a participação pode ser entendida como troca
de ações, controle e modificação de conteúdos e relações. Pode ser gerada na
interação do indivíduo com o meio físico e social. Abstraindo para o contexto do
AVA, a participação seria ações como: o acesso ao ambiente, o envio
mensagens, a postagens em fóruns, o envio de arquivos e a visualização de
conteúdos, entre outros.
A interação, entretanto, refere-se a mecanismos vivos – comportamentos e
atitudes - que se transformam de acordo com as ações e operações fomentadas
em um determinado espaço (PRIMO, 2000, p. 02)1. No AVA temos a possibilidade
do acompanhamento da frequência e da produção de cada aluno, uma vez que
possuem uma base de dados que armazena/pode armazenar a frequência e
assiduidade (data e hora de acessos ao ambiente, data e hora de acessos a cada
um dos recursos disponíveis nestes “espaços”) (BASSANI & BEHAR, 2006, p.
01)2.
A interação ocorre na inter-relação dos sujeitos e nas potencialidades, possíveis
de serem exploradas, entre o indivíduo e o ambiente (com seus recursos
1
PRIMO, Alex. Interação mútua e reativa: uma proposta de estudo. Revista da Famecos, n. 12, p. 81-92, jun.
2000.
2
BASSANI, Patricia. B. Scherer, BEHAR, P. A. Análise das interações em ambientes virtuais de
aprendizagem: uma possibilidade para avaliação da aprendizagem em EAD.RENOTE: V. 4 Nº 1, Julho, 2006.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
11
tecnológicos), influenciando o próprio pensamento e a tomada de consciência de
cada um dos indivíduos participantes de um processo de formação.
Em termos metodológicos usamos a abordagem qualitativa3 do tipo estudo de
caso4. Coletamos dados através dos relatórios de atividades do Moodle e
realizamos entrevistas com seis orientadores acadêmicos e dois professores
especialistas. Estes dados comporam o corpus da pesquisa. Investigamos se os
sujeitos usavam e qualificavam os dados dos relatórios para se mensurar a
participação e a interação dos alunos como subsídios para a avaliação da
aprendizagem. Os dados dos relatórios de atividades permitiram identificar quais
eram os orientadores e professores que mais participavam no curso. Com as
entrevistas constatamos que, ainda que fossem os sujeitos que mais participaram
e interagiram no AVA, os professores e os orientadores não consideram as
informações de participação e de interação armazenadas pelos relatórios de
atividades como elementos para a avaliação dos alunos. A participação e a
interação são consideradas ao se avaliar a qualidade da produção e as atividades
que os alunos realizavam.
Logo, os relatórios do Moodle são colocados em segundo plano ou não são
utilizados em suas práticas pedagógicas. Ao invés disso, anotam, em planilhas ou
manualmente em agendas, as informações sobre os sujeitos da aprendizagem. A
ênfase do processo de aprendizagem se restringe ao resultado, ou seja, as
produções entregues e avaliadas pelos professores e orientadores.
Mediante o exposto, os dados evidenciaram que os relatórios de atividades do
Moodle não são utilizados como complementares a prática docente e que a
participação e a interação dos alunos limitam-se à realização das atividades. Os
sujeitos não se apóiam nos dados destes relatórios como elementos constituintes
da avaliação dos alunos no curso que são substituídos por anotações, das mais
variadas possíveis, como: planilha em Excel, tabelas no Word, anotações em
agenda, entre outros.
Esta pesquisa está ainda em andamento, porém, as análises preliminares
apontam a necessidade de maior entendimento, por parte dos atores do processo
formativo, sobre os relatórios de atividades do Moodle de forma que estes
agreguem novas dinâmicas e possibilidades ao trabalho pedagógico.
PALAVRAS-CHAVE
Participação. Interação. Ambientes Virtuais de Aprendizagem. Moodle.
TIPO DE TRABALHO: Dissertação de Mestrado
3
Caracteriza-se por coletar os dados diretamente do ambiente natural e por coletar dados
predominantemente descritivos. LÜDKE, Menga e ANDRÉ, Marli E. D. A. Pesquisa em educação:
abordagens qualitativas. São Paulo: EPU, 1986.
4
O estudo de caso serve tanto para coleta de dados numa abordagem qualitativa quanto quantitativa frente
aos inúmeros instrumentos e técnicas (amostra por cota, amostra de bola de neve, busca de exceções) e que
podem ser empregados tanto para a coleta quanto para a análise dos dados. COHEN, Louis; MANION,
Lawrence. Métodos de Investigación Educativa. Traducción: Francisco Agudo López. Editorial La Muralla.
S.A. 1990.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
12
ADAPTANDO PADRÕES DE ACESSIBILIDADE PARA GOVERNO
ELETRÔNICO USANDO A PLATAFORMA LIFERAY
1
Marco aurelio Campos - [email protected]
1
Rômulo Prandini Lima – [email protected]
1
Patricia Cristiane Souza - [email protected]
1
Cristiano Maciel - [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
A adoção de meios eletrônicos para a prestação dos serviços governamentais
exige que sítios e portais desenvolvidos e mantidos pela administração pública
sejam fáceis de usar, relevantes e efetivos. O governo definiu então um modelo
de
acessibilidade
(e-MAG,
disponível
em:
http://www.governoeletronico.gov.br/acoes-e-projetos/e-MAG)
que
contem
cartilhas com recomendações sobre usabilidade, redação, codificação,
manutenção e arquitetura de informação e desenho que orientam o
desenvolvimento de páginas, tornando mais fácil a navegação e a acessibilidade
de pessoas com necessidades especiais que procuram os serviços eletrônicos
disponíveis nos sítios e portais por outros canais além da Internet. Entretanto, o
Censo da Web (http://www.cgi.br/publicacoes/pesquisas/govbr/cgibr-nicbrcensoweb-govbr-2010.pdf
e
http://www.w3c.br/palestras/2009/projeto-censoweb/slidy/template.html), estudo pioneiro no mundo, realizado pelo Comitê Gestor
da Internet, avaliou no mês de agosto de 2010, em uma primeira fase, sites
governamentais do domínio “.gov.br”. Entre as constatações apuradas no
levantamento está o fato de apenas 2% dos sites pesquisados apresentarem
algum tipo de conformidade com resoluções internacionais de acessibilidade para
sítios governamentais. O grupo de pesquisa em governo eletrônico do Laboratório
de Ambientes Virtuais Interativos (LAVI), da UFMT adotou o ambiente Liferay
como framework para desenvolvimento de aplicações e-participativas na web e
pretende aplicar as normas do e-MAG, além de algumas das recomendações
sobre acesso e navegação das cartilhas disponibilizadas dentro do ambiente
(http://www.w3.org/WAI/
e
http://www.liferay.com/community/wiki//wiki/Main/Accessibility+Guidelines). O Liferay é um portal web feito com
tecnologia Java usado para hospedar aplicações como e-mail, blog ou wiki. Por
possibilitar várias páginas hospedadas em um mesmo portal ele se torna uma
opção viável para sítios governamentais. Seguindo as recomendações
disponibilizadas pelo governo sobre e-MAG esta pesquisa visa estabelecer
algumas diretrizes para o desenvolvimento com o uso do Lifeay. Os pontos
marcados como mais importantes a serem avaliados são: o uso de arquivos
externos para folhas de estilo e scripts, os recursos de impressão e URLs
amigáveis, o uso correto dos elementos HTML, o funcionamento sem o “www” e
com
CSS
desabilitado.
Munidos
do
checklist
do
e-MAG
(http://www.governoeletronico.gov.br/biblioteca/arquivos/checklist-manual-deacessibilidade-desenvolvedores) fornecida pelo governo podemos avaliar de
forma direta quais pontos estão em conformidade e quais precisam ser
modificados. A partir de agora nosso trabalho será focado na analise e adaptação
do material gerado com o Liferay as necessidades de um portal governamental,
enfocando a acessibilidade oferecida por ele. Com o avanço do projeto
pretendemos identificar e corrigir quaisquer falhas na acessibilidade existentes
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
13
dentro da ferramenta utilizada. A priori, pelas pesquisas realizadas, essa
ferramenta apresenta o mínimo de conformidade com instruções internacionais
sobre acessibilidade definidas pelo comitê gestor de internet, trazendo certas
facilidades para as adaptações necessárias.
PALAVRAS-CHAVE
Governo eletrônico, usabilidade, acessibilidade, portal, Liferay
TIPO DE TRABALHO: Iniciação Científica
AGENCIA FINANCIADORA CNPq
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
14
AMBIENTE WEB SOCIAL DE INFORMAÇÃO POLÍTICA ÚTIL AO
CONTROLE E TRANSPARÊNCIA DA VIDA PÚBLICA
Alexandre Bossa Perotto¹ – [email protected]
Guilherme Felipe Schultz¹ – [email protected]
Gustavo Liberatti¹ – [email protected]
Luiz Henrique Padilha Godinho¹ – [email protected]
Cristiano Maciel¹ - [email protected]
¹UFMT – Universidade Federal de Mato Grosso – Cuiabá/MT
RESUMO
A nossa sociedade é carente de informação sobre a política em geral, ou seja, é
difícil encontrar noticiários atrativos acerca do tema, pois o foco gira em torno de
escândalos e fatos midiáticos. Isto posto um trabalho acadêmico foi iniciado com
o intuito de abrir os olhos da sociedade referente à cognição política
salvaguardando os limites da matéria proposta (Engenharia de Software no curso
de Ciência da Computação). A pesquisa objetivou a criação de uma web page
(um sistema propriamente dito) que tem como base centralizar notícias e prover
uma interação em forma de softwares sociais, mesclando politização com um
“organismo vivo” da rede social. Esta dinâmica prima por dois elementos de
software social: relacionamentos e grupos, segundo o contexto de Gene Smith.
Com o desenvolvimento do sistema proposto pretende-se atrair o eleitor para
imergir ao mundo político agregando a ele possibilidades de pesquisar e obter
informação sobre conteúdos de seu interesse, bem como tentar aproximar o
cidadão comum ao seu representante político, com o intuito de amenizar a
barreira e o preconceito existente na população brasileira referente à temática.
Para tanto, o desenvolvimento do sistema organizou-se em: análise, projeto e
prototipação, com vista a futura implementação. Para tanto, realizou-se em
primeira instância uma análise de mercado a fim de definir o grau de inovação da
ideia proposta. Ainda no primeiro momento a parte de gerência de projeto foi
realizada, como a criação dos requisitos, marcos, atividades, técnicas de
elicitação, análise de riscos, cronogramas, formação de equipes, prototipações,
entre outros fatores cruciais para o desenvolvimento de um bom projeto. Em um
segundo momento, realizado na disciplina subsequente (Tópicos Especiais em
Engenharia de Software), foi aplicado a técnica de elicitação de requisitos
“questionário”. Neste, inicialmente foi definido o instrumento, o público alvo, o tipo
de amostragem e forma de aplicação. Como amostragem, se optou pelas não
probabilísticas acidental/convencional e intencional, pois elas são qualificadas
para atender o público alvo do sistema proposto, com isso aplicou-se o
questionário de forma presencial (questionários impressos) e não presencial (web
page). Ao final, 189 (cento e oitenta e nove) questionários foram respondidos e
houve poucas respostas inconsistentes. Diretamente o resultado impactou em um
objeto avaliável, ou seja, apresentável, no caso uma prototipação de alto nível,
derivada de uma prototipação manual (storyboard). Os protótipos atenderam as
expectativas para a primeira versão, pois apresentaram os conceitos esperados,
como informações em geral sobre política e elementos de redes sociais, além de
atender as propostas criadas na fase de projeto como: requisitos funcionais,
planejamento do projeto, especificações de caso de uso, entre outros elementos
essenciais para o desenvolvimento do protótipo. Buscando analisar o impacto do
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
15
projeto na comunidade eleitoral e definir um perfil de usuário a pesquisa realizada
revelou que a maioria esmagadora utiliza a Internet diariamente e 72% (setenta e
dois por cento) gostariam de ter conversas diretas com políticos (em chat, por
exemplo). Em geral, os questionados consideram a política brasileira não
transparente, o que valoriza a proposta. O perfil traçado irá impactar de forma
sucinta no projeto criado, mostrando que os próximos protótipos devem seguir
uma linha mais voltada a redes sociais e com conteúdos em foco, para atrair o
eleitor, além de disponibilizar informações relevantes por meio de mensagens
instantâneas (sms), e-mails, entre outros métodos de disponibilização. Apesar de
a comunidade apresentar-se distanciada do monitoramento políticos o eleitor
demonstrou grande interesse no projeto, como ferramenta a facilitar sua interação
com seus representantes, resultando em uma aceitabilidade teórica de 90%
dentro os abordados e 69% do total afirmaram que utilizariam o sistema.
Infelizmente o projeto possui uma falha crucial, aqueles que não possuem acesso
ao mundo digital ficarão impedidos de usufruir do sistema, porém os governos
estaduais do Rio de Janeiro, Espírito Santo e Mato Grosso, na figura dos
programas Internet para todos e Internet Comunitária disponibilizam pontos de
acesso à rede e inclusão digital para tentar mudar o patamar de inclusão da
população brasileira, o que facilita o acesso ao sistema proposto. O povo
brasileiro que tem acesso pode ou não estar suficientemente preparado para
utilizar um sistema político como esse, porém só o tempo confirmará este
conceito.
PALAVRAS CHAVE: Fiscalização, política, sociedade, redes sociais, interação.
Tipo de Trabalho: Trabalho de disciplina de graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
16
AMBIENTES VIRTUAIS DE APRENDIZAGEM: O USO DOS
RELATÓRIOS DE ATIVIDADES DO MOODLE NO CURSO DE
PEDAGOGIA DA UFMT, ACORDO BRASIL/JAPÃO
1
Danilo Garcia da Silva – [email protected]
1
Kátia M. Alonso – [email protected]
1
Cristiano Maciel – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
Os Ambientes Virtuais de Aprendizagem (AVA), como espaços educacionais, são
possíveis de agregar eficiência ao processo de ensino e aprendizagem, porque,
podem permitir novas ações comunicativas que considere as peculiaridades da
interação entre os sujeitos da aprendizagem. As relações de aprendizagem
decorrem dos processos estabelecidos entre os sujeitos da prática educativa e
com o ambiente compartilhado. A expansão dos AVA fortalecida pelo constante
desenvolvimento das Tecnologias da Informação e da Comunicação (TIC) tem,
nestes espaços, novas promoções de mudanças nos processos educacionais.
Novas formas e possibilidades pedagógicas são estimuladas e exigidas, pois AVA
são programas computacionais que visam servir de apoio aos processos de
ensino e aprendizagem promovendo outras possibilidades de interação. Nesta
pesquisa, parte de nosso trabalho de mestrado, indicamos alguns resultados
preliminares que nos permitem algumas análises parciais quanto ao uso dos
relatórios de atividades do Moodle para o acompanhamento dos alunos no curso.
Os avanços tecnológicos têm permitido o estabelecimento de redes mundiais de
comunicação, permitindo a produção e trocas de informações em tempos antes
imaginados. Nesse contexto, os indivíduos precisam desenvolver capacidades e
habilidades de usar e adaptar essas tecnologias às suas próprias necessidades
de forma a entender o seu próprio ambiente. Por se tratarem de recursos
relativamente novos, vemos como importante a realização de pesquisas e
estudos para melhor entender os AVA e as TIC. Assim, com nossa pesquisa de
mestrado objetivamos analisar as funcionalidades dos relatórios de atividades do
Moodle, na visão dos orientadores acadêmicos5, na perspectiva do
acompanhamento dos alunos no curso, de forma que essa compreensão possa
dinamizar os processos educacionais em AVA.
Realizamos uma pesquisa qualitativa, do tipo estudo de caso, que resulta
diretamente das análises dos dados recolhidos (Carmo e Ferreira, 1998).
O curso investigado é o de Licenciatura em Pedagogia a distância, acordo
Brasil/Japão, criado no AVA Moodle. São 300 alunos inscritos e alocados, no
ambiente virtual, organizado em 15 turmas de 20 alunos e cada turma conta 1
professor especialista6 por área de conhecimento, 2 orientadores acadêmicos e 1
coordenador de orientadores acadêmicos. A escolha do Moodle se deve ao fato
de ser este o ambiente utilizado no curso investigado e também nos cursos
ofertados pela Universidade Aberta do Brasil na Universidade Federal de Mato
Grosso. Analisamos os relatórios de atividades porque estes armazenam dados
quantitativos de acesso e participação em atividades do curso, passíveis de
análises qualitativas. Buscamos identificar se os relatórios de atividades do
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
17
Moodle possibilitam acompanhar os alunos no curso e identificar o percurso
trilhado por estes sujeitos. Os instrumentos de coleta de dados foram: observação
direta, questionário e entrevista semi-estruturada, aplicados aos dezessete
orientadores acadêmicos que participam do curso. Pelo fato de a pesquisa estar
em curso, vimos, na leitura preliminar dos dados obtidos, que os orientadores
acadêmicos desconhecem as funcionalidades dos relatórios de atividades do
Moodle ou, quando as conhecem, não conseguem significar as informações
armazenadas de forma a subsidiar o acompanhamento dos alunos. Assim, o
acompanhamento dos sujeitos é realizado verificando, em cada uma das
atividades, se os alunos as desenvolveram. Mesmo em se tratando de um curso
na modalidade EaD, alguns sujeitos informaram que o acompanhamento seria
mais efetivo caso houvessem mais encontros presenciais os quais fortaleceriam
os processos interacionais e garantiriam um acompanhamento mais efetivo dos
alunos. Pelo que vimos discorrendo, precisamos compreender os sujeitos
envolvidos nos processos educacionais como construtores de seu próprio
conhecimento. Para Moraes (1997, p.23) esta construção se dá não apenas com
o uso predominante do raciocínio e da percepção do mundo exterior pelos
sentidos, mas também usando as sensações, os sentimentos, as emoções e a
intuição para aprender. Nesse sentido, entendemos que o acompanhamento dos
alunos pode fortalecer esses laços com vistas à aprendizagem. Evidencia-se que
os recursos do AVA não substituem todos os processos educacionais. Logo, o
acompanhamento dos alunos se efetiva através da intervenção e mediação dos
orientadores acadêmicos, e estes realizam uma verdadeira “garimpagem” para
identificar a participação dos alunos em cada uma das atividades. Por outro lado,
precisamos considerar o potencial que os relatórios de atividades agregam ao
trabalho docente e que podem contribuir com suas práticas pedagógicas em
cursos mediados por AVA melhorando, também, as nossas percepções sobre
eles. Entretanto, pelo caráter incipiente desta pesquisa, não desconsideramos a
possibilidade de, em sua continuidade, novas perspectivas e horizontes se
apresentarem permitindo-nos novas leituras e compreensões.
PALAVRAS-CHAVE
Acompanhamento. Ambientes Virtuais de Aprendizagem. Moodle. Educação
superior.
TIPO DE TRABALHO: Dissertação de Mestrado
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
18
ANÁLISE TÉCNICA DE ARQUITETURAS DE VIRTUALIZAÇÃO
12
André Valente do Couto – [email protected]
1
Claudio Toyoshy Onohara – [email protected]
12
Reginaldo Hugo S. Dos Santos – [email protected]
1 – UNIRONDON – Centro Universitário Cândido Rondon - Cuiabá / MT
2 – IFMT – Instituto Federal de Mato Grosso - Cuiabá / MT
RESUMO
Este trabalho, tem como objetivo analisar o funcionamento das tecnologias de
Virtualização de Servidor, no que concerne à sua fundamentação teórica, adotada
pelos produtos: VMware-ESX, produzido pela empresa VMware líder no mercado
de soluções de virtualização, e pelo Xen, um software open-source desenvolvido
a partir de um projeto de pesquisa apelidado de XenoServers. Especificamente, a
análise é focada, nas formas em que o Xen e o VMware-ESX encontraram, para
realizar o compartilhamento de processador, memória e dispositivos de E/S,
tornando possível que um mesmo hardware seja utilizado por várias máquinas
virtuais. A principal justificativa para realização desse trabalho, é que a tecnologia
de Virtualização de Servidores está em crescente utilização há vários anos.
Através da análise técnica, será fornecida uma visualização dos ambientes
criados pelos dois softwares de virtualização, de maneira que seja possível
entender como os recursos são utilizados e fornecidos aos sistemas em execução
sobre as plataformas de virtualização, que possuem abordagens técnicas bem
diferentes, para construção de seus ambientes virtuais. A realização do trabalho
teve como base materiais pesquisados em livros, artigos científicos, além da
utilização de softwares de computação. Neste estudo, ficou claro que o Xen e o
VMware-ESX adotam abordagens diferentes para a virtualização das instruções
da arquitetura X86, utilizam tipos de hypervisors distintos, e realizam o
compartilhamento do processador, memória e dispositivos de E/S de forma
diferenciada. A virtualização das instruções X86, do Xen, utliza a paravirtualização e a virtulização assistida por hardware. O Vmware-ESX por sua vez,
faz uso da virtualização total e para-virtualização. Mesmo as abordagens de paravirtualização adotadas pelas plataformas de virtualização também são diferentes.
A para-virtualização, no Xen, exige que o kernel do convidado seja especializado
e substitua todas as chamadas de sistema por hypercalls para se comunicar com
o hypervisor, sendo necessário então um kernel diferente do usado na execução
direta sobre o hardware. Já no VMware-ESX, basta que o kernel do convidado
tenha, disponível e habilitada, a API VMI (a qual fornece um conjunto de
hypercalls) para se comunicar com o hypervisor. Possibilitando desta forma que
um mesmo kernel seja executado sobre um hypervisor ou diretamente sobre uma
máquina física. O hypervisor, utilizado pelo Xen, é do tipo microkernelizado. Já, o
hypersivor, do VMware-ESX é monolítico. O escalonamento do processador no
Xen é feito através da lógica SEDF, ou com o escalonador de crédito. No
VMware-ESX o compartilhamento é feito através de quotas proporcionais,
associada ao Co-Escalonamento quando as máquinas virtuais possuem mais que
um processador virtual. O compartilhamento da memória é feito através de
tabelas de paginação sombra no VMware-ESX. Em contraste, as máquinas
virtuais do Xen, possuem acesso a tabela de paginação real que lhe pertence. Os
dispositivos de E/S são administrados pelo hypersor na arquitetura VMware-ESX,
e no Xen o acesso aos dispositivos de E/S é coordenado pelo domínio 0. A única
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
19
semelhança encontrada foi que ambos virtualizadores utilizam VMMs do tipo
hypervisor (ou nativos), que são instalados diretamente sobre o hardware, e
possuem o nível mais alto de privilégio. O Xen e o VMware-ESX, usam diferentes
mecanismos para realizar a Virtualização de Servidor, que implicam em
quantidade de sistemas operacionais convidados suportados, eficiência da
utilização de recursos, flexibilidade para configuração da alocação de recursos e
grau de isolamento entre Vms. A virtualização realiza a consolidação, aumenta a
disponibilidade e a flexibilidade do portfólio de aplicações que fornecem serviços
que agregam valor ao negócio. Portanto, as necessidades operacionais das
aplicações, e o desempenho obtido por elas em cada plataforma de virtualização,
podem determinar qual plataforma a ser utilizada. O hardware, capital disponível,
equipe técnica e a qualidade de suporte oferecido por cada produto, são outros
fatores decisivos na escolha. Como os cenários de utilização da Virtualização de
Servidor são os mais variados possíveis, e os virtualizadores possuem
mecanismos de funcionamento bem distintos, não há como afirmar que um é
melhor do que outro de forma generalizada.
PALAVRAS-CHAVE
Sistemas Operacionais, Virtualização, Hypervisors, Para-Virtualização.
Tipo de Trabalho: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
20
ARQUITETURA ORIENTADA A SERVIÇOS E COMPONENTES
PARA GESTÃO AMBIENTAL ATRAVÉS DE IMAGENS MULTIESPECTRAIS
Gustavo Liberatti ¹ - [email protected]
Rodicrisller Rodrigues¹ - [email protected]
Josiel Maimone de Figueiredo¹ - [email protected]
Cláudia Martins¹ - [email protected]
Andreia Gentil Bonfante ¹ - [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
Uma das principais formas de modernização do estado está fortemente apoiada
no uso das novas tecnologias para prestação de serviços públicos. A comunidade
como um todo interage com o governo, consumindo estes serviços e fiscalizando
de certa forma os trabalhos realizados, bem como se beneficia dos produtos
gerados pelos mesmos. Neste contexto o monitoramento de áreas ambientais em
países com grande extensão territorial ocorre primordialmente através de imagens
georreferenciadas. O montante de dados gerados pode conter informações e
padrões de conhecimento valiosos, que devido à sua complexidade, faz-se
necessária a aplicação de abordagens computacionais para que possam ser
recuperadas informações úteis, tanto para o governo quanto para a população. No
que tange a imagens, Figueiredo (2005) formalizou uma álgebra para um domínio
imagem, cuja principal característica é “suportar operações de manipulação e de
comparação entre instâncias de imagens em Sistemas Gerenciadores de Banco
de Dados (SGBDs) relacionais”. Estas imagens são então tratadas como um novo
tipo de dado natural a base relacional. As duas classes de elementos
fundamentais que compõe essa álgebra são: o operando imagem e o conjunto
de operadores que agem sobre o primeiro. O operando imagem (λ) é
formalmente definido como um par λ = (Φ,S) onde Φ é um posto de imagens e S
é um conjunto característica. Sendo que Φ é um par Φ = (II, L) onde II é um vetor
de imagens sem limite de tamanho e, L é um índice de uma das imagens desse
vetor, denominada imagem corrente (lL). E S = {a1,a2,a3,a4,..., an} um vetor de
características onde cada característica a é um par composto por: nome
característica e valor característica, que descreve propriedades de uma imagem.
Os operadores são classificados em operadores de manipulação, de controle e de
persistência, sendo os operadores de manipulação aqueles que realizam qualquer
alteração no vetor de imagens (II) do posto de imagens (Φ) ou no conjunto
característica (S) de um operando imagem (λ); são divididos em: extrator de
características, sintetizador de imagens, operadores unários e operadores
binários. Encontra-se na segunda classe os operadores de controle, responsáveis
por organizar o fluxo de execução dos outros operadores, através da replicação
do operando imagem corrente para ser manipulado por um ou mais operadores
de imagem. Nesta classe dispomos os operadores: move, swap, fork,
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
21
condicionalIf e condicionalCase. A terceira classe de operadores são os de
persistência cujo objetivo é armazenar os dados gerados durante o fluxo de
processamento na base de dados, de forma inteligente e automática. Existem três
operadores de persistência pré-definidos: StillImage, FeatureVector e o
SimilarityCriterion. No desenvolvimento da aplicação, a fim de prover serviços que
abstraíssem o processamento de imagens realizado pelos operadores da álgebra,
utilizamos o estilo arquitetônico para a construção de soluções empresariais
baseadas em serviços denominado SOA (Service-Oriented Architecture). Mais
especificamente, a SOA está preocupado com a construção independente de
negócios alinhados na forma de serviços que podem ser combinados em uma
solução de nível superior, em processos de negócios e soluções no âmbito
empresarial. Os serviços são normalmente interfaces de programação de
aplicativo (API) acessadas via Hypertext Transfer Protocol (HTTP) e executado
em um sistema remoto que hospeda os serviços solicitados. A implementação de
um serviço é inerente aos seus utilizadores. Buscando implementar os conceitos
envolvidos em SOA a Arquitetura de Componentes e Serviços (SCA) disponibiliza
um ou mais serviços associados a uma unidade de implementação chamado
componente. Esses componentes podem trabalhar juntos para solucionar um
problema de um determinado domínio, através das composições. A criação das
composições dá-se mediante um arquivo de configuração descrito em XML
(Extensible Markup Language), denominado Service Component Definition
Language (SCDL). A arquitetura proposta baseia-se na tecnologia SCA
implementada pelo servidor de aplicações apache Tuscany, projeto mantido pela
Apache Foundation como projeto open-source. Esta tecnologia permite instanciar
serviços e componentes em tempo de execução proporcionando maior
versatilidade a aplicação, além de ser possível combinar diversas tecnologias de
implementação para solução de um único problema. Foi desenvolvido um Gerente
de Domínio responsável por realizar a interação dos objetos Java com o servidor
Tuscany em tempo de execução através de um arquivo SCDL, permitindo a
aplicação gerar linhas de processamento (sequência de algoritmos de
processamento, classificação ou extração de informação) através da combinação
de diferentes operadores imagens, viabilizando assim a álgebra definida por
Figueiredo (2005). O protótipo de interação foi implementado utilizando a
tecnologia JSF (JavaServer Faces) combinado com a biblioteca RichFace,
ambas tecnologias livres (código aberto) devido a sua inerente comunicação com
a linguagem Java, amplamente utilizada no desenvolvimento dos operadores
descritos anteriormente. Este protótipo permite ao usuário manusear os
operadores de imagem de forma transparente a arquitetura, além de configurar
seus próprios operadores através do agrupamento de funcionalidades primárias
disponibilizadas pelo sistema.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
22
PALAVRAS-CHAVE:
Gestão ambiental, Imagens multi-espectrais, Arquitetura orientada
componentes, Arquitetura orientada a serviços, Componentes de Software.
Tipo de Trabalho: Iniciação Científica
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
a
23
BENEFÍCIOS DE MVC PARA OS PROJETOS DE SOFTWARE
1
Robison Karls Custódio – [email protected]
1
Wagner Santos Lino – [email protected]
1
Ghanem Arfox – [email protected]
1 – UNIRONDON – Centro Universitário Cândido Rondon - Cuiabá / MT
RESUMO
Atualmente o meio corporativo é muito competitivo, muitas empresas disputando
o mercado e na área de Tecnologia da Informação não é diferente. Para uma
empresa continuar no mercado é necessário que tenham um diferencial, no
segmento da indústria de software, o diferencial está na agilidade de entrega e na
qualidade do produto. A rápida evolução tecnológica e o crescimento dos serviços
computacionais contribuíram para que a engenharia de software desenvolve-se
um meio de agilizar e organizar o processo de fabricação de um Software
(Programa), utilizando o Design Patterns (Padrões de Projeto). O Padrão de
Projeto estuda a solução para um problema e as consequências desta solução. A
engenharia do software tem vários tipos de Padrões, são dezenas de modelos
cada um com suas próprias características, por isso é necessário ter cautela na
hora de decidir qual utilizar. Recentemente, com a explosão da web 2.0, houve
um aumento no interesse por sites e sistemas web. As Software House, empresas
que vendem sistemas, tiveram que fazer uma escolha de framework para o
trabalho, algo que seja moderno, flexível, reutilizável e de fácil aprendizagem.
Através de uma pesquisa exploratória, que visa observação não estruturada,
recolhemos registros aleatórios e chegamos à conclusão que os padrões de
projeto MVC podem suprir senão todas, a maioria das necessidades que obtemos
na fabricação de sites e sistema para web. O MVC (Model, View, Controller)
consiste em separar nossa aplicação em camadas. Model gerencia o
comportamento dos dados da aplicação que organizam o acesso e a atualização
desses dados, View gerencia a saída gráfica e textual da parte da aplicação
visível ao usuário e o Controller define o comportamento da aplicação enviando
as requisições do usuário para o modelo e selecionando as visões para
apresentar os resultados destas requisições. Através do nosso projeto
apresentaremos as melhorias e benefícios que o MVC nos proporciona, e a
indústria de software que utilizar dos mesmos benefícios conseguirá facilitar a
probabilidade de sucesso. A organização que utiliza o MVC e adota como
paradigma de programação a Orientação a Objeto, certamente o desenvolvimento
dos projetos agregaram a reusabilidade, flexibilidade, extensibilidade aos
softwares. A meta do artigo visa difundir o uso de boas praticas de programação
junto com a adoção de um framework que utilize de um Padrão de projeto MVC, o
ganho de tempo é imenso. Será mais fácil adquirir o conhecimento, os
documentos ganho são de grande utilidade e o software terá uma aceitação
melhor, pois adotando padrões você não adota apenas um maneira nova de
trabalhar, mas sim uma adoção de novas praticas como algumas convenções que
deixam o software mais legível e fácil de se adaptar tornando seu produto muito
mais comercializável. O projeto e o uso do framework MVC que demonstraremos
é uma revista eletrônica que utiliza do framework Symfony, que adota o MVC
como padrão de projeto. O Symfony foi utilizado no back-end deste projeto, ou
seja, temos MVC bem implementado que utiliza todas as suas vantagens. E
relacionado ao mesmo projeto, mas no front-end, optamos por não utilizar o MVC
para podermos comparar quais foram os benefícios com a utilização e não
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
24
utilização. O front-end é uma espécie de interface entre o usuário e o back-end,
que seria toda a visualização que um usuário tem do sistema ou site. Seguimos
um critério de avaliação em nosso projeto, estudamos os seguintes itens:
reutilização de códigos, facilidades para manutenção, flexibilidades,
portabilidades, documentação e facilidade de aprendizagem. O Symfony por ser
um framework muito bem estruturado nos proporcionou uma curva de
aprendizagem muito boa, por que temos as classes documentadas e vários
artigos e tutoriais de exemplos na internet. A facilidade de adquirir o material de
ajuda foi crucial para o sucesso do projeto, percebemos que esta facilidade se
deve a comunidade dos usuários do MVC que tem um grupo grande e prestativo
possibilitando um aprendizado sem maiores problemas. Já o front-end onde
optamos por não utilizar este conceito, houve uma demora maior tempo de
desenvolvimento e foi um processo mais trabalhoso, esses contratemos
aconteceram por falta de documentação, caso haja contratempos e o projeto
pare, ficara difícil dar continuidade ao mesmo posteriormente.
PALAVRAS-CHAVE:
design patterns, engenharia, software, open source.
TIPO DE TRABALHO: Trabalho voluntário de Iniciação Científica com o apoio do Centro
Universitário Cândido Rondon.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
25
CERBEROS: SOFTWARE LIVRE PARA ADMINISTRAÇÃO DO
SQUID
2
André L. L. De Oliveira - [email protected]
1
Carlos A. S. J. Gulo - [email protected]
1 – UNEMAT – Universidade do Estado de Mato Grosso – Alto Araguaia / MT
2 – Altatech – Soluções e Serviços em T.I.C. - Londrina / Paraná
RESUMO
Um dos maiores desafios encontrados por empresas nos dias atuais é o controle
de acesso à Internet, além de sua otimização, conseguindo assim economia de
recursos e maior desempenho nos acessos. Para esta finalidade, geralmente usase ferramentas com a função de proxy e cache http. No entanto, algumas destas
ferramentas possuem custo elevado e outras são de difícil configuração e
utilização. O Squid é uma ferramenta que realiza ambas as funções de proxy e
cache http, é open source, estável e possui diversas funcionalidades para controle
de acesso. Entretanto, ainda é de difícil configuração e administração, visando
facilitar a utilização do Squid por usuários com menor nível de conhecimento
neste tipo de ferramenta, foi criada uma interface web controlada por Sistema de
Banco de Dados, o qual mostrou-se ágil e intuitiva para facilitar as tarefas
cotidianas do administrador de proxy, denominada Cerberos. Com o crescimento
da rede mundial de computadores, empresas e instituições passaram a ter uma
maior preocupação com a disponibilidade e a velocidade de acesso à Internet,
além da necessidade de filtrar este acesso de modo a controlar o conteúdo
visitado por seus usuários. Para realizar este filtro e melhorar o desempenho de
acesso, costuma-se utilizar ferramentas que possuem a função proxy e cache http
da rede, como é o caso do Squid. O Squid é um intermediário entre as transações
realizadas na web, aceita requisições vindas dos clientes, processa tais
requisições e as encaminha para o servidor original. Mesmo possuindo tais
funcionalidades, o Squid ainda é uma ferramenta considerada de difícil utilização.
Esta dificuldade, em geral, é atribuída à necessidade de uso dos comandos no
prompt do sistema operacional, o qual exige maior domínio para manipular suas
opções, tornando-se um obstáculo em sua utilização. O objetivo deste trabalho foi
desenvolver uma interface web para administração da ferramenta de proxy Squid,
visando facilitar a realização de tarefas cotidianas do administrador de sistemas,
proporcionando maior produtividade na manipulação de políticas do proxy, bem
como a ampliação do número de usuários do software Squid. O desenvolvimento
de software pode ser caracterizado como uma busca para a solução de um
problema, sendo esta dividida em quatro etapas distintas: estado atual; definição
do problema; desenvolvimento técnico; e integração de soluções. Baseado nestas
quatro etapas genéricas é possível segmentar cada uma delas em diversos subníveis, gerando assim um maior grau de detalhamento a ser seguido nos projetos
de software. Sendo assim, o desenvolvimento do protótipo foi dividido em etapas,
utilizando-se o modelo de desenvolvimento evolutivo. Primeiramente, realizou-se
um levantamento bibliográfico buscando em trabalhos científicos os conceitos de
proxy e cache, além de materiais sobre as ferramentas utilizadas para o
desenvolvimento do protótipo, como por exemplo, a linguagem de programação
PHP, a ferramenta de proxy Squid, e o sistema de banco de dados MySQL. O
desenvolvimento do protótipo da ferramenta de administração do Squid foi
dividido em duas fases: a) o desenvolvimento de um protótipo inicial contendo
funcionalidades básicas; b) o desenvolvimento do protótipo final contendo todas
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
26
as funcionalidades propostas. O software foi disponibilizado para 15
administradores de sistemas, com o objetivo de identificar suas potencialidades
em relação ao propósito de desenvolvimento. Vale ressaltar que a maioria
apresentou dificuldades na implementação do serviço de proxy, devido ao nível
de conhecimento que estes administradores possuíam sobre o sistema. A
avaliação de uso consistiu em implementar um conjunto de políticas de acesso,
criando grupos e regras distintas para cada grupo. Ao utilizar o Cerberos, os
administradores relataram a facilidade em implementar a avaliação proposta, e
demonstraram satisfação com o desempenho e com a interface do software. Não
foram adotados parâmetros de avaliação quanto à usabilidade da interface,
apenas a verificação quanto ao sucesso ou não na implementação de regras. O
armazenamento persistente dos dados, garante segurança para manipulação de
regras, políticas de acesso e filtro. O sistema de banco de dados proporciona
também agilidade e eficiência na execução das transações. O uso do Cerberos
em ambiente de produção apresentou desempenho não apenas satisfatório, mas
totalmente viável, pois o software oferece uma interface ágil e intuitiva, facilita a
administração de tarefas do proxy Squid e, possibilita a configuração rápida de
políticas de acesso à Internet por meio de sua interface, como pode ser visto na
Figura 1. O administrador pode utilizar outro importante recurso, a função de
importação de listas de acesso, o que facilita a criação de políticas de acesso,
demonstrado na Figura 2.
Figura 1 – Cadastro de Lista de Acesso
Figura 2 – Importar Lista de Acesso
Através de todas as etapas que foram vencidas durante o desenvolvimento do
sistema, desde o levantamento bibliográfico, passando pela modelagem do
sistema e chegando enfim na codificação do protótipo e ao testes das
funcionalidades implantadas, pode-se constatar a viabilidade para utilização da
aplicação em um ambiente de produção. Com a interface ágil e intuitiva do
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
27
sistema, conseguiu-se facilitar as tarefas de administração do proxy Squid,
possibilitando assim que profissionais que não possuem conhecimento técnico do
sistema operacional Linux e da ferramenta Squid, sejam capazes de configurar
políticas de acesso à Internet por grupos de usuários e listas de acesso. Além
disso, possibilitou realizar a configuração de algumas características avançadas
de cache, fornecendo ao administrador a função de importação de listas de
acesso, o que facilita toda a criação das políticas do sistema. Assim, conseguiuse atingir os principais objetivos propostos para o projeto.
PALAVRAS-CHAVE
Proxy, Cache, Software Livre, Open Source, HTTP
TIPO DE TRABALHO: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
28
COMPUTADOR EMBARCADO BASEADO EM
MICROCONTROLADORES ARM PARA APLICAÇÃO EM
AGRICULTURA DE PRECISÃO
1
Maurício Fernando Lima Pereira – [email protected]
1
Filipe Pereira Ferraz – [email protected]
1
Wellington Sales Eugênio Santos - [email protected]
1
Elmo Batista de Faria – [email protected]
1
Josiel Maimone de Figueiredo – [email protected]
1
Raul Teruel dos Santos – [email protected]
1 – UFMT – Universidade Federal de Mato-Grosso - Cuiabá / MT
RESUMO
A busca pela conservação dos recursos naturais e maior produtividade impõe à
atividade agrícola a procura por novos métodos e técnicas de produção. Neste
contexto, o conceito de agricultura de precisão se distingue da agricultura
tradicional por seu nível de manejo. Em vez de administrar uma área inteira como
uma única unidade, o manejo é adaptado para pequenas áreas dentro de um
campo. Recentemente, com a crescente evolução das arquiteturas de
computação embarcadas, tornou-se possível uma maior integração de campo e
tecnologia aplicados a agricultura de precisão, com custos relativamente mais
baixos. Neste contexto, este trabalho apresenta o desenvolvimento de um
computador embarcado baseado em microcontrolador da família ARM para
aplicação em agricultura de precisão. Entende-se por computação embarcada,
um sistema computacional capaz de realizar tarefas de forma autônoma,
normalmente com execução em tempo real, e construídos em tamanhos
compactos e utilizados para um fim especifico. Neste computador embarcado é
possível conectar diferentes dispositivos tais como GPS, sensores digitais e
analógicos, bem como realizar comunicação com outros computadores via rede
Ethernet ou sem fio. Também pode-se persistir as informações em memórias não
voláteis do tipo Flash. O objetivo deste trabalho esta relacionado ao
desenvolvimento de hardware e firmware para uso em agricultura de precisão. No
que tange a arquitetura de hardware, o objetivo é pesquisar e desenvolver um
computador embarcado focando o estudo na família de microcontroladores ARM
combinado como a utilização de sistemas operacionais de tempo real (RTOS). No
trabalho foram utilizados os microcontroladores LPC2138 e LPC2148 da NXP que
pertencem à família ARM7. Esta família apresenta como características principais:
um pipeline integrado de três estágios, baixo consumo de energia e boa relação
custo desempenho. No que tange ao desenvolvimento do firmware, o objetivo é
criar uma arquitetura de sistema que permita desenvolver uma gama de
aplicações relacionadas à agricultura de precisão usando uma mesma arquitetura
de hardware. Dentre as aplicações possíveis, pode-se destacar a coleta de
dados, o controle de equipamentos, o gerenciamento de pessoal em campo
dentre outras. Nesta arquitetura de firmware se viabiliza a integração com
diferentes aplicações de desktop e bases de dados através do uso de linguagem
XML para troca de informações e armazenamento. Desta forma, todas as
informações adquiridas em campo são gravadas em formato XML e podem ser
integradas em bases de dados permitindo estudos que tornem mais racional o
uso de máquinas, de implementos e a aplicação de insumos. Assim neste
trabalho se desenvolve um modelo de firmware com 3 camadas, sendo a camada
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
29
base de funções para lidar com os diferentes tipos de portas de entrada e saída
do microcontrolador, gravação de dados em memórias e comunicação,
semelhante a uma camada de drivers nos softwares tradicionais. Acima desta
camada tem-se um RTOS responsável por gerenciar as várias tarefas realizadas
pelo microcontrolador durante a execução da aplicação, o que também permite
abstrair das peculiaridades relacionadas ao controle de interrupções e
temporizadores, que em geral são bastante complexas. Acima da camada de
RTOS foram desenvolvidas bibliotecas de manipulação XML e de sistema de
arquivos FAT e nessa camada se constrói a aplicação. No trabalho utiliza-se a
linguagem C para desenvolvimento das camadas com alguns trechos em
linguagem assembler do microcontrolador para iniciar a execução da aplicação. O
ambiente de programação utilizado é a IDE Eclipse juntamente com o Yagarto
que é um plug-in do Eclipse responsável por gerar o código-objeto .hex o qual é
gravado no microcontrolador. Para gravação do .hex utiliza-se o Flash Magic,
disponibilizado pela NXP. Para avaliar o sistema desenvolvido, utilizou-se um
conjunto de sensores digitais e analógicos, combinados com um real time
clock(RTC) e memória SD Card e portas serial. Um dos sensores utilizados no
projeto é o sensor LM35 da National Semiconductor, que apresenta uma saída de
tensão linear relativa a sua temperatura, tendo em sua saída uma variação de
10mV/°C. Entre os resultados obtidos pode-se destacar o desenvolvimento da
camada básica de drivers e a biblioteca de manipulação de arquivos em sistemas
FAT e de LCD, dentre outros. Utilizando este modelo em camadas, criou-se uma
aplicação no microcontrolador para realização de coleta de dados. Para fins de
validação deste firmware desenvolvido utilizando a arquitetura proposta foram
realizados testes em laboratório com coleta automática de sensores analógicos e
digitais e posterior comparação dos dados gravados com observações visuais. A
comparação entre observações e informação persistida automaticamente mostrou
uma precisão em 100% dos casos, com destaque para a precisão na coleta de
dados analógicos de temperatura realizada pelo microcontrolador. O tempo de
coleta foi de uma hora com amostragem a cada trinta segundos. Conclui-se que
ainda que seja em ambiente controlado, a aplicação em microcontrolador
mostrou-se bastante robusta. O modelo em camadas mostrou-se adequado e
uma maior integração com o RTOS está sendo pesquisada.
PALAVRAS-CHAVE
ARM; Agricultura de precisão; Sistemas embarcados; Microcontroladores.
Tipo de Trabalho: Iniciação Científica
Agencia financiadora Bolsa PIBIT – CNPq
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
30
CONSTRUÇÃO DE UMA BASE DE TREINAMENTO DE IDS
UTILIZANDO O PROTOCOLO SNMP PARA CAPTURA DE DADOS
EM UMA REDE 802.11
1
Filipe Araújo Molina – [email protected]
1
Nelcileno Virgílio de Souza Araújo – [email protected]
2
Ed’Wilson Tavares Ferreira – [email protected]
2
Ruy de Oliveira – [email protected]
1 - UFMT – Instituto de Computação - Cuiabá / MT
2 - IFMT – Departamento de Informática – Cuiabá/MT
RESUMO
A maioria dos sistemas detectores de intrusão (IDSs) concentra sua análise nos
dados do pacote, que resulta em detecção tardia e numa carga elevada do
sistema para lidar com a alta velocidade do tráfego de rede. Pouca ou nenhuma
integração ocorre entre o IDS e o protocolo de gerenciamento de rede SNMP
(Simple Network Management Protocol). Apesar dos agentes de SNMP
fornecerem um monitoramento intensivo e informação estatística implementados
pelos dispositivos de rede. Por exemplo, o SNMP MIB-II (Management
Information Base), um padrão do IETF (Internet Engineering Task Force) para o
MIB oferece suporte para todos os agentes SNMP, fornecendo uma grande
quantidade de informações sobre o desempenho do tráfego sobre diferentes
camadas e protocolos. Empregando os dados do MIB, o IDS pode diminuir a
sobrecarga de processamento sobre a análise de dados e oferecer uma alta
flexibilidade de implementação. O objetivo desta pesquisa é utilizar o protocolo
SNMP para captura de dados numa rede sem fio infra-estruturada e gerar uma
base de treinamento para IDS. A escolha por esta tecnologia deve-se pela
escassez de base de treinamento nela. Além disso, as redes 802.11 são
conhecidas pela sua limitação de banda passante onde a necessidade de uma
ferramenta de captura de dados que gere baixo nível de tráfego de controle é
essencial. A metodologia aplicada consiste numa primeira fase na revisão
bibliográfica sobre os seguintes tópicos: uso do protocolo SNMP na captura de
dados numa rede de computadores, especificação da camada 2 na rede 802.11 e
a caracterização dos ataques de negação de serviço sobre as redes sem fio. A
seguir, implanta-se um ambiente de simulação onde existe uma rede sem fio
infra-estruturada acadêmica, realizando o monitoramento por meio do protocolo
SNMP e ocorrendo em determinados períodos de tempo ataques de negação de
serviço (deautenticação, duração e chop chop). Na última fase pretendemos préprocessar a base gerada colocando em cada amostra, além dos atributos
capturados durante a segunda fase, um rótulo de classificação (normal,
deautenticação, duração e chop chop) para identificar a qual classe de detecção
ela pertence. O projeto encontra-se atualmente na segunda fase, ou seja, na
instalação e configuração do ambiente de simulação. O local escolhido para
realizar o experimento é o Instituto de Computação da Universidade Federal de
Mato Grosso, pois a rede sem fio acadêmica implantada possui uma diversidade
de usuários o que possibilita uma captura de dados com amostras ricas em
informações. Além disso, a tarefa de geração dos ataques torna-se mais fácil de
implementar devido a restrição do espaço físico num único edifício de dois
pavimentos. As ferramentas empregadas para gerar os ataques na rede são
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
31
aircrack-NG (ataques chop chop e deautenticação) e framespam (ataque de
duração). O período de duração da captura de dados está programado para 2
semanas, registrando o tráfego no intervalo das 8:00 ás 22:00 horas e de
segunda a sexta. O instante dos ataques deve ocorrer nos seguintes tempos:
13:00-13:50, 15:30-15:50 e 17:30-18:10, privilegiando os momentos de intervalo
entre as aulas para não atrapalhar as atividades acadêmicas desenvolvidas no
local do experimento. As amostras capturadas serão armazenadas e préprocessadas num banco de dados MySQL para a partir disso termos uma base de
treinamento que pode ser empregada no módulo de aprendizagem de um IDS.
PALAVRAS-CHAVE
Auditoria de dados, SNMP, base de treinamento de IDS, redes sem fio
infraestruturada.
TIPO DE TRABALHO: Estágio Supervisionado
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
32
CONVERSÃO DE DIAGRAMA DE ATIVIDADES UML PARA SAN:
GERAÇÃO DE CASOS DE TESTE DE SOFTWARE
Toni Amorim de Oliveira – [email protected]
UNEMAT - Universidade do Estado de Mato Grosso
RESUMO
Pesquisas recentes propõem o uso de formalismos como redes de Petri
estocásticas (SPN - Stochastic Petri Nets) cadeias de Markov (MC - Markov
Chains) e redes de autômatos estocásticos (SAN - Stochastic Automata
Networks) para construção de um modelo comportamental que viabilize a análise
e a validação de sistemas durante o processo de desenvolvimento, cujos
resultados possibilitam desenvolver um software mais robusto e eficiente. Com o
objetivo de se obter um modelo comportamental de sistemas computacionais,
demonstra-se neste artigo um método de conversão de diagramas de atividades
para SAN, um formalismo que possibilita a modelagem de sistemas, a partir da
qual, é possível extrair índices probabilísticos relacionados aos estados do
modelo e gerar casos de teste de software.
Apresentamos neste trabalho um método de conversão de diagramas de
atividades para SAN, fundamentado em um formalismo matemático que
possibilita a modelagem de sistemas em geral, a partir do modelo comportamental
de sistema construído por diagramas de atividades UML. Com base nos modelos
criados, é possível extrair índices probabilísticos relacionados aos estados do
modelo SAN gerado, permitindo a geração de casos de testes de software, cujos
resultados podem fundamentar decisões de projeto.
O desenvolvimento de software envolve tanto a modelagem quanto o uso de
linguagens orientadas a objeto, empregando sempre os elementos da Engenharia
de Software, dentre eles a UML (Unified Modeling Language), desenvolvida com o
objetivo de descrever qualquer tipo de sistema em termos de diagramas
orientados a objetos e de padronizar a forma de especificação de sistemas.
Testes de software podem ser vistos como o processo de executar ações que
visam identificar a presença de erros ou limitações de desempenho do sistema,
ou seja, consistem na verificação dinâmica do funcionamento de um determinado
programa, baseados em um conjunto finito de casos de testes, intimamente
relacionados dentro de um domínio infinito de entradas possíveis contra o
funcionamento esperado.
Redes de Autômatos Estocásticos é um formalismo proposto por Plateau nos
anos 80 para modelagem analítica de sistemas com um grande espaço de
estados, representado por meio de subsistemas, equivalente à cadeia de Markov.
O método apresentado neste trabalho é uma conversão manual de diagramas de
atividades da UML para um modelo SAN que possibilita a realização de análises
de comportamento do sistemas, tais como, determinar a funcionalidade do
sistema que possui uma maior probabilidade de uso. Posteriormente, com base
no modelo SAN obtido, é possível gerar casos de teste de software. O processo
de conversão pode ser descrito em sete passos descritos da seguinte forma:
Conversão dos elementos estado inicial e estado final, Conversão do elemento
atividade, Conversão do elemento transição, Conversão do elemento decisão,
Conversão do elemento fork, Conversão do elemento join e Conversão do
elemento merge.
Os resultados obtidos após a conversão do diagrama de atividades (Figura 1)
para o modelo SAN (Figura 2) gerado, demonstram a possibilidade de o modelo
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
33
SAN estar em um determinado estado que representa a execução de uma
atividade. A partir desse modelo SAN obtido, foram gerados casos de teste de
software em que cada caminho percorrido nos estados existentes representa um
caso de teste.
Figura 1 – Diagrama de atividades
Figura 2 – Modelo SAN obtido
Este trabalho teve por objetivo apresentar um método de conversão de diagramas
de atividades da UML para SAN e a geração de casos de teste de software.
Foram apresentados os principais conceitos sobre UML, a descrição das
principais técnicas de teste de software. Foram demonstrados ainda os conceitos
sobre o formalismo SAN, um dos focos do trabalho aqui apresentado.
Trabalhos futuros deverão abordar a melhoria do método, de modo a reduzir o
estado global dos modelos SAN gerados. Ainda como trabalho futuro, espera-se
encontrar outras formas de efetuar o tratamento das condições de guarda,
visando obter modelos SAN com um tamanho menor, o que possibilitaria analisar
sistemas mais complexos.
PALAVRAS-CHAVE:
Redes de Autômatos Estocásticos, Teste de Software, UML (Unified Modeling
Language)
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
34
CRIAÇÃO DE MODELOS DE PRODUTIVIDADE DE SOJA PARA
FIDELIZAÇÃO DE ASSOCIADOS EM COOPERATIVAS DE
PRODUÇÃO
1
Gilso César Valiati - [email protected]
1
Sandro da Silva Camargo – [email protected]
1 – FATEC – Faculdade SENAC de Tecnologia – Passo Fundo / RS
RESUMO
Este artigo descreve a aplicação de técnicas de mineração de dados para criação
de modelos preditivos de produção de soja aplicável a produtores cooperados da
região do Planalto Médio do Rio Grande do Sul. O objetivo é fornecer subsídios
que contribuam com o processo de fidelização dos produtores e identificação de
possíveis fraudes na entrega de produção dos associados da Cotrijal Cooperativa Agropecuária e Industrial na região de Não-Me-Toque. A fidelidade
dos cooperados, no que tange ao seu comprometimento com a cooperativa, é um
fator crítico para o sucesso deste tipo de organização. Entre outras coisas, um
cooperado faz um compromisso de entrega de toda a sua produção para a
cooperativa em função da utilização dos ativos e benefícios que esta lhe
proporciona. Ao utilizar os recursos da cooperativa, sem a entrega de toda a sua
produção, um cooperado está prejudicando indiretamente os demais. Desta
forma, a cooperativa tem a necessidade saber se o cooperado entregou a ela
toda sua produção, porém necessita de informações adequadas para avaliar o
grau de envolvimento com a organização. Este trabalho tem como objetivo a
criação de modelos para predição da quantidade de semente e entrega da
produção por produtores de soja na Cooperativa de Produção, Cotrijal
Cooperativa Agropecuária e Industrial na região de Não-Me-Toque, no Rio
Grande do Sul, considerando os índices pluviométricos. Com o resultado deste
trabalho tem-se a intenção de contribuir no processo de fidelização dos
produtores e também na identificação de possíveis desvios de entrega de produto
não correspondendo, em produtividade, à compra inicial das sementes por parte
do produtor. Os dados de produção e compra de semente foram obtidos a partir
do banco de dados da cooperativa. Foi realizada uma seleção dos dados
disponíveis das safras de 2008, 2009 e 2010, considerando apenas os dados de
produtores de soja da região de Não-Me-Toque Os dados pluviométricos mensais
referentes às respectivas safras foram obtidos a partir de um banco de dados da
cooperativa. Como resultado destes sucessivos processos de seleção, foi gerada
uma base de dados com 1228 amostras. Cada uma destas amostras contém
dados pluviométricos de 12 meses, compreendidos entre julho do ano anterior à
safra a junho do ano da safra, além da quantidade de sacos de semente
comprados pelo produtor e a quantidade de sacos de produto entregue à
Cooperativa. Para gerar os modelos preditivos, foi realizado um processo de
mineração de dados com utilização de algoritmos de regressão implementados no
pacote de software livre Weka. Foram utilizados diversos algoritmos de regressão
do tipo “caixa-branca”. Dentre os algoritmos aplicados, os resultados obtidos com
regressão linear criaram modelos com maior capacidade preditiva. Para avaliar a
capacidade preditiva dos modelos foi utilizada a técnica 10-fold cross validation.
Modelos de regressão linear atingiram um coeficiente de correlação de 0,74 em
relação à produção real dos cooperados. O modelo de regressão gerado foi
discutido com o departamento técnico da Cooperativa. Em relação ao processo
atualmente utilizado na Cooperativa para predição de produção, o modelo criado
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
35
neste trabalho tem maior capacidade preditiva, provavelmente pelo fato de incluir
dados de precipitação mensal. Modelos de regressão linear sem dados de
pluviosidade atingem um coeficiente de correlação de 0,72 com a produção real.
Dado que a cooperativa recebe anualmente em torno de 6 milhões de sacos de
produção, a diferença de correlação de 0,02 entre os modelos representa um
incremento de precisão em torno de 120.000 sacos. Outra descoberta
interessante é que o modelo de regressão criado demonstra uma correlação
positiva entre produtividade e as chuvas nos meses de janeiro e março, e
correlação negativa para a pluviosidade nos meses de outubro e dezembro. É
possível concluir que o modelo preditivo criado através da aplicação de técnicas
de mineração de dados alcançou um índice de correlação de 0.74 dentro de um
contexto ideal de 1.0, tendo capacidade preditiva superior aos modelos utilizados
atualmente na Cooperativa. Assim, espera-se que o modelo possa contribuir para
a melhoria deste processo na Cooperativa. Sugere-se, no entanto, que o próximo
passo seja a identificação das maiores discrepâncias em produtividade com base
na produção predita pelo modelo. Tais discrepâncias consistem em produtores
que devem ter sua situação analisada mais detalhadamente por indícios de não
reciprocidade entre cliente, sócio e fornecedor que neste tipo de organização
pode ser o mesmo. Isso contribuirá para o sucesso da empresa. Salienta-se ainda
que a inclusão de dados sobre qualidade do solo provavelmente aumentaria a
exatidão preditiva do modelo porém não foi possível obter estes dados.
PALAVRAS-CHAVE
Produção de Soja, Mineração de Dados, Modelo de produtividade, Weka
Tipo de Trabalho: Trabalho de Conclusão de Curso de Especialização
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
36
CRIAÇÃO DE MODELOS PREDITIVOS DE EVASÃO ESCOLAR
1
Fernanda Milani - [email protected]
2
Sandro da Silva Camargo – [email protected]
1 – FATEC – Facultade SENAC de Tecnologia – Passo Fundo / RS
RESUMO
Este trabalho descreve a aplicação de técnicas de mineração de dados no banco
de dados do Campus de Passo Fundo do Instituto Federal Sul-Rio-Grandense. O
objetivo é a identificação de fatores que contribuem para a evasão escolar. Foram
identificados alguns fatores que permitem a descoberta de grupos de risco para
evasão. A evasão é o desligamento do aluno, por sua própria responsabilidade,
da instituição de ensino a qual está matriculado. Nas Instituições Federais de
Ensino a evasão é um aspecto crítico, visto que tem influência nos repasses de
recursos federais. A predição de quais alunos têm maior propensão à evasão
escolar pode permitir um acompanhamento mais direto destes alunos de forma a
diminuir a ocorrência deste fenômeno. Além disso, a identificação de quais fatores
contribuem para a evasão dos alunos pode fornecer subsídios para a formulação
de políticas que permitam atenuá-los, reduzindo assim os níveis de evasão. A
análise dos dados dos alunos através de processos baseados em trabalho
humano torna-se proibitiva, sendo necessária a aplicação de técnicas automáticas
para a análise destes dados. Este trabalho visa identificar os principais fatores
que contribuem para evasão dos alunos do Campus de Passo Fundo do Instituto
Federal Sul-Rio-Grandense (IFSul). Foi realizada a aplicação de técnicas de
mineração de dados sobre dados dos alunos do campus de Passo Fundo do
IFSul. Para utilizar as ferramentas, houve a necessidade de consolidar um banco
de dados a partir de fontes de dados oriundas de diversos setores do Instituto,
visto que não existe um único banco de dados com toda a informação corporativa.
Devido à heterogeneidade das fontes de dados, este processo foi realizado de
forma manual e foram considerados apenas dados do curso técnico em
informática, técnico em mecânica e curso superior de sistemas para internet. Está
sendo implementada uma estrutura automática para integração de instâncias
destas diversas fontes de dados heterogêneas. Dentro do banco consolidado,
22% das instâncias representam dados de alunos que evadiram e os outros 78%
representam dados de alunos que não evadiram. A fim de realizar a mineração de
dados, foram utilizados algoritmos de classificação implementados na ferramenta
Weka. Foram utilizados diversos algoritmos que geram modelos “caixa-branca”
com ênfase em algoritmos de geração de regras e geração de árvores de
decisão. Levando-se em conta que a taxa média de evasão no banco de dados
considerado é 22%, foram encontradas as seguintes regras relevantes: Em
relação aos resultados obtidos que levam em consideração a idade dos alunos,
foram obtidas as seguintes regras: 1) Alunos com idade maior que 37 anos têm
um percentual crítico de evasão, em um patamar entre 40 e 50%, o que
representa em torno do dobro da média de evasão do instituto. 2) Alunos entre
Alunos com idade menor que 22 anos têm baixo percentual de evasão, inferior a
10%, o que representa metade da média de evasão do Instituto. 3) Alunos entre
22 e 27 anos tem percentual de evasão acima de 20%, valor que está alinhado
com a média de evasão do instituto. Em relação aos resultados obtidos que levam
em consideração o curso do aluno, foram obtidas as seguintes regras: 1) Alunos
do curso técnico em mecânica têm alta probabilidade de evasão, próxima a 30%.
2) Alunos do curso técnico em informática têm probabilidade de evasão em torno
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
37
de 20%, o que está levemente abaixo da média geral. 3) Alunos do curso superior
em tecnologia para internet têm baixa probabilidade de evasão, em torno de 10%.
Pode-se concluir que a aplicação de técnicas de mineração de dados é eficiente
na identificação de fatores que contribuem para a evasão universitária campus de
Passo Fundo do IFSul. A utilização de algoritmos de geração de regras e de
geração de árvores de decisão permite identificar alguns dos fatores que
contribuem para a evasão universitária, sendo possível reconhecer os grupos de
risco para evasão. Tais resultados fornecem subsídios para indicar quais alunos
necessitariam de um acompanhamento mais personalizado a fim de tentar
diminuir o risco de evasão.
PALAVRAS-CHAVE
Evasão Escolar, Mineração de Dados, Modelos Preditivos, Weka
Tipo de Trabalho: Trabalho de Conclusão de Curso de Especialização
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
38
DATA WEBHOUSE CEB-INEP – UM DATA WEBHOUSE A PARTIR
DOS MICRODADOS DO CENSO ESCOLAR BÁSICO INEP/MEC
Fernando Maia da Mota – [email protected]
Leila Lisiane Rossi – [email protected]
Marcelo Augusto Santos Turine – [email protected]
Alex de Lima Campelo - [email protected]
UFMS - Universidade Federal de Mato Grosso do Sul - Coxim / MS
RESUMO
Este artigo apresenta o Data Webhouse CEB-INEP, desenvolvido a partir dos
microdados do Censo Escolar Básico-INEP/MEC, cujo objetivo é fornecer aos
gestores do INEP uma ferramenta que possibilite auxiliá-los na tomada de
decisão para a adoção de políticas educacionais, além de oferecer a educadores,
pesquisadores e publico em geral uma ferramenta gráfica e com usabilidade para
acompanhamento, comparação e previsão do ensino básico no Brasil. Com o
crescente volume de informações no nosso dia a dia surge a necessidade de
ferramentas automatizadas que auxiliem no processo de armazenamento e
recuperação dos dados de forma rápida e prática. Nas instituições de ensino é
realizada uma série de provas para avaliar a qualidade e as condições da
educação no Brasil, O Instituto Nacional de Estudos e Pesquisas Educacionais
Anísio Teixeira – INEP é uma autarquia federal vinculada ao Ministério da
Educação – MEC responsável pelas avaliações do Sistema Educacional
Brasileiro. Através das pesquisas realizadas pelo INEP é possível obter
informações claras e confiáveis aos gestores, pesquisadores, educadores e
público em geral. Contudo essas informações nem sempre são de fácil acesso a
essas pessoas. Com o objetivo de contribuir e facilitar as consultas sobre os
dados do INEP obtidos através das provas e pesquisas promovidas por ele, foi
proposto pela Universidade Federal de Mato Grosso do Sul – UFMS em parceria
com a Universidade Federal de São Carlos – UFSCar o projeto de pesquisa
WebPIDE o qual prevê a criação de uma plataforma de integração dos dados
educacionais do INEP. O projeto WebPIDE é composto por vários projetos sendo
um deles a avaliação e os testes com as ferramentas a serem usadas para
criação dos Data Webhouses(Data Warehouse disponível na web) que irão
compor a plataforma proposta. Este trabalho demonstra a criação do Data
Webhouse CEB-INEP desenvolvido a partir dos microdados do CEB-INEP. O
INEP disponibiliza os dados do censo escolar básico através de download em seu
sitio oficial, esses dados são chamados de microdados a equipe do projeto WebPIDE desenvolveu uma ferramenta de extração de dados, intitulada DEAR( Data
Extractor ASCII to Relational), esta ferramenta insere em tabelas de banco de
dados os dados extraídos dos microdados. Devido ao tamanho da base e falta de
padronização ao longo dos anos de pesquisa no que se refere aos
questionamentos, decidiu-se fazer o mapeamento dos campos que se faziam
presentes em todos os anos da tabela censo_esc, esta é a principal tabela da
base, pois armazena os dados principais do censo escolar básico além de estar
presente em todos os anos da pesquisa. Só após o mapeamento foi possível
definir o modelo estrela a ser utilizado para construção do Data Webhouse. Para
carregar os dados no modelo estrela utilizou-se scripts sql. Após pesquisa entre
ferramentas de BI open-source disponíveis, a Pentaho se mostrou a melhor e
mais usada no mundo, esta disponibiliza ferramentas para fazer consultas OLAP.
Também utilizou-se a ferramenta BI-Server que é um portal desenvolvido pela
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
39
Pentaho também open-source, que serve para disponibilizar os cubos na web.
Como resultado foi obtido o Data Webhouse do CEB–INEP a partir dos
microdados do INEP através do qual é possível realizar consultas OLAP na web
facilitando desta maneira os coordenadores e gestores do INEP na tomada de
decisão em relação a adoção de políticas educacionais para a melhoria da
qualidade do ensino no Brasil. Com base nesse modelo é possível realizar
consultas do tipo, “Número de Instituições por Região e Ano”, “Número de
Professores em Sala de Aula por Região e Ano ”, “Número de Alunos Aprovados
e Reprovados no Ensino Médio por Ano, Região e município”. O trabalho esta
disponível para acesso no seguinte endereço http://webpide.ledes.net/pentaho.
Através do trabalho realizado é possível concluir que a criação de um Data
Webhouse é uma tarefa extremamente complexa considerando principalmente
bases com grandes volumes de dados e a necessidade do conhecimento de
várias áreas da computação como a Engenharia de Software, Banco de Dados,
Análise e Projeto de Software além do domínio de ferramentas e tecnologias para
a disponibilização dos resultados na web. Como dificuldades encontradas é
necessário citar principalmente a falta de padrão e manutenção entre as questões
das avaliações, assim muitos dados não puderam ser utilizados na criação do
Data Webhouse. Trabalhos futuros relacionados a este trabalho envolve a
avaliação da necessidade da criação de Data Marts considerando as diferenças
entre alguns dados da base do CEB e o estudo e a análise das outras bases de
dados e das ferramentas as quais já estão sendo avaliadas e desenvolvidas pela
equipe do WebPIDE.
PALAVRAS-CHAVE
Data Webhouse, WebPIDE, CEB, INEP.
Tipo de Trabalho: Iniciação Científica
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
40
DESENVOLVIMENTO DE UM SHELL DE COMANDOS PARA
COMUNICAÇÃO COM MICRONTROLADORES ARM COM
FREERTOS
1
Izandro Monteiro Metello – [email protected]
1
Josiel Maimone de Figueiredo – [email protected]
1
Maurício Fernando Lima Pereira – [email protected]
1 – UFMT – Universidade Federal de Mato-Grosso - Cuiabá / MT
RESUMO
A agricultura de precisão tem como objetivo melhorar a produtividade utilizando
tecnologias como aplicação controlada de insumos e coleta de informações sobre
o ambiente da aplicação. Neste contexto, os microcontroladores permitem criar
pequenos computadores, que podem ser utilizados em diversas aplicações que
exigem características como portabilidade, economia de energia e capacidade de
processar informações. Alguns microcontroladores como os de arquitetura ARM,
por exemplo, contam com uma boa relação de processamento por quantidade de
energia gasta (MIPS/WATTS). No cenário de automação agrícola, estes
computadores embarcados podem ser utilizados para fazer a conexão entre um
computador e vários sensores ou entre dispositivos de aplicação de insumos em
uma plantação. Em ambos, os computadores embarcados devem fazer o
gerenciamento da leitura de vários sensores, da exibição de informações numa
interface LCD, da leitura de um teclado, da gravação e leitura de memória
EEPROM, da comunicação com o mundo externo via USB ou Ethernet ou serial,
dentre outras tarefas. Este gerenciamento pode ser algo bastante complexo para
o programador, visto que ele tem que projetar um algoritmo que seja capaz
realizar as operações descritas anteriormente e também gerenciar interrupções,
temporizadores do microcontrolador e preocupar-se com interrupções durante
execução de uma determinada tarefa crítica. A utilização de sistemas
operacionais ajuda a solucionar esse problema, fornecendo uma camada de
máquina virtual na qual o programador não se preocupa com essas questões de
gerenciamento de recursos de hardware, dando a ele maior liberdade para criar
tarefas que devem ser realizadas de forma aparentemente paralela. Neste
contexto apresentado, o objetivo deste trabalho é desenvolver um shell de
comandos tendo como base um sistema operacional (SO) de tempo real (RTOS)
e microcontroladores ARM7. A partir dessa base, pretende-se criar aplicações
que automatizem procedimentos em campo, tornando possível economizar
recursos como água, auxiliar no aumento de produtividade pela coleta de
informações em campo, reduzir custos e aumentar a eficiência na manutenção do
solo. Para atingir esses objetivos, vários módulos estão sendo desenvolvidos pelo
grupo de pesquisa para explorar os recursos presentes nos microcontroladores e
aplicá-los na área agrícola. Para fazer o gerenciamento desses módulos de forma
eficiente está sendo utilizado um RTOS, o qual se caracteriza pelas restrições de
tempo no sentido de que os resultados ou as ações devem ser fornecidos dentro
de uma janela de tempo específico. Neste trabalho o RTOS utilizado é o
FreeRTOS, o qual é de código-aberto, portável e projetado para sistemas
embarcados. Ele implementa um kernel de tempo real com sistema operacional
preemptivo, que gerencia a comunicação entre as várias tarefas executadas e
contribui para reduzir a complexidade na criação de aplicações embarcadas bem
como no uso otimizado do microcontrolador. Na personalização do RTOS e no
desenvolvimento dos módulos é utilizado a toolchain Yagarto (GNU-ARM) e a IDE
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
41
Eclipse. Um dos módulos que está sendo implementado é um shell de
comunicação para o microcontrolador, utilizando uma porta de comunicação
serial. A base dessa interface já está implementada e funcional e facilita muito a
utilização do microcontrolador. A interface serial é bem flexível, permitindo a
comunicação entre um computador e o microcontrolador, um microcontrolador e
outro microcontrolador e de um microcontrolador e um dispositivo, como um GPS,
o que viabiliza a troca de dados entre diferentes dispositivos. O shell de
comunicação é uma das tarefas no RTOS e possibilita o acesso e o controle aos
recursos do microcontrolador de forma mais simples. Além disso, ela evita a
necessidade de regravação do firmware dado que permite realizar ajustes de
configurações durante a execução. Atualmente utilizando o shell é possível obter
informações a respeito do Real Time Clock (ajustar e ver as horas) e alterar o
estado das GPIOs (ligar ou desligar leds, por exemplo). Futuramente, será
implementado no shell mecanismos que permitam organizar quais tarefas devem
ser executadas e a sua sequência sem necessidade de recompilação, o que
contribui para redução no tempo de desenvolvimento e na complexidade de
criação da aplicação. Observa-se a partir dos resultados obtidos, o uso de RTOS
tende a agilizar o desenvolvimento de firmware. No desenvolvimento de uma
aplicação de coleta de dados, por exemplo, houve uma redução da complexidade
de criação da aplicação, visto que apoiando-se em um SO, pode-se trabalhar
modelar e implementar a aplicação com o conceito de tarefas e deixar a cargo do
RTOS, o gerenciamento das trocas de contexto e do gerenciamento de regiões
críticas.
PALAVRAS-CHAVE
Agricultura de precisão, Microcontroladores, Sistema Operacional de Tempo Real,
ARM7.
Tipo de Trabalho: Iniciação científica
Agencia financiadora: CNPq
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
42
DESENVOLVIMENTO DE UM SIMULADOR MULTIMÍDIA PARA O
ENSINO DE ESCALONAMENTO DE PACOTES
Gustavo X. Santana - [email protected]
Tatiana Annoni Pazeto - [email protected]
UFMT- Universidade Federal de Mato Grosso - Rondonópolis/MT
RESUMO
O presente trabalho é fruto de uma pesquisa que objetiva o desenvolvimento de
uma ferramenta de auxílio ao ensino/aprendizagem de escalonamento de
pacotes. Através de pesquisas realizadas, dentre as várias ferramentas
existentes, não foi encontrada nenhuma que atenda exclusivamente ao objetivo
proposto, principalmente com a abordagem VAK (Visual, Auditive and
Kinesthetic). Além disso, as ferramentas analisadas não são de fácil utilização,
pois a maioria foi desenvolvida com objetivos comerciais. Desta forma, a
ferramenta proposta irá preencher uma lacuna existente, sendo desenvolvida
exclusivamente com a finalidade acadêmica. Assim, além desta diferença, o estilo
de aprendizagem VAK será usado para o desenvolvimento da ferramenta. O
assunto escalonamento foi escolhido por ser algo abstrato de ser visualizado e
entendido, bem como os algoritmos de escalonamento que permitem aos
dispositivos de controle de rede diminuir as desigualdades na distribuição da
largura de banda, otimizando a utilização dos recursos da rede e evitando perdas
de dados decorrentes de atrasos e/ou congestionamentos (Junior, 2007). Neste
contexto, o processo de ensino/aprendizagem desta área do conhecimento é
complexo, de forma que criar meios que possam sanar estas deficiências é uma
necessidade evidente, fato que motivou esta pesquisa. Esta investigação é uma
sequência do trabalho desenvolvido por Silva (2009), no qual foi implementado
um simulador de escalonamento FIFO (First-in, First-out) e DRR (Deficit Round
Robin) com o intuito de analisar o impacto das fontes de tráfego. Neste sentido,
ao simulador desenvolvido por Silva (2009), serão adicionadas características e
funções que possibilitem o auxílio ao ensino/aprendizagem de escalonamento de
pacotes. Outrossim, como vários conceitos são necessários, para o
desenvolvimento da ferramenta foi realizada uma pesquisa bibliográfica sobre
simuladores, escalonadores de tráfego e, posteriormente, uma análise sobre
softwares utilizados no ensino de redes. Desta forma, inicialmente foi realizado o
levantamento dos requisitos com base na interface e funcionalidades do
simulador desenvolvido por Silva (2009). Em seguida buscaram-se adicionar, ao
simulador, funções e características que possibilitassem a utilização no processo
de ensino/aprendizagem de escalonamento de pacotes. Após a análise de
requisitos foi realizada a implementação de um pequeno protótipo da interface
principal, utilizando a linguagem C/C++ e a biblioteca de programação de jogos
Allegro, sendo este trabalho publicado por Santana e Pazeto (2010). Em seguida
o protótipo foi analisado por alguns alunos e professores, que identificaram
melhorias a serem implementadas, além de sugestões em geral. Estas já foram
realizadas na interface do programa. Além disso, buscou-se implementar a
interface de acordo com os estilos de aprendizagem VAK (Gallert, 2005; Frei,
2010), com o intuito de atender aos estilos de aprendizagem da maioria dos
discentes. Neste sentido, as melhorias implementadas consistem na inclusão de
ícones autoexplicativos, legendas ativadas ao passar o mouse pelo parâmetro e
redução da quantidade de parâmetros mostrados simultaneamente. O objetivo é
facilitar a utilização da ferramenta, contemplando características visuais, visando
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
43
atender aos estudantes que aprendem melhor através da visão. Além disso, os
resultados gerados pelo simulador poderão ser visualizados em gráficos, através
de um programa editor de planilhas, como o Calc do Broffice ou o Excel do
Windows. Também poderão ser visualizadas animações referentes ao
escalonamento dos pacotes, atendendo assim aos estudantes visuais e auditivos.
Quanto aos sinestésicos, a interatividade fica por conta da alteração nos
parâmetros de geração de tráfego, que modifica o resultado das simulações.
Assim o aluno poderá perceber o impacto que as fontes exercem no que se refere
a performance da rede. Futuramente, após a conclusão do simulador, o mesmo
deverá ser avaliado e validado através de critérios baseados em estilos de
aprendizagem VAK e também referentes a ergonomia de interfaces, além de
questões consoantes ao ensino/aprendizagem. Desta forma, a partir destes
critérios pré-definidos, será elaborado um formulário onde uma turma de alunos,
após utilizar o programa, irá avaliá-lo baseando-se nesses requisitos. Desse
modo, os principais resultados obtidos até agora foram a implementação da
interface da ferramenta proposta, de acordo com os estilos de aprendizagem
VAK, bem como a geração de fontes on/off fixas através da inserção de diferentes
parâmetros. Além disso, também foram definidas as funcionalidades que irão ser
implementadas como forma de auxílio à utilização da ferramenta (menus de
ajuda, formas de apresentação das informações) no ensino/aprendizagem do que
foi proposto. Como trabalhos futuros estão a integração da ferramenta ao
simulador para escalonamento FIFO e DRR, além de formas diferenciadas de
apresentação dos resultados das simulações e outros modelos de geração de
fontes de tráfego.
PALAVRAS-CHAVE
Redes, Escalonamento, Simulação, Ensino/aprendizagem, Modelos de Tráfego.
Tipo de Trabalho: Trabalho de conclusão de curso
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
44
ESTIMATIVA DE EVAPOTRANSPIRAÇÃO UTILIZANDO REDES
NEURAIS
Thiago Meirelles Ventura, Allan Gonçalves de Oliveira, Claudia Aparecida Martins, Josiel
Maimone de Figueiredo, Andréia Gentil Bonfante
[email protected],
[email protected],
{claudia,josiel,andreiab}@ufmt.br
UFMT – Universidade Federal de Mato-Grosso - Cuiabá / MT
RESUMO
Em áreas relacionadas com agricultura é importante saber qual a quantidade de
vapor de água está presente na região da plantação. Essa quantidade de água
depende da evapotranspiração da cultura presente na região, que é a soma da
transpiração das plantas com a evaporação da água no solo. Conhecendo a
evapotranspiração da cultura, é possível determinar e aplicar de maneira mais
racional a irrigação necessária à mesma, economizando recursos e
potencializando o resultado da cultura. A evapotranspiração geralmente é
estimada de duas maneiras: por lisímetro e pelo método de razão de Bowen. O
lisímetro é um instrumento que necessita de grandes esforços para a sua
instalação, impossibilitando de ser aplicado em várias pesquisas. Já o método de
razão de Bowen é um conjunto de fórmulas que tem como característica uma
medida indireta baseado na energia líquida disponível ao meio, ou seja, o saldo
de energia após todas as trocas energéticas. Baseia-se no princípio de
conservação de energia, aplicado aos mecanismos físicos envolvidos no
fenômeno de evapotranspiração. O método da razão de Bowen tem suas
limitações e, às vezes, não consegue estimar com exatidão a evapotranspiração.
O problema é que o método não leva em consideração a energia armazenada no
sistema, o que pode levar a uma subestimação da evapotranspiração. O objetivo
deste trabalho consiste na utilização das técnicas computacionais de aprendizado
usando redes neurais para tentar obter uma estimativa da evapotranspiração de
maneira mais fácil, do que utilizando um lisímetro, e mais preciso, do que
utilizando o método de razão de Bowen, fazendo um comparativo entre os
métodos. Assim, para estimar a evapotranspiração, foi definida a arquitetura de
redes neurais perceptron multicamadas, usando o algoritmo de retropropagação
para seu treinamento. Na implementação e treinamento da rede foi utilizado o
software MATLAB, que possui como característica a resolução de cálculos
complexos por meio de funções já incorporadas em seu sistema. No conjunto de
treinamento, as entradas da rede neural foram os dados de radiação global, calor
sensível e calor latente para estimar a evapotranspiração, as mesmas variáveis
utilizadas no método de razão de Bowen. As saídas são os valores reais medidos
pelo lisímetro, com isso espera-se que a rede alcance valores mais próximos do
real. Os resultados alcançados após o treinamento da rede foram semelhantes,
não demonstrando muita diferença ao método proposto por Bowen. Entretanto, os
resultados podem ser considerados animadores, visto que a rede pode ser
ajustada e novamente treinada, com possibilidade de se estimar valores que são
difíceis de obter com instrumentos específicos, mas que se baseiam em
parâmetros simples. Espera-se que com a inserção de mais um parâmetro que
possa representar a energia armazenada pelo sistema (tipo de solo, vegetação,
entre outras características do meio) possa alcançar resultados mais
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
45
representativos. Apesar da rede neural ter um treinamento pesado, a vantagem é
ajustar seus parâmetros até a possível convergência e, com isso, obter um
resultado satisfatório e rápido da rede neural treinada. Com os testes realizados,
acredita-se que seja possível chegar a um resultado comparado aos dos
lisímetros e, assim, propiciar uma maneira mais simples de estimar a
evapotranspiração auxiliando a parcela da sociedade e de órgãos governamentais
que atuam no ramo da agricultura, principalmente quando os recursos são
limitados.
PALAVRAS-CHAVE
Redes neurais, matlab, bowen, evapotranspiração.
Tipo de Trabalho: Trabalho de Grupo de Pesquisa
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
46
ETIQUETAS INTELIGENTES - RFID
Bruno Delanne Porto Dourado – [email protected]
Lidia Martins da Silva – [email protected]
UNIRONDON – Centro Universitário Cândido Rondon - Cuiabá / MT
RESUMO
Este trabalho está voltado para o estudo da tecnologia RFID (Identificação por
Rádio Frequência), também conhecida como Etiquetas Inteligentes. Tem como
objetivo, apresentar a tecnologia RFID, suas vantagens e desvantagens, os
desafios e as barreiras existentes para a implantação e realizar um estudo em
algumas empresas da cidade de Cuiabá e Várzea Grande quanto ao uso desta
tecnologia. Estas etiquetas são dispositivos eletrônicos que são fixadas em
objetos, semelhantes às conhecidas etiquetas de código de barras e utilizam
ondas de rádio como meio de transporte; permitindo em tempo real a
transferência de informações entre um dispositivo portátil e um computador. Sua
aplicabilidade nos diversos setores permite diminuir o tempo de espera quanto à
detecção, conferência e controle de informações sobre qualquer objeto. As
informações como, por exemplo, de identificação ou controle de produção de um
objeto são armazenadas em memórias e transmitidas ou recebidas através de um
par de antenas, sendo uma delas acoplada ao equipamento transmissor e outra
ao receptor, mais especificamente à etiqueta. Quanto ao campo de aplicação,
observa-se nos mais variados lugares, nos quais, produtos, objetos e pessoas
tenham que ser etiquetadas e identificadas para posterior acompanhamento e/ou
processamento. Aqui citamos alguns exemplos, tais como: acompanhamento de
estoques, acompanhamento de corredores em uma corrida, Coladas nos produtos
em mercados, farmácias, supermercados, dentro de passaportes, para evitar
fraudes de documentos, no transporte e logística de produtos e containers, na
identificação animal, em implantes humanos, em bibliotecas em livros raros e
caros. A vantagem significativa dos sistemas de RFID é a de não exigir contato
nem campo visual para fazer a leitura das etiquetas. As etiquetas podem ser lidas
através de uma variedade de substâncias como água, névoa, gelo, pintura,
sujeira, plásticos, madeira e em condições ambientais que outra tecnologia óptica
não tem, também permite a leitura em circunstâncias desafiadoras e em
velocidades notáveis – na maioria dos casos, a resposta é de menos que 100
milissegundos. A capacidade de leitura/escrita de um sistema de RFID também é
uma vantagem significativa em aplicações interativas, como controle de
manutenção, apesar de ser uma tecnologia mais cara se comparada ao código de
barras. A RFID se tornou indispensável para uma grande variedade de coleta de
dados e aplicações de identificação automatizada que não seriam possíveis com
outras tecnologias. A tecnologia de radiofrequência deverá num futuro próximo,
atuar paralelamente ao código de barras ou até mesmo substituí-lo, em situações
que permitam e justifiquem sua aplicação. Passa a ser analisada como solução
de médio e longo prazo para indústrias e comércios, possibilitando a identificação
de produtos à distância e a troca de informações por meio de ondas de rádio, com
ganhos inquestionáveis em agilidade na transmissão e também na qualidade dos
dados que trafegam pelo sistema. As RFIDs serão capazes de reduzir o
desperdício, manter os níveis conservados em estoque ao mínimo, encurtar
tempos de ligação e permitirão que alguns varejistas obtenham preços mais
baixos, eliminando o custo em todos os níveis. Em cartões de identificação para a
segurança do empregado, posição dentro dos escritórios, dados da equipe de
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
47
funcionários para programas da fidelidade do cliente, veículos guiados
automaticamente em linhas de montagem, sistemas automatizados de bagagem
de linhas aéreas, o uso será quase universal através de todas as indústrias. Para
realização deste trabalho e atingir o objetivo proposto, utilizou-se de pesquisa
bibliográfica através de livros, revistas e artigos para análise do funcionamento
geral do sistema de RFID e uma pesquisa de campo, realizada em várias
empresas situadas nas cidades de Cuiabá e Várzea Grande, com o intuito de
obter respostas quanto ao conhecimento das mesmas sobre a tecnologia RFID,
qual empresa estaria utilizando e qual segmento, quais foram as vantagens
percebidas na utilização, se obteve ganhos ou perdas, se houveram dificuldades
na implantação, onde eram adquiridas a tecnologia e qual a opinião dos
proprietários e funcionários quanto ao uso da tecnologia. Das empresas
pesquisadas, a grande maioria possui conhecimento sobre a tecnologia, suas
vantagens e desvantagens, porém não a implantaram, por considerarem o custo
ainda muito elevado. Mesmo sendo uma tecnologia confiável, poucas são as
empresas que a utilizam em nossa região. Podemos citar aqui como exemplos,
apenas algumas empresas subsidiárias de produção de alimentos frigoríficos,
supermercados e empresas de eventos esportivos.
PALAVRAS-CHAVE:
Rádio frequência. Tecnologias. Etiquetas.
Tipo de Trabalho: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
48
FORMAÇÃO TECNOLÓGICA CONTINUADA NAS ESCOLAS
ESTADUAIS DA REGIÃO NORTE DE CUIABÁ – TRANSPONDO
BARREIRAS
Elza Santos Moura de Jesus [email protected]
RESUMO
A concepção deste artigo se baseia na experiência da Introdução à Educação
Digital nas escolas estaduais da região norte de Cuiabá no período de 2009 a
2010. Nesse enfoque será trabalhada a importância da busca pela formação
continuada dos funcionários e professores. Visto que a sociedade atual,
denominada por muitos como sociedade do conhecimento, da informação, do
avanço tecnológico entre outros. Com base na rapidez e facilidade com que as
informações são disponibilizadas, em função do desenvolvimento dos recursos
tecnológicos e meios comunicações, com elevado potencial transformador e
integrador das atividades sociais, políticas e econômicas, capazes de promover a
integração entre as pessoas, programas e projetos em diversos níveis. A
sociedade do conhecimento através das tecnologias da informação e
comunicação busca novas formas de produzir, preservar, atualizar e transmitir o
conhecimento, à memória coletiva, que possam alterar as práticas educacionais
as quais eram direcionadas apenas para a oralidade e a escrita tradicionais, com
isso o fluxo de saber, o trabalho do conhecimento, as novas tecnologias da
inteligência individual voltada ao coletivo mudam profundamente o enfoque da
educação e da capacitação, fazendo com que seja repensada a postura
interdisciplinar, transdisciplinar e multidisciplinar, revendo os processos didáticos
e inteirando-se das inovações tecnológicas e novas alternativas sejam criadas
para se chegar a um resultado prático da reconstrução do ambiente educacional
escolar. O grande desafio é sem dúvida capacitar funcionários e professores,
fornecendo ferramentas e recursos, ao professor para que possa utilizar novas
linguagens para ministrar aulas mais interativas, propiciando aprender a ensinar,
aprendendo a aprender e vivendo no coletivo, requisitos básicos para essa nova
sociedade do conhecimento. Com este artigo pretendo discutir alguns pontos, de
grande relevância, que possam propiciar uma reflexão sobre a importância da
introdução à Educação Digital no seu cotidiano e no contexto escolar na
sociedade como um todo: os desafios da inclusão digital, a utilização da internet,
correio eletrônico, debate em rede, editores de textos, slides, criação de blogs,
cooperação e interação em rede e criação de planilhas eletrônicas. As possíveis
vantagens e obstáculos do uso da informática na escola. A metodologia utilizada
foi pesquisa investigativa quantitativa e qualitativa, através de questionários e
avaliação dos cursistas sobre o conhecimento adquirido. Os resultados obtidos
contribuíram para se ter uma visão desta transposição de barreiras. Com a
finalidade de poder contribuir através da publicação deste artigo com os nobres
colegas docentes e discentes para que juntos possamos romper os velhos
paradigmas e voltar o nosso olhar ao novo (tecnologia), a fim de construir uma
sociedade globalizada mais justa e igualitária na sua diversidade e tempo, tanto
no quesito digital quanto social.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
49
PALAVRAS-CHAVE:
Formação continuada, Inclusão social e digital na diversidade - globalização,
informática educacional.
TIPO DE TRABALHO: Iniciação Científica
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
50
GCOMPRIS E A INCLUSÃO DIGITAL
1
Laura M. S. Cunha - [email protected]
2
Alex F. de Araújo - [email protected]
1
Carlos A. S. J. Gulo - [email protected]
1 – UNEMAT – Universidade do Estado de Mato Grosso – Alto Araguaia / MT
2 – FEUP – Faculdade de Engenharia da Universidade do Porto - Porto / Portugal
RESUMO
O uso de computadores como ferramenta de apoio no processo ensinoaprendizagem vem acontecendo gradativamente na rede de ensino, e os
programas de computador utilizados neste processo merecem atenção especial.
Um destes softwares educacionais que merece destaque é o GCompris. Durante
este trabalho, este sistema foi aplicado em um ambiente real, para ensino de
disciplinas do nível fundamental. Durante os experimentos realizados neste
projeto, foi possível verificar as potencialidades e conformidades do GCompris
com os PCNs (Parâmetros Curriculares Nacionais). Atualmente, é notável a
importância da informática em vários setores da sociedade, sendo não apenas
útil, mas também indispensável para a vida do cidadão. Surgem então
questionamentos sobre como essas tecnologias têm sido usadas na sociedade,
tornando imprescindível a preparação dos indivíduos para enfrentar os desafios
apresentados nesse novo contexto. Acreditamos na evidente necessidade da
sociedade atual de se apropriar do conhecimento tecnológico até por uma
questão de sobrevivência social. No entanto, há muitos indivíduos despreparados
que acabam sendo excluídos dessa sociedade, na qual os indivíduos são
classificados como: incluídos ou excluídos digitalmente. Neste contexto, há uma
emergente demanda no mercado com excelentes salários e condições de
trabalho, entretanto, nestes casos a exigência mínima é a qualificação
profissional. O conhecimento de uso dos computadores faz parte desta exigência,
estando incluído na qualificação profissional. Assim, este trabalho tem como
objetivo apresentar as potencialidades de uso do software GCompris, para
aplicação em disciplinas do ensino fundamental, tendo como referência os
Parâmetros Curriculares Nacionais (PCNs). O GCompris é um software que
oferece inúmeras atividades educacionais, disponibilizando atividades
educacionais para crianças de 2 a 10 anos de idade. O projeto desenvolvido
durante este trabalho, cujo tema foi: “O uso do Software GCompris na escola”, foi
oferecido à 50 alunos do ensino fundamental de uma escola pública no interior do
Estado de Mato Grosso. As crianças envolvidas tinham entre sete e nove anos de
idade, foram levantados dados sobre a utilização do software como ferramenta de
apoio ao ensino. Dessa forma, buscou-se a caracterização dos PCNs para os
conteúdos que devem ser explicados aos alunos nas séries iniciais do ensino
fundamental. As mesmas atividades foram aplicadas em três turmas do primeiro
ano do ensino fundamental. Participaram das atividades, 17 crianças de uma
turma chamada neste trabalho de X, 18 crianças de uma turma chamada Y, e 15
crianças de uma turma chamada Z. O laboratório de informática utilizado possuía
20 computadores para utilização dos alunos, e 1 computador para uso do
professor. Como material referencial para aplicação do curso, foi utilizado o
“Manual de utilização do Software GCompris” desenvolvido para realização desta
pesquisa, além de planos de aula que foram cuidadosamente elaborados durante
a realização do curso. Os planos de aulas contemplaram, em geral, metade da
carga horária da disciplina para uso do software GCompris como ferramenta de
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
51
apoio ao conteúdo previsto no ementário. Durante a realização da pesquisa,
observou-se que mesmo com a tecnologia presente no cotidiano das pessoas,
como o uso de caixa eletrônico, telefone celular, Internet, dentre outras, não é
possível garantir a inclusão digital de todos os envolvidos. Utilizando o método de
pesquisa não-experimental foi possível verificar a significativa mudança neste
cenário, o qual a exploração do ambiente de aprendizagem permitiu o
desenvolvimento da autonomia de operacionalização daquele software. Neste
ambiente, é extremamente viável tratar sobre diversos assuntos vistos em sala de
aula. Estes assuntos apresentados, exercitados e discutidos, permitem ao
professor, tornar-se agente socializador de todo o processo. Diante de relatos,
observou-se que os alunos avaliaram positivamente a aplicação do software, pois
ele encaixa-se com muita propriedade em várias atividades como cálculo,
experimentos, raciocínio, leitura e escrita. Acredita-se que o processo de
ensino/aprendizagem foi muito facilitado devido ao compartilhamento e aplicação
dos conteúdos propostos. Apoiado em um modelo construtivista de base
piagetiana, a proposta aqui edificada proporcionou aos alunos visualizar os
objetos através de suas próprias imagens, mantendo-os mais tempo presente na
mente para reflexão sobre os mesmos. Para validar os resultados de
aproveitamento, foram aplicados pré-testes após as aulas sem o software, e póstestes após as aulas com aplicação do software GCompris. Diante da perspectiva
de contribuição com o aprendizado que o GCompris demonstrou neste estudo,
defendemos que o indivíduo tenha contato, ou saiba como utilizar as TICs desde
as séries iniciais do ensino fundamental. Assim sendo, conhecem uma nova
forma de “aprender a pensar”, transformando-se em indivíduos críticos, capazes
de transformar a realidade no qual estão inseridos. O uso do GCompris mostrouse facilmente aplicável pelos professores, pelo fato de adequar-se aos conteúdos
exigidos em diversas disciplinas e no reforço ao conteúdo específico para os
alunos. Além disso, oferece uma forma intuitiva no aprendizado de uso do
computador. A utilização de software livre, especificamente o GCompris, oferece
uma alternativa de promoção da inclusão digital nas escolas, uma vez que o
mesmo tem objetivo de tornar o acesso fácil e econômico em razão do não
pagamento de licença. A aplicação do GCompris resultou em uma aprendizagem
significativa e eficiente, provendo interações entre as pessoas, os meios e os préconhecimentos de cada participante. Além disso, contribuiu também para o
crescimento do saber social, maior familiarização no manuseio dos equipamentos,
e também o aprendizado sobre conteúdos específicos do ensino formal, e
atividades relacionadas.
PALAVRAS-CHAVE
Informática na Educação, Software Livre, Educação Tecnológica
TIPO DE TRABALHO: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
52
GERENCIAMENTO E ARMAZENAMENTO DE DADOS
MICROMETEOROLÓGICOS
1
Allan Gonçalves de Oliveira – [email protected]
1
Thiago Meirelles Ventura – [email protected]
1
Josiel Maimone de Figueiredo – [email protected]
1
Claudia Aparecida Martins – [email protected]
1
Andréia Bonfante Gentil – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso – Cuiabá / MT
RESUMO
Variáveis micrometeorológicas são alvos de constante estudo, principalmente no
Brasil, onde grande parte do território ainda demanda muitos estudos a respeito
disso. Essas variáveis, na maioria das vezes, são estudadas por grupos de
pesquisa de instituições de ensino, onde muitas pessoas manipulam as mesmas
informações. Com o levantamento de requisitos feito no Programa de PósGraduação em Física Ambiental (PGFA) da Universidade Federal de Mato Grosso
(UFMT), percebeu-se que, no processo operacional de manipulação desses
dados, geralmente não há uma prática sistemática de organização das
informações e cada pesquisador usa planilhas de dados isoladas, com controles e
validações próprias. Somado a esse problema, tem-se a complexidade desse tipo
de informação, a grande variedade de fontes e o grande volume de dados, por
essa razão é necessário existir uma infraestrutura computacional que contemple
todos esse requisitos. Nesse contexto, este trabalho envolve a modelagem de um
sistema para armazenamento e gerenciamento de dados micrometeorológicos
utilizando os conceitos envolvidos nos Enterprise Resource Planning (ERP). Os
ERPs são sistemas de informações que integram todos os departamentos e
funções de uma organização, tanto sob a perspectiva funcional quanto sistêmica,
permitindo total ligação entre toda a organização. Assim, a modelagem objetiva
integrar as informações de forma a permitir que a validação dos dados e o
processamento sejam flexíveis, eficiente, garantindo confiabilidade e
rastreabilidade das informações. O compartilhamento das validações facilita o
trabalho colaborativo da equipe permitindo que o conhecimento do especialista
que foi embutido nas validações seja difundido e verificado por um maior número
de pessoas. O modelo de dados criado, foi dividido em duas partes principais. A
primeira parte refere-se a área reservada de perfis e permissões para acesso ao
sistema. Isso é necessário porque os dados inseridos nesse banco têm uma
grande importância científica, e as pessoas que têm acesso a esse banco devem
ser previamente cadastradas e habilitadas em um perfil para controlar que tipo de
informação elas podem inserir, alterar, remover ou consultar dentro do sistema.
Outro aspecto relevante é que as validações embutidas pelos pesquisadores
precisam ser verificadas antes de torná-las públicas. A segunda parte da
modelagem detém a gravação dos dados coletados pelos equipamentos em
campo. Nesse contexto, existem diversos tipos de equipamentos e sensores que
realizam a leitura de variáveis climatológicas, cada um com uma calibração única
e capaz de coletar dados referentes a uma ou mais variáveis climatológicas.
Todas essas informações devem ser armazenadas de forma integrada
uniformizada e transparente no banco de dados. Em paralelo à implementação do
banco de dados, foi implementado o módulo de importação dos dados coletados,
esse módulo foi escrito utilizando o framework de desenvolvimento web JBoss
Seam, que integra a tecnologia Java Server Faces (JSP), Enterprise Java Beans
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
53
(EJB) e Extensible Hypertext Markup Language (XHTML). Nessa camada de
apresentação dos dados, o enfoque está também na gestão dos dados
ambientais e da infraestrutura de captação dos dados, ou seja, os colaboradores,
estações micrometeorológicas e equipamentos. Nos testes de importação dos
dados surgiram alguns problemas. Os arquivos gerados pelos equipamentos não
seguem um padrão. Dependendo de como o mesmo foi programado, ele pode
gerar arquivos diferentes. Essa característica dificulta o trabalho de uma
ferramenta automatizada para importar dados. Além disso, podem existir dados
falhos e/ou faltantes no conteúdo dos arquivos. Para contornar esses problemas a
interface de importação teve de ser modificada algumas vezes buscando maior
flexibilidade, pois a uniformização das informações que já estão modeladas no
banco de dados precisa ser refletida também na interface com o usuário. Com o
sistema finalizado os pesquisadores que trabalham com dados meteorológicos
têm uma nova ferramenta para auxiliar em suas pesquisas. O item mais
importante em uma pesquisa são os dados, e esta ferramenta fará com que esse
item esteja facilmente na posse dos pesquisadores. O mesmo sistema pode ser
aplicado na distribuição de informações climáticas para a sociedade e para o
governo, já que todos os dados estarão concentrados em um só local e em uma
plataforma web. Consequentemente, essa infraestrutura facilita a análise quanto
ao comportamento micrometeorológico de uma determinada região estudada,
auxiliando na tomada de decisões e inferências comportamentais a respeito do
microclima, seja por pesquisadores, órgãos interessados do governo e até para a
criação de um veículo informativo para a sociedade. Para trabalhos futuros, será
implementado com inteligência artificial uma solução para tratar dos dados
ausentes e/ou falhos mencionados neste trabalho. E ainda, um módulo para
facilitar a extração de informações do sistema, gerando gráficos e planilhas
dependendo do filtro escolhido pelo usuário.
PALAVRAS-CHAVE
Banco de dados, dados micrometeorológicos, erp.
Tipo de Trabalho: Dissertação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
54
HOTSPOT COM CAPTIVE PORTAL PARA ACESSO A INTERNET
12
André Valente do Couto – [email protected]
1
Wellyngton Rodrigues Siqueira – [email protected]
1 – UNIRONDON – Centro Universitário Cândido Rondon - Cuiabá / MT
2 – IFMT – Instituto Federal de Mato Grosso - Cuiabá / MT
RESUMO
Este trabalho teve como objetivo principal a conceituação e instalação de um
Hotspot de internet sem fio de baixo custo e de alta aplicabilidade, com
autenticação centralizada em um servidor LDAP e o intermédio de uma solução
de Captive Portal. Pode-se dizer que o Hotspot é uma solução para a maioria das
empresas ou universidades que desejam compartilhar internet para seus clientes
ou alunos da instituição sem a necessidade de passar senha ou simplesmente
deixar liberado sem nenhum tipo de controle de acesso, tornando assim
vulnerável para qualquer pessoa não credenciada o seu acesso e o uso
impróprio. A solução adotada foi o software livre PFSense, software este que foi
desenvolvido baseado na distribuição FreeBSD e que foi adaptado para ser um
firewall/roteador. O PFSense possui uma vasta quantidade de funcionalidades
que o coincidem a softwares e soluções proprietárias, entre as funcionalidades o
Captive Portal. A base LDAP utilizada é o Active Directory da Microsoft, pelo o
motivo da grande aceitação desse software nos ambientes de TI do Centro-Oeste
e pela a sua facilidade de integração com outras ferramentas é o que torna a
solução muito interessante no aspecto tecnológico e viável no aspecto
mercadológico. A realização deste trabalho teve como base de pesquisa livros,
conteúdo disponível na rede mundial de computadores, além da observação por
meio de manipulações de softwares de computação que nos auxiliou através de
um ambiente virtualizado e também durante o processo experimental em
laboratório que resultou nos resultados finais para os efetivos ajustes da solução.
Hotspot é um ponto de acesso WiFi que tipicamente possui acesso a internet.
Como toda solução de acesso sem fio, para ter o mínimo de segurança é
necessário saber quem está utilizando, por isso é indispensável à autenticação
dos usuários. Para isso era necessário um mecanismo que fizesse a autenticação
do usuário sem a necessidade de ficar instalado programa ou ficar divulgando a
senha para se conectar no Hotspot, foi então que surgiu a solução Captive Portal.
Captive Portal é uma ferramenta capaz de tornar o browser do usuário uma
ferramenta de autenticação. Nesta arquitetura todas as requisições solicitadas ao
Hotspot são automaticamente redirecionadas para o Captive Portal, o qual retorna
uma página web para autenticação no browser do usuário solicitante, nesta
pagina além de conter a politica de utilização, o solicitante deverá informada as
credenciais para que seja liberado tal acesso ou que novas credenciais sejam
criadas. Caso as credenciais sejam aceitas, dinamicamente, são realizadas
alterações no firewall do PFSense liberando a navegação e os demais recursos
disponível no Hotspot para o solicitante. No PFSense que além da ferramenta
Captive Portal foram implementados as seguintes funcionalidades para obter um
melhor desempenho e garantir as segurança dos usuários: Proxy/Cache; Servidor
DNS; Firewall; Estatísticas de utilização da rede; DHCP; SARG; Qualidades de
Serviço (QoS). Na base de dados de usuários LDAP, foi implementado o Active
Directory intermediado pela solução IAS (Sistema de autenticação da Internet)
que atua como um servidor Radius para implementação das propriedades de
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
55
Autenticação, Autorização e Auditoria centralizada de todos os acessos do
Hotspot. No caso deste trabalho, tanto o PFSense como o Windows Server 2003
possuem suas implementações de servidores RADIUS: free-radius no PFSense e
IAS no Windows Server 2003. A escolha pelo IAS se deu unicamente pela
facilidade de implementação e armazenagem dos dados gerados fora do
ambiente de exposição que se encontra o servidor Hotspot. Depois de
configurados os serviços e integradas as plataformas, foi possível implementar a
um custo extremamente baixo uma solução completa e funcional de autenticação
sem fio à internet. Pelo fato da implementação ter sido executada em um
ambiente virtualizado a disponibilidade de ampliar sua utilização e demonstração
da solução se tornou ampliada. Este trabalho originou-se de uma necessidade do
mercado e através do estudo utilizando as metodologias científicas das
tecnologias abordadas, nos teste realizados obtivemos êxito em seu
funcionamento. Além de permitir o aprimoramento técnico decorrido da pesquisa
científica, esta é uma solução viável e de baixo custo que possui alta
aplicabilidade em todos os ambientes de redes sem fio.
PALAVRAS-CHAVE
redes sem fio, hotspot, captive portal, segurança de redes, autenticação
Tipo de Trabalho: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
56
INTEGRAÇÃO DE DADOS: UM ESTUDO DE CASO NA ÁREA
EDUCACIONAL
1
Maicon Ança dos Santos – [email protected]
1
Sandro da Silva Camargo – [email protected]
1 – FATEC - Faculdade Senac de Tecnologia – Passo Fundo / RS
RESUMO
Nos dias atuais, é comum encontrar empresas que utilizem, simultaneamente,
diferentes sistemas de informação em seus setores. Neste contexto, o
aproveitamento destes dados para o processo de tomada de decisão é dificultado,
tornando-se indispensável a realização de um processo de integração de dados.
Este artigo apresenta uma proposta de integração para as diferentes fontes de
dados de um Instituto Federal de Educação Tecnológica. O objetivo do trabalho é
gerar uma base de dados integrada para servir de recurso a um processo de
mineração de dados, o qual irá investigar a existência de padrões de evasão
escolar. Assim como ocorre nos diversos ramos de atividade, as empresas da
área educacional também sofrem com a coexistência de diferentes fontes de
informação em seus setores. Dentro deste escopo, o Campus Passo Fundo do
Instituto Federal Sul-rio-grandense (IFSul), que está em atividade há poucos
anos, já apresenta grandes quantidades de informações sobre seus alunos
distribuídas em diversos setores. Concomitantemente a isto, atualmente percebese a existência de um nível representativo de evasão dos alunos. Tal situação
despertou a necessidade de descobrir quais seriam os motivos responsáveis pela
diminuição considerável no número de alunos da Instituição. A utilização de
técnicas de mineração de dados para identificação automática de padrões de
evasão demonstrou-se ineficiente através da análise individual das diversas
fontes de dados principalmente devido à existência de redundâncias e
inconsistências entre as fontes. Assim, a realização de um processo de
integração de dados tornou-se indispensável para análise e identificação de
padrões de evasão. Dada esta necessidade, este trabalho descreve a realização
de um processo de integração das diferentes fontes disponíveis de dados no
IFSul, o que permitiu a posterior mineração dos dados de maneira eficiente. Para
este trabalho foram utilizados os dados das diversas fontes de interesse. Estes
dados estavam disponíveis originariamente na forma de planilhas eletrônicas em
formato proprietário MS-Excel com os dados de alunos disponíveis em casa setor
do instituto. Para realizar o processo de integração, foi utilizada a ferramenta
Kettle, do pacote Pentaho. Para realizar o processo de mineração foram testados
diversos algoritmos de classificação, implementados dentro da ferramenta Weka,
a fim de identificar padrões dos alunos evadidos. As fontes de dados
selecionadas, que estavam na forma de planilhas MS-Excel, foram inseridas na
ferramenta Pentaho, que é um pacote de software de código aberto para sistemas
de Business Intelligence (BI), do qual foi utilizado o módulo de Extraction
Transformation and Loading (ETL), denominado Kettle. À ferramenta Kettle foi
adicionado um complemento de software chamado ArffOutput, que é capaz de
salvar saídas de dados em arquivos no formato Attribute-Relation File Format
(ARFF), a fim de permitir que os dados possam ser interpretados pelo software
Weka. O Weka é um pacote de mineração de dados que implementa uma coleção
de algoritmos para este fim. A ferramenta Kettle foi capaz de realizar a integração
das diferentes fontes em uma única base de informações no padrão ARFF. O
arquivo resultante foi minerado com sucesso em busca de padrões de dentre os
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
57
alunos evadidos. Com relação à maneira com que os dados são tratados,
atualmente, no campus Passo Fundo, as tarefas de integração contribuíram para
uma análise mais detalhada e com a descoberta de padrões de comportamento
dos alunos do campus. Neste trabalho foi apresentado um estudo de caso de
aplicação de técnicas integração de dados em uma organização da área
educacional. O resultado do trabalho foi a geração de uma fonte de dados
integrada para servir de subsídio a um processo de mineração de dados para
facilitar a tomada de decisão sobre problemas de evasão escolar. Os resultados
apresentados demonstraram, com eficiência, que é possível integrar diversas
fontes de informação para mineração e, assim, prover a análise de grandes
volumes de dados de forma automatizada. Os experimentos realizados no
decorrer deste estudo se mostraram muito satisfatórios, inclusive, abrindo portas
para sua utilização em estruturas maiores de aplicação prática como, por
exemplo, todos os campi que integram o Instituto Federal Sul-rio-grandense, pois
as demandas que surgiram no campus Passo Fundo, podem ser objeto de estudo
nas demais unidades também. Por fim, a importância do objeto de estudo deste
artigo se dá pela grande necessidade de não somente ter dados armazenados,
mas sim informação e conhecimento extraídos, facilitando as atividades dos
gestores das unidades do Instituto. Em projetos futuros, serão sugeridas
propostas de estudos de maior amplitude, a fim de analisar os dados do instituto
como um todo e, com base nas informações obtidas, descobrir quais regiões tem
maior ou menor propensão à evasão escolar, fato este que colaborará para o
desenvolvimento do sucesso do aluno dentro da Instituição.
PALAVRAS-CHAVE
Integração de Dados, Mineração de Dados, Evasão Escolar, Pentaho.
Tipo de Trabalho: Trabalho de Conclusão de Curso de Especialização
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
58
INTERFACE EM LINGUAGEM NATURAL USANDO AGENTES
INTELIGENTES
1
Marcos Eduardo Rizzi – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
Muitas pessoas deixam de usar o computador por “medo”, por desconhecerem a
linguagem utilizada para comunicar-se com ele ou por não adaptarem-se as
diversas formas de interface existentes e, ainda, as pessoas que se adaptam ao
uso de interfaces, limitam-se ao uso de apenas um tipo, pela dificuldade em
aprender como manipular diversas interfaces. Quando um software possui uma
quantidade muito grande de recursos, a utilização de menus ou ícones pode
dificultar o acesso a algumas funcionalidades do programa, ou alguns recursos
podem ficar ocultos em meio a grande quantidade de opções. Pensando nos
problemas de ocultação de recursos e de ambiguidade de ferramentas com
formas distintas de manipulação, neste resumo é apresentada uma interface de
comunicação em linguagem natural que facilite a utilização do computador. O
funcionamento da interface desenvolvida consiste de um protótipo que atua
executando comandos no terminal Linux. Assim, ao invés de o usuário decorar
inúmeros comandos Shell ou manter sempre a mão um manual, ele pode fazer
solicitações em linguagem natural e o protótipo interpreta a solicitação e executa
o comando desejado. A metodologia utilizada no trabalho foi dividida em três
partes principais: a revisão bibliográfica, o desenvolvimento do protótipo e os
testes realizados com o protótipo. O Agente desenvolvido segue o modelo de
agente reativo simples com aprendizado proposto por Russel & Norvig(2004). O
método de compreensão da linguagem natural foi adaptado do modelo de
casamento de palavra chave, abordado por Rich(1988). O aprendizado do agente
é baseado em exemplos (experiência) que são fornecidos durante o treinamento.
Para responder a uma solicitação em linguagem natural o agente consulta em sua
base de dados exemplos que possuam palavras-chave compatíveis com as da
solicitação, depois cada exemplo é avaliado e o que possuir maior significância é
escolhido como resposta e executado. A importância de um exemplo é calculada
por meio da comparação de suas palavras-chave com as da solicitação e pela
quantidade de vezes que o exemplo já foi utilizado como resposta. Foi utilizado
como sistema operacional base o Linux Ubuntu 9.10, e a linguagem de
programação Java, as informações necessárias ao funcionamento do protótipo
são armazenadas em uma base de dados Mysql. A escolha destes recursos se
deu devido ao bom nível de desempenho apresentados, por possuírem vasto
material para consulta e por serem softwares gratuitos. No primeiro teste apenas
um voluntário inicia o treinamento do agente, todas as solicitações feitas são
relacionadas a apenas um comando Linux, por exemplo o comando ls, que lista
os arquivos e subdiretórios do diretório atual. Com apenas quatro exemplos o
agente obteve acerto máximo em todas as solicitações, este fato se deve a
restrição da aplicação do conhecimento do agente. No segundo teste foi feito
treinamento do agente para execução de dez comandos. Neste teste, cinco
voluntários iniciam simultaneamente o treinamento do agente, cada um é
responsável por dois comandos Linux, eles fazem solicitações e adicionaram
novos exemplos até que o agente obtenha o máximo de acerto em todas as
respostas. Com o aumento do domínio de conhecimento do agente foram
necessários mais exemplos por comando para que o agente alcançasse o
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
59
máximo de acerto em todas as suas respostas. Isto acontece porque alguns
exemplos podem possuir palavras chaves em comum dificultando a escolha da
resposta. Neste teste foram necessários setenta exemplos para que o agente
obtivesse o máximo de acertos. A interface em linguagem natural usando agentes
inteligentes que foi desenvolvida atende usuários que possuem pouco
conhecimento na utilização do terminal Linux, evitando a necessidade de decorar
os comandos ou de manter um manual sempre a mão. Além de utilizado como
interface de comunicação, o protótipo desenvolvido pode ser utilizado também
como ferramenta de aprendizado, para quem quer adquirir conhecimento sobre os
comandos utilizados no terminal Linux, visto que os comandos são exibidos ao
usuário antes de serem executados. O uso desse tipo de ferramenta evitaria a
necessidade de treinamento para usuários leigos aumentando a acessibilidade
para pessoas que possuem “medo” ou dificuldade em aprender sobre o
funcionamento do computador e alguns comandos que talvez não sejam
amigáveis.
PALAVRAS-CHAVE
Inteligência artificial, linguagem natural, agente inteligente, sistema operacional.
TIPO DE TRABALHO: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
60
INTERNET NOS LABORATÓRIOS DE INFORMÁTICA DAS
ESCOLAS, COMO ADMINISTRAR O USO? – UMA AÇÃO DE
EXTENSÃO
1
Francisco Sanches Banhos Filho – [email protected]
1
Ralf Hermes Siebiger - [email protected]
1 – UNEMAT – Universidade do Estado de Mato Grosso –
Campus Universitário do Vale do Teles Pires - Colider / MT
RESUMO
O projeto compreende duas escolas públicas do município de Colider e a
Universidade do Estado de Mato Grosso num esforço conjunto para oferecer, nos
laboratórios de informática dessas escolas, acesso a internet de forma segura,
filtrando acessos indevidos a sites de cunho erótico, que envolvam pedofilia ou
que fujam do objetivo de ensino-aprendizagem. A proposta consiste na
implantação de um Servidor GNU Linux para realizar o trabalho de proxy e
firewall, ministrando-se treinamentos para que os profissionais que trabalham nos
laboratórios
de
informática
das
escolas
possam
gerenciar
este
computador/servidor.
INTRODUÇÃO
Com o ingresso dos computadores no meio educacional, é fundamental o
investimento na formação continuada dos profissionais da educação,
especialmente no que tange à capacitação daqueles que atuam diretamente nos
laboratórios de informática das escolas públicas. Atualmente, com o uso
crescente da internet como ferramenta para diversos fins – pessoais,
profissionais, educacionais, entre outros –, um dos temas que merece atenção diz
respeito ao tipo de conteúdo acessado. Na esfera educacional, a preocupação
recai sobre o acesso indiscriminado e mesmo ilegal a sites de cunho erótico,
material de pedofilia, jogos que não tenham como finalidade as atividades de
ensino-aprendizagem, e mesmo a utilização desse recurso apenas como forma
de entretenimento. Considerando essa preocupação, a Universidade do Estado
de Mato Grosso – Campus Universitário do Vale do Teles Pires, por meio do
Projeto de Extensão Administração e filtro de conteúdo na internet - PROACI,
propõe, como estratégia, a capacitação dos profissionais que já atuam nos
laboratórios de informática e/ou como administradores de redes nas escolas
públicas. Através de curso teórico-prático, com duração de 100 horas-aula, esses
profissionais vêm sendo capacitados abordando-se conceitos básicos da
administração de redes e servidores GNU Linux, objetivando-se também a
implantação de servidores GNU Linux nas escolas participantes do projeto. Com a
realização desse projeto, intenta-se que diretores, professores bem como os pais
de alunos, tenham controle sobre o conteúdo acessado na internet pelos alunos,
permitindo que se administre esse acesso por meio de restrições a sites proibidos
para menores de 18 anos e, assim possibilitando a prevenção de possíveis crimes
cibernéticos como difamação, bullying e cyberbullying.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
61
METODOLOGIA
A estratégia implementada nas duas escolas públicas do município de Colider –
Escola Estadual Alzira Maria e Escola Estadual Des. Milton Pompeu de Barros –
consiste na implantação de um Servidor que, além de suas funções precípuas,
atua como roteador/firewall no compartilhamento da internet. Para tanto, esse
Servidor procederá à uma separação entre a rede do laboratório (intranet) e a
rede externa (internet) utilizando-se a ferramenta iptables, que possibilita a
criação das regras de firewall. Ante esse procedimento, o Servidor passa a
trabalhar como roteador do compartilhamento da internet, realizando um
mascaramento dos pacotes oriundos da rede, bem como é também responsável
pela própria conexão, protegendo assim todos os computadores que, através
dele, realizam esse acesso. Juntamente com a implantação do Servidor Proxy, é
necessária a implantação de um firewall, que é a base de um sistema de proteção
contra ataques. Através dele, o administrador pode especificar que tipo de tráfego
é ou não permitido dentro de uma rede, sendo normalmente utilizado para separar
a rede pública, normalmente a internet, da rede interna (laboratórios).
(NAKAMURA, 20077).
RESULTADOS
Um dos fatores de sucesso do projeto de extensão tem sido que praticamente
todos os profissionais que atuam nos laboratórios de informática possuem bom
conhecimento de informática. Com isso a implantação tem ocorrida sem maiores
problemas. Assim, primeiramente é feito contato com o diretor da escola e é
apresentada a lei, autorizada a implantação, os detalhes são tratados diretamente
com o profissional que trabalha no laboratório. Na implantação do servidor é
utilizada a técnica de Proxy Transparente, em que o tráfego é direcionado
primeiramente à porta 80 do Servidor, e posteriormente redirecionado para a
porta 3128 onde está ativo o Squid. Isso pode ser verificado no trecho do arquivo
rc.firewall descrito a seguir:
iptables -t nat -A PREROUTING -i eth1 -p tcp --dport 80 -j REDIRECT --to-port
3128
Para se obter sucesso no bloqueio ao acesso de conteúdo impróprio, foram
utilizadas três listas: de palavras proibidas, de palavras permitidas e de sites que
passam pelo squid sem a necessidade de se gravar qualquer informação. Ainda
sobre a implantação, foi utilizada a ferramenta Squid Analysis Report Generator8 Sarg para tornar os logs do Squid mais amigáveis, possibilitando assim encontrar
e adicionar mais palavras nas listas.
CONCLUSÃO
A preocupação com o conteúdo acessado via internet por alunos nas escolas
públicas têm ganhado, a cada dia, mais relevância. Nesse sentido, a Assembléia
Legislativa do Estado de Mato Grosso sancionou, em 2008, a Lei n. 8.821 9, que
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
62
torna obrigatório a todas as escolas das redes pública estadual e privada, a
instalação de filtros de conteúdo pornográficos em seus equipamentos de
informática. No entanto, até o presente momento ainda não existem diretivas
emanadas da esfera governamental sobre a implantação desses filtros nas
respectivas escolas. O projeto de Extensão PROACI, vem realizando este
trabalho no município de Colider, oferecendo treinamento e implantação de filtros
de conteúdo para os laboratórios de informática. O treinamento é realizado
utilizando os laboratórios de informática da UNEMAT, Campus Universitário Vale
do Teles Pires, nesse treinamento objetiva-se situações reais e práticas,
possuindo avaliações e um teste final que consiste na configuração de um
servidor proxy, tem duração de 100 horas. Na implantação quando o profissional
que atua no laboratório de informática já realizou o treinamento, a implantação
ocorre sem muitos problemas. Quando o profissional é alguém que não participou
do treinamento, o computador servidor é implantado, disponibiliza-se todo o
material que fora utilizado no curso para que caso haja interesse ser um ponto de
partida de estudos. Uma das grandes dificuldades que tem-se encontrado é a
troca de pessoas que trabalham no laboratório, sendo que a pessoa que começa
a trabalhar em substituição, não tem conhecimento de como funciona o filtro.
Neste sentido novas turmas para o curso de qualificação deverão ser ofertadas,
se preocupando em prestar suporte para as escolas já implantadas.
PALAVRAS-CHAVE
filtros de conteúdo, escolas públicas, redes de computadores, GNU Linux.
Tipo de Trabalho: Projeto de Extensão
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
63
LINHA DE PRODUTOS DE SOFTWARE NO PROCESSO DE
GERAÇÃO DE APLICAÇÕES WEB E-PARTICIPATIVAS
1
Edie Correia Santana – [email protected]
1
Marcelo Augusto Santos Turine – [email protected]
2
Cristiano Maciel – [email protected]
1 – UFMS – Universidade Federal de Mato Grosso do Sul – Campo Grande / MS
2 – UFMT – Universidade Federal de Mato Grosso – Cuiabá / MT
RESUMO
As Tecnologias de Informação e Comunicação (TIC’s) estão trazendo
possibilidades de relacionamento entre governo e cidadão. Diversos serviços e
informações são disponibilizados via Internet para a população brasileira. Porém,
a participação dos cidadãos em processos consultivos e/ou deliberativos é uma
lacuna a ser preenchida. Buscando promover a participação popular na web, esta
pesquisa visa apresentar uma linha de produtos (LPS) para aplicações de
participação eletrônica (e-participação). O domínio de aplicações e-participativas
tem se mostrado altamente favorável à aplicação da abordagem de LPS, pois
existe uma arquitetura padrão e uma demanda por produtos similares, porém com
características diferentes. A revolução da comunicação trazida pela Internet, sem
dúvida, foi a principal responsável pelas mudanças que a nossa sociedade viveu
na última década. O acesso às informações ficou democrático e rápido. O
governo não ficou de fora dessa revolução e hoje, disponibiliza via Internet
diversos serviços importantes para a população brasileira. Apesar das iniciativas
direcionadas aos cidadãos, há uma falta de soluções no que diz respeito à
possibilidade do cidadão poder ser consultado e deliberar sobre opiniões de
interesse seu e da sociedade. Existem algumas soluções, no entanto, não há
como reutilizar diretamente todas as ferramentas desenvolvidas na construção de
novos ambientes de participação. Neste contexto, uma abordagem que pode
habilitar reuso na prática é LPS. Essa abordagem propõe a derivação sistemática
de produtos de software a partir de um conjunto de componentes e artefatos
comuns que pertencem a um mesmo domínio, como, por exemplo, eParticipação. Assim, este trabalho aplica a abordagem LPS na criação de
ambientes de participação eletrônica. A metodologia adotada para a pesquisa
consta de uma Pesquisa Bibliográfica que visa atualizar constantemente o
referencial bibliográfico da pesquisa. Como abordagens teóricas esta pesquisa,
de cunho interdisciplinar, abordam-se conceitos de engenharia de software e
técnicas de e-participação; Pretende-se aprofundar conceitos com base em
pesquisas recentes e dados estatísticos sobre aplicações Web, governo
eletrônico e aspectos da Interação Humano-Computador aplicados à Web. Para
definir as características da LPS devem ser escolhidos exemplos de aplicações
web e-participativas para se extrair funcionalidades similares e variáveis. Com
isso os componentes que irão compor a LPS serão definidos e implementados e
também serão definidas a arquitetura da LPS e do ambiente de geração de
aplicação. Por fim, será elaborado um estudo de caso para o confronto das
abordagens teóricas e dos experimentos empíricos a fim de analisar os resultados
obtidos na pesquisa e testar as hipóteses de pesquisa. O produto final
desenvolvido na pesquisa é a criação de um processo LPS para gerar aplicações
Web no domínio de Governo Eletrônico que propiciem a participação do cidadão
na vida pública. O uso e benefício desse projeto podem ser destacados em
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
64
qualquer esfera do governo, pois a participação dos cidadãos, em especial, pode
tornar real a democracia, uma vez que gera um fluxo contínuo de informações
entre o cidadão e o governo, auxiliando ambos na tomada de decisões. A
participação do cidadão no que diz respeito à esfera governamental, como foi
comentado no início desse trabalho, carece de mais atenção. O Brasil já
apresenta algumas soluções em se tratando de informação e comunicação.
Entretanto, são escassas as soluções para que o cidadão possa realmente
interagir com o governo, sendo consultado e/ou deliberando sobre opiniões de
seu interesse. Por isso, esse trabalho trouxe uma proposta com o intuito de
preencher essa lacuna. Para que essa proposta fosse implementada, foi utilizada
uma LPS para permitir a rápida criação de ambientes virtuais e promover a
participação dos cidadãos em processos consultivos e/ou deliberativos de
interesse comum a estes e ao governo.
PALAVRAS-CHAVE
Reuso de software, Linha de Produtos de Software, Governo Eletrônico,
Participação Eletrônica.
Tipo de Trabalho: Dissertação de Mestrado
Agencia financiadora: Capes
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
65
LINUX EDUCACIONAL: EXPERIÊNCIA DE ENSINO PARA
ALUNOS ENTRE 9 E 13 ANOS DE ESCOLA PÚBLICA DE
RONDONÓPOLIS-MT
Liana S. L. Mesquita¹ - [email protected]
Mirian S. Riva¹ - [email protected]
Luis Fernando Refatti¹ - [email protected]
Luzane Francisca Gomes¹ - [email protected]
Mara Dota¹ - [email protected]
1 – UFMT – Universidade Federal de Mato Grosso – Rondonópolis/MT
RESUMO
O curso de Linux Educacional desenvolvido junto a Escola Estadual São José
Operário do município de Rondonópolis- MT foi realizado com 19 crianças entre 9
e 13 anos, permitindo capacitar seus participantes em conceitos básicos de Linux,
por exemplo, a criação de pastas, excluir e renomeá-las, edição de textos no
Br.Office.org 2.0, além de ensinar como navegar na internet através do browser
Iceweasel 2.0.0.3., para realizar pesquisar escolares. O Linux é um sistema
operacional livre. Foi desenvolvido inicialmente por um estudante filandês Linus
Trovalds em 1991, baseado no sistema operacional Unix e hoje é mantido por
profissionais na área de informática, comunidades internacionais de
programadores, estudantes, etc. Nos últimos anos podemos observar que muitos
usuários da plataforma Windows estão migrando para o Linux. Já o Linux
Educacional é uma ferramenta compilação do Linux (distribuição debian) com
foco em aplicação a laboratório de informática educacional (LIED) e escolas. O
governo Brasileiro incentiva o uso do sistema por não ser pago e também por ter
várias ferramentas com intuito educacional, sendo implantado em todas as
escolas públicas. O objetivo para este curso foi capacitar crianças, para que
sejam capazes de utilizar a plataforma Linux Educacional e conseguir ter uma
maior familiaridade com a interface, além de saber utilizar de maneira correta,
grande parte das ferramentas que é oferecido no sistema como o Br.Office.org 2.0
e outros. Fazendo com tenha uma contribuição para sua vida escolar, por ser o
sistema utilizado é preciso que se tenha um conhecimento para poder aproveitar
todos os seus benefícios. O curso de extensão através do seu objetivo traçado
pretendeu despertar nos seus participantes o interesse e a importância do Linux
Educacional, focado nos conceitos básicos do Sistema, onde podemos observar
que muitos dos participantes tinham grandes dificuldades por não possuírem
computadores nas suas residências ou não terem muito contato com ele na
própria escola, fazendo com que tivessem algumas dificuldades de principio,
porém podemos observar com o decorrer das aulas que os alunos tinham muitas
curiosidades e aprendiam facilmente as explicações, sem terem vergonha de
tirarem dúvidas. Este projeto porém teve além da abordagem da plataforma Linux
Educacional a intenção de criar um ambiente de maior familiaridade educativa,
trazer o aluno com contato no laboratório significa a inclusão digital facilitar o
entrosamento com a máquina e favorecer a inclusão das outras disciplinas
usando o computador como ferramenta de apoio educacional, assim, o professor
terá maior aproveitamento do tempo e de uso desta plataforma. O conteúdo foi
trabalhado através de aulas teóricas, exercícios aplicados para uma melhor
memorização e um teste avaliativo para podermos mensurar o grau de
aprendizagem dos alunos. Com este teste podemos observar que dos 19 alunos,
e das cinco questões que foram passadas, 51% dos alunos conseguiram realizar
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
66
as atividades com auxilio, porém quando íamos relembrando eles geralmente
conseguiam terminá-las sozinhos, e 49% conseguiram fazer sozinhos. O curso
proporcionou a nós discentes do curso de Licenciatura Plena em
Informática/ICEN/CUR/UFMT um grande aprendizado, além de podermos
repassar nossos conhecimentos, fez com que exercitássemos a prática do ensino
em Linux Educacional.
Palavras-chave:
Linux Educacional, conhecimento, capacitação.
Tipo de Trabalho: Curso de extensão
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
67
MAPEAMENTO DAS AÇÕES REALIZADAS NO ÂMBITO DE UM
CURSO DE LICENCIATURA EM INFORMÁTICA
Leandro Arruda de Rezende - [email protected]
Soraia Silva Prietch - [email protected]
Tatiana Annoni Pazeto - [email protected]
UFMT - Universidade Federal de Mato Grosso – Rondonópolis/MT
RESUMO
Esta proposta de pesquisa busca realizar o mapeamento das ações de pesquisa
e de extensão, bem como de sua relação com o ensino, realizadas por um curso
de Licenciatura em Informática. Neste aspecto, as informações relacionadas a tais
ações estão sendo coletadas ou atualizadas, a fim de que algumas perguntas
sejam respondidas, com a finalidade de apurar as contribuições que vem sendo
produzidas em benefício da comunidade local. Como exemplo de trabalhos
realizados envolvendo ensino-pesquisa-extensão, pode-se citar o trabalho de
Vietro et al (2006), que refere-se apresentação de “Oficinas Geográficas”,
desenvolvidas com alunos, cujo objetivo é explorar “a importância da tríade
ensino-pesquisa-extensão para a realização dessa atividade”. O trabalho de
Avena (2008) “salienta aspectos gerais das formações, da estrutura do ensino, da
pesquisa e da extensão no Brasil no campo das viagens e do turismo”. Baseandose nos trabalhos supracitados, o presente trabalho visa verificar a articulação
entre o ensino, pesquisa e extensão do curso de Licenciatura Plena em
Informática. A partir deste, o qual está atrelado ao projeto de pesquisa intitulado
“Levantamento Histórico do Curso de Licenciatura Plena em Informática, nos
Planos: Acadêmico, Administrativo e de Vivência”. A realização desta pesquisa
justifica-se pela necessidade de manter atualizados os dados referentes aos
projetos de pesquisas, bem como as ações de extensão realizadas pelo curso de
Licenciatura em Informática, para realizar o mapeamento da integração destas
ações com o ensino, da atuação dos professores e alunos em projetos, e, de
modo geral, da influência destas participações na melhoria da qualidade do curso.
Neste contexto, objetiva-se atualizar os arquivos referentes à realização de
projetos de pesquisas e ações de extensão, propostos e executados pelo curso
de Licenciatura Plena em Informática, bem como efetuar análise destas ações
realizadas a fim de verificar seu enfoque, a relação entre esses dois aspectos
com o ensino, dentre outras informações relevantes. Através de Silva (2004) foi
possível identificar as seguintes características da metodologia de pesquisa
adotada para a realização deste trabalho: (1) quanto à natureza: classifica-se
como pesquisa básica; (2) quanto a forma de abordagem: esta agrega conceitos
tanto da pesquisa qualitativa quanto da quantitativa; (3) quanto aos objetivos:
caracteriza-se como pesquisa descritiva; e, (4) quanto aos procedimentos
técnicos: tem-se pesquisa bibliográfica e documental, e estudo de caso. Seguindo
as orientações apresentadas sobre a metodologia de pesquisa, pretende-se
realizar as atividades abaixo, em etapas, as quais estão dispostas na sequência:
a) copiar os dados, sobre pesquisa e extensão do curso do trabalho produzido
por Prietch (2008) em arquivo “.doc”, referentes aos anos de 2004 a 2008,
para planilha “.xls” e realizar a atualização do arquivo “.xls”;
b) verificar se existem dados faltantes a serem pesquisados e buscar
documentos originais para preenchimento destas lacunas, buscar dados,
referente aos anos de 2001 a 2004 e 2009 a 2010;
c) gerar tabelas e gráficos quantitativos e efetuar a análise dos dados.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
68
Com relação à análise a ser realizada, com os dados que estão sendo coletados
e/ou atualizados, pretende-se responder alguns questionamentos, dentre os quais
se pode exemplificar com as seguintes perguntas:
 Quantas ações (programas, projetos, cursos e eventos) de extensão,
cadastrados junto a CAMEX (Câmara de Extensão) foram realizados pelo
curso?
 Quantas destas ações de extensão e projetos de pesquisa tiveram apoio
financeiro de algum órgão de fomento ou de parcerias?
 Quantas ações de extensão foram realizadas em parceria com escolas
(estaduais ou municipais, públicas ou privadas) do município de Rondonópolis?
 Quantos projetos de pesquisa foram cadastrados e concluídos, de forma
regularizada junto a PROPeq, pelo curso?
 Quantas monografias de alunos foram produzidas pelo curso e quantas tiveram
seus resultados publicados ou apresentados em evento?
 Quantos resumos e artigos completos foram publicados em eventos pelos
docentes e discentes do curso?
 Existe alguma ação de extensão relacionada a algum projeto de pesquisa ou
produção acadêmico-científica? quantas?
Os resultados podem cooperar em alto grau para se realizar uma avaliação geral
sobre a qualidade do curso, ou seja, é possível saber quantos programas,
projetos, cursos e eventos de extensão foram cadastrados juntos a Câmara de
Extensão, se os mesmos tiveram apoio financeiro, quantas ações de extensão
foram realizadas junto às instituições de ensino, dentre outras. Essa avaliação
poderia, por exemplo, ter a finalidade de mostrar ao coordenador, docentes,
discentes, técnicos-administrativos e contribuintes, quais atividades o curso
necessita conferir mais atenção e, assim, promover projetos direcionados às
necessidades locais, sempre buscando elevar o seu nível, com isso tornando-se
um curso de destaque dentro de sua área de conhecimento na Região. No
momento, está sendo realizada a primeira atividade, onde foi possível apurar que,
no período de 2004 a 2008, o curso de Licenciatura Plena em Informática de
Rondonópolis, já realizou 7 (sete) eventos, 10 (dez) projetos de pesquisa, foram
defendidas e apresentadas mais de 50 (cinquenta) monografias, dentre outras
informações. Cabe mencionar que muitas informações, que constam no
documento elaborado por Prietch (2008), não estavam completas e necessitam
ser complementadas para que se atinjam os objetivos finais deste estudo. Neste
aspecto, a Plataforma Lattes do CNPq, o Sistema de Informação e Gestão de
Projetos (SIGProj), e o JULIO (Jornal Universitário de Licenciatura em Informática
Online) serão de grande utilidade para buscar dados faltantes de ações de
pesquisa e de extensão ou efetuar entrevistas junto ao corpo docente.
PALAVRAS-CHAVE:
Extensão Universitária. Pesquisa. Produção científica. Licenciatura Plena em
Informática.
Tipo de Trabalho: Voluntário em Projeto de Pesquisa.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
69
MÉTODOS PRÁTICOS DE ESTEGANOGRAFIA DIGITAL
Patrícia Ladislau Silva¹ – [email protected]
André Valente do Couto¹ ² – [email protected]
Lídia Martins Silva¹ – [email protected]
1 – UNIRONDON – Centro Universitário Cândido Rondon – Cuiabá / MT
2 – IFMT – Instituto Federal de Mato Grosso – Cuiabá / MT
RESUMO
A Segurança da Informação é composta por ambientes interrelacionados para a
garantia das três propriedades básicas: Confidencialidade, Integridade e
Disponibilidade. Desse tripé, o domínio que acerca as técnicas e os métodos de
ocultação de dados se denomina Criptografia, que se divide ainda em outras
áreas como criptografia simétrica e assimétrica, autenticação e chaves públicas.
Este artigo tem por objetivo citar, descrever e exemplificar as características e
métodos da técnica de esteganografia digital para a garantia da confidencialidade
no envio de mensagens entre ativos. Esteganografia é a arte de esconder a
existência de uma mensagem. É relacionado, mas difere da criptografia. Como a
criptografia, uma finalidade da esteganografia é de proteger o conteúdo de uma
mensagem. No entanto, diferentemente da criptografia, o conteúdo da mensagem
não é oculto. Em vez disso, a existência da mensagem é escondida em algum
outro meio de comunicação. A mensagem pode ser escondida em um arquivo
gráfico ou de áudio, em um pequeno espaço da mídia de armazenamento, em um
ruído do tráfego de rede, ou em um formato digital imagem. No entanto, pela
mensagem em si não estar criptografada, no caso de descoberta da sua
existência, seu conteúdo pode ser facilmente comprometido. O trabalho teve
como base materiais pesquisados em livros, na rede mundial de computadores e
alguns softwares de computação forense e de outros ramos, que auxiliaram o
processo de pesquisa e testes. Para iniciantes na área, um pequeno espaço foi
reservado para os fundamentos da segurança da informação e uma visão geral
sobre criptografia, servindo como base para o entendimento do tema do trabalho.
Softwares como o Hide in Picture foram utilizados para produzir os efeitos de
processos de esteganografia em imagens, e outro para fins de verificação dos
mesmos, como o Adobe Photoshop (para análise do histograma das imagens),
tornando prática a aplicação dos conceitos pesquisados, possibilitando a melhor
demonstração do processo através de esquemas inclusos no artigo. Portanto,
foram analisados os seguintes métodos práticos de esteganografia:
Esteganografia baseada em modelo, Esteganografia com Preservação Estatística,
e Incorporando Mascaramento como Processo Natural. Quanto aos métodos: a
Esteganografia baseada em modelo compreende um modelo como uma estrutura
geral para a construção da esteganografia em meios gráficos. A imagem pode ter
sua intensidade alterada em no máximo 1%, uma taxa imperceptível ao olho
humano. No processo, uma variável aleatória é utilizada no modelo e pode ser
dividida em duas partes: uma invariável, que será embutida em seu formato
original, e uma variável, ou seja, pode sofrer alterações durante o processo de
incorporação da mensagem. Utilizando o método com o LSB (Bit Menos
Significativo), o componente constante corresponde aos sete bits mais
siginificativos e os valores variáveis podem ser modificados durante a
incorporação. As probabilidades condicionais, que representam o modelo
escolhido, podem ser calculadas através da constante, de forma que o conteúdo
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
70
do destinatário e remetente sejam os mesmos. Os bits da mensagem devem ser
distribuídos de igual forma, onde o valor constante seja igual a variável. O método
Esteganografia com Preservação Estatística visa preservar o histograma da
imagem de cobertura. O algoritmo Outguess, que utiliza técnicas para
preservação estatística, realiza o processo em duas etapas: a primeira,
incorporando os bits da mensagem em LSBs aleatórios, alternando coeficientes
com magnitude é 0 ou 1, e a segunda etapa, a qual efetuam-se correções das
magnitudes para garantir que o histograma da imagem esteganografada seja
correspondente ao da imagem original. Antes da incorporação, o algoritmo calcula
uma parte de mensagem que pode ser incorporada para garantir que correções
de ajuste ao histograma sejam possíveis. Como a maioria das magnitudes são
zeros, a introdução de uma mensagem pode gerar uma visível distorção, sendo
assim, o Outguess não incorpora em zeros, o que torna fundamental a realização
do cálculo de parte da mensagem. O terceiro método, Incorporando
Mascaramento como Processo Natural, consiste na tentativa de mascaramento da
incorporação com caracteristicas de um processo nartural. Se o processo
esteganográfico imita alguma forma de processo natural, torna dificultoso julgar se
a mensagem foi incorporada ou processada. Um desses processos, a modulação
estocástica baseia-se na existência de fontes de ruído que afetam imagens
digitais como propriedades de luz e o sinal produzido pelo sensor quando não é
exposto à luz adequada. A ideia é disfarçar as mudanças incorporadas como um
ruído do dispositivo, o que pode tornar dificil definir se o ligeiro nível de ruído na
cobertura da imagem é uma mensagem, falha de hardware ou fatores ambientais,
como temperatura e umidade. O primeiro método torna-se menos aplicável se
comparado ao segundo e terceiro métodos citados, pois estes preservam o
histograma, e o último preserva as características naturais da imagem, o que
torna os métodos aplicáveis a dados que requerem alto nível de segurança e
discrição, de modo a dificultar a detecção de mensagens.
PALAVRAS-CHAVE
Esteganografia, Segurança, Integridade, Criptografia, Dados.
Tipo de Trabalho: Iniciação Científica. Trabalho de Graduação.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
71
O PROCESSO DE APRENDIZAGEM DE ESTRUTURA DE DADOS
ATRAVÉS DA PRODUÇÃO DE VÍDEOS EDUCATIVOS
Rodrigo A. Morbach - [email protected]
Cleverson R. M. Fernandes - [email protected]
Soraia Silva Prietch - [email protected]
UFMT - Universidade Federal de Mato Grosso – Rondonópolis/MT
RESUMO
Tendo em vista os meios de ensino que estão disponíveis aos docentes, foi
realizada a produção de um vídeo educativo com o intuito de auxiliar na
compreensão por parte dos alunos da disciplina de Estrutura de Dados,
especificamente em Listas Dinâmicas Simplesmente Encadeadas (LDSE) e
Duplamente Encadeadas (LDDE). Foram pesquisadas ementas e metodologia de
ensino de planos de ensino de quatro Instituições de Ensino Superior (CEFETMA, UFRPE (EAD), UFPB e UFMT/CUR) que ofertam cursos de Licenciatura em
Informática/ Computação em diferentes estados brasileiros. A partir disso, foi
possível verificar que os conteúdos de listas, pilhas, filas, árvore e grafos são
contemplados em quase todas as ementas apresentadas, bem como em algumas
também abordam questões referentes à análise de complexidade, métodos de
ordenação e de busca. Além disso, pode-se perceber que a metodologia de
ensino também possui características semelhantes entre uma e outra, com aulas
expositivas e dialogadas, intercaladas com aulas práticas, podendo ter trabalhos e
provas como mecanismos de avaliação dos conteúdos trabalhados. Cabe ainda
mencionar que em cursos de Licenciatura em Computação/ Informática se tem
como propósito principal formar docentes com competências para ministrar
conteúdos específicos da área, e para que isso ocorra de maneira adequada, os
estudantes devem ser estimulados a produzir seus próprios materiais didáticos,
sejam tradicionais ou alternativos, bem como precisam estar preparados para a
sua atuação profissional enquanto educador. Neste contexto, este trabalho relata
sobre a produção de um vídeo educativo para o ensino de listas dinâmicas, sendo
esta atividade realizada como instrumento de processo avaliativo da disciplina de
Estrutura de dados proposta por Prietch (2009). Através da leitura de artigos
relacionados sobre vídeos, mídias, softwares, dentre outros meios de auxiliar na
educação, podem ser citados trabalhos e experiências de diversos pesquisadores
e educadores, que buscam levar esses recursos para as escolas, como uma nova
forma de ensino, a saber: Souza (2004); Banhara (2008); Garcia, Rezende e
Calheiros (1996); além de considerar importante, também, mencionar que existem
algumas páginas na Internet que oferecem simulações, exemplificações e
animações bastante interessantes que podem ser utilizadas como material de
apoio para o ensino de diversos tipos de estruturas de dados. Assim, foi realizada
a produção de um vídeo educativo com o objetivo de auxiliar na aprendizagem de
Listas Dinâmicas em disciplinas de Estrutura de dados. Assim, para a produção
do vídeo, foi realizada a implementação de desenhos relacionados com a matéria
estudada pelos alunos do segundo ano do curso de Licenciatura em Informática,
de uma Universidade pública de Mato Grosso, na disciplina de Estrutura de
Dados. A escolha do conteúdo sobre listas dinâmicas se justifica pelo seu alto
grau de abstração e dificuldade de entendimento por grande maioria dos alunos.
Com base nessas informações a intenção desse trabalho é mostrar uma nova
forma de ensinar os principais conceitos de LDSE e LDDE, que são a base para
as demais formas de implementações de listas existentes. Para a criação dos
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
72
desenhos foi utilizado um programa chamado Macromedia Fireworks MX Trial.
Após a criação dos desenhos, foi utilizada uma ferramenta do Windows, para a
produção do vídeo, chamado Windows Movie Maker, no qual foram inseridos os
desenhos de forma simples e objetiva, e acrescentado um fundo musical para que
ficasse mais agradável aos espectadores. Depois de concluído o vídeo, o mesmo
foi disponibilizado na Internet através do Youtube, dividido em duas partes. Até a
conclusão da primeira versão do vídeo, muitas dificuldades foram encontradas.
Desde a escolha de um cenário ou situação em que poderiam ser empregados
exemplos de Listas Dinâmicas, até a criação dos desenhos. Como grande maioria
da turma era composta por jovens, decidiu-se utilizar situações que acontecem
com certa freqüência no dia-a-dia dos estudantes da faculdade como, por
exemplo, a falta de entendimento, o receio de reprovação. Após a conclusão do
vídeo, teve-se a ideia de realizar um questionário piloto para que se pudesse
avaliar como estava o conhecimento com relação à Estrutura de Dados, e o que
os estudantes acham da implementação de novas formas de se lecionar com a
utilização de softwares educativos, vídeos, dentre outros recursos, porém o
mesmo ainda não foi aplicado.
É válido destacar que se considera o exercício de planejamento e de produção de
materiais didáticos digitais alternativos uma prática muito importante e que esta
deveria ser ação constante entre o corpo discente e os já graduados de cursos de
Licenciatura em Computação ou em Informática, visto que em seu futuro
profissional os mesmos poderão atuar como designer instrucional, cuja carreira é
bastante promissora e procurada nos dias atuais, dado a grande quantidade de
cursos, de Ensino a Distância, que estão disponíveis e a possibilidade de incluir
porcentagem desta modalidade em disciplinas de cursos presenciais.
PALAVRAS-CHAVE
Vídeos educativos, Estrutura de dados, Informática Educativa, Listas Dinâmicas.
Tipo de Trabalho: Pesquisa realizada na disciplina de Estrutura de Dados em 2009
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
73
O USO DE REDES SOCIAIS COMO MECANISMO DE INCLUSÃO
SOCIAL NA PERIFERIA DE CUIABÁ
1
Taciane Garcez Maurício – [email protected]
2
Tadeusa Margarida de Melo – [email protected]
3
Cristiano Maciel – [email protected]
1 – SME – Secretaria Municipal de Cuiabá – Cuiabá / MT
2 – SME – Secretaria Municipal de Cuiabá – Cuiabá / MT
3 – UFMT – Universidade Federal de Mato Grosso – Instituto de Computação - Cuiabá / MT
RESUMO
Atualmente, as redes sociais estão cada vez mais presentes em diferentes
contextos e ambientes. Tais redes são tidas como ferramentas importantes para
interação e inclusão social, possibilitando que as pessoas possam se relacionar e
interagir virtualmente. Além de aproximarem as pessoas, elas também ampliam
os relacionamentos e a distância deixa de ser um grande obstáculo. Essas
práticas de sociabilidade contagiam principalmente os jovens, que podem utilizar
as redes sociais para se exporem com maior liberdade. O objetivo dessa pesquisa
é relatar a experiência de jovens estudantes da periferia de Cuiabá, que utilizam
as redes sociais para expor suas ideias e também para se relacionarem,
ultrapassando barreiras culturais e fronteiras sociais e econômicas.As relações
que se estabelecem em redes sociais são as relações intrínsecas do cotidiano
como: relações entre colegas de sala, amigos, familiares, professores,
funcionários da escola e outros. A motivação para realização de tal estudo foi a
observação, em aulas de laboratório de informática, do uso massivo das redes
sociais pelos alunos. Assim, esse artigo analisa as redes sociais e seus reflexos
no cotidiano desses jovens da periferia, levantando ainda se tais sujeitos estão ou
não incluídos digitalmente. É importante lembrar que, a priori, as condições
financeiras desses jovens os deixa relegados a margem da tecnologia. Porém,
mesmo com dificuldades financeiras, esses conseguem manter suas redes
sociais como ponto importante de relacionamento e contato, o que possibilita
saírem de seu mundo real, nem sempre agradável e desejável, e construírem um
mundo virtual possível e agradável. Assim, as redes sociais são relações de
estrutura de identidade social que propiciam elementos para inclusão social. Os
parâmetros de inclusão nas redes sociais associam indivíduos por suas
identidades culturais e preferências pessoais. Essa relação que se estabelece
entre pessoas tão distantes geograficamente ou não, porém com opiniões e
gostos semelhantes, levam ao sucesso das redes sociais. Outro ponto importante
analisado neste levantamento foi a ruptura de paradigmas, de que as redes
sociais podem ser apenas estabelecidas em grupos mais favorecidos
financeiramente, impossibilitando a inclusão social, o que não é o caso. O
levantamento de dados ocorreu por meio de questionário aplicado aos estudantes
da EMEB. Lenine de Campos Póvoas, situada no bairro Jardim União, periferia de
Cuiabá, capital de Mato Grosso, com o objetivo de alçar dados para verificação da
presença e participação destes jovens em redes sociais. Foi apresentado um
questionário investigando a variação da renda dos familiares, a frequência de uso
da internet para acesso as redes sociais, locais de acesso, percepções e
vivências influenciadas nestas redes sociais, tipos de relacionamento
estabelecidos nestas redes sociais e o que movia a participação destes jovens
nestas redes sociais. Foram investigados 180 sujeitos, entre 11 e 17 anos. A
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
74
análise dos dados coletados pelo questionário aplicado possibilitou ainda a
compreensão de que não importa a renda, as redes sociais influenciam as
relações na periferia de Cuiabá. As redes sociais permitem que essa parte da
população possa estar conectada, mesmo que não tenha computador em casa.
As lan houses, muito frequentes nos bairros periféricos, possibilitam a inclusão
nas redes sociais. A rede social dita como utilizada pelos jovens foi o Orkut. O
principal interesse constatado foi a exposição de seus perfis, a troca de recados,
a abertura de comunidades para discussão de temas polêmicos e a publicação de
fotos, com vistas a compartilhar e fazer amigos. O que move esses estudantes a
utilizarem as redes sociais é poder expor suas ideias sem serem reprimidos ou
limitados e a possibilidade de encontrar pessoas que pensem como eles, criando
suas identidades virtuais. Muitos estudantes também comentaram utilizar de
artifícios como raqueamento de senhas para “defender-se” de bullying. Outro
aspecto importante é a força da palavra escrita, sendo esse um dos elos que os
representa e constrói suas identidades no mundo virtual. Para eles, existe mais
possibilidade de relacionarem-se com o mundo virtual do que frequentar
shoppings e outros lugares da cidade, devido a fatores financeiros. As redes
sociais possibilitam a socialização em espaços virtuais que podem ser
frequentados, muitas vezes, sem gastos. Ao iniciar os estudos, a princípio
pareceu não ser muito lógico que houvesse redes sociais tão articuladas e
vivenciadas pelos jovens da periferia de Cuiabá. Os resultados nos permitiram
perceber que, independente do meio social e financeiro, todos querem participar e
vivenciar os processos de comunicação e relacionamento que as redes sociais
propiciam. É notável o grande interesse, prazer e dedicação dos alunos
investigados no que se refere a manutenção de suas redes sociais. Perceber esta
relação tão perene e ao mesmo tempo tão tênue dos relacionamentos virtuais em
redes sociais na Web levanta questionamentos futuros. Entre eles, cita-se o mau
uso das redes sociais e os reflexos disso para a sociedade. Na educação, por
exemplo, o uso pedagógico das redes sociais é um tema que requer maiores
discussões, de forma a propiciar que a escola também faça uso dos mecanismos
utilizados no dia-a-dia dos estudantes.
PALAVRAS-CHAVE
Redes Sociais, Orkut, Educação.
Tipo de Trabalho: Pesquisa
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
75
ORGANIZAÇÃO E DISPONIBILIZAÇÃO DE CONTEÚDOS POR
MEIO DE TAXONOMIA
Aline Wollinger ¹ - [email protected]
Custódio Gastão da Silva Júnior ¹ - [email protected]
1 – IFMT – Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso – Campus
Cuiabá - Cuiabá / MT
RESUMO
Este trabalho tem enfoque em filtragem e classificação de informações, com foco
no domínio “político corrupto”. Com base em um acervo de informações que é
alimentado por informações retiradas de jornais eletrônicos e páginas
relacionadas ao domínio, o objetivo deste estudo é mostrar relações entre o
candidato - nome do candidato, cargo que exerce, tempo de cargo, partido a que
pertence e tempo de partido - com o crime - social ou político - praticado e seus
respectivos dados: data, local e demais envolvidos. A partir deste estudo
pretende-se construir uma interface online que facilite a todo cidadão realizar
pesquisas dentro do domínio, referentes a candidatos – a reeleição ou não – a
qualquer cargo dentro do país. Esta interface deverá fornecer opções de pesquisa
como nome, partido, crime e cargo. O resultado desta aparecerá em forma de
grafo mostrando as informações extraídas do banco de dados (Figura 01). Em
ano eleitoral não faltam noticias relacionadas aos candidatos. Atualmente existem
ferramentas de busca como o Google e sites que referenciam corrupção, os quais
se podem tirar diversas conclusões sobre a “ficha” de alguns candidatos. Um
político é considerado corrupto quando faz uso ilegal do poder político e financeiro
de organizações ou agências governamentais, com o objetivo de transferir renda
pública ou privada de maneira criminosa, para indivíduos ou grupos de indivíduos
ligados por laços de interesse comum (WIKIPÉDIA, Corrupção Política). Com foco
no domínio “político corrupto”, vem sido explorada uma forma de indexar essas
informações de modo que elas sejam mais bem interpretadas por quem esta em
contato com ela, uma forma encontrada foi utilizar grafos que classificam todas as
informações referentes ao tema pesquisado, esse filtro de pesquisa deve estar
disponível online, para que todo cidadão possa ter acesso a essa ferramenta,
assim facilitando a divulgação dessas informações por esse meio. Para que esses
resultados sejam filtrados e essas ligações sejam mostradas, estão sendo
estudadas duas tecnologias: o JSON (JavaScript Object Notation) e o framework
The JIT (JavaScript InfoVis Toolkit). O JSON faz um intercâmbio entre as
informações e o acervo interpretando os possíveis nós do grafo a ser gerado. Já o
framework fornece ferramentas para criar visualizações de dados interativos para
a web. Essas visualizações partem das pesquisas realizadas pelos usuários, onde
a cada pesquisa um grafo é gerado. Conforme a especificação do framework,
uma das formas de gerar este grafo é utilizando o RGraph.js, que é uma das
ferramentas disponíveis dentro da suíte do framework. Essa ferramenta cria a
visualização do grafo de forma radial, concentrando no centro o primeiro tema
pesquisado, e realizando novas pesquisas conforme o usuário clica nos nós
relacionados ao primeiro tema. Conforme cada pesquisa realizada, as
informações deverão passar por um filtro que mostrará os resultados. Uma vez
filtrada a informação e os demais dados relacionados ao mesmo assunto, devem
estar ligados formando uma estrutura gráfica das relações existentes entre o tema
pesquisado e demais informações ligadas a esse tema. Os níveis de relação de
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
76
cada informação serão definidos por cores, conforme o grau de ligação. Esses
resultados aparecerão conforme cada pesquisa realizada, como mostra a figura
01.
Figura 01 – Demonstração do Protótipo do Sistema.
É imprescindível a existência de mecanismos de busca referentes ao contexto
“político corrupto”, pois conforme na nota “Para mídia e Justiça Eleitoral, brasileiro
não sabe votar” a SASP (Sindicato dos Advogados do estado de São Paulo) diz:
“O cientista político Alberto Carlos Almeida, da FGV, demonstra isso em seu livro
"Reforma Política: Lições da História Recente". A publicação revela que 71% dos
eleitores esqueceram em quem votaram para deputado federal quatro anos antes.
É verdade que a chamada "amnésia eleitoral" é maior entre os de menor
escolaridade, mas, 53% das pessoas com nível superior também não se lembram
de seu voto”. Ou seja, a maioria da população concentra o voto baseando-se em
pesquisas de intenção de voto ou até mesmo por falta de opção, e depois sequer
lembram-se em quem votaram. Criar um mecanismo de busca que tem como
resultado a “ficha” destes candidatos é uma forma de ajudar o cidadão a estar
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
77
mais ciente do voto, conhecendo o passado e presente dos candidatos
pretendidos.
PALAVRAS-CHAVE
Corrupto, Json,The Jit.
Tipo de Trabalho: Trabalho de Pós-Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
78
OS PROFESSORES E A TECNOLOGIA: A QUALIFICAÇÃO
TECNOLÓGICA NAS LICENCIATURAS DO CUR-UFMT
Luzane Francisca Gomes - [email protected]
Prof. Dr. Ruy Ferreira - [email protected]
UFMT/CUR - Licenciatura Plena em Informática – Rondonópolis/MT
RESUMO
As escolas estão se modernizando em termos de instrumentos e meios
educativos. Isso implica em preparar os novos professores para o trabalho em
ambientes com maior concentração tecnológica, exigindo, assim que os
professores tenham uma formação inicial capaz de lidar com os artefatos digitais
disponíveis nas instituições de ensino. A necessidade de reforma curricular na
formação inicial dos professores é essencial para atender as novas demandas por
conhecimentos tecnológicos. A identificação dessas necessidades é o objetivo da
pesquisa. Se confirmado será apontado caminhos ou sugestões no sentido de
solucionar o impasse entre a demanda da escola e qualificação do egresso das
licenciaturas. A pesquisa constitui-se no estudo de múltiplos casos conforme
preceitua Robert Yin (1994), tratando os sete cursos de licenciaturas ofertados no
campus de Rondonópolis, da UFMT, como um caso múltiplo. O trabalho de coleta
de dados deu-se por meio de dois instrumentos: questionário aplicado aos alunos
do último ano das licenciaturas e entrevista estruturada com os coordenadores de
curso. A proposta de associação de entrevista com a aplicação de questionário se
revelou útil na compreensão das características culturais, valores e opiniões do
público-alvo: alunos formandos das licenciaturas do CUR-UFMT. Adotou-se como
instrumento a Escala de Desempenho em Informática Educacional (EDIE),
baseada nos padrões de desempenho definidos pela Sociedade Internacional
para Tecnologia em Educação (International Society for Technology in Education ISTE), composto por 40 itens do tipo Likert, originalmente com quatro pontos e
ampliado neste trabalho para cinco pontos. A finalidade da EDIE é possibilitar a
definição de um perfil do sujeito quanto ao seu padrão de desempenho em
informática educacional e na gestão desses recursos. Ao mesmo tempo em que
enquadra o professor em um dos três níveis possível de desempenho ou
qualificação tecnológica: Básico (relacionado aos padrões de desempenho que
implicam em uso pessoal limitado da tecnologia); Intermediário (refere-se aos
padrões de desempenho relativos à seleção e ao uso dos recursos tecnológicos,
envolvendo o uso produtivo de ferramentas de processamento de palavras e
administração de dados em ações pedagógicas); e Avançado (relacionado ao
ensino e à avaliação da aprendizagem utilizando recursos tecnológicos, avaliação
da própria tecnologia educacional e utilização legal e ética das tecnologias
educacionais). Os itens referem-se às atividades de ensino que usam recursos
informatizados e as ações gestoras quanto ao uso da informática educativa.
Adaptado para a realidade brasileira por Maria Cristina Rodrigues Azevedo Joly.
Na análise dos pontos apurados no instrumento, considerou-se enquadrado em
um nível de desempenho (qualificação tecnológica) o sujeito que obteve mais da
metade de pontos possíveis na categoria. Esta investigação seguiu as
recomendações de Joly (2004), analisando uma amostra homogênea de alunos
concluintes das sete licenciaturas ofertadas no Campus de Rondonópolis da
UFMT, em 2010. Os resultados finais onde o corpo discente será enquadrado nos
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
79
níveis citados acima e serão apresentados em trabalho de conclusão de curso no
final deste ano.
PALAVRAS-CHAVE
Formação de professores, Formação Tecnológica, Tecnologia Educacional,
Recursos Tecnológicos na Educação, Inovação Tecnológica na Educação.
Tipo de Trabalho: Trabalho de graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
80
PERSPECTIVAS SOBRE A INTERAÇÃO ENTRE ONTOLOGIAS E
WEB SEMÂNTICA
Adriana Cássia da Costa¹ - [email protected]
Custódio Gastão da Silva Júnior² - [email protected]
1-Universidade Federal de Mato Grosso – Cuiabá / MT
2-Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso – Cuiabá / MT
RESUMO
A Web Semântica chamada também de Web 3.0 é vista como grande salto em
qualidade prevista para os próximos anos que permitirá a conexão de dados e a
relação entre eventos. O conteúdo disponível será facilmente interpretado por
humanos e por computadores. O funcionamento desse novo mecanismo está
profundamente ligado a criação de ontologias que serão fundamentais para
estruturação de conteúdo na internet, além da dinamização das atividades de
recuperação de informação. Espera-se com este artigo, contribuir com a revisão
da literatura apresentando importantes conceitos e projetos envolvendo ontologias
no âmbito da web semântica. A expansão da internet aumentou a quantidade de
informações e consequentemente à dificuldade em encontrar conteúdos
relevantes. A partir desse tipo de problema, Tim Berners Lee propôs a web
semântica, onde os documentos são auto descritíveis, permitindo que seu
conteúdo possa ser “compreendido” por programas. Os agentes de software
poderiam assim, fazer inferências sobre o conteúdo de documentos e inferência
de conclusões a partir de informações contextuais. [Marcondes e Campos (2008)].
A web semântica é esperada como grande evolução da criação de conteúdo para
a internet, os temas relacionados ao assunto são amplos e podem ser
classificados em: ferramentas, agentes, metadados, web services construção de
modelos semânticos, linguagens da web semântica e ontologias [Breitman
(2005)]. As ontologias são de grande interesse por formar um dos alicerces para a
estruturação dos conceitos que serão disponibilizados na “nova web”. Os dados
deverão ser estruturados e grande parte será escrita em RDF (Resource
Description Framwork) e de acordo com uma ontologia. [Breitman(2005)], afirma
que futuramente o resultado dos trabalhos será um grande número de ontologias,
construídas e mantidas por pessoas, entidades e instituições independentes que
estarão disponíveis na web. As ontologias padronizam significados através de
identificadores semânticos, representando o mundo real ou conceitual, são
compostas por definições de conceitos, classes, propriedades, relações,
restrições e axiomas sobre um determinado conceito [Freitas e Schulz (1999)].
Assim, facilitam o mapeamento de conceitos e já são utilizadas na organização de
milhares de dados de estudos sobre doenças devido a grande quantidade de
conceitos e termos referentes a Área Médica. Uma característica das ontologias é
garantir a comunicação sem ambiguidade, sendo vistas como alicerce para a Web
Semântica [Breitman(2005)]. As ontologias são construídas conforme as regras
gramaticais de cada língua e este é um dos motivos pelos quais são menores os
trabalhos em português em relação ao inglês, onde as pesquisas estão mais
avançadas. A construção de ontologias é conhecidamente um processo
demorado e difícil, requerendo constante atualização e por isso pesquisadores da
área tentam automatizar a tarefa. [Vieira, Ribeiro Junior (2008)]. Na construção de
ontologias em português, podemos citar o Projeto SISE (Medida de Similaridade
Semântica entre Ontologias em Português) e OntoLP: Construção semiI Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
81
automática de ontologias a partir de textos da língua portuguesa, esta ferramenta
utiliza o método estatístico TFIDF e informações linguísticas (sintáticas) em um
modelo geral para a criação de ontologias.[Freitas, Vieira (2008)]. A web
semântica pretende transformar a web atual em um ambiente colaborativo,
tornando tanto os benefícios tecnológicos da web quanto os sociais disponíveis a
todos independente de hardware, software, cultura ou idioma. O grande desafio é
transformar a internet atual chamada de Web Sintática em Web Semântica,
atualmente computadores fazem apenas a apresentação da informação, porém o
processo de interpretação é feito pelos humanos [Breitman, 2005]. Alguns
problemas da web sintática é a falta de precisão nos resultados dos buscadores
atualmente disponíveis, com diversas respostas apresentadas fora do escopo
desejado pelo usuário. Muitos resultados são sensíveis ao vocabulário, em alguns
casos a ordem em que as palavras são digitadas interfere no resultado [Breitman,
2005]. Na web semântica, a web deixa de ser um repositório de documentos,
passando realizar o reuso em sistemas diferentes e no compartilhamento de
interpretações organizadas com a integração de recursos. As ontologias
pretendem suprir dois aspectos fundamentais para o aprimoramento da internet, o
primeiro relacionado ao desempenho dos sistemas de busca para capturar
informações relevantes para o usuário, o segundo ponto é fazer com que as
páginas possuam uma semântica clara e definida. [Freitas]. A construção de
ontologias tem importância ímpar em estudos para a estruturação de informação
e isso é justificado pela grande quantidade de projetos nacionais e internacionais
nessa área. Em língua portuguesa, os estudos estão caminhando em ritmo mais
lento que para outros idiomas, entretanto, é crescente o número de
pesquisadores interessados em estudar técnicas para a construção de ontologias,
pois podem promover avançados tecnológicos que se estendem a áreas como
Medicina e Educação. A implantação da web semântica é prevista para os
próximos anos em passos lentos e futuramente é esperado que os interessados,
principalmente na área de comércio eletrônico e gestão do conhecimento, possam
desenvolver suas ontologias para disponibilizar na internet e dessa maneira
facilitar a interconexão dos dados.
PALAVRAS-CHAVE:
Ontologias, Web Semântica, Informação, Conteúdo.
Tipo de Trabalho: Artigo de Revisão
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
82
PLANEJAMENTO PARA REDES FWA BASEADO EM
ALGORITMOS GENÉTICOS
1
Aline Paulino Domingos de Souza – [email protected] /[email protected]
1
Alexandre Torrezam – [email protected]
1
André Valente do Couto - [email protected]
1- UNIRONDON – Centro Universitário Candido Rondon - Cuiabá / MT
RESUMO
As novas tecnologias de transmissão trazem maior flexibilidade e eficiência à
redes de acesso, tornando-as capaz de atender o contínuo crescimento de
demanda por serviços de telecomunicações, requerendo a adaptação e/ou
inovação das empresas operadoras em suas redes afim de prover serviços de
banda larga. A reforma do setor de telecomunicações trouxe reduções nos
investimentos para infra-estrutura de acesso impedindo a própria inovação e
conseqüente melhoria de serviços. Contudo, a preparação da infra-estrutura de
redes de transmissão de dados para o fornecimento de serviços de maneira
satisfatória reflete diretamente no desempenho dos sistemas de
telecomunicações que por sua vez, estão relacionados à capacidade de
transmissão na porção denominada rede de acesso. A infra-estrutura, de grande
parte dessas redes não suportam as taxas de transmissão exigidas pelos novos
serviços, bem mais elevadas que as taxas dispensadas para o serviço de voz.
Para contornar essas limitações, alternativas como o sistema de FWA (Fixed
Wireless Access - Acesso Sem Fio Fixo), tem sido utilizado e são capazes de
fornecer serviços de banda larga a usuários residenciais, agrupamentos
(condomínios) e a pequenas e médias empresas. Desta forma, o planejamento da
rede de acesso é importante, pois concentra parte dos investimentos em infraestrutura, além de trata de um problema complexo, com várias questões conexas
e simultâneas. Trata-se, de uma pesquisa experimental onde foi testado o
protótipo e verificou-se a estabilidade e confiabilidade das suas instâncias. para
obter os resultados apresentado também realizou-se uma pesquisa bibliográfica
como aporte teórico que guiaria a concepção do protótipo, o projeto do aplicativo
de testes e os critérios de avaliação do modelo criado. Este trabalho apresenta
uma abordagem heurística para o planejamento do sistema FWA. Devido à alta
complexidade associada à resolução de problemas deste tipo através de métodos
exatos, utilizou-se um tratamento baseado em algoritmos genéticos (GA). A partir
de uma formulação exata, mostramos como especificar os componentes
principais de uma GA: cromossomo, codificação da solução, avaliação de fitness,
estrutura da população, operadores genéticos. No problema tratado, as variáveis
de decisão de um modelo de programação linear mista baseado na representação
em grafos foram transmitidas por um cromossomo especializado e eficiente. O
problema da infactibilidade foi contornado por um método de descarte, A
maximização da demanda proporcionou mais rentabilidade. Com a utilização
deste método heurístico foram obitidos resultados tão bons quando os
encontrados pelos métodos exatos, embora não garantisse a otimalidade. A
vantagem do método heurístico é reduzir o tempo computacional e gerar uma
população de soluções, enquanto o métodos exatos geram apenas uma solução.
A abordagem arco_caminho assegura que as configurações possíveis de
equipamentos são representadas por meio de um conjunto pré-definido de
caminhos, o que permite descartar a priori configurações infactíveis e dominadas,
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
83
as quais são eliminadas em tempo de pré-processamento, minimizando o custo
de investimento total. Um método exato de otimização para resolver este tipo de
problema é o Branch-and-Bound encontrado freqüentemente em pacotes
computacionais. A principal dificuldade encontrada na resolução de problemas de
otimização combinatorial, está no esforço computacional empregado para
alcançar a solução ótima. Os problemas de grande porte possuem maior
dificuldade na sua resolução quando se utilizam os métodos exatos. Para resolver
os problemas de otimização combinatorial de grande porte, os métodos
heurísticos ou de aproximação fornecem soluções próximas da ótima com maior
rapidez e flexibilidade de implementação. Os métodos heurísticos são
constituídos por etapas ou procedimentos decorrentes da observação das
características do problema. O processo de encontrar uma boa solução consiste
em aplicar à cada passo uma heurística que tenha sido projetada para cada
problema particular. O que diferencia os algoritmos genéticos de outras
heurísticas é o número de soluções geradas. Enquanto as outras heurísticas
geram uma única solução em cada iteração, os algoritmos genéticos produzem
um conjunto de soluções. O modelo pode ser estendido para representar outras
situações de planejamento desta rede, como por exemplo, a escolha de
tecnologia e topologia a utilização na conexão entre os sites e a Estação de
Controle. O modelo pode também ser reformulado para tratar de outros tipos de
decisão em redes, como, por exemplo, a definição de infra-estrutura. Em qualquer
caso, o GA pode ser adaptado.
PALAVRAS-CHAVE:
Algoritmos genéticos, redes FWA, planejamento
TIPO DE TRABALHO: Dissertação de Mestrado
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
84
PORTAIS EDUCACIONAIS E CULTURA MIDIÁTICA:
ESPECIFICAÇÃO DE REQUISITOS EM CONTEXTOS DE
EXTENSÃO À DISTÂNCIA
Juvenal Silva Neto – [email protected]
Gleber Nelson Marques – [email protected]
UNEMAT – Universidade do Estado de Mato Grosso – Alto Araguaia / MT
RESUMO
Este trabalho sintetiza o desenvolvimento de um protótipo de Portal Educacional
iniciado por meio de pesquisa bibliográfica exploratória impulsionada pela
problemática da apropriação tecnológica na prática pedagógica. Acreditamos que
um dos principais motivos para o pouco uso dos recursos multimidiáticos da
Internet na prática docente é decorrente da dificuldade da apropriação tecnológica
do computador e Internet como um recurso didático integrante da cultura midiática
educativa contemporânea. Os pressupostos teóricos como os defendidos por
CASTELLS (1996) incluem a estreita relação entre a cultura, a sociedade, o ser e
a tecnologia que fundamentam a proposta de se considerar as possíveis
contribuições destas relações ao processo de especificação de sistemas
educacionais. Aqui apresentamos os alcances da primeira fase dessa pesquisa
que consistiu no desenvolvimento de uma primeira versão do portal educacional,
intitulado Portal GENTE que toma como ponto de partida a extensão à distância
dos produtos e serviços desenvolvidos pelo Grupo de pesquisas GENTE (Grupo
de Estudos sobre Novas Tecnologias na Educação), composto por computólogos,
lingüistas e pedagogos. Em linhas gerais, as metodologias de desenvolvimento
dessa pesquisa incluem o estudo e a “modelagem” da prática pedagógica com
base em técnicas da Teoria da Atividade voltados à especificação de requisitos de
sistemas, em que sejam levadas em conta informações provenientes de pesquisa
de campo por meio de uma análise de requisitos centrada no usuário. Para o
desenvolvimento da primeira versão do Portal foi utilizada a linguagem UML
(Unified Modeling Language) para especificação e documentação dos requisitos
por meio dos diagramas de casos de uso e de seqüência, além de storyboards.
A partir dos diagramas obtidos durante o levantamento de requisitos com
integrantes do grupo de pesquisas GENTE utilizou-se na codificação a linguagem
PHP para tornar dinâmico tanto o gerenciamento do Portal quanto a
disponibilização de recursos. Foi utilizado o Wordpress como Sistema de
Gerenciamento de Conteúdo (Content Management System) – CMS, que
possibilita ao administrador do portal um gerenciamento simples e em tempo real,
além de ser código aberto, oferecer considerável quantidade de funcionalidades,
vasta documentação e atualizações anuais. Para avaliação do protótipo será
utilizado o método de inspeção “Avaliação Heurística” tomando como referência
os aspectos de usabilidade da interface. A estrutura inicial do Portal identificada
na etapa de levantamento de requisitos apontou quatro funcionalidades principais
denominadas “Produtos e serviços”, “Fábrica de Mídias”, “Empório de Mídias” e
“Oficina Pedagógica”. Em Produtos e Serviços o visitante deverá encontrar um
resumo dos links com informações resumidas acerca dos produtos e serviços
disponíveis no portal como, por exemplo, para as webquests desenvolvidas. Por
este recurso o visitante, ainda não familiarizado com os demais espaços do portal,
poderá encontrar o que deseja, ou simplesmente conhecer melhor os produtos e
serviços oferecidos/disponibilizados. Em Fábrica de Mídias o visitante terá acesso
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
85
a informações relativas aos projetos em desenvolvimento como tipo de projeto,
coordenador, objetivos, necessidade de voluntários e colaboradores, equipe de
desenvolvimento, etc. O espaço do Empório de Mídias foi projetado para
organizar todos os produtos já desenvolvidos ou pesquisados, e disponibilizá-los
via download aos visitantes do portal. Na função Oficina Pedagógica o usuário
encontrará um canal de comunicações que oferecerá serviços de assistência
online visando dar suporte a incorporação efetiva dos recursos midiáticos
educativos à prática pedagógica, disponibilizando ferramentas de comunicação
síncronas e assíncronas como chat, fórum e whiteboard. A disponibilização dos
espaços projetados para o Portal Educacional, particularmente o Empório de
Mídias e a Oficina Pedagógica, permitirá estender às escolas os produtos e
serviços oferecidos pela equipe multidisciplinar de pesquisadores do Grupo
GENTE, e ao mesmo tempo, possibilitará a realização da segunda fase da
pesquisa: a investigação de possíveis contribuições da teoria da atividade e
etnografia à especificação e aprimoramento de requisitos centrados no usuário
para análise e projeto de espaços em portais educacionais. Assumimos que ao
termos os usuários como centro do processo de análise de software é possível
reunir informações relevantes para a especificação do sistema, podendo dar
origem a espaços e funcionalidades bem definidos e mais compatíveis com as
necessidades inerentes às atividades envolvidas na prática pedagógica.
PALAVRAS-CHAVE
Engenharia de requisitos, Software Educacional, Apropriação Tecnológica,
Extensão à distância.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
86
PROCESSAMENTO DE CONSULTAS EM SISTEMA DE
GERENCIAMENTO DE BANCO DE DADOS
1
Raphael de Souza Rosa Gomes – [email protected]
2
Josiel Maimone Figueiredo – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
2 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
Atualmente com a crescente globalização da Internet e dos meios de
comunicação, ocorre um crescimento significativo na quantidade de dados a
serem armazenadas nos servidores e posteriormente manipuladas. Há então a
necessidade de realizar processamentos de dados cada vez mais rápidos e em
maiores quantidades. Os servidores estão armazenando milhares de informações,
e estas precisam ser atualizadas, pesquisadas, excluídas, etc. Para tanto, se faz
necessário a utilização de um SGBD (Sistema Gerenciador de Banco de Dados)
com bom desempenho na velocidade de resposta das operações sobre os dados.
O desempenho de um SGBD poderá ditar o quanto um programa científico irá
demorar para alcançar uma resposta em tempo hábil. Além disso, também pode
representar uma economia de tempo para empresas e organizações em geral que
desejam manipular seus dados. Assim, este trabalho tem como objetivo
apresentar e analisar o funcionamento de um compilador de consultas SQL e do
seu otimizador, visualizando entender como os componentes funcionam e suas
influências no desempenho do sistema. A metodologia utilizada para este trabalho
consistiu em realizar uma abrangente revisão bibliográfica sobre os seguintes
temas: estrutura da Álgebra Relacional, plano de consultas, otimização de planos
de consultas do banco e compilador de consultas. Para realizar as análises
utilizou-se o banco de dados PostgreSQL, juntamente com o software de testes
BenchMarkSQL, por serem softwares livres, ou seja, que disponibilizam seus
códigos fontes. A realização dos testes foi executada através de variações nas
configurações do compilador do PostgreSQL, alterando alguns parâmetros
relacionados com o compilador de consultas, como por exemplo o parâmetro
geqo que ativa o otimizador. Alterou-se também as configurações do
BenchMarkSQL que estão relacionados com a quantidade de dados presente no
teste. Para a análise dos testes teve-se como parâmetros, os tempos de
respostas das consultas e as quantidades de consultas realizadas pelos testes.
Os resultados demonstraram que tanto o compilador quanto o otimizador,
influenciam diretamente no tempo de resposta das consultas. O compilador de
consultas possui três grandes componentes. O componente Sintático, onde é
verificada a sintaxe e a semântica das consultas SQL's; o componente Plano
Lógico, onde são construídos vários planos de consulta para fazer uma estimativa
de qual poderá ter um melhor desempenho, independente do Sistema
Operacional ou do SGBD utilizado; e por último, o componente Plano Físico, onde
é feita a conversão do plano lógico, de tal forma que o SO e o SGBD utilizados
possam executar as consultas. O programa BenchMarkSQL foi alterado para que
suporta-se vários testes automaticamente, analisasse os dados e gerasse os
scripts dos gráficos para posterior utilização no GNUPlot, sem precisar alterar
suas configurações manualmente para cada execução. No total foram realizados
40 testes sobre o PostgreSQL, tudo automaticamente, sem a necessidade de
uma intervenção manual. Após análise dos resultados foi possível verificar um
ganho de até 60% no tempo de resposta das consultas, apenas alterando as
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
87
configurações do compilador de consultas. Conclui-se, a partir desta explicação, o
quanto é importante conhecer o funcionamento do SGBD para um melhor
desempenho das operações e assim diminuir o tempo de resposta. Pode-se
concluir também o quanto é importante melhorar a configuração do SGBD de
forma constante, pois em banco de dados reais a todo o momento os dados são
atualizados, inseridos, deletados ou selecionados. Portanto, é preciso verificar e
entender as configurações do compilador de forma contínua, para obter os
melhores resultados a maior parte do tempo.
PALAVRAS-CHAVE
Banco de dados, configuração, SQL
TIPO DE TRABALHO: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
88
PRODUÇÃO DE INSTRUMENTO DE AVALIAÇÃO DE CURSOS DE
GRADUAÇÃO E PROPOSTA DE APLICAÇÃO ESPECÍFICA EM UM
CURSO DE LICENCIATURA EM INFORMÁTICA
Denise Pires Liceras - [email protected]
Danilo Escobar - [email protected]
Soraia Silva Prietch - [email protected]
Tatiana Annoni Pazeto - [email protected]
UFMT - Universidade Federal de Mato Grosso – Rondonópolis/MT
RESUMO
O processo de Avaliação de Cursos de Graduação deve ser e estar em constante
renovação e desenvolvimento para, assim, poder apontar e sanar as
necessidades de cada curso. Neste contexto, com o presente artigo pretende-se
propor novo instrumento de avaliação para aplicação junto ao Curso de
Licenciatura Plena em Informática, para que se torne possível confrontar os dados
obtidos e assinalar os acertos e falhas para melhoria da qualidade de ensino do
mesmo. Cabe ressaltar que o presente trabalho se insere no contexto de um
projeto de pesquisa de maior amplitude, denominado “Levantamento Histórico do
Curso de Licenciatura Plena em Informática, nos Planos: Acadêmico,
Administrativo e de Vivência”, o qual tem como pretensão abordar uma variedade
de temas relacionados ao referido curso de graduação considerando os mais
diversos pontos de vista. Neste sentido, acredita-se na importância da observação
dos erros e acertos passados para que no presente e no futuro, as atitudes que
geraram tais resultados sejam repensadas e planejadas, de forma a evitar os
passos inadequados e reafirmar os passos de sucesso, de preferência tendo um
grupo conciso de profissionais e de estudantes trabalhando por um objetivo
comum. A realização desta pesquisa é justificada pela necessidade de avaliar a
qualidade do curso, visando analisar cada categoria (corpo discente, corpo
docente, corpo técnico e infra-estrutura) separadamente, sendo que, caso alguma
irregularidade for apresentada, esta será apontada de forma objetiva através de
questões específicas do instrumento facilitando, assim, a identificação do
problema a ser solucionado. Desta forma, acredita-se que a contribuição deste
trabalho apóia-se nos fatos de que: (1) os alunos de cursos de Licenciatura em
Informática/Computação ainda não participam do ENADE (Exame Nacional de
Desempenho de Estudantes); e, (2) o curso, desde 2005, não foi re-avaliado pelo
MEC, no sentido de obter sua renovação de reconhecimento. No entanto, é válido
mencionar que o curso foi avaliado, no início de 2009, por uma comissão da
própria UFMT, mas somente no que diz respeito ao seu ementário, o qual foi
alterado com base na Resolução CNE/CP nº 2/2002, e no Decreto nº 5.626, de
22/12/2005. Segue abaixo a lista de atividades a serem desenvolvidas no
decorrer do subprojeto:
a) Buscar artigos e/ou livros que tratam sobre a avaliação de cursos de
graduação, de modo geral, de cursos da área da computação;
b) Efetuar a leitura e propor alterações no instrumento, proposto por Prietch
(2008), de avaliação do curso, bem como acrescentar questões relativas a
infra-estrutura;
c) Aplicar instrumento na forma de questionário piloto para a realização de
melhorias e ajustes;
d) Verificar se na literatura pesquisada existem bons exemplos a serem seguidos
que podem ser agregados à proposta;
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
89
e) Realizar a aplicação do instrumento (a princípio, em papel), bem como tabular
e analisar os dados coletados.
Até o presente momento foi possível efetuar a leitura e propor alterações no
instrumento, proposto por Prietch (2008), de avaliação do curso, bem como
elaborar a forma de pontuação para as questões do instrumento. Além disso,
dentre a relação de atividades a serem cumpridas, citadas anteriormente, já foram
realizados parcialmente os itens a, b e c. Sendo que, em relação ao item c, o
instrumento foi aplicado, como piloto, para 06 alunos do 3º ano do curso de
Licenciatura Plena em Informática, os quais sugeriram uma série de melhorias, a
citar: (1) aumento das opções de respostas, visto que são objetivas; (2)
questionamentos de como o instrumento chegaria a um resultado concreto final
(critérios valorados); (3) sugestão de questões que poderiam ser incluídas; (4)
verificação de questões duplicadas; (5) depoimentos da dificuldade em realizar
auto-avaliação, que é uma das partes do instrumento; e (6) sugestão de incluir
uma introdução textual, anterior ao início dos questionários, para explicação das
categorias a serem avaliadas, dos critérios de avaliação, dos responsáveis pela
aplicação do instrumento, dos objetivos, dentre outras. O instrumento encontra-se
dividido na avaliação de cinco categorias: Coordenador do Curso, Corpo Docente,
Corpo Técnico-administrativo, Corpo Discente e Infra-Estrutura, sendo que as
perguntas estão distribuídas da seguinte forma:
 Coordenador do Curso 71, onde 10 são sobre o corpo Docente, 11 são sobre o
Corpo Técnico-administrativo, 10 são sobre o Corpo Discente, 29 são de autoavaliação e 11 são sobre Infra-Estrutura;
 Corpo Docente 92, onde 27 são sobre o Coordenador do Curso, 5 são sobre o
Corpo Técnico-administrativo, 10 são sobre o Corpo Discente, 39 são de autoavaliação e 11 são sobre Infra-Estrutura;
 Corpo Discente 88, onde 27 são sobre o Coordenador do Curso, 24 são sobre o
corpo Docente, 4 são sobre o Corpo Técnico-administrativo, 10 são sobre a
turma do discente, 12 são de auto-avaliação e 11 são sobre Infra-Estrutura;
 Corpo Técnico-administrativo 40, onde 27 são sobre o Coordenador do Curso,
1 sobre o corpo Docente, 1 sobre o Corpo Discente, 11 são de auto-avaliação.
A aplicação piloto do questionário é considerada muito importante, pois através da
mesma é possível ter uma noção do ponto de vista de alguns discentes do curso.
Além disso, pode-se constatar que os discentes estão preocupados com a
desenvoltura do curso, já que demonstraram interesse, além de fornecerem suas
sugestões do que poderia ser feito para melhorar o instrumento. Em relação à
aplicação final do instrumento, a ser realizada posteriormente, acredita-se que,
mesmo não sendo obrigatório, haveria um grande percentual de participação, já
que o desenvolver do curso é de interesse de todos, sendo que os discentes, em
especial, são atingidos diretamente por tudo que acontece no curso, sejam estes
acontecimentos bons ou ruins.
PALAVRAS-CHAVE
Curso de graduação, Licenciatura em Informática, Avaliação, UFMT.
Tipo de Trabalho: Voluntariado de Projeto de Pesquisa
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
90
PROJETO DE INTERAÇÃO BASEADO EM CONTROLE 3D
1
Alexandre Torrezam – [email protected]
1
Aline Paulino Domingos de Souza – [email protected]
1
Diego Duarte Almeida – [email protected]
1 – UNIRONDON – Centro Universitário Cândido Rondon – Cuiabá / MT
RESUMO
A tecnologia, como é característica, evolui rapidamente e nesse exercício surge a
necessidade de se facilitar ou inovar os meios de interação do homem com os
mais diversos dispositivos. Vários segmentos estão sendo influenciados
diretamente pela evolução tecnológica: e-books, TV, filmes, celulares e
principalmente os jogos baseados em computador, impulsionam a necessidade
da evolução da interação. Uma das maiores companhias de jogos do mundo, a
Nintendo lançou o WII que elevou a interatividade homem-máquina a um novo
nível, nunca antes visto em outro produto comercial. Não se trata mais de
setinhas direcionais como as de um teclado de computador e sim de apontar um
dispositivo na tela de TV, gesticular e balançar, indicando qual é o elemento a ser
selecionado e confirmando pelo pressionar dos botões. Com o esse conceito de
interação, novas tecnologias vieram à tona; Johnny Chung Lee foi um dos
primeiros a exibir algumas das suas ideias e a adaptar algumas das
funcionalidades do WII para o computador. Suas pesquisas foram a inspiração
para este trabalho. Elaborando um protótipo e garantindo sua funcionalidade
poderemos verificar que novos meios de interação podem facilitar e agilizar o uso
de diversos dispositivos, nas mais diversas atividades e ainda, propor
aplicabilidades que outrora seriam inviáveis. Desta forma, o objetivo geral deste
trabalho é construir um protótipo que se comunique com o computador e realize
qualquer tarefa que possa ser orientada pelo mouse, teclado ou movimentos em
terceira dimensão. Dessa forma pretende-se mostrar através de experimentos,
que novas formas de comunicação elevam o nível de interatividade entre homem
e diversos dispositivos. Para isso será necessário: explorar novas tecnologias de
interatividade existentes, reproduzir o sistema de interatividade do Nintendo WII
em um protótipo personalizado e criar uma aplicação que interaja com usuário
através dos meios convencionais e também através do protótipo. Trata-se,
portanto de uma pesquisa experimental onde testaremos o protótipo e
verificaremos a estabilidade e confiabilidade das suas atividades. Para tal
experimento, foi necessária uma pesquisa exploratória que trouxesse o estado da
arte de interatividade em terceira dimensão e as suas vertentes. Após a
exploração, uma pesquisa bibliográfica foi realizada para que se definisse todo o
aporte teórico que guiaria a concepção do protótipo, o projeto do aplicativo de
testes e os critérios de avaliação do modelo de interatividade criado. Para
reproduzirmos o funcionamento do WII, precisamos que seu controle se conecte
com um computador e que este esteja apto a interpretar as informações enviadas
por ele. Deste modo, seguimos algumas das orientações do projeto de Chung
Lee, que se baseia em capturar uma fonte de luz infravermelha como referência
usando o Wii Remote e fazendo uso das propriedades do controle da Nintendo
para realizar diversas atividades com o computador. Para obtermos total controle
sobre o protótipo, uma SensorBar
foi reproduzida, utilizando LED´s
infravermelhos, um cabo USB, resistores, fios e uma base para fixar todos os
elementos; a alimentação pela USB do computador garante a mobilidade do
protótipo. Utilizando os softwares BlueSoleil e GlovePIE, foi possível interagir com
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
91
o computador para diversas atividades como controlar o reprodutor de mídia,
slides e até desenhar no computador, sem a necessidade do uso do teclado ou
mouse. Ainda visando maior controle dos testes, foi desenvolvido um software no
formado de um atirador em 2D, baseado na tecnologia XNA que possui uma vasta
biblioteca de controladores de entrada de dados o que facilitou a integração do
protótipo com o jogo. O jogo tem suas funções de interação baseadas no uso do
teclado e mouse e neste trabalho, também foi utilizado nosso sistema de
interação personalizado para avaliação de desempenho do sistema. Os
problemas principais para a construção do protótipo foi a aquisição dos materiais
básicos que os configuram. A revisão bibliográfica nos colocou em contato com os
conhecimentos elementares de cálculo de voltagem, corrente, tensão e
resistência para que pudéssemos concluir esta etapa. A configuração do
BlueSoleil foi um desafio a parte pois o software não funciona adequadamente em
um sistema de 64 bits, nos obrigando a migrar para um sistema de 32 bits para
desenvolver as atividades. Por fim, o estudo e elaboração de scripts com o
GlovePIE permitiu que os testes com a nova SensorBar fossem iniciados.
Concluiu-se que SensorBar requer alguns ajustes pois neste trabalho utilizamos
apenas 4 LEDs (o original do console utiliza 10) o que limitou a captação dos
movimentos do controle mas não comprometeu os testes iniciais. Mesmo com tais
limitações, que podem ser ajustadas num próximo projeto, é possível desenhar,
jogar e interagir com o sistema conforme a programação de suas funções no
GlovePIE permitir. Desta forma, foi possível experimentar as dificuldades em
desenvolver um projeto com novas características de interação, atingindo o
objetivo de verificar que um bom design de interação promove uma comunicação
mais eficiente entre o dispositivo computacional e o humano que deve controlá-lo.
PALAVRAS-CHAVE:
IHC, interatividade, design de interface
TIPO DE TRABALHO: Trabalho voluntário de Iniciação Científica com o apoio do Centro
Universitário Cândido Rondon.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
92
PROJETO DE UM SISTEMA ONLINE DE AUXÍLIO À
FISCALIZAÇÃO DA VIDA PÚBLICA DOS POLÍTICOS
Guilherme Wilson dos Santos Lopes¹ – [email protected]
Iara Fernandes de Araújo¹ – [email protected]
Rafael Lima Franco¹ – [email protected]
Rodicrisller Rodrigues¹ – [email protected]
Sayuri Arake Joazeiro¹ – [email protected]
Cristiano Maciel¹ – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Cuiabá / MT
RESUMO
A necessidade de informação se torna mais evidente a cada dia que passa. No
que diz respeito a um melhor controle por parte dos cidadãos da gestão pública
realizada por seus representantes no governo do nosso país, essas informações
estão dispersas em vários meios de comunicação social. As ferramentas
computacionais que estão presentes para o grande público apresentam algumas
funcionalidades, como disponibilização de informações atualizadas, fóruns,
prestação de contas dos políticos, bem como um perfil com informações escassas
destes etc. Contudo, estas se encontram desunidas e isoladas. No domínio de
gestão pública tem-se a necessidade de uma ferramenta que agregue essas
diversas funções, a fim de condensar em um único meio as informações
necessárias para fiscalização eficiente das ações políticas. Nesse contexto, foi
realizada a análise e o projeto de um sistema que propõe a solução para o
problema citado anteriormente, promovendo por meio de uma série de recursos a
interatividade entre os usuários e a divulgação das informações da vida pública
dos políticos de forma unificada, denominado Programa de Qualidade de
Políticos. Tal sistema se destaca por propor medidas que se baseiam nos
princípios de software social, descritos por Gene Smith, especialmente os de
reputação e compartilhamento. Na fase de Análise, foi realizada a escolha do
modelo cascata de desenvolvimento por estar de acordo com as necessidades da
aplicação em questão. Em seguida, foram avaliados os impactos morais, éticos e
de privacidade que envolviam a produção de um sistema dessa natureza,
chegando às normas e regulamentos propostos para a relação dos usuários com
o sistema. Logo após, foi realizada uma análise de mercado, na qual efetuamos
uma pesquisa em ferramentas nacionais que abordam a mesma temática do
Programa de Qualidade de Políticos, como o domínio Políticos do Brasil
pertencente ao portal Uol (http://noticias.uol.com.br/politica/politicos-brasil/), com o
intuito de compreender o contexto em que o sistema seria inserido, por meio da
qual foi constatado que não existe atualmente disponível no mercado um sistema
que integre tanta quantidade e qualidade de informação como a ferramenta
proposta possibilitaria. Depois, foi realizada a elicitação de requisitos que
comportam as características fundamentais do sistema, descrevendo assim as
funcionalidades por ele oferecidas, entre elas: informações dos políticos dispostas
em um perfil único, uma lista com os nomes dos políticos que respondem ou
responderam processos judiciários, área de compartilhamento de arquivos
postados por usuários, além de permitir que a comunidade cadastrada no domínio
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
93
possa avaliar o candidato por meio de notas e “favorite” os políticos a fim de que
possam receber informações atualizadas sobre estes. Para tanto foram utilizadas
as seguintes técnicas de elicitação: entrevistas, questionários, leitura de
documentos e brainstorming. Na fase de projeto, definimos os marcos, produtos,
atividades, cronograma, diagrama de alocação de pessoal e análise de risco. Em
seguida, foram detalhados os requisitos em formas de casos de uso, definimos a
arquitetura do sistema e foram feitas algumas prototipações. Como resultado da
fase de análise, examinamos os dados coletados por meio da aplicação do
questionário e das propostas do brainstorming, que possibilitaram uma idéia mais
concreta do perfil dos nossos futuros usuários, a definição do escopo de aplicação
da ferramenta, bem como suas características essenciais e a validação da
aceitação do sistema pelo público. No projeto do sistema, por meio dos protótipos,
foi elaborado um modelo para a interface do sistema, modelo este feito à mão
(storyboard), o qual contribuiu para a montagem de uma apresentação de alta
fidelidade, com navegabilidade das funcionalidades para o usuário final. Em
seguida, realizamos uma avaliação heurística, proposta por Jakob Nielsen, da
prototipação de alta fidelidade, a fim de diagnosticar problemas existentes e
elaborar possíveis soluções antes da implementação da versão final. Para a
gerência de projeto, temos como resultado uma documentação que garante uma
futura implementação do sistema por uma equipe de desenvolvimento concreta.
Com base na problemática abordada e necessidade de um sistema como esta
ferramenta, utilizando algumas metodologias de desenvolvimento de projeto,
foram realizados os objetivos propostos por esse trabalho, visto que as técnicas
utilizadas produziram a análise e o projeto de uma ferramenta que viabiliza a
interatividade entre os usuários e a divulgação das informações da vida pública
dos políticos em um único ambiente. A partir dos resultados obtidos, temos a
possibilidade, posteriormente, da implantação de uma ferramenta de assistência à
fiscalização da gestão pública dos políticos que poderá ser utilizada pela
sociedade.
PALAVRAS-CHAVE
política, engenharia de software, software social, gestão pública
Tipo de Trabalho: Trabalho de disciplina de graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
94
PROJETO E IMPLEMENTAÇÃO DE UMA PLATAFORMA WEB
PARA CONTROLE E GERENCIAMENTO DE REDES DE
SENSORES SEM FIO
Leonardo de Souza Alves – [email protected]
Otto Julio Ahlert Pinno da Silva – [email protected]
Maxweel Carmo – [email protected]
UFMT – Universidade Federal de Mato Grosso – Barra do Garças/MT
RESUMO
Apesar dos expressivos avanços no campo das redes de sensores sem fio
(RSSF), a interação eficiente entre esse tipo de rede e o usuário tem sido ainda
um importante desafio. O presente trabalho propõe a especificação e
implementação de uma plataforma capaz de intermediar e facilitar esta
comunicação, permitindo ao usuário realizar atividades de manutenção e
gerenciamento da RSSF, além de possibilitar a obtenção e manipulação de dados
coletados pelos dispositivos de sensores. As RSSF caracterizam-se pela
presença de dispositivos de baixo custo com pouca capacidade de
processamento e sérias limitações de energia e comunicação. Em um ambiente
onde a RSSF é compartilhada entre usuários com interesses distintos, torna-se
evidente a necessidade de uma plataforma capaz de coordenar eficientemente o
acesso aos recursos da rede. Por exemplo, implementar políticas de segurança
de forma a evitar o acesso à RSSF por pessoas não autorizadas, definir
diferentes privilégios para usuários, negando ou autorizando acesso a
determinados nós, fornecer serviço de escalonamento de tarefas como configurar
um conjunto de nós para iniciar e parar a medição em um determinado intervalo
de tempo futuro e desativar nós ociosos de forma a economizar energia. A
plataforma fornecerá suporte a atividades de monitoramento, disponibilizando
informações sobre a autonomia dos nós (carga de bateria), histórico de utilização
destes sensores para auxiliar em tomadas de decisões como reconfiguração da
topologia da rede, informação sobre o tipo de sensor disponível no nó
(temperatura, pressão, luminosidade, entre outros), etc. A plataforma será ainda
responsável por gerenciar um banco de dados de informações coletadas pelos
sensores. Entre outras finalidades, o banco de dados permitirá que medições
feitas previamente possam ser recuperadas e devolvidas aos usuários ao invés
de se iniciar outro processo de medição, poupando, assim, recursos da RSSF. De
acordo com políticas de segurança previamente definidas, o banco de dados, ou
parte dele, pode ser compartilhado entre diferentes usuários. A ferramenta está
sendo desenvolvida para a plataforma Web, permitindo ao usuário interagir com a
RSSF via browser e de forma independe de plataforma. Serão empregadas
técnicas de mushup de forma a agregar serviços de terceiros como o de mapas
georreferenciados do Google Maps. Através da visualização espacial dos nós da
RSSF, será possível a realização de diferentes tarefas como, por exemplo, o
gerenciamento da rede por parte do administrador e a seleção de nós para
realização de medições dos usuários. É comum em uma aplicação de RSSF a
presença de centenas de dispositivos de sensores. Neste sentido, durante as
fases de testes da ferramenta, a RSSF será simulada via Network Simulator 3
(NS-3) – um ambiente de simulação discreto de redes de computadores. Os
resultados da simulação (dados de sensoriamento) alimentarão o banco de dados
da ferramenta Web. A possibilidade de interligar a ferramenta diretamente à rede
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
95
simulada também será estudada, visto que o NS-3 oferece interfaces que facilitam
tal procedimento. O TinyDB – um sistema de processamento de consultas SQL
adaptadas para interação com redes RSSF – também poderá ser empregado.
Uma consulta TinyDB a um grupo de nós para obter, por exemplo, informações de
temperatura e índice de luminosidade por um intervalo de 10 segundos poderia
ser formulada da seguinte forma: “select light, temp from sensors sample interval
1s for 10s”. Espera-se na fase final de desenvolvimento da plataforma a criação
de um protótipo de RSSF contendo algumas unidades de sensores reais e voltado
para o contexto de monitoramento ambiental. A ferramenta se encontra
atualmente em fase inicial de desenvolvimento.
PALAVRAS-CHAVE
Rede de sensores sem fio, aplicação web, interface com o usuário.
Tipo de Trabalho: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
96
PROPOSTA DE SOFTWARE EDUCATIVO PARA AUXILIAR NO
PROCESSO DE ENSINO-APRENDIZAGEM DE MÉTODOS
CLÁSSICOS
Thaís Santos Santana - [email protected]
Nair Crisitina dos Santos Ribeiro - [email protected]
Simone Fátima Ferreira - [email protected]
Soraia Silva Prietch - [email protected]
UFMT - Universidade Federal de Mato Grosso – Rondonópolis/MT
RESUMO
O software educativo proposto aqui deverá incluir características classificadas
como tutorial, simulação, exercício-e-prática, e programação, conforme
especificado por Valente (1995)10. Essa classificação foi definida com a intenção
de auxiliar os alunos de graduação da área de computação no processo de
aprendizagem dos conteúdos de Métodos Clássicos, abordados na disciplina de
Projeto e Análise de Algoritmos. A concepção pedagógica será híbrida,
mesclando as abordagens comportamentalista e construtivista, no que se refere à
implementação dos algoritmos indicados nos exercícios. Com relação a isso,
Valente (1995) menciona que:
“o objetivo desta modalidade [programação] de uso do computador é propiciar
um ambiente de aprendizado baseado na resolução de problemas. [...] No
entanto, deve ser notado que o objetivo não é ensinar programação de
computadores e sim como representar a solução de um problema segundo
uma linguagem computacional”.
O software educativo contemplará dois métodos clássicos: o Método Guloso
(Greedy Method), e o Método Divisão e Conquista (Divide-and-Conquer Method),
sendo que para cada um serão explorados as características, o funcionamento,
as técnicas de implementação, os exemplos práticos, as aplicações, a simulação
e os exercícios de fixação. Para a realização desse projeto foram feitas pesquisas
bibliográficas, além da utilização do software Enterprise Architect, para confecção
do diagrama de casos de uso em UML e para o desenvolvimento do layout da tela
inicial proposta, para o software educativo, a ferramenta Adobe Fireworks. Os
envolvidos na proposta de criação do software educativo serão um desenvolvedor
e um professor. O desenvolvedor do software precisará ter um bom conhecimento
da linguagem de programação Java. O professor deverá ter domínio do conteúdo
referente aos Métodos Clássicos abordados no software educativo, além de
buscar e produzir um material diferenciado, com vídeo aulas, animações,
exemplos e exercícios que estimulem o aluno, para compor o software. É
importante destacar que o Licenciado em Informática seria um profissional
habilitado a exercer tanto a função de programador do software como a de
professor, conforme seus conhecimentos adquiridos ao longo de sua formação.
Considera-se que, para utilizar o software, o aluno deverá ter uma base de
conhecimento em lógica de programação, estrutura de dados, e da linguagem de
programação C, que será a linguagem usada, para a implementação dos
exercícios. As suas possíveis ações no sistema serão: estudar o conteúdo teórico
disponível no tutorial, visualizar o funcionamento do algoritmo por meio das
simulações e programar exercícios. Pretende-se incluir especificações para
tratamento de erros, por exemplo, para acessar os módulos, o aluno deverá
10
Valente, José Armando. Diferentes usos do Computador na Educação. Separata nº 1, Capítulo I do livro
Computadores e Conhecimento: Repensando a Educação, 1995.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
97
seguir a ordem do estudo, pois os módulos ainda não estudados (mais
avançados) ficarão desabilitados até que o usuário tenha alcançado o rendimento
necessário no módulo anterior ao desejado. Além de mensagens de erro em
situações corriqueiras, como o não preenchimento de alguma questão dos testes.
O professor poderá utilizar o software como uma ferramenta auxiliar em suas
aulas, contudo os alunos poderão utilizar o software para entendimento dos
conteúdos de forma independente, fora do horário de aula. Planeja-se que o
software educativo seja executado em Desktop (executável para instalação), pois
se acredita que o grupo a quem o software será inicialmente direcionado
(estudantes de disciplinas de Projeto e Análise de Algoritmos), poderá utilizá-lo
sem a necessidade da Internet, uma vez que o acesso a esta poderá ainda não
estar disponível a todos. Podendo, contudo, ser disponibilizado para download na
rede, para alcançar todo o público interessado. Com a pesquisa realizada,
preliminarmente ao desenvolvimento da proposta, foi possível perceber a
necessidade de se desenvolver meios diferenciados que atuem como ferramentas
auxiliadoras no processo de ensino de conteúdos abstratos como é o caso da
disciplina de Projeto e Análise de Algoritmos. As principais dificuldades
encontradas no decorrer da pesquisa estão relacionadas à falta de disponibilidade
de estudos realizados na área de construção de software específicos para o
ensino de Métodos Clássicos. Como trabalho futuro pretende-se dar continuidade
a pesquisa iniciada e desenvolver efetivamente o software proposto.
PALAVRAS-CHAVE
Métodos Clássicos, Projeto e Análise de Algoritmos, Método Guloso, Método da
Divisão e Conquista.
Tipo de Trabalho: Trabalho de Avaliação da disciplina de Projeto e Análise de Algoritmos.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
98
PROPOSTA DE UM PROCESSO DE DESENVOLVIMENTO DE
SOFTWARE PARA FACILITAR A INTEGRAÇÃO DA EQUIPE DE
DESENVOLVIMENTO
1
Maria Cristina Delgado Preti – [email protected]
2
Cristiano Maciel – [email protected]
1
IFMT – Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso – Cuiabá / MT
UFMT – Instituto de Computação da Universidade Federal de Mato Grosso – Cuiabá / MT
2
RESUMO
A falta de adoção de métodos, de ferramentas e de procedimentos no
desenvolvimento de software resulta em números expressivos de projetos não
concluídos ou em projetos concluídos que não atendem às necessidades do
cliente (PRESSMAN, 2006). Um dos focos da Engenharia de Software é o
processo de desenvolvimento de software (PDS) investigado neste estudo.
Aproveitando-se da recém estruturação, ocorrida no Instituto Federal de
Educação, Ciência e Tecnologia de Mato Grosso (IFMT), este estudo propõe à
Diretoria de Tecnologia de Informação (DTI) a implantação de um processo de
desenvolvimento de software padrão tendo por finalidade: manter integradas as
equipes do IFMT, guiadas por um modelo único, trabalhando de forma mais
produtiva, com artefatos úteis e adequados e utilizando a mesma linguagem na
codificação, na documentação e na comunicação sistêmica. Para a definição do
PDS proposto nesse estudo foi feita uma pesquisa bibliográfica que abrangeu a
natureza da Engenharia de Software. Entre os modelos que foram originalmente
propostos para colocar ordem no caos do desenvolvimento de software, estão: o
modelo em cascata que sugere uma abordagem sistemática e sequencial para o
desenvolvimento de software. (PRESSMAN, 2006); no desenvolvimento
evolucionário há dois tipos de modelos – o exploratório e prototipagem. O
processo de iteração da abordagem evolucionária apóia-se em dois modelos:
incremental e espiral. O espiral mantém a abordagem sistemática passo a passo,
sugerida pelo modelo cascata, mas o incorpora a um arcabouço iterativo.
(SOMMERVILLE, 2003). O desenvolvimento baseado em componentes incorpora
muitas das características do modelo espiral e propõe soluções através da
combinação de componentes de software previamente preparados. (PRESSMAN,
2006). Considerando que os sistemas implantados no IFMT variam de pequeno a
médio porte, é proposto para essa instituição um processo híbrido:
desenvolvimento evolucionário do tipo prototipagem com uso do modelo espiral
para a iteração das fases do processo e o desenvolvimento baseado em
componentes, essencial na agilidade do desenvolvimento. A linguagem de
modelagem sugerida para a visualização, a documentação, a especificação e a
construção de sistemas orientados a objetos é a UML (Unified Modeling
Language – Linguagem de Modelagem Unificada) a qual fornece vocabulário e
regras para a representação conceitual e física de um sistema. A equipe de
desenvolvimento deverá seguir o arcabouço definido neste estudo para alcançar
as metas de desenvolvimento. A estrutura inclui cinco atividades: análise, projeto,
implementação, implantação e manutenção evolutiva. A análise ou concepção é
a primeira etapa do PDS. Ela enfatiza a investigação do problema, produzindo
compreensão ampla, mas pouco profunda do sistema. A fase de análise prevê
para cada sistema um conjunto de atividades e/ou artefatos: relatório com uma
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
99
análise da viabilidade; levantamento dos requisitos; organização dos requisitos;
análise de componentes; criação do glossário; elaboração de um documento de
análise de riscos; elaboração de um documento para o planejamento da
comunicação; cronograma de execução e custos. A fase de projeto visa a
produzir uma solução para o problema identificado na fase de análise. Nesse
momento, resta projetar uma arquitetura de software e de hardware para realizar
concretamente o sistema, isto é, apresentar uma solução para o problema
enunciado. As atividades concernentes à essa etapa são: termo de abertura;
expansão de casos de uso; elaboração de diagrama de sequência; elaboração de
modelo conceitual; construção de diagrama de classe; elaboração de projeto da
camada de interface; elaboração de projeto da camada de persistência;
especificação de framework. Implementação – durante essa fase, o projeto de
software é compreendido como um conjunto de programas ou unidades de
programa, abrangendo as atividades: codificação; testes; integração. Instalação
e implantação – o sistema é implantado no ambiente no qual deverá operar. Para
essa etapa duas atividades são necessárias: operação e treinamento. A operação
envolve, quando necessário, a migração do banco de dados existente. Por sua
vez, o treinamento se comprometerá com a organização de sessões de
treinamento para os usuários. Manutenção evolutiva – essa etapa consiste na
correção de eventuais erros e/ou na melhoria do sistema, ao longo da vida útil do
software. Quando necessário, deve haver correções e atualizações nos artefatos
provenientes das fases de análise e de projeto do sistema. Os ciclos de análise,
de projeto, de implementação e de testes são repetidos tantas vezes quantas
forem necessárias para desenvolver todo o sistema. Em cada ciclo, um conjunto
diferente de casos de uso é abordado, segundo as prioridades do momento.
Dessa forma, procura-se produzir uma solução completa e funcional para cada
um dos processos associados ao ciclo. A proposta de PDS em questão visa à
efetividade, à continuidade, à segurança e à transparência. De forma geral, os
sistemas devem fornecer a visão do estado do projeto a qualquer instante, servir
como meio de comunicação entre os envolvidos, indicar o nível de participação de
todos os envolvidos, manter um histórico documental do projeto, sistema ou
software e ser a base para a fase e subfases seguintes. O estabelecimento de um
PDS é essencial porque permite organizar e guiar a equipe de desenvolvimento
de forma ordenada. Cabe destacar que, em meio às dificuldades enfrentadas na
elaboração dessa proposta, a recente reestruturação organizacional por que
passou o IFMT impactou sobremaneira o PDS devido às constantes modificações
exigidas e que representam um risco iminente.
PALAVRAS-CHAVE:
Processo de desenvolvimento de software, Modelo de processos de software.
Tipo de Trabalho: Trabalho de Pós-Graduação Lato Sensu – Especialização em Gestão de
Projetos em Engenharia de Software.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
100
RECONHECIMENTO DE PADRÕES ATRAVÉS DA MODELAGEM E
TREINAMENTO DE REDES NEURAIS UTILIZANDO
BACKPROPAGATION MULTILAYER PERCEPTION
IMPLEMENTADO EM SCILAB
1
André Valente do Couto – [email protected]
1
Gérson Kazuyoshi Kida – [email protected]
1
Marilson Oliveira Corrêa – [email protected]
1 – IFMT – Instituto Federal de Mato Grosso – Cuiabá / MT
RESUMO
A Inteligência Artificial ou Inteligência Computacional reúne técnicas que buscam
integrar aos sistemas de processamento, características típicas do
comportamento inteligente. A dificuldade em se encontrar uma definição
consensual de IA e definir claramente seus limites reside no problema da
definição do próprio conceito de inteligência. Pode-se dizer que a capacidade de
solucionar problemas relacionados à percepção, interpretação, inferência e
tomada de decisões, com elevado grau de auto-adaptação, define a inteligência
no escopo de Inteligência Artificial. Existem diversos algoritmos e técnicas para
caracterização do comportamento humano, que é rotulado como inteligência.
Desses, escolheu-se o Perception Multicamadas pelo fato deste algoritmo ser
uma implementação robusta, com extensas referências bibliográficas para as
análises de reconhecimento de padrões através de treinamento supervisionado,
exatamente o que se enquadra para a utilização da base de dados escolhida. O
escopo deste trabalho está na aplicabilidade do algoritmo Perception
Multicamadas com retropropagação, implementado em um ambiente
computacional numérico (Scilab), para o reconhecimento de padrões através do
treinamento supervisionado da rede neural. Ainda, será analisada a manipulação
heurística dos principais parâmetros que determinam a estrutura e o formato de
aprendizado da rede neural com base na obtenção de seus resultados (taxas de
erros). Para o treinamento supervisionado, foi utilizado a base de dados "PenBased Recognition of Handwritten Digits" gerado pelo Prof. Ethem Alpaydin
(http://www.cmpe.boun.edu.tr/~ethem) que se consubstancia no reconhecimento
dos 10 números (algarismos hinduarábicos) através dos símbolos gerados em um
scanner de escrita. Na confecçao da base de dados, uma população de pessoas
escreveram os algarismos em um scanner de escrita que após ser equalizada a
escala, rotação e número de pontos, foram dispostas em 16 entradas, que
correspondem às coordenadas dos 8 pontos pelos quais passou a caneta na
mesa digitalizadora. Foram fornecidos 7.494 exemplos para treinamento da rede
(pendigits.tra) e 3.498 exemplos para uso exclusivo de teste (pendigits.tes) da
rede treinada. A implementação do algoritmo no ambiente de computação
numérica (SCILAB) se tornou um aspecto relevante, no sentido em que permite
uma observação e experimentação direta da aplicabilidade dos conceitos
fornecidos nas referências bibliográficas, além de prover o entendimento completo
do algoritmo e não somente a utilização de aplicativos de simulação ou de
aplicativos já implementados, o que permite também, o seu uso no meio
acadêmico para fins de ensino. Esta implementação inicial teve como base a
capacidade do sistema de: ler a base de dados de aprendizagem; ser capaz de
treinar a rede Perception Multicamadas (BackPropagation) com um número
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
101
variável de neurônios na camada escondida; permitir a variação das principais
características de treinamento deste algoritmo; testar a saída da rede treinada
contra uma base de dados de testes e obter uma análise dos resultados obtidos,
verificando a evolução da taxa de erro quadrática (no arquivo de treinamento) e a
taxa de erro (no arquivo de teste) com base na alteração heurística dos
parâmetros de treinamento. Toda a codificação do algoritmo e tradução das
fórmulas para o ambiente de computação numérica foram realizadas com base
em pesquisas bibliográficas. O algoritmo Perception Multicamadas, possui alguns
parâmetros que são definidos de forma heurística, ou seja, não existe uma forma
exata para a definição de seus valores, no que decorre a necessidade de diversos
ajustes nesses parâmetros. A cada novo ajuste, se faz necessário um novo
treinamento da rede neural e consequentemente uma nova análise dos seus
resultados. Com base nesses resultados é possível definir os parâmetros que
resultaram em uma maior taxa de acerto no reconhecimento dos padrões
desejados e por fim definir a rede neural satisfatória. Os principais parâmetros
variáveis desse algoritmo são: quantidade de camadas escondidas; quantidade
de neurônios em cada uma dessas camadas; o número de épocas e o passo. De
acordo com Hayken S. em Neural Networks a Comprehensive Foundations, a
quantidade de camadas escondidas não incrementa a capacidade de
generalização da rede neural que compense a quantidade extra de cálculos
executados e por consequente o maior tempo para o treinamento da rede, fato
este que determinou a limitação da variação da quantidade de camadas
escondidas para somente uma, ou seja, este parâmetro não será um elemento
variável, mas para garantir a propriedade de generalização, o parâmetro a ser
variado é a quantidade de neurônios nesta única camada escondida. No processo
de aprendizado outro fator importante para o processo de treinamento é a
quantidade de vezes que é apresentado o conjunto de exemplos para a
convergência da rede neural, definido como a quantidade de épocas. Outro fator
importante é a taxa de aprendizagem que é a definição de quão grande serão os
ajustes nos neurônios, sendo esta variável rotulada como passo. Nos testes,
aproximadamente 145, variando a quantidade de neurônios na camada
escondida, o passo e a quantidade de épocas, a menor taxa de erro encontrada,
foi de 4,97% obtido com a configuração dos seguintes parâmetros: 200 neurônios
na camada oculta, 0,001 passo de atualização dos pesos e 2000 apresentações
dos exemplos, épocas. Foi possível certificar que acima de 200 neurônios na
camada escondida, o índice do erro quadrático é inferior a 500, nota-se, também,
que com menos de 18 neurônios o índice de erro é sempre superior a 10% e a
partir de 150 neurônios o índice de erro é inferior a 10% na maioria dos testes.
Este trabalho nos permitiu um profundo conhecimento do algoritmo
Backpropagation Perception Multicamadas o entendimento das relações das
variáveis heurísticas aplicadas no treinamento desta rede neural em função das
taxas de erros oferecidas para o reconhecimento dos padrões “Pen-Digits”, além
de se oferecer uma nova abordagem teórica e prática para o ensino deste
algoritmo.
PALAVRAS-CHAVE
Inteligência
artificial,
Redes
Reconhecimento de Padrões.
Neurais,
Backpropagation,
Perception,
Tipo de Trabalho: Pesquisa Científica
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
102
REDES SOCIAIS E CONTROLE POLÍTICO
Ângelo Carlotto - [email protected]
Frederico Scarcelli - [email protected]
Gilberto Valandro - [email protected]
Luís Márcio Resende - [email protected]
Cristiano Maciel – [email protected]
UFMT – Universidade Federal de Mato Grosso – Cuiabá/MT
RESUMO
A partir da compreensão da necessidade de uma ferramenta que integre diversas
informações dispostas na Internet que, provendo confiabilidade, recursos e
facilidades aos usuários, seja capaz de atrair uma maior atenção por parte dos
cidadãos brasileiros para o assunto da política nacional, iniciou-se o projeto de um
sistema que se propõe a atender tal necessidade. Tal sistema trata-se de uma
aplicação para a Web na qual os cidadãos serão capazes de avaliar os políticos
em exercício no Brasil. O mesmo se utiliza de muitos recursos atualmente
conhecidos na Web e visa atingir sua meta informacional: prover informação
política ao eleitor. Dado o grande uso das redes sociais pelos jovens no Brasil, o
sistema é proposto acoplado a uma rede social, neste caso, o Orkut. Assim,
objetiva-se fornecer um sistema informativo político que monitore as ações
realizadas por parlamentares da atual gestão, e de gestões passadas, por meio
de perfis individuais contendo informações relevantes sobre a trajetória política
desses, bem como fornecer ferramentas para a interação entre usuários e o
sistema, como por exemplo, fóruns de discussão e enquetes. Tal sistema pode
ser uma fonte de pesquisa e de interação transparente sobre a vida da política
nacional, possibilitando aos cidadãos a escolha mais sensata do voto em futuras
eleições. A princípio, como metodologia de desenvolvimento do trabalho foi
realizada uma pesquisa de mercado com observação na Web com o intuito de
identificar o conteúdo político disponibilizado na internet e, assim, percebeu-se a
necessidade do desenvolvimento de um sistema web que fornecesse aos
usuários um conteúdo rápido e seguro sobre política e a realidade eleitoral dos
políticos. Em seguida, iniciou-se uma pesquisa de público com a aplicação de um
questionário via web, sendo o público-alvo cidadãos com idade superior a
dezesseis anos e grau de escolaridade e classe social variados. Essas duas
últimas características se devem à forma de divulgação da pesquisa, realizada
por meio de programas de troca de mensagens instantâneas, como o MSN e de
aplicativos presentes em redes sociais, como o Orkut, acabando portanto, por
abranger uma amostra aleatória da população. O questionário limitou-se a quantia
de dez questões de caráter objetivo, qualitativo e quantitativo, abrindo opção para
respostas discursivas em algumas alternativas. Para o projeto do sistema,
utilizou-se a metodologia de engenharia de sistemas para Web. Como no ponto
central da pesquisa estão as redes sociais, elementos como identidade pessoal e
compartilhamento de informações são investigados e discutidos via sistema
proposto. Como resultados obtidos, percebemos que esta pesquisa, em
desenvolvimento, já nos possibilitou a confirmação da necessidade de
implantação do futuro sistema em redes sociais, bem como nos levou a
percepção da necessidade do desenvolvimento de um sistema voltado tanto para
o público jovem quanto para o adulto. Por meio da pesquisa de mercado,
realizada de início, percebeu-se a necessidade da existência de um sistema com
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
103
o conteúdo voltado exclusivamente para a política, com notícias de confiança e
não tendenciosas, o que envolve tanto notícias atuais, quanto notícias de fatos
antigos extremamente relevantes, porém de difícil localização. Com a pesquisa de
público percebeu-se que os brasileiros com idade acima dos trinta anos são os
que mais se interessam por política, embora quem mais procure por informações
neste sentido são os jovens entre dezesseis e trinta anos, que se encontram em
pleno desenvolvimento de um lado critico, político e social, fato que está
inteiramente ligado ao maior contato deste público com as tecnologias da
informação e da comunicação (TIC). Notou-se também que existe interesse por
parte da população em um sistema que facilite a obtenção de informação acerca
deste assunto, desde que se possa confiar no mesmo. O brasileiro em geral
possui um nível mediano de interesse por política e embora tenha uma grande
dificuldade em encontrar informações de confiança e não tendenciosas a respeito,
busca, com um relevante dispêndio de tempo, se manter informado. Por isso, a
proposta da criação de uma rede social com o foco voltado exclusivamente à
política poderia ter uma grande aceitação da população, desde que seja provado
que o sistema é seguro e que as informações providas pelo mesmo são de
confiança e atualizadas. Com base nos resultados preliminares da pesquisa e nos
pressupostos teóricos da área de engenharia Web, uma aplicação para redes
sociais foi projetada e implementada, com vistas ao funcionamento de forma
integrada ao Orkut. Visando manter a confiabilidade do sistema frente aos
usuários, os mesmos se avaliarão por meio de “estrelas de reputação”, sendo que
cada usuário poderá avaliar qualquer outro, apenas uma vez, a partir da
atribuição de estrelas. Cinco estrelas é a pontuação máxima e zero estrela é a
pontuação mínima. Este método permitirá que a própria comunidade determine ou
não a confiabilidade de um usuário, observando que quanto menor é a reputação
de determinado usuário, menor será a atenção dada as suas informações
postadas no sistema, evitando assim, a proliferação de notícias inverídicas e
caluniosas. Este método de controle de reputação também proporciona uma autosuficiência à aplicação tendo em vista que o usuário é o único ator necessário
para a continuidade do sistema. O desenvolvimento da ferramenta será realizado
de maneira mais objetiva possível visando oferecer o máximo de interação entre
usuário e sistema, proporcionando uma navegabilidade simples e variada bem
como a utilização de imagens que recorram a uma familiarização dos usuários.
Na página principal, e inicial, estará disposto um mapa do Brasil podendo-se a
partir daí realizar a filtragem e busca de informações de políticos relacionados ao
respectivo estado. Por fim, ressalta-se que, atendidas as exigências dos possíveis
usuários, o uso das redes sociais voltadas à política facilitaria à população se
manter informada, ajudando ainda a estimular o interesse pela política no país.
PALAVRAS-CHAVE
Política, rede social, identidade, governo eletrônico, informações de políticos
Tipo de Trabalho: Trabalho de disciplina de graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
104
SHEEPBOT – UM MOTOR DE BUSCA E FORMADOR DE
ONTOLOGIAS POLÍTICAS
Suliane de Oliveira Carneiro – [email protected]
Custódio Gastão da Silva Júnior – [email protected]
IFMT - Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso – Cuiabá / MT
RESUMO
Em ano eleitoral, o que não falta são informações sobre a vida dos políticos. A
sociedade busca cada vez mais recursos que facilite a garantia de confiabilidade
dessas informações. Em meio a vários domínios sobre o assunto, é de praxe,
conhecer a “ficha” dos políticos, identificar os tipos de crimes que eles já
cometeram e os cargos que os mesmos já ocuparam. Contudo, com o grande
volume de informações disponibilizados na Web fica difícil agrupar todos os dados
sobre um assunto em um único domínio. A proposta desse estudo é elaborar uma
ontologia com domínio focado na política a partir de um conjunto de termos
ordenados hierarquicamente, baseados no diagrama de classes (Anexo-Figura 1).
A Figura 1 é composta por diagramas de classes que contem as principais
informações da estrutura da ontologia. Este modelo conceitual captura e define os
tipos de combinações seguindo um ciclo de eventos baseados em um motor de
busca, o SheepBOT, um ROBOT que enxergará a web como um grande banco de
dados com informações não estruturadas e faça consultas que recuperem os
dados da vida política dos candidatos, armazenando algumas informações que
serão utilizadas como chaves para encontrar conceitos relacionados aos termos
pesquisado (Anexo-Figura 2). Para fundamentar esse domínio e construir tal
ontologia, a proposta do desenvolvimento desta pesquisa passa sobre um
processo de embasamento teórico, da utilização de uma linguagem que faz
consultas nas bases de dados disponíveis na web, o SPARQL (SPARQL Protocol
and RDF Query Language), e, o desenvolvimento de um motor de busca, o
SheepBOT, que faz a indexação dessas informações consultadas e as armazena
em outra base de dados, a partir da ontologia criada. Para que essas informações
tenham garantia de serem recentes, precisa-se de uma base de dados, com
informações gerais, devidamente agrupadas e com alta chance de estar
atualizada, e a principio temos a Wikipedia. Ela fornece uma base de
conhecimentos como um banco de dados disponível na Web, o DBpedia. O
DBpedia já possui uma estrutura para que sejam feitas consultas com a
linguagem SPARQL. Imagine que o usuário faça a busca: “Todos os Políticos do
Brasil”, a intenção é que, o SheepBOT se conecte a base de dados, o DBpedia,
faça a consulta e recupere as informações de forma que as classifique em sujeito
- predicado – objeto. Essa classificação é feita através de um protocolo, que
reconhece arquivos em formato RDF (Resource Description Framework), um
modelo utilizado para descrever dados na Web Semântica, estruturando as
informações em forma de triplas. Todas as informações formadas por uma tripla
são identificadas por uma URI (Uniform Resource Identifier) que reconhece ou
denomina um recurso na Web. O usuário pode combinar os dados dos arquivos
RDF, provenientes de diversas fontes e/ou base de dados disponibilizados na
web. Na prática pode-se representar a consulta “Todos os Políticos do Brasil” da
seguinte forma:
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
105
SELECT ?property ?isValueOf
WHERE
{ ?isValueOf ?property
<http://dbpedia.org/class/yago/BrazilianPoliticians> }
Quadro 1 - Consulta: Todos os Políticos do Brasil
O Yago11 é composto por entidades e relações, e que atualmente contém mais de
1,7 milhões entidades e 15 milhões de fatos. Possui ainda, inúmeras coleções
sobre esses diversos fatos. Esta classe representa os Políticos Brasileiros que
estão dentro das entidades do Yago. Tem-se uma cláusula de seleção SPARQL, o
SELECT, os atributos ?isValueOf e as propriedades dessa classe ?property. Nesta
consulta o resultado apresentado, retorna uma lista de tudo que se tem nessa
classe, ou seja, todos os políticos do Brasil. O conceito de web semântica tem
ganhado grande aceitação na medida em que novos aplicativos de software têm
sido desenvolvidos, não somente em ambiente de pesquisa acadêmica, mas
também junto ao governo e à iniciativa privada (BREITMAN, 2005). As tecnologias
da web semântica fazem com que a integração de novas fontes de dados se
transforme em novas bases de dados e por conseqüente, novas ontologias. O
SPARQL permite essa junção de tecnologias e integração das bases de dados a
partir de buscas semânticas, facilite a obtenção de dados estruturados e semiestruturados, permitindo explorar dados e descobrir novos tipos de
relacionamentos e ainda, reunir diferentes aplicações e formar uma nova, como a
proposta desse objeto de estudo.
Figura 1 – Estrutura de Classes da Ontologia Política
11
http://dbpedia.org/class/yago/BrazilianPoliticians é uma classe do Yago.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
106
Figura 2 - Ciclo de eventos do motor de busca - SheepBOT
PALAVRAS-CHAVE
RDF, SPARQL, DBpedia, Recuperação da Informação, Ontologia, Política.
Tipo de Trabalho Trabalho de Pós-Graduação Lato Sensu
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
107
SIMILARIDADE CONCEITUAL ENTRE DOCUMENTOS DE
REQUISITOS USANDO O MODELO VETORIAL DE
RECUPERAÇÃO DE INFORMAÇÃO
Adriana Cássia da Costa¹ - [email protected]
Custódio Gastão da Silva Júnior² - [email protected]
¹UFMT – Universidade Federal de Mato Grosso, Cuiabá/ MT
²IFMT – Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso, Cuiabá/ MT
RESUMO
A similaridade conceitual em projetos de desenvolvimento de software visa a
melhoria da especificação de requisitos, auxiliando na redução de erros relativos
a ambiguidade de conceitos. Este estudo apresenta o modelo vetorial de
recuperação de informação na busca por termos relevantes que consigam indicar
a similaridade entre documentos de especificação de requisitos. Foi realizado um
estudo de caso para analisar o comportamento deste modelo, os testes
retornaram documentos com considerável similaridade conceitual. A amostra
utilizada nos testes é um domínio de um sistema acadêmico e os resultados
apontam que o método TF-IDF (Term Frequency- Inverse Document Frequency)
juntamente com a seleção linguística de substantivos e verbos melhora
substancialmente o processo de busca por similaridade conceitual entre
documentos.
O Processamento de Linguagem Natural - PLN evoluiu consideravelmente na
recuperação de informação e na engenharia de software. As contribuições de
[Sayão (2007)] e [Carvalho et al (2007)], estudam a aplicação de PLN na
verificação e validação de requisitos buscando melhorar a qualidade da análise de
requisitos. Atualmente é comum desenvolver softwares em equipes
geograficamente distribuídas, nestes casos, a verificação e validação de
requisitos são de alta complexidade, podendo envolver o tratamento de até
milhares de requisitos [Sayão(2007)]
Técnicas de PLN aplicadas a documentos de requisitos e outros artefatos apóiam
a validação e verificação destes. A similaridade entre documentos extrai conceitos
importantes, possibilitando a verificação de regras de negócios duplicadas e a
manutenção de padrões de especificação de requisitos [Sayão(2007)].
Este estudo apresenta as características do método vetorial de recuperação de
informação pelo método TFIDF e a sua utilização na engenharia de software,
especificamente na fase de construção dos documentos de especificação de
requisitos. O foco deste trabalho está na busca por similaridade conceitual entre
esses documentos, acrescentando na metodologia a seleção linguística para
auxiliar no processamento dos documentos.
O modelo vetorial atribui pesos aos termos e utiliza isso como medida de
relevância entre os termos do domínio. Os documentos são representados em
uma matriz de termos, onde os documentos e cada termo contido neles é
colocado em linhas e colunas. A medida IDF (Inverse Document Frequency)
verifica a freqüência de ocorrência do termo em relação a todos os documentos
do domínio, essa medida reduz os casos de falsos positivos, caracterizado
quando termos menos relevantes são apontados como representativos do
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
108
domínio. O TF (Term Frequency) determina a freqüência simples do termo no
documento é também é chamado de peso local, pois resultará no valor do peso
para o termo em somente um documento. A junção desses métodos minimiza os
pesos dos termos muito freqüentes que geralmente não são representativos
semanticamente, nessa categoria estão: às conjunções, artigos e pronomes
[Sayão (2007)]. Após a aplicação do método TFIDF, os resultados podem atingir
valores infinitos e é indicado normalizá-los, restringindo os valores a determinada
faixa. Neste estudo foi utilizada a medida do cosseno da similaridade, restringindo
os resultados entre 0 e 1. Os pares de documentos com taxa de similaridade
próxima a 1 são muito similares, enquanto as taxas próximas a 0 são pouco
similares.
A seleção lingüística foi composta pelos verbos e substantivos do fluxo básico e
das regras de negócio de 28 documentos de especificação de requisitos divididos
em dois conjuntos. O primeiro com 6 documentos com verbos e 6 substantivos do
fluxo básico, no segundo com 8 documentos de verbos e 8 de substantivos das
regras de negócio. Os documentos foram comparados ao pares entre si e a taxa
de similaridade representa sempre o resultado da comparação entre os termos
comum em pares de documentos.
Foi utilizado na contagem de freqüência simples o contador Lácio Web e
considerados os termos com pelo menos uma ocorrência para alcançar o maior
número de termos relevantes. No conjunto dos verbos do fluxo básico, as taxas
de similaridade acima de 0,2 expressavam documentos com maior similaridade.
Nos substantivos do fluxo básico a maioria dos documentos apresentou taxas de
similaridade abaixo de 0,1. Neste caso, houve maior quantidade de termos em
relação ao conjunto dos verbos, isso pode ter influenciado para apontar
similaridade entre documentos com taxas menores. No conjunto dos verbos e
substantivos das regras de negócio, as taxas com boa similaridade foram os
valores acima de 0,048 para os verbos e 0,188 para os substantivos.
A busca por soluções para recuperar informações relevantes estimula estudos de
métodos como o TFIDF, que em conjunto com a seleção linguística mostrou-se
um recurso interessante na busca por similaridade entre documentos. Os
resultados apontam para a viabilização desta técnica na engenharia de software
para a descoberta de requisitos duplicados e a padronização da especificação .
Diversos estudos propõem o desenvolvimento de ferramentas a partir de técnicas
línguísticas, estatísticas e híbridas, como o exatolp e NPS [Vieira el al (2009)].
Entretanto, os melhores resultados apontam para a utilização de abordagens
híbridas, tendo no tratamento linguístico um diferencial para alcançar resultados
consistentes. Na engenharia de software, técnicas de PLN são aplicadas
principalmente na automação dos processos como na elicitação de requisitos
como [Silva e Martins], que propõe a utilização de mecanismos automáticos na
geração de diagramas de classes.
Este trabalho mostrou um modelo reconhecidamente importante, com o
diferencial de incluir informações linguísticas no processamento. Ressaltamos que
essa junção proporcionou o processamento adequado para buscar similaridade
conceitual. Como trabalho futuro, pretende-se utilizar o método híbrido C/Value e
NC/Value em conjunto com o processo de stemming (redução do termo a parte
fundamental/ radical) e realizar uma comparação com o TFIDF para consolidar os
resultados experimentais.
PALAVRAS-CHAVE:
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
109
Similaridade, TFIDF, documentos de requisitos, modelo vetorial
Tipo de Trabalho: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
110
UM ESTUDO COMPARATIVO DAS TÉCNICAS DE ELICITAÇÃO DE
REQUISITOS: AMENIZANDO PROBLEMAS NO LEVANTAMENTO
DOS REQUISITOS
Luã Marcelo Muriana - [email protected]
Cristiano Maciel – [email protected]
UFMT – Universidade Federal de Mato Grosso – Instituto de Computação - Cuiabá/MT
RESUMO
A elicitação de requisitos na fase de análise de um sistema consiste no processo
de se obter as principais características requeridas para um produto de software e
para os usuários de um sistema, face às necessidades levantadas para os
clientes. Assim, compreender o que os usuários finais de um sistema desejam
não é uma tarefa trivial. Há vários problemas que os engenheiros de requisitos e
os clientes encontram durante essa fase que é tida como de extrema importância
para o sucesso de um software. Esse processo apresenta falhas e precisa ser
bem desenvolvido. Segundo autores da área, os problemas se subdividem em
cinco categorias: problemas na comunicação e relacionamento interpessoal, de
entendimento, na metodologia, no processo e na organização; sendo de natureza
social e técnica. Diversos estudos tem sido realizados a fim de comparar as
técnicas de elicitação de requisitos, todavia carecem de uma análise, que além de
considerar o contexto do sistema a ser desenvolvido, também analise como a
escolha por determinada técnica pode ajudar a amenizar os problemas citados.
Esse trabalho tem por finalidade comparar as diversas técnicas utilizadas
atualmente, com vistas a facilitar a escolha da(s) técnica(s) de acordo com as
características do processo. O levantamento bibliográfico foi realizado por meio
de uma busca em referenciais da área a fim de identificar as principais técnicas
utilizadas e os desafios encontrados na fase de elicitação de requisitos de um
sistema. Segundo autores pesquisados, um conjunto de técnicas de elicitação de
requisitos pode ser aplicado com o intuito de se definir os requisitos de um
sistema, porém, a seleção dessas técnicas deve levar em consideração as
características do sistema e das pessoas envolvidas com a aplicação a ser
desenvolvida. Alguns estudos comparam algumas das técnicas de elicitação de
requisitos, porém, esse estudo faz uma ligação entre essas técnicas e os
problemas que podem ocorrer nessa atividade. Essa ligação tem por objetivo
amenizar os problemas que possam vir a surgir nesse processo de
desenvolvimento software, levando em consideração o contexto no qual o
software será desenvolvido. Como resultado prévio do estudo, uma tabela
comparativa entre as técnicas de elicitação de requisitos, baseando-se em
referenciais bibliográficos, foi desenvolvida. Como técnicas analisadas há:
entrevistas, questionários, leitura de documentos, cenários, brainstorming e JAD.
As técnicas de elicitação de requisitos apresentam vantagens e desvantagens,
assim, a comparação entre as técnicas deve levar em consideração fatores como,
por exemplo, a participação dos indivíduos no processo de elicitação, a
colaboração entre os envolvidos na aplicação da técnica, o tempo de execução, o
custo do uso da ferramenta, se há conflitos entre os participantes e a possível
qualidade dos requisitos levantados. Um dos problemas encontrados nessa
atividade são os problemas de comunicação e relacionamentos interpessoais,
assim, com o uso dessa tabela pode se perceber que algumas técnicas, como,
por exemplo, Questionário e Leitura de Documentos, não oferecem conflitos entre
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
111
os usuários, como o JAD e o Brainstorming. Portanto, a importância de um
instrumento que sumarize características de diversas técnicas, como a elaborada
neste estudo, não reside no fato de tentar-se definir que técnica é melhor que
outra, e sim pelo poder de consulta nesta fonte das características para dado
contexto da aplicação. Como trabalho futuro, um foco maior será dado aos
sistemas web, os quais, além dos requisitos funcionais e não funcionais, exigem
que seja levantado, entre outros, os requisitos de conteúdo e a classe de usuários
que utilizará o sistema. Neste tipo de sistemas, a comunicação com os clientes e
com os usuários finais é feita por meio de alguns mecanismos diferenciados:
grupo focal tradicional, grupo focal eletrônico, levantamentos iterativos e
exploratórios e a construção de cenários. Tais técnicas de elicitação serão
acrescidas ao estudo em desenvolvimento e suas características melhor
investigadas.
PALAVRAS-CHAVE:
técnicas de elicitação de requisitos, engenharia de software.
Tipo de Trabalho: Trabalho de graduação.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
112
UM ESTUDO DAS ARQUITETURAS DE ARMAZENAMENTO DE
DADOS VOLTADOS À WEB
Talita Finger – [email protected]
Cristiano Maciel – [email protected]
UFMT – Universidade Federal de Mato Grosso – Instituto de Computação - Cuiabá / MT
RESUMO
Os sistemas de armazenamento de dados se tornaram essenciais na sociedade
nos dias de hoje. Muitas empresas já informatizaram seu serviço; uma grande
parcela da população tem aderido à rede como consumidor, vendedor ou até
mesmo transmitindo apenas comentários, ideias, críticas, informações pessoais,
entre outros. Toda a informação que trafega pela rede é armazenada em algum
lugar, seja ela em um sistema de arquivos, em um sistema gerenciador de banco
de dados, ou apenas na memória volátil de um computador. Com o crescimento
da Internet muitos problemas surgiram devido à demanda de usuários. Algo muito
vivenciado em Web Sites como de Redes Sociais, aonde a falta de
disponibilidade e escalabilidade devido à grande quantidade de usuários
utilizando os serviços tornam-se comum. O objetivo dessa pesquisa é relatar as
soluções encontradas pelas Redes Sociais (Twitter, Facebook, MySpace) para
resolver esses problemas, comparando o método de cada uma devido à sua
necessidade. A motivação para a realização de tal estudo foi a necessidade
presente de tratar problemas que até então são difíceis de prever, como é o caso
do Twitter que ficou fora do ar, logo após a derrota do Brasil na Copa do Mundo,
devido ao excesso de trafego. Um dos grandes desafios dos engenheiros do
Facebook, por exemplo, tem sido em manter o site no ar e funcionando
perfeitamente, muitas das abordagens tradicionais para servir o conteúdo web
quebram ou simplesmente não são práticas. Serviços como os fornecidos na
Web, em que é possível acessar até por aparelhos telefônicos, devem estar
sempre um passo a frente, suportando novos usuários e garantindo assim seu
desempenho. O levantamento de dados ocorreu por meio de pesquisas
bibliográficas em livros, revistas, artigos e na Internet, com o objetivo de alçar as
estratégias utilizadas por cada serviço de Rede Social. Esses dados
possibilitaram reconhecer quais são os problemas mais comuns encontrados
nesses ambientes, como eles os têm encarado e como eles os têm retratado, a
fim de manter a confiabilidade com seus usuários. Muitas das abordagens
adquiridas são comuns a mais de um Web Site garantindo a eficiência de seu uso
ou a inexistência de alternativa. Como é o caso do Memcached que tem como
objetivo acelerar processos de aplicativos, na qual utiliza a RAM sobressalente de
muitos servidores para guardar informações acessadas com frequencia;
ferramenta esta utilizada no Facebook e Twitter. Todo esse estudo se mostra
importante para a Internet brasileira, pois situações como as enfrentadas pelo
Facebook, Twitter e MySpace, podem se tornar cada vez mais comuns devido à
tendência de crescimento do número de internautas em âmbito nacional. Aumento
este evidenciado na pesquisa divulgada em 2009 pelo IBGE, na qual o percentual
de brasileiros internautas aumentou 75.3% de 2005 para 2008. O que tornará,
provavelmente, o funcionamento dos sites inadequado por falta de escalabilidade
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
113
e disponibilidade naqueles que não se mantiverem atentos a esse tipo de
demanda.
PALAVRAS-CHAVE
Banco de Dados, Web, Redes Sociais.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
114
UM LEVANTAMENTO SOBRE SOFTWARES NO APRENDIZADO
DE CRIANÇAS COM DEFICIENCIA NAS ESCOLAS PÚBLICAS DE
RONDONÓPOLIS/MT
1
Arthur de Lima Lira - [email protected]
1
Ma. Jacirene Lima Pires (orientadora) - [email protected]
1-UFMT- Universidade Federal do Mato Grosso – Rondonópolis - MT
RESUMO
Geralmente em uma escola convencional o ensino dedicado aos alunos é muito
bem definido, com aulas previamente preparadas de maneira uniforme a todos,
mesmo assim é comum que alguns assimilem a matéria com mais facilidades que
outros. Alunos que geralmente não assimilam tão facilmente a matéria são
classificados como alunos com dificuldades de aprendizagem ou até mesmo
“alunos com necessidades especiais”. Percebido a necessidade de um
acompanhamento cabe aos responsáveis decidir o que fazer em relação a esse
novo impasse, alguns ignoram e fingem não estarem vendo, outros encaminham
os mesmos para um acompanhamento profissional, é nessa etapa que se
constatada a necessidade a criança é então encaminhada para uma instituição de
ensino que suporte atender as suas necessidades educacionais com
acompanhamento de pedagogos, psicólogos, fisioterapeutas e professores,
dentre outros. A proposta da pesquisa surgiu da necessidade de atender a um
público que tem sido deixado em segundo plano nas discussões sobre educação,
a pesquisa em questão busca ainda dar suporte à inserção de meios interativos
nas salas de aula convencionais e laboratórios de informática, sendo em especial
explanada a aplicação do software educacional, ferramenta que existe e que é de
fato objeto de aprendizagem. O levantamento realizar-se-á diretamente nas
escolas públicas da cidade de Rondonópolis/MT, através de questionários
fechados, e a analise dos dados se dará pelo método qualitativo. Cada
questionário contém indagações sobre a quantidade de máquinas disponíveis nas
escolas, quanto a existência ou não de projetos que envolvam utilização de
softwares nas escolas, sobre a existência ou não da aplicação de softwares na
educação e a educação especial atualmente, e na existência desta, conhecer se o
nível de utilização atinge total ou parcialmente os alunos no ambiente
educacional. Concluído a aplicação destes questionários pretende-se confrontar
os dados com os resultados de pesquisas teóricas, tabular e gerar gráficos para
apresentação e avaliação da comunidade. Espera-se com a conclusão desse
trabalho fornecer informações suficientes para que seja possível aos professores
da rede pública de ensino receber das escolas e aplicar em seus laboratórios os
conteúdos adequados auxiliado por softwares que tenham relevância na vida do
aluno que tenha deficiência, pois, mesmo que a quantidade de software seja
limitada ou às vezes inacessível a região ou ao aparato técnico, os gráficos
obtidos deverão abrir uma nova visão de mercado de softwares o que se espera
que eleve a gama de softwares educacionais disponível. Contudo, espera-se
auxiliar no desenvolvimento de novas propostas para a implantação de softwares
no meio escolar da cidade de Rondonópolis/MT, dando ênfase à educação
especial. Os dados serão disponibilizados à Secretaria de Educação localizada
nesta mesma cidade, a pesquisa terá inicio na data 22/10/210 e fim previsto para
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
115
o final do ano letivo 22/11/210, para que os dados sejam analisados nas
propostas pedagógicas do ano de 2011.
PALAVRAS-CHAVE: Educação Especial, Aplicação de Softwares, Escola
Pública.
TIPO DE TRABALHO: Trabalho de Conclusão de curso
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
116
UM MODELO DE SISTEMA AUTOMATIZADO DE CLASSIFICAÇÃO
DE ABELHAS BASEADO EM RECONHECIMENTO DE PADRÕES
1
Jésus Franco Bueno – [email protected]
2
Bruna Elisa Zanchetta Buani – [email protected]
2
Antonio Mauro Saraiva – [email protected]
2
André Riyuiti Hirakawa – [email protected]
2
Tiago Maurício Francoy – [email protected]
2
Vera Lúcia Imperatriz-Fonseca – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso – Cuiabá/MT
2 – USP - Universidade de São Paulo – São Paulo/SP
RESUMO
A crescente perda mundial de biodiversidade tem sido uma das preocupações da
comunidade científica internacional que motivaram a criação em 1992 da
Convenção sobre a Diversidade Biológica, tornando-se um tratado de
compromisso aceito pelos governantes de 187 países e pela Comunidade
Européia. A redução da biodiversidade, devido a vários fatores, como a ação
antrópica e o aquecimento global, compromete a capacidade do planeta de
sustentação da vida humana em face do esgotamento dos recursos e serviços por
ela prestados. A conservação e uso sustentável da biodiversidade passa
necessariamente pela aquilatação e conhecimento das espécies. Entre essas
espécies as abelhas polinizadoras têm merecido especial atenção, pois a
polinização das plantas é um serviço de ecossistema muito importante. Estima-se
que as abelhas sejam responsáveis por mais de 70% do serviço global de
polinização. Existem quase 20.000 espécies de abelhas descritas no mundo. No
Brasil são conhecidas quase 400 espécies de abelhas (cerca de 300 são abelhas
sem ferrão). No entanto, este enorme esforço taxonômico a ser realizado pode
estar comprometido pelo impedimento taxonômico reconhecido na Declaração de
Darwin de 1988 pela ONU. Uma contribuição para minimizar o impedimento
taxonômico pode ser dada pelo desenvolvimento de sistemas automatizados de
apoio à decisão de classificação.
A disponibilidade de dados sobre a Biodiversidade é uma importante ferramenta
para a tomada de decisões em diferentes esferas de atuação humana: política,
econômica, acadêmica, para citar algumas. As ferramentas disponíveis
apresentam limitações em suas implementações em software, e muito embora
poderosas conceitualmente têm nicho específico de aplicação. Este é o caso do
ABIS - Automatic Bee Identification System que é um sistema de identificação
automática para as abelhas, que usa algumas células da venação das asas para
extração de dados de identificação da abelha. Entretanto, como as abelhas sem
ferrão apresentam redução da venação das asas anteriores, o uso do ABIS fica
impossibilitado. Mas a classificação deste grupo de abelhas é prioritária, pois são
abelhas de extrema importância ecológica e econômica. O objetivo deste trabalho
é a modelagem de um sistema automatizado de apoio a classificação taxonômica
de abelhas sem ferrão baseado em reconhecimento de padrões e a
implementação de um protótipo para prova de conceito.
Este trabalho apresenta um modelo para um sistema automatizado de
classificação de abelhas sem ferrão com uma abordagem baseada em
reconhecimento de padrões usando as imagens das asas de abelhas para
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
117
extração das características empregadas na classificação. Para identificação de
abelhas, os pesquisadores utilizam as imagens das asas de abelhas, pois sua
morfologia está correlacionada à variabilidade genética. Os marcos anatômicos
são pontos bem definidos na anatomia que podem ser reconhecidos em todos os
espécimes. Um marco é um ponto de importância biológica em cada indivíduo
que encontra correspondência em outros indivíduos semelhantes e dentro de
suas populações. Os marcos anatômicos são usados para extração de atributos
de classificação de abelhas. Um sistema integrado constitui uma demanda dos
pesquisadores do Laboratório de Abelhas – APILAB, do Departamento de
Genética da Faculdade de Medicina da USP – Ribeirão Preto. O sistema
denominado ABeeS (Automated Bee Classification System) incorpora o
conhecimento especializado para o reconhecimento automatizado de abelhas
usando a imagem das asas. Partindo de um framework de construção de
software, o ABeeS foi modelado em uma arquitetura modular formada por 6
subsistemas: aquisição da imagem digital, processamento da imagem digital,
extração das características da imagem, identificação dos espécimes e atribuição
da classificação taxonômica da espécie e interface integradora do usuário. A
técnica de prototipação foi usada para verificação de requisitos de usuários e de
sistema. Os protótipos foram criados no LabVIEW, um ambiente de programação
gráfica, que disponibiliza uma plataforma de visão computacional para aplicações
de reconhecimento de padrões usando o método de correspondência de padrões
(pattern matching) que envolve duas fases: uma fase de aprendizado na qual a
imagem-gabarito é processada e uma fase de comparação com a imagem sob
análise. Este processo de software ágil tem por objetivo acelerar a resposta do
usuário (feedback) que realiza uma bateria de testes a cada protótipo.
Os resultados de extração automática dos marcos anatômicos mostram que a
capacidade do ABeeS em localizar automaticamente a imagem-gabarito
(template) do marco anatômico na imagem da asa em análise depende do
conhecimento especializado transferido para o sistema. O ajuste dos parâmetros
de treinamento e a qualidade da imagem da asa de abelha são determinantes
para extração das características corretas. O conjunto de características extraídas
das imagens e dos gabaritos de espécimes-tipo são aplicados a algoritmos de
classificação supervisionados, como o FNN4Bees desenvolvido no Laboratório de
Automação Agrícola da POLI-USP. Os resultados são comparados com os
métodos tradicionais para verificação da eficiência do processo de classificação.
Os resultados obtidos são satisfatórios e em alguns casos chegam a 95% de
acerto para algumas espécies. Os resultados estão sendo armazenados no
Banco Entomológicos de Espécies de Abelhas – BEE - para treinamento e
otimização do sistema ABeeS.
A automação das atividades de classificação taxonômica de seres biológicos é
uma aspiração de longa data dos taxônomos e sistematas. A construção de
sistemas baseados em computador para automatizar o processo de classificação
deve ser fundamentada em padrões usados pelos especialistas para obter a
identificação de espécimes. Com essa abordagem os sistemas podem contribuir
para a descoberta de novos e (potencialmente) mais confiáveis caracteres
taxonômicos. No entanto, essa automatização não elimina a participação do
especialista, muito pelo contrário, cria a necessidade de definir uma forma
padronizada para todo o processo, no qual o envolvimento do pesquisador é
essencial em todas as atividades.
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
118
PALAVRAS-CHAVE
Classificação Automatizada de Abelhas. Sistema Automatizado. Modelagem.
Reconhecimento de Padrões.
Tipo de Trabalho: Tese
Agencia financiadora: Fapesp
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
119
UMA ABORDAGEM DE BANCO DE DADOS ORIENTADO A
OBJETOS NO CONTEXTO DE DESENVOLVIMENTO DE
SOFTWARE
1
Arthur Mendes Molina – [email protected]
1
Juliana Saragiotto Silva – [email protected]
1 – IFMT – Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso - Cuiabá /
MT
RESUMO
A tecnologia de Banco de Dados (BD) proporciona o armazenamento, a
disponibilização e o controle de dados abstraídos do mundo real (KORTH, 1999).
Dentre as abordagens de BD existentes, pode-se mencionar o Banco de Dados
Relacional (BDR) e o Banco de Dados Orientado a Objetos (BDOO) – cada qual
com estruturas e formas de acesso específicas. Segundo Navathe (2005), os
primeiros BDRs experimentais desenvolveram-se no final dos anos 70, com o
objetivo de separar o armazenamento físico dos dados de sua representação
conceitual. Já os BDOOs começaram a surgir por volta da década de 80. De
acordo com Galante (2009), dentre os fatores que impulsionam o uso dos
BDOOs, está a necessidade de se obter tipos de dados mais complexos e de
difícil representação no modelo relacional. Assim sendo, este trabalho tem por
objetivo, num primeiro momento, apresentar uma visão geral do BDR e do BDOO
– com um olhar particular para a modelagem de dados e as linguagens de
consulta. Na seqüência, apresentar uma aplicação de persistência de dados,
utilizando o DB4O (um framework de código aberto, que utiliza a abordagem de
BDOO). Um dos motivos que levaram a escolha deste BD, como objeto de
estudo, foi o fato do DB4O integrar-se facilmente a uma aplicação Orientada a
Objetos (não havendo necessidade de configuração nem instalação),
apresentando compatibilidade com a linguagem comercial Java e a plataforma
.Net. Para tanto, a metodologia utilizada para o desenvolvimento deste trabalho
compreendeu quatro momentos: (i) uma pesquisa bibliográfica acerca da
tecnologia de BD – por meio de consultas a periódicos digitais e acervos
existentes na cidade de Cuiabá; (ii) um estudo comparativo entre o BDR e o
BDOO – em termos de modelagem de dados (confrontando os elementos
presentes na diagramação de cada abordagem escolhida) e de linguagem de
consulta (apresentando como, uma mesma consulta, pode ser construída a partir
da sintaxe padrão de cada abordagem) ; (iii) uma pesquisa de campo com
acadêmicos da área de Tecnologia da Informação, do Campus Cuiabá, do
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso – na
perspectiva de se verificar o nível de conhecimento acerca da tecnologia de
BDOO, no contexto de desenvolvimento de software; e (iv) o desenvolvimento de
uma aplicação, para o monitoramento de contas pessoais – utilizando-se, na
implementação, os recursos herança e polimorfismo da Orientação a Objetos (os
quais permitiram a reutilização de códigos já existentes) e, na persistência de
dados, o framework DB4O. Vale mencionar, também, que como material de
apoio, para o desenvolvimento da aplicação, utilizou-se o software NetBeans 6.5
e a linguagem de programação Java. Dentre os resultados obtidos, merecem
menção os seguintes: (i) um maior esclarecimento acerca das principais
diferenças entre os modelos de BDRs e BDOOs, em termos de modelagem e
linguagem de consulta a dados; (ii) a constatação de que 90% dos acadêmicos
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
120
entrevistados não conhecem um BDOO, embora demonstrem interesse em
estudos dessa natureza; e (iii) a experiência prática da utilização de um BDOO,
por meio do desenvolvimento de uma aplicação desktop – fato, este, ainda pouco
explorado na literatura. Sabe-se que este trabalho é apenas um passo na
tentativa de se demonstrar a implementação de um BDOO em uma situação do
mundo real, e que outras experiências necessitam ser realizadas, para que se
possa testar, por exemplo, questões relacionadas ao desempenho do BD. Como
perspectiva futura, espera-se que, a partir deste trabalho, a comunidade
acadêmica e os profissionais que já atuam no mercado de software possam se
motivar a realizar estudos dessa natureza.
PALAVRAS-CHAVE
Banco de Dados Orientado a Objetos, DB4O, Desenvolvimento de Software,
Software Livre
TIPO DE TRABALHO: Trabalho de Conclusão de Curso em andamento (Graduação em
Tecnologia em Sistemas para Internet)
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
121
UMA ABORDAGEM PARA REUTILIZAÇÃO DE MODELOS DE
NEGÓCIOS EM LINHAS DE PRODUTO DE SOFTWARE
1
Edie Correia Santana – [email protected]
1
Marcelo Augusto Santos Turine – [email protected]
2
Cristiano Maciel – [email protected]
1 – UFMS – Universidade Federal de Mato Grosso do Sul – Campo Grande / MS
2 – UFMT – Universidade Federal de Mato Grosso – Cuiabá / MT
RESUMO
Uma das formas de atingir alta produtividade e qualidade em engenharia de
software é estabelecer reuso de software. Neste contexto, uma abordagem que
pode habilitar reuso na prática é Linha de Produto de Software (LPS) - um
conjunto de sistemas de software que compartilham um conjunto comum e
gerenciado de funcionalidades que satisfazem uma necessidade específica de um
domínio, e que são desenvolvidas a partir de um conjunto de artefatos reusáveis.
A reutilização pode ser aplicada em diversos níveis de abstração, inclusive no
nível de modelos processos de negócios (MPN). Como MPN podem ser
considerados artefatos de software e que um domínio de negócios pode
apresentar variações em suas atividades, é provável que um MPN seja um
importante artefato no desenvolvimento de uma LPS. Um domínio em particular
onde a adoção de LPS pode trazer benefícios é o domínio de aplicações de
participação eletrônica (e-participação). Dessa forma, este trabalho objetiva definir
uma abordagem prática para implementação de modelos de processos de
negócios (MPN) reusáveis em uma LPS para o domínio de aplicações eparticipativas. Várias tecnologias têm surgido para solucionar os problemas de
reuso de software, porém, muitas dessas tecnologias dão ênfase ao reuso em
codificação, sendo que essa atividade representa apenas cerca de 20% do custo
total de desenvolvimento de software. O reuso de requisitos e de arquiteturas de
software pode trazer mais benefícios que os obtidos apenas com o reuso de
componentes individuais de software, um dos objetivos da LPS. Algumas técnicas
da engenharia de requisitos têm incorporado MPN com o objetivo de obter
requisitos de sistemas que representem melhor os processos das organizações.
Assim, essa pesquisa propõe uma abordagem para modelar e gerenciar a
variação de processos de negócio e reutilizar esses artefatos nas aplicações alvo
de uma LPS. A metodologia adotada para a pesquisa consta de uma Pesquisa
Bibliográfica que visa atualizar constantemente o referencial bibliográfico da
pesquisa. Como abordagens teóricas esta pesquisa, de cunho interdisciplinar,
abordam-se conceitos de engenharia de software e técnicas de e-participação;
Pretende-se aprofundar conceitos com base em pesquisas recentes sobre
aplicações Web, governo eletrônico, modelagem de processos de negócios, linha
de produtos de software. Para estender uma linguagem de modelagem de
processos de negócio com o uso de variabilidade para permitir a desenvolvimento
de uma abordagem de linha de produto estudos devem conduzidos com o
propósito de escolher uma linguagem de modelagem para ser estendida, e
identificar quais são os mecanismos de linhas de produtos que são relevantes
para serem adicionados à linguagem. Por fim, será construído um meta-modelo
para definir precisamente os conceitos da linguagem de modelagem. Além de
construir um meta-modelo será realizada a validação do mesmo por meio de um
estudo de caso. O produto final desenvolvido na pesquisa é a criação de uma
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
122
abordagem para reutilização de modelos de negócios em linhas de produto de
software. O uso e benefício desse projeto podem ser destacados em domínios de
negócios com contexto similar, uma vez que as operações realizadas são
semelhantes. O reuso de software apresenta-se como um importante aliado para
reduzir o esforço necessário para o desenvolvimento e manutenção de novos
sistemas. Neste contexto, a abordagem LPS se insere estabelecendo um
arcabouço de reuso de software que gera benefícios maiores que os das
abordagens de reuso tradicionais, pois permitem não só o reuso de componentes
individuais de software, como também o de requisitos e modelos de processos de
negócios.
PALAVRAS-CHAVE
Reuso de software, Linha de Produto de Software, Artefatos Reusáveis, Modelos
de processos de negócios.
Tipo de Trabalho: Dissertação de Mestrado
Agencia financiadora: Capes
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
123
UMA ANÁLISE DAS PRÁTICAS DE IHC PARA ADOÇÃO EM
PROCESSOS DE ENGENHARIA DE SOFTWARE
1
Joyce Cristina Souza Bastos – [email protected]
1
Sandro Ronaldo Bezerra Oliveira – [email protected]
1 - UFPA - Universidade Federal do Pará – Instituto de Ciências Exatas e Naturais – Belém /
PA
RESUMO
O desenvolvimento de sistemas interativos de qualidade exige a utilização
conjunta de conceitos e práticas tanto de Engenharia de Software quanto de
Interação Homem-Computador - IHC. Dificilmente a área de IHC é adotada em
um projeto de desenvolvimento de software ou quando adotada, é feita de forma
isolada do restante do projeto, ocasionando em sistemas pouco interativos, com
manutenção dispendiosa e utilização, por parte do usuário, não satisfatória. Com
base neste cenário, o principal objetivo da pesquisa apresentada neste trabalho é
proporcionar o uso de IHC sem muito precisar adaptar um processo de
desenvolvimento de software adotado por uma organização e/ou alterar a política
organizacional de uma empresa. Esta análise é feita sobre a norma ISO/IEC
12207, que define processos de Engenharia de Software de maneira a ser
flexível, modular e adaptável às necessidades da organização que for utilizá-la. O
foco será no Processo de Usabilidade, incluído na norma ISO/IEC 12207, que tem
como propósito garantir a consideração dos interesses e stakeholders
necessários para permitir a otimização de suportes e treinamento, aumentar a
produtividade e qualidade do trabalho, melhorar as condições de trabalho e
reduzir as chances de rejeição do sistema pelo usuário. O estudo apresentado
neste trabalho trata-se de um Trabalho de Graduação do Curso de Bacharelado
em Ciência da Computação da UFPA, realizado pela aluna Joyce Bastos e
orientado pelo Prof. Dr. Sandro Bezerra. Primeiramente, realizou-se uma revisão
da literatura especializada a respeito das principais práticas, atividades e
ferramentas de IHC. Também, fez-se um estudo com o objetivo de identificar um
padrão de processo de desenvolvimento de software para que se pudessem
estudar as interseções destas práticas de IHC com as atividades realizadas neste
processo. Identificou-se, assim, o Processo de Usabilidade da norma ISO/IEC
12207. Os resultados destas pesquisas foram discutidos em reuniões, juntamente
com o orientador. Em seguida, realizou-se um mapeamento entre as práticas de
IHC e o Processo de Usabilidade da ISO/IEC 12207, constatando-se a aderência
entre ambas. Por fim, identificou-se a necessidade de se analisar a
adequabilidade destas práticas de IHC com os demais processos do ciclo de vida
do software. Assim, optou-se por utilizar o framework de processo do Rational
Unified Process - RUP, levando em consideração que se trata de um processo
bem definido e estruturado, porém genérico, fornecendo uma estrutura
customizável às necessidades de uma Organização. Como resultados atuais,
podem-se listar: Conjunto de Práticas de IHC, com base na literatura
especializada; Mapeamento das Práticas de IHC às Tarefas da Norma ISO/IEC
12207, para verificar e validar a aderência das práticas ao Processo de
Usabilidade; Levantamento de Perfis (Papéis de Recursos Humanos) e Produtos
de Trabalhos (Artefatos de Desenvolvimento de Software e Ferramentas de
Apoio) para a área de Usabilidade, a fim de possibilitar uma implementação do
processo a partir de um programa de melhoria organizacional; Adequação ao uso
dos Perfis e Produtos de Trabalho no processo de Usabilidade da norma ISO/IEC
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
124
12207, a fim de colaborar com sua implantação organizacional; e Mapeamento
das Práticas de IHC aos Processos de Engenharia existentes no framework do
RUP, a fim de analisar o momento em que tais práticas podem ser incorporadas
ao longo do desenvolvimento de um projeto de software. A partir do mapeamento
realizado neste trabalho pôde-se verificar que as práticas de IHC são aderentes
ao Processo de Usabilidade da norma ISO 12207. Como esta norma serve de
base para as organizações desenvolvedoras de software instanciarem seus
processos, pretende-se que elas possam inserir algumas destas práticas de IHC,
de acordo com a demanda do projeto a ser desenvolvido, de forma a produzir e
entregar um sistema mais aderentes aos princípios de IHC. Espera-se que o uso
destas recomendações possa melhorar a qualidade do produto final e resultar
num produto que melhor atenda os interesses e necessidades dos clientes e/ou
usuários, uma vez que o uso de práticas de IHC pode tornar o produto mais
competitivo mercadologicamente. Para uma organização de desenvolvimento de
software que deseja melhorar a usabilidade de seus sistemas, faz-se necessário
incorporar práticas e técnicas de IHC em seu processo. Entretanto, projetos
centrados no usuário são mais difíceis de construir, pois requerem mais recursos
e mais conhecimentos da equipe participante, além de ir de encontro com a
cultura das pessoas envolvidas no projeto, que terão que ter consciência de que
as duas áreas devem trabalhar de forma integrada. Segundo revisões da
literatura, recomenda-se que a introdução das práticas de IHC em um processo
deve ser gradual, começando por projetos pequenos e somente com o aumento
das experiências, deve-se implementá-las no desenvolvimento de sistemas
interativos maiores. Como trabalho futuro, pretende-se que o mapeamento
sugerido entre Engenharia de Software e IHC seja implantado de forma
customizável, levando em consideração as necessidades da Organização e do
Projeto, em um pequeno projeto, para que se possam gerar resultados e, assim,
comparações com outros projetos concluídos, da mesma instituição, sejam
realizadas a fim de analisar as dificuldades encontradas em unir as duas áreas e
os benefícios trazidos ao Produto e a Organização.
PALAVRAS-CHAVE
Processo de Usabilidade, RUP, Práticas de IHC, Engenharia de Software.
Tipo de Trabalho: Trabalho de Graduação (Conclusão de Curso)
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
125
UTILIZANDO POLLING COMO MECANISMO DE CONTROLE DE
ACESSO AO MEIO EM REDES DE SENSORES PARA O CORPO
HUMANO
Luís Fernando Refatti¹ – [email protected]
Tatiana Annoni Pazeto¹ – [email protected]
1 – UFMT – Universidade Federal de Mato Grosso - Rondonópolis/MT
RESUMO
Redes de Sensores para o Corpo Humano são redes compostas por dispositivos
eletrônicos com capacidade de monitorar sinais fisiológicos de pessoas (Barbosa,
2008). Estes dispositivos são alimentados por baterias com pouca capacidade
energética, devido ao tamanho dos sensores. Contudo, existem sensores com
maior capacidade computacional e energética, chamados sorvedouros,
responsáveis por interligar os sensores a redes externas. Um dos problemas
destas redes é o consumo de energia, sendo que a troca da bateria muitas vezes
é inviabilizada devido a localização do sensor (Loureiro et al, 2003), que pode
estar, por exemplo, dentro do corpo de uma pessoa. Assim devem-se desenvolver
técnicas para que os sensores economizem energia. Uma das tarefas que mais
produzem gastos energéticos é a comunicação (Sichitiu, 2004), que é realizada
através de conexão sem fio, usando o ar para a difusão das informações. Sendo
assim, pode haver colisões de pacotes acarretando na destruição dos mesmos,
caso mais de um sensor esteja transmitindo ao mesmo tempo. Desta forma o
sensor terá que retransmitir o pacote, resultando em um consumo extra de
energia. Para amenizar este problema, devem-se utilizar mecanismos de Controle
de Acesso ao Meio (MAC). Dentre os mecanismos existentes, alguns dividem a
capacidade do canal em slots de tempo e distribuem uma parte para cada nó. Em
outros, os nós disputam entre si o canal para transmitirem o pacote e ao
receberem permissão para a transmissão, tem todo o canal alocado para o envio
de informações, como ocorre no mecanismo polling. Este é um dos mecanismos
mais simples, sendo que o seu funcionamento é descrito a seguir. Inicialmente
define-se um ciclo onde o nó centralizador questiona nó a nó se há pacotes para
transmitir. Havendo pacotes, o nó que está na vez inicia a transmissão, e os
demais sensores que tiverem pacotes para enviar naquele mesmo tempo,
armazenam o pacote em um buffer do próprio sensor, caso exista, ou destroem o
pacote. Ao fim da transmissão do pacote, o próximo sensor que tiver pacotes para
transmitir inicia o envio. Neste sentido, pode ocorrer uma perda significativa de
pacotes, antes dos dados serem processados pelo sorvedouro. Assim, para
analisar o impacto causado utilizando o método polling, foi desenvolvido um
simulador que contém os nós sensores gerando tráfego, o algoritmo polling e um
nó sorvedouro. Para simular o comportamento dos nós utilizaram-se cinco
modelos de fontes: Fonte On/Off Fixa (Silva, 2009), Fonte On/Off Moeda, Fonte
On/Off Moeda Controle, Fonte On/Off Limiar e Fonte On/Off Limiar Controle
(Refatti e Pazeto, 2010), sendo que todas as fontes são baseados no modelo de
tráfego On/Off. Este modelo consiste na divisão do tempo em períodos On,
quando há atividade no canal de comunicação da rede, e períodos Off, quando os
nós estão em silêncio. Este simulador foi desenvolvido utilizando a linguagem
C++. Para testar o simulador foram geradas simulações com cinco e quinze
sensores, com tamanhos de buffer zero, um e três. Para cada sensor, 10000
pacotes foram gerados. Nas simulações com cinco sensores verificou-se que o
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
126
descarte de pacotes ocorre somente quando o tamanho do buffer é zero, sendo
este ínfimo. Já nas simulações com quinze sensores, em todos os casos houve
descarte de pacotes, onde os descartes variaram entre 20% e 45%. No que tange
aos tempos de fila, em todas as simulações com tamanho de buffer zero, não
houve fila de espera em nenhum sensor. Isso ocorre pois se um pacote fosse
gerado e não estivesse no seu tempo de transmissão, era descartado. Já nas
simulações com cinco sensores e tamanhos de buffer um e três, os tempos de fila
em todos os sensores foi o mesmo e não há descarte de pacotes. Desta forma
percebe-se que se os sensores tiverem um buffer com uma posição, o problema
do descarte de pacotes está solucionado. Já o totalizador dos tempos de fila nas
simulações com quinze sensores apresentaram valores um tanto quanto
elevados, ultrapassando 50s quando o tamanho do buffer é um e 250s quando o
tamanho do buffer é três. Atráves dos resultados das simulações pode-se
perceber que o método polling pode ser eficiente em aplicações de redes de
sensores para o corpo humano, onde a quantidade de sensores é pequena. Isso
ocorre pois o corpo pode ser dividido em regiões, sendo inserido apenas um
sensor por região. Nestas situações, tanto o atraso na entrega dos pacotes
quanto o descarte é baixo, sendo que pode ser zerado utilizando um buffer com
poucas posições. O mesmo não ocorre quando há uma grande quantidade de
sensores na rede, e devido as limitações de memória do sensor, pode não ser
possível armazenar muitos pacotes para aguardar a vez do sensor transmitir,
acarretando assim um descarte de pacotes considerável. Além disso, mesmo que
o buffer disponível seja suficiente para que não haja descartes, o atraso na
entrega dos pacotes pode ser grande. Desta forma, para redes com muitos
sensores, outros mecanismos de controle de acesso ao meio devem ser
considerados.
PALAVRAS-CHAVE
Redes de Sensores para o Corpo Humano, Polling, Fonte On/Off.
TIPO DE TRABALHO: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
127
WEB WIRELESS SENSOR MANAGER (W²SM) UMA PLATAFORMA
PARA GERENCIAMENTO DE REDES DE SENSORES SEM FIO
Itamar Eduardo Gonçalves de Oliveira - [email protected]
Tatiana Annoni Pazeto - [email protected]
UFMT- Universidade Federal de Mato Grosso - Rondonópolis/MT
RESUMO
Com o avanço tecnológico as redes de sensores sem fio estão sendo utilizadas
em diversas áreas, como na área médica, possibilitando o gerenciamento de
atividades remotamente. O presente trabalho apresenta a proposta de uma
plataforma para o gerenciamento de uma rede de sensores sem fio para
monitoramento de sinais fisiológicos do corpo humano: a Web Wireless Sensor
Manager (W²SM). De acordo com Oliveira e Pazeto (2010), os sensores sem fio
são alimentados por pilhas ou baterias. Seu rádio comunicador possui o alcance
de cerca de 20 metros em ambientes fechados (com obstáculos) e de
aproximadamente 100 metros em ambientes abertos (onde não existam
obstáculos). No que se refere a comunicação, esta pode ser feita utilizando
diversas tecnologias, variando de acordo com a aplicação que se pretende
desenvolver. Vale ressaltar que a tecnologia utilizada na comunicação vai implicar
no consumo de energia, na velocidade de transmissão e na quantidade de dados
que podem ser transmitidos em cada iteração. Os nós sensores sem fio podem
trocar mensagens entre si, possibilitando a formação de clusters, e/ou podem se
comunicar com uma estação base. A estação base pode ser qualquer dispositivo
(como um computador ou celular) que possua uma interface de comunicação sem
fio compatível com a utilizada nos nós sensores, sendo que esta geralmente
possui mais recursos que o nó sensor. Dessa forma é possível realizar o
monitoramento remoto, onde os nós sensores fazem a coleta dos dados que se
deseja monitorar e os transmitem a estação base. Ao receber as informações, a
estação base se conecta a Internet e reporta os dados coletados, identificando o
sensor que fez a coleta, para um servidor remoto. No servidor é feito o
processamento dos dados, os quais podem ser acessados posteriormente pelo
responsável pelo monitoramento através de uma página web. Diversos estudos e
projetos estão sendo realizados na área de Rede de Sensores Sem Fio (RSSF),
contemplando maneiras de otimizar o hardware, coleta, transmissão dos dados,
bem como a segurança com que as informações trafegam. O intuito, da maioria
das pesquisas, é prolongar a duração da bateria dos nós sensores, uma vez que
o consumo de energia é um ponto fundamental em uma RSSF (Akyildiz, Melodia
e Chowdhury, 2007). Deste modo, o monitoramento remoto deve considerar a
degradação da bateria, pois em alguns casos não é possível sua troca constante,
como em sensores implantados no corpo humano. Assim, existe a necessidade
de gerenciar a coleta, transmissão e processamento dos dados que se tem o
interesse de monitorar, sendo uma solução o W²SM. O W²SM permite realizar
várias atividades, a citar: visualizar os dados coletados pelos nós sensores
através de um histórico de cada nó; definir alertas para que o responsável pelo
monitoramento seja avisado por Short Message Service (SMS) ou e-mail, quando
o valor coletado pelo sensor atender a condição definida para a geração do
alarme; visualizar o histórico dos alertas; acessar a thread do que foi feito para
solucionar determinado alerta; compartilhar as informações de um nó com outros
médicos ou assistentes; enviar comandos de configuração do nó; cadastrar
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
128
usuários e definir se ele é administrador, médico ou assistente. Consoante a
validação da ferramenta, esta será realizada por sua demonstração para um
médico. No desenvolvimento da ferramenta foram utilizadas as tecnologias
HyperText Markup Language (HTML), Hypertext Preprocessor (PHP), JavaScript,
Cascading Style Sheets (CSS) e MySQL. Também foi usado o editor de texto
SciTE para a edição dos códigos, por este possuir sintaxe highlighted. Para a
execução dos scripts PHP foi utilizada a ferramenta XAMPP, que é um aplicativo
que permite a execução de um servidor Apache com suporte a PHP, além de um
servidor MySQL. Até o presente momento foram realizadas as seguintes etapas:
desenvolvimento do módulo para gerenciar os usuários, onde é possível fazer a
inserção, edição e desativação do usuário; implementação do módulo para
gerenciar os pacientes, possibilitando além da inserção e edição dos dados
cadastrais do paciente, a configuração da rede de sensores que o médico está
utilizando no paciente, ou seja, visualizar a localização dos nós sensores no
paciente, bem como o status de cada um dos sensores; o módulo para o cadastro
dos modelos de sensores, o qual permite que o perfil administrador insira e edite
os dados referentes as configurações dos modelos de sensores disponíveis para
o uso dos médicos; o módulo para o médico gerenciar a rede de sensores dos
seus pacientes, permitindo ao médico escolher um modelo de nó existente e
configurar qual método de sensoriamento será utilizado, qual o tipo de sensor
(alguns modelos de nó sensores podem possuir tipos diferentes de sensores),
posicionar o nó no cenário, para facilitar a identificação do nó que está sendo
representado na tela. Encontra-se também em fase de implementação o módulo
para a geração de alertas, que permite configurar uma condição para a geração
de alarmes. Esse módulo se baseia no gerenciador de alertas proposto pela
Turon (2005), na ferramenta para gerência de RSSF chamada MOTEVIEW.
PALAVRAS-CHAVE
Gerenciamento Web, Redes, Sensores Sem Fio
TIPO DE TRABALHO: Trabalho de conclusão de curso
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
129
WEBQUEST “GÊNEROS DO DISCURSO”: UM PROCEDIMENTO
DE ENSINO-APRENDIZAGEM DE LÍNGUA PORTUGUESA
1
Niulian R. Carrijo – [email protected]
1,2
Gleber N. Marques – [email protected]
1,2
Marilena I. de Souza – [email protected]
1 – GENTE – Grupo de Estudos Sobre Novas Tecnologias em Educação – Alto Araguaia/ MT
2 – UNEMAT – Universidade do Estado de Mato Grosso - Alto Araguaia/ MT
RESUMO
Este trabalho descreve o desenvolvimento e aplicação de uma WebQuest (WQ)
como instrumento mediador e norteador no processo ensino-aprendizagem de
gêneros do discurso em Língua Portuguesa (LP) a partir de uma concepção
enunciativo-discursiva bakhtiniana, na qual os alunos são levados a interagir não
só com o texto, objeto de ensino, e suas condições de produção, mas também
com um conjunto de informações necessárias à compreensão da esfera social da
qual emana o texto, por meio do acesso a conteúdos multimidiáticos da Internet,
privilegiando autonomia na aquisição de informações e a reflexão para construção
de conhecimento. Os recursos multimidiáticos disponíveis na Internet têm grande
potencial como recursos didáticos, contudo a operacionalização dos mesmos não
é uma tarefa fácil para escolares e professores. Assim, o modelo WQ constitui
uma alternativa promissora para implementação da abordagem proposta em que
se pretende possibilitar aos alunos a compreensão das escolhas lingüísticas,
estilísticas e discursivas, para que sejam capazes de adequar a sua linguagem a
situação comunicativa em que está inserido. Acreditamos que esta WQ ajudará o
aluno a compreender melhor este objeto conceitual, bem como a utilizar a Internet
como aliada na construção de seu conhecimento. Em uma perspectiva sóciointeracionista, as atividades em grupo e individuais incluídas no Processo da WQ
exercitam as interações aluno-aluno e aluno-professor, e também aluno-objeto
conceitual, caso em que a WQ se revela um recurso de mediação. A WQ
desenvolvida em HTML propõe o estudo em grupo de quatro tipos de esferas
públicas: jurídica, jornalística, escolar e científica, em que se objetivou que alunos
compreendessem as relações entre as esferas da atividade humana e os gêneros
a elas associados. A WQ desenvolvida é de longa duração para propiciar tempo
para reflexão e amadurecimento conceitual. Retomando a taxonomia proposta por
Bernie Dodge podemos classificar a WQ desenvolvida como uma WQ de
“Reconto”, na qual os alunos devem ler, discutir (em grupos), refletir, produzir um
texto e depois repassar para os demais colegas por meio de um painel. Aplicamos
a WQ em uma 8ª série de uma escola pública local com 23 alunos ao longo de
dez aulas. Elaborou-se um plano de ensino que operacionalizasse a WQ e as
funções didáticas dos recursos escolhidos, interconectando-os às explicações
teóricas. Por fim, aplicou-se um questionário para averiguar como a abordagem
foi recebida e percebida pelos alunos, no qual se incluiu questões objetivas e
espaço para justificar a opção escolhida. De acordo com as respostas de cerca de
90 % dos alunos, as atividades e os sites propostos pela WQ foram claros e
objetivos. Justificaram que os sites eram de fácil entendimento e direcionavam ao
assunto, que as informações contidas nos sites eram suficientes, que o modelo
WQ é mais produtivo, e não deixava dúvidas quanto a realização das atividades a
partir dos sites indicados. Quando perguntados se o roteiro WQ aplicado facilita a
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
130
aprendizagem via aquisição de informação na Internet, o mesmo percentual
reforçou em suas respostas que a WQ contém a descrição passo-a-passo do que
precisa ser feito, facilitando assim a pesquisa na Internet, e que a WQ favorece a
aprendizagem dos conteúdos teóricos pelo estímulo áudio-visual dos recursos da
rede. Cerca de 70% dos alunos declararam que não estavam motivados no início
da experimentação, pois a disciplina de LP é “chata”, porém ao longo do trabalho
motivaram-se devido a metodologia de estudo proporcionada pela WQ, na qual os
sites para as pesquisas eram pré-selecionados e as atividades bem definidas,
tornando mais fácil, produtiva e rápida a realização das tarefas. Outros 19%
comentaram que estavam motivados desde o início devido ao fato de usar-se a
Internet para estudar LP, e ficaram ainda mais motivados ao conhecer a WQ. A
análise dos questionários revela que a grande maioria das respostas foi positiva
quanto à adoção da WQ como ferramenta de ensino-aprendizagem para cerca de
90% dos alunos, e também se pôde observar que as respostas negativas estão
contidas sempre nos mesmos questionários, o que indica possivelmente que tais
percepções negativas estão restritas a um grupo bastante particular de
estudantes correspondente a aproximadamente 10% da turma. O trabalho
realizado revelou a relevância da WQ desenvolvida como uma ferramenta
importante para aquisição de conhecimento via Internet em Língua Portuguesa. A
abordagem bakhitiniana proposta aos gêneros propiciou tanto o acesso aos
diversos gêneros discursivos e tendências quanto uma forma mais interativa e
atualizada de se trabalhá-los, além de valorizar a autonomia na aquisição de
leitura, análise e documentação das informações de interesse, habilidades
consideradas muito importantes na atual sociedade, ao favorecer a teoria da
pedagogia da ação, onde o aluno “aprende fazendo”. Além disso, a utilização da
WQ desenvolvida em sala de aula despertou os alunos para o ato da pesquisa na
rede, bem como incentivou a socialização dos resultados alcançados
individualmente e em grupo, favorecendo diferentes maneiras de se relacionar
com os outros.
PALAVRAS-CHAVE
Informática Educativa, Internet na Educação, WebQuest, Ensino de Língua
Portuguesa.
TIPO DE TRABALHO: Trabalho de Graduação
I Escola Regional de Informática de Mato Grosso - Elos Digitais: cidadãos, governo e
negócios
Download

Caderno de Resumos ERI-MT