Você está na página 1de 28

UNIVERSIDADE ESTÁCIO DE SÁ

TCC EM SISTEMAS DE INFORMAÇÃO

Acessibilidade e usabilidade para tetraplégicos

Aluno: Gabriel Badolato Corrêa da Silva


Professora Orientadora: Patrícia Fiuza de Castro

2014
Resumo

Esta monografia é o resultado de um estudo sobre acessibilidade em


computação, tendo como foco principal pacientes tetraplégicos. Veremos
inicialmente quais ferramentas existem atualmente que podem promover algum
nível de acesso ao computador a estes pacientes. Em seguida, são discutidas
propostas de solução para que o uso destas ferramentas seja possível e compatível
com os métodos já utilizados atualmente para interfaces gráficas e entrada de dados
em sistemas e aplicações. Por fim, concluiremos o possível impacto que estas
proposições podem causar na vida destes pacientes e influências em pesquisas
futuras.

Abstract

This paper is the result of a accessibility study in computing, having as main


focus quadriplegic patients. Initially we will see what tools exist today that can
promote some level of computer access to these patients. Then proposed solutions
are discussed for the use of these tools to make possible and compatible with the
methods already used today for graphic user interfaces and data input in systems
and applications. Finally, we will conclude the possible impact that these proposals
may have on the lives of these patients and influences in future research.

Palavras-chaves: 1. Acessibilidade 2. Usabilidade 3. Interface Homem-Máquina


4. Movimentos Oculares 5. Mapeamento de Movimentos

Keywords: 1. Acessibility 2. Usability 3. Human-Machine Interface 4. Eye-Tracking


5. Motion Mapping
Dedicatória

Dedico esta monografia à minha família


e a todos que tornaram este trabalho
possível.
Agradecimentos

À esta universidade, seu corpo docente, direção e administração que deram


a oportunidade de construir a janela em que hoje vislumbro um horizonte superior,
inspirado na confiança, mérito e ética aqui presentes.
À minha orientadora Patrícia Fiuza de Castro, pelo suporte no pouco tempo
que lhe coube, pelas suas correções e incentivos.
Aos meus pais e família, pelo amor, incentivo e apoio incondicional.
E a todos que direta ou indiretamente fizeram parte da minha formação, o
meu muito obrigado.
“O presente impõe formas. Sair dessa
esfera e produzir outras formas constitui a
criatividade. ”

Hugo Hofmannsthal
Sumário

1 Introdução ........................................................................................................... 7
2 Justificativa......................................................................................................... 8
3 Tecnologias em uso Atualmente .................................................................... 10
4 Reconhecimento de voz ................................................................................... 10
4.1 Como Funciona? ........................................................................................... 10
4.2 Eye-tracking e movimentos de pálpebra ..................................................... 12
4.2.1 Como Funciona? ........................................................................................ 13
4.2.1.1 Como os movimentos oculares são rastreados? ................................. 14
4.2.1.2 Como o piscar afeta a captura dos movimentos? ................................ 14
4.3 Captura de movimentos do corpo ............................................................... 14
4.3.1 Como funciona? ......................................................................................... 16
4.4 Joystick analógico de queixo....................................................................... 19
5. Propostas de solução ..................................................................................... 20
5.1 Complementação de Interface Gráfica ........................................................ 20
5.2 Entrada de dados .......................................................................................... 24
6 Conclusão ......................................................................................................... 26
7 Bibliografia ........................................................................................................ 28
1. Introdução
Hoje em dia podemos dizer que vivemos na “Era da Informação”. A grande
maioria das atividades humanas atualmente são suportadas, desenvolvidas e
mantidas com forte uso de computação e sistemas, desde uma simples transação
bancária até uma edição complexa de vídeo, criando o que podemos chamar de
uma certa ubiquidade, onipresença da tecnologia nas nossas vidas pessoais e
também em sociedade.
O computador é parte central deste processo, e dadas as necessidades de
cada uso específico da ferramenta, existem inúmeras formas de
interação/comunicação com a mesma e inserção de dados, desde o clássico uso
de digitação em teclado e uso de mouse para um usuário comum, até um designer
que utiliza uma mesa digitalizadora para ter melhor liberdade de movimento ao
realizar seu trabalho.
O que podemos perceber é que todas essas formas de interação foram
projetadas e desenvolvidas para pessoas que possuem pouco ou nenhum tipo de
deficiência física, mas especificamente deficiência motora, sendo que para estes
casos existem poucas alternativas, e que costumam apresentar problemas de
disponibilidade e custo.
Definindo melhor as dificuldades citadas acima, “Deficiência motora refere-
se à dificuldade ou até impossibilidade em mexer, controlar ou coordenar algum tipo
de movimento motor. Esta incapacidade pode ser transitória ou permanente e pode
ser congênita ou adquirida por acidente ou doença. ”
O tema é focado em casos de deficiência motora em graus mais graves,
como a tetraplegia, que é a paralisação dos movimentos do pescoço para baixo,
pelo fato de ser provavelmente o caso em que os portadores encontram as maiores
dificuldades em utilizar sistemas computacionais.

7
2. Justificativa
Desde que comecei a cursar o Bacharelado em Sistemas de Informação,
principalmente após o contato com a disciplina de Interação Humano-Computador,
sempre tive grande interesse e grande entusiasmo em entender e conhecer as
formas de interação já existentes, assim como os métodos que promovem
acessibilidade em TI para pessoas com diversos tipos de deficiência.
Tive oportunidade de conhecer programas leitores de tela que deficientes
visuais totais usam quase que constantemente, assim como alguns softwares que
promoviam reconhecimento de fala paras aqueles com dificuldade em digitação por
alguma limitação não-total dos movimentos das mãos. Porém após o conhecimento
de alguns casos de tetraplegia, fui levado a pensar em como essas pessoas
utilizavam, isso se é que utilizavam, algum sistema computacional, visto que
provavelmente para todas as outras coisas o seu nível de independência se
aproximaria do nulo, e assim como diversos outros aspectos de suas vidas, quando
surgia a necessidade do uso de algum sistema era exigido o auxílio e dedicação de
uma outra pessoa.
Este fato me levou a pensar que, como hoje possuímos tantos avanços
tecnológicos e estas pessoas ainda são completamente dependentes? Voltando
nossos olhares para a área de TI, sigla que significa Tecnologia da Informação,
como ainda não possuímos (ou possuímos pouquíssimos) recursos para promover
independência para essas pessoas, seja em qualquer grau?
A justificativa deste trabalho é promover uma base de conhecimento e
pesquisa que possa ajudar a reverter ou ao menos amenizar esta situação,
buscando formas possíveis e viáveis de inserção destas pessoas no nosso estilo de
vida moderno onde sistemas computacionais estão presentes praticamente em
todas as coisas e atividades.

8
3. Fundamentação teórica

Hoje em dia temos disponíveis ferramentas de acessibilidade especializadas


em diferentes aspectos. Já existem leitores de tela, softwares de reconhecimento
de fala e até softwares que leem frases e sintetizam voz e leitura. Entretanto, o foco
deste trabalho será pacientes portadores de tetraplegia, ou seja, quase que
totalmente desabilitados, tendo somente disponível para interagir com sistemas a
área do pescoço, cabeça e face.
Quando analisamos as ferramentas disponíveis podemos perceber que ao
serem utilizadas por este público, não conseguem atingir uma eficácia satisfatória
para promover uma experiência de uso independente, entretanto, ao analisarmos o
funcionamento em conjunto de tais recursos, hipoteticamente falando, e aliado à
outras idéias e ferramentas experimentais, podemos chegar a um modelo teórico
que tenta levar quase que total independência a estes pacientes.
Este trabalho visa usar as tecnologias de captação de movimentos,
reconhecimento de voz, “eye-tracking” (movimento e posição ocular), e uso de
hardware especializado criando um protótipo em que tudo isto funcione em conjunto
dentro de técnicas e metodologias que serão propostas nos tópicos a seguir.
Também é necessário analisar o fato de que, como estamos trabalhando com
inovação, os sistemas e aplicações aptos a utilizar tal tecnologia deverão sofrer
alterações, adaptações ou serem complementados por software externo, de modo
que sua interface de usuário venha a comportar estas técnicas.
O conteúdo aqui apresentado possui forte interdisciplinaridade com a área
de saúde, mas especificamente ergonomia, e as propostas deste trabalho
infelizmente não puderam ser feitas em conjunto com profissionais da área nem
com seu público-alvo devido a impossibilidade de realização de pesquisa in loco.
Todas as idéias a seguir apresentadas não levarão em consideração possíveis
limitações ergonômicas e terão valor meramente hipotético.

9
4. Tecnologias em uso atualmente

Neste tópico iremos abordar mais detalhadamente os recursos que iremos


utilizar e que já se encontram disponíveis para uso imediato ou precisarão sofrer
algum tipo de adequação e/ou adaptação.

4.1 - Reconhecimento de voz:

Atualmente existem diversos softwares que conseguem interpretar


comandos básicos via voz e até transcrever algumas palavras faladas, porém,
devido à voz humana possuir variações de pessoa a pessoa como timbre,
entonação e volume, esta tecnologia ainda sofre com uma certa imprecisão em seus
resultados.
Apesar disso, nosso público-alvo poderia utilizar de forma eficaz comandos
de voz para realizar tarefas básicas como selecionar controles, estabelecer foco em
áreas pré-definidas e como facilidade de navegação em geral.
O trabalho em conjunto com as outras ferramentas seria de suporte, onde
auxiliaria comandos mais complexos e/ou acionaria comandos pré-definidos ou
configurados pelo usuário.

4.1.2 – Como funciona?

Quando se fala em reconhecimento de voz, automaticamente nossas


lembranças são voltadas para filmes de ação e espionagem, com lugares
impossíveis de serem invadidos e que requerem sistemas complexos para
identificação. Normalmente nesses cenários, determinada pessoa precisa
pronunciar palavras-chave, que são ouvidas por um computador para confirmar a
identidade do locutor. Existem formas de uso mais próximas ao nosso cotidiano do
que você imagina. Por exemplo, você já recebeu atendimento eletrônico no qual ele
pedia que você “falasse a opção desejada”? Programas de atendimento eletrônico
fazem parte dessa tecnologia. Eles ouvem o som emitido pela sua voz, classificam

10
as sílabas e é aplicado um método de busca para associar estas informações com
padrões de palavras a fim de encontrar semelhanças.
Para que o computador reconheça o som da sua voz juntamente com a
fonética da palavra pronunciada e efetue a aplicação desejada, ele precisa
encadear uma sequência de passos. Primeiro ele precisa digitalizar a fala que se
quer reconhecer. Para isso, ele utiliza um conversor analógico-digital que capta as
vibrações criadas pela sua voz e converte essas ondas em dados digitais.
Em seguida, aplica-se uma medida para cada uma das ondas captadas e o
som digitalizado é filtrado para separá-lo de ruídos e interferências. Então, efetua-
se uma computação das características que representam o domínio espectral
(frequências) contido na voz. Nessa etapa do processo, o som pode necessitar ser
sincronizado, pois as pessoas não costumam utilizar o mesmo tom e nem sempre
falam na mesma velocidade. Isso consiste em um ajuste com modelos de som já
armazenados na memória do classificador.
Então essa digitalização é separada em frações ainda menores, ou seja, sons
fonéticos não maiores do que uma sílaba. Em seguida, o programa compara os
sons captados com fonemas conhecidos e presentes em seu banco de dados que
correspondam ao idioma que o locutor tenha falado. Em outras palavras, é aplicado
um método de busca para associar as saídas com padrões de palavras e da voz de
quem as emitiu.
Por último, o sistema analisa o resultado e o compara com palavras e frases
conhecidas e, como resultado, ele identifica o que seu usuário disse e converte para
a funcionalidade desejada (texto em uma planilha, um comando, o reconhecimento
do usuário, etc.).

11
4.2 – Eye-tracking e movimentos de pálpebra:

Os olhos são, para os pacientes em questão, uma forma eficaz de gerar


movimento rápido e responsivo, o qual pode ser aproveitado por hardware
especializado já existente e ser transcrito e interpretado como um mecanismo de
ponteiro, funcionando de forma semelhante a um mouse.
Nos recursos que temos disponíveis atualmente, como no softwareTobii
EyeX, isto já é possível utilizando um notebook, onde, com o hardware (câmera) e
o software instalados, o usuário consegue acionar a aplicação ao pressionar o dedo
sem eu trackpad, ativando a captura tecnicamente chamada de “eye-tracking
tecnology”, onde após isso, um marcador de ponteiro aparece na tela e este
acompanha o local em que as pupilas do usuário convergem.
Para o nosso estudo, precisaríamos de uma adaptação já que não temos
disponível o acionamento via trackpad. Para este problema, podemos sugerir que o
hardware que escaneia os olhos esteja em constante estado de captura, e o
comando de disparar o cursor fosse dado pelas pálpebras, com o movimento básico
do “piscar” e suas três variações (pisque esquerdo, pisque direito e pisque duplo).
Poderíamos separar estes três comandos como:
 Pisque esquerdo: ativar captura ocular, ou seja, dar inicio ao uso dos olhos
como cursor;
 Pisque direito: desativar captura ocular, apagar ponteiro
 Pisque duplo: comando de seleção, semelhante ao “clique” do mouse.

Tendo em vista que o uso constante dos olhos possa causar desconforto, esta
não é a única proposta de ponteiro e funcionará em conjunto com idéias e
dispositivos que serão discutidos a seguir.

12
4.2.1 - Como funciona?

O processo de rastreamento do olhar é, do ponto de vista técnico, dividido


em duas partes distintas: registrar os movimentos dos olhos e apresentá-los para o
usuário de uma forma significativa. Enquanto o rastreador olho registra a amostra
movimentos oculares por exemplo, o software em execução no computador é
responsável por interpretar as fixações dentro dos dados. Todas as técnicas aqui
apresentadas se referem à ferramenta Tobii EyeX.

4.2.1.1 - Como os movimentos oculares são rastreados?

Figura 1 Figura 2

Existem várias técnicas diferentes para detectar e rastrear os movimentos


dos olhos. No entanto, quando se trata de controle remoto, não-intrusivo, eye-
tracking, a técnica mais comumente utilizada é a Pupil Centre Corneal Reflection
(PCCR), traduzindo, reflexão corneal do centro da pupila. O conceito básico é a
utilização de uma fonte de luz para iluminar o olho, causando reflexos altamente
visíveis, e uma câmera para capturar uma imagem do olho mostrando essas
reflexões. A imagem captada pela câmara é, então, utilizada para identificar a
reflexão da fonte de luz na córnea (brilho) e a pupila (Ver figura 2). Com isso somos
capazes de calcular um vetor formado pelo ângulo entre a córnea e a reflexão das
pupilas - a direção deste vetor, combinado com outras características geométricas
das reflexões, irá então ser utilizadas para calcular a direção do olhar. Iluminação
infravermelha próxima é usada para criar os padrões de reflexão sobre a córnea e
13
pupila do olho de um usuário e dois sensores de imagem são usados para capturar
imagens dos olhos e os padrões de reflexão. Algoritmos de processamento de
imagem avançada e um modelo 3D fisiológico do olho são então utilizados para
estimar a posição do olho no espaço e o ponto de visão, com elevada precisão.

4.2.1.2 - Como o piscar afeta a captura dos movimentos?

Piscar é mais frequentemente um ato involuntário de fechar e abrir as


pálpebras. Durante cada piscar a pálpebra bloqueia a pupila e a córnea do
iluminador, resultando em pontos de dados brutos em que faltam as informações de
coordenadas x e y. Durante a análise, filtros de fixação podem ser usados para
remover estes pontos e extrapolar os dados corretamente em fixações.

Desde que os movimentos da cabeça estejam dentro das especificações


rastreador ocular, ou seja, que os pontos de dados em falta não se originam a partir
de mover a cabeça longe da caixa de rastreamento, também é possível extrair
informações sobre pisques a partir dos dados brutos coletados pelo rastreador de
olho.

4.3 – Captura de movimentos do corpo:

Com o avanço da indústria do entretenimento, podemos ver esta tecnologia


em uso atualmente na área de jogos eletrônicos. Semelhante ao eye-tracking citado
anteriormente, hoje possuímos dispositivos como o Kinect da Microsoft, que captura
os movimentos do corpo humano e os traduz em comandos em seu software de
forma a proporcionar uma experiência de usuário que simula um “jogador dentro do
jogo”, como por exemplo fazer o jogador dar um chute propriamente dito em frente
a um televisor para fazer um gol em um jogo de futebol.

14
Se transportarmos esta idéia para o nosso foco de trabalho, inicialmente pode
soar estranho, mas se analisarmos o que estes pacientes tem disponível para
interagir com o computador, vemos que o pescoço e seus movimentos podem ser
sim capturados e interpretados como comandos, como por exemplo no jogo de
corrida Forza 5 onde o jogador olha pelas janelas do carro usando a própria cabeça
e nenhum comando manual.
Dentre as possibilidades de uso em nosso contexto, temos os movimentos
listados a seguir assim como suas propostas de comando:

 Movimento do pescoço em torno do próprio eixo: fazendo este


movimento, temos praticamente 180 graus disponíveis, entretanto, ao utilizar
toda esta área, há chance de grande desgaste físico por parte do usuário.
Separando estes 180 graus em 4 áreas de 45, tendo como ponto central o
pescoço, teríamos uma área de trabalho ideal de 90 graus para
movimentação e transcrição disso como comandos direcionais, intensidade,
mudança de tela e etc.;

15
 Movimento da face para cima e para baixo: ao movimentar a face para
cima ou para baixo, podemos propor comandos simples como direcional,
slider vertical e aumento ou diminuição de intensidade;

 Movimento lateral da face: movimento de “deitar a orelha sobre o ombro”,


complexidade maior onde podemos propor comandos angulares, como girar
uma foto por exemplo.

4.3.1 – Como funciona?

Usaremos como base a ferramenta Kinect, criada pela Microsoft para seu
console de videogame Xbox. Com sensores de movimento aliados a uma câmera
de detecção 3D, o aparelho reconhece as movimentações do corpo com uma
ótima precisão. O aparelho é composto basicamente por 3 partes:

 A câmera, que possui detecção de vídeo em RGB, combinando vermelho, verde e


azul para formar as imagens captadas em uma resolução de 640x480 a 30 quadros
por segundo (fps);

16
 Sensores de profundidade 3D: usa em conjunto um projetor infravermelho e um
sensor CMOS monocromático para projetar o ambiente em 3D e perceber as suas
modificações. Devido à natureza dos sensores, não é necessária iluminação para
que eles funcionem, o que significa que o Microsoft Kinect “enxerga” a sala mesmo
no escuro;

Figura 3 - Funcionamento do Kinect vira infravermelho

 Microfone multivetorial: são quatro microfones auto direcionáveis para o usuário,


capazes de isolar o som ambiente da fala do jogador. Também captam comandos
por voz;

Logo na inicialização, o Kinect mapeia o ambiente e automaticamente ajusta


as suas configurações para a melhor experiência possível. Em seguida, ele procura
por 48 pontos do corpo de cada jogador para formar uma réplica digital em 3D
necessária para a interação do jogo, mapeando inclusive os detalhes faciais.
E de onde vem tanta precisão? Antes de ser lançado, seus desenvolvedores
tinham em mãos quantidades fantásticas de padrões de movimentos em situações
reais. Em seguida, esses dados foram processados por uma máquina de

17
aprendizado de algoritmo, desenvolvida por Kamie Shoutton, pesquisador da
Microsoft Research Cambridge na Inglaterra.
A camada de software do Kinect é o componente essencial para dar
significado ao que o hardware detecta. Quando você inicia Kinect, ele lê o layout do
seu quarto e configura o espaço de jogo você vai estar se movendo dentro. Então,
o Kinect detecta e rastreia 48 pontos sobre o corpo de cada jogador, mapeando-os
para uma reprodução digital de forma que o corpo do jogador e estrutura do
esqueleto, incluindo detalhes faciais.

Figura 4 Processamento de profundidade usando infravermelho

O resultado foi tão impressionante que é possível reconhecer roupas de


vestuário, expressões faciais e inclusive objetos sobrepostos, então durante o jogo
se alguém entrar na sua frente, ele faz uma detecção em duas camadas, não
prejudicando o jogo.

18
4.4 – Joystick analógico de queixo:

Figura 5 - Exemplo de joystick de queixo

Pacientes tetraplégicos possuem à disposição cadeiras de rodas


motorizadas, que são controladas através de um dispositivo de joystick semelhante
ao que encontramos em fliperamas e jogos, porém, devido à natureza dos
pacientes, são acoplados à cadeira de modo a serem utilizados confortavelmente
pelo queixo assim controlando os movimentos da cadeira e também sua aceleração.
Com algumas adaptações hipotéticas, podemos alterar o controle desde
dispositivo para que se comporte como um mouse ou equipamento de ponteiro
qualquer quando acoplado ao computador, também podendo ser utilizado como
direcional e regulador de intensidade.
Esta é sim mais uma forma de ponteiro dentre as outras que citamos
anteriormente, porém, podemos dizer que é a mais analógica das opções e a que
mais se aproxima do que temos hoje para pessoas sem deficiência, e funcionaria
tanto como alternativa ou como suporte à todo o conjunto.

19
5. Propostas de solução

Dentro do escopo do que mostramos até agora, da realidade do público alvo


e do funcionamento atual dos sistemas computacionais em geral, como fazer todas
essas ferramentas funcionarem em conjunto? Como fazer com que as aplicações,
sistemas e softwares em geral, que não são adaptados, funcionarem com essas
ferramentas?
A partir deste ponto serão descritas formas, em hipótese, de se obter
satisfatoriamente uma experiência de usuário ao nosso público-alvo de forma a
atingir o máximo possível de independência, analisando técnicas e metodologias
que comportem o uso de tudo que foi descrito anteriormente.

5.1 – Complementação de Interface Gráfica

A forma como os humanos interagem com os computadores sempre foi uma


preocupação da indústria da informática. Durante algumas décadas, essa interação
passou da linha de comando, em modo texto, para desktops em três dimensões e
softwares que aceitam comandos por voz ou gestos com o propósito de facilitar e
tornar mais intuitiva a utilização das máquinas. Porém hoje o que domina e é mais
presente seja em qualquer tipo de sistema operacional ou equipamento é o
paradigma WIMP (window, icon, menu, pointing device) criado por Merzouga
Wilberts em 1980, que significa essencialmente "janela, ícone, menu, dispositivo de
ponteiro".
A grande maioria dos sistemas e aplicações que utilizamos hoje em dia são
baseadas em combinações de menus, ícones e janelas que trabalham em conjunto
representando comandos distintos e suas combinações. Tudo isto é voltado ao uso
com as ferramentas de interação clássicas que usamos atualmente, o teclado e o
mouse. Quanto trazemos este modelo de interface para nosso campo de estudo,
podemos ver que temos alguns desafios a enfrentar, pois conforme discutido, nosso

20
público-alvo usaria ferramentas diferentes e adaptadas, em um ambiente que não
foi preparado para isso pois, é necessária uma quantidade e precisão de
movimentos que, como consequência das limitações destes pacientes. Não seria
possível de reproduzir sem grandes transtornos ergonômicos e desconfortos.
Proponho aqui a criação de um software que atue sobreposto à área de
trabalho do sistema operacional como um todo, funcionando como uma “capa”
cobrindo todas aplicações imediatamente abaixo dele, dividindo a tela em quatro
quadrantes por padrão, podendo ser configuráveis de acordo com a preferência dos
usuários.

Figura 6 - Exemplo de formulário web com a divisão de tela em quadrantes

O objetivo desta divisão de tela é proporcionar uma melhor navegação ao


usuário. Dentre os dispositivos de ponteiro que mostramos, todos são assiociados
à movimentos não usuais de cabeça, olhos e queixo e, dependendo de variáveis
como tamanho de tela e sensividade dos dispositivos, o uso constante poderá gerar
desconforto e perda de eficiência. Os quadrantes apresentados são identificados
por “etiquetas” (aqui chamaremos de tags) identificadoras, como na imagem acima
temos, Q1 até Q4, onde o objetivo de tais áreas é, ao terem suas tags acionadas
via voz pelo usuário, terem o ponteiro centralizado dentro de tais áreas, permitindo
assim que o usuário alterne sem muito esforço o foco entre as áreas divididas.

21
O controle de ponteiro poderá ser dado dentre as alternativas de ferramenta
que falamos antes: movimentos oculares ou pelo joystick de queixo. Entretanto,
também devido a questões de uso contínuo, este software de capa também terá
uma adaptação ao uso de ponteiro, promovendo alternativas ágeis de troca de foco
entre controles oferecidos por páginas web e softwares em geral. Colocaremos em
foco o quadrante que mostra os campos do formulário e a interação do ponteiro
(este representado pelo ponto preto), conforme figura a seguir:

Figura 7 – Área ao redor do ponteiro recebe tags para facilitar a navegação

Utilizaremos uma área em torno do ponteiro (representada pelo cículo na


imagem) em que, caso haja controles dentro dela, estes também recebam tags para
acesso via voz, cada tipo de controle recebendo um tipo de tag diferente e dando
foco a controles mais importantes como botões de envio de dados, sendo a
importância de tais controles mostrada em diferença de cores no texto das tags,
conforme ilustra a figura a seguir:

22
Figura 8 – Controles do formulário devidamente identificados próximos ao ponteiro

Na imagem acima temos o ponteiro e os controles em foco devidamente


etiquetados seguindo uma lógica simples, campos de texto são marcados com T,
botões com B e assim por diante. A cor preta significa interação simples, enquanto
a cor laranja significa que algum evento/ação irá ocorrer, e então podemos criar e
padronizar outras cores como vermelho ser uma ação/evento que irá alterar algo
mais importante, por exemplo.
O objetivo de se ter uma área próxima ao ponteiro para que este coloque as
tags em controles próximos, é o de evitar confusão e poluição visual para o usuário,
uma vez que se todos os controles na tela fossem identificados ao mesmo tempo
isto também poderia levar à dificuldade focal e causar consequências no dispositivo
de eye-tracking. Seria também possível usar a área de etiquetamento do ponteiro,
que fica invisível por padrão, funcionar como uma lupa e aumentar o tamanho da
página na área envolvida.

23
5.2 – Entrada de dados

Fornecer dados ao computador é parte crucial para o funcionamento de


qualquer sistema e aplicação, pois é a parte mais importante da interação entre o
homem e a máquina, é a comunicação de fato entre as duas partes. O método mais
comum de entrada de dados é o uso do teclado, onde é necessária uma certa
familiarização com o equipamento e também requer grande agilidade de braços,
mãos e dedos.
Com as limitações com que nossos usuários convivem, o uso de teclado
físico torna-se inviável e hoje já possuímos teclados virtuais que acompanham
qualquer sistema operacional básico, como solução paliativa a casos de problema
de equipamento. Porém, o uso do teclado virtual exige uso constante de ponteiro e,
dentro das opções que temos para tal, digitar usando um simples teclado virtual
torna-se uma tarefa árdua e cansativa. A necessidade de ter que mover o ponteiro
até cada letra dentro de uma área da tela nos coloca numa posição em que a
velocidade da digitação, a facilidade de uso e o conforto do usuário sejam
extremamente reduzidos.
Para amenizar tais efeitos e aumentar a produtividade da digitação em
teclado virtual, podemos propor a combinação do mesmo com recursos já
disponíveis e largamente utilizados, como um dicionário preditivo de palavras, os
famosos corretores automáticos dos smartphones com sistemas Android e iOS e
softwares especializados que possuem algumas características especiais como o
EZ-keys, teclado virtual utilizado pelo mundialmente famoso cosmólogo e físico
teórico Stephen Hawking, que possui um algoritmo que percorre as letras do teclado
virtual como se fosse uma matriz, fazendo movimentos de linha e coluna e
esperando que o usuário de o comando de parada, para que a letra selecionada
seja digitada no campo de texto em foco.
Juntando todas essas idéias, teríamos um teclado básico com formas de
percorrer combinadas e/ou configuradas pelo usuário, podendo percorrer as letras
de forma sequencial, percorrer graficamente utilizando os olhos ou o joystick de
queixo e ao mesmo tempo em que seleciona as letras, o teclado mostra

24
combinações de vogais e consoantes e após isso, aprendendo e oferecendo as
palavras mais utilizadas pelo usuário, um algoritmo oferece palavras completas
relacionadas a tais sílabas e letras até que o usuário consiga identificar a palavra
que gostaria de escrever. Como por exemplo na imagem a seguir, podemos ver um
exemplo caso a leta L fosse selecionada no teclado, apareceriam as sílabas de La
até Lu e, logo após a sílaba Li ter sido selecionada, são mostradas 3 opções de
palavra e “Literatura” é escolhida como resultado.

Figura 9 – Processo sequencial de predição de palavras a partir da seleção da letra L

Tal algoritmo também pode ser acionado via voz, porém, como temos o
problema da imprecisão, o resultado processado é gerado e colocado no campo de
texto, porém ao mesmo tempo são oferecidas palavras semelhantes a ele de forma
a melhorar a velocidade de digitação como um todo. Tal metodologia seria
desenvolvida de modo a mostrar sempre as palavras mais utilizadas pelo usuário
ou dentro dos assuntos mais abordados e/ou pesquisados pelo próprio,
classificando em caráter de prioridade palavras dentro de um dicionário.
Ao longo do tempo, tal algoritmo criaria este banco de dados de palavras e
este poderia vir a alterar até a forma com que o teclado é apresentado
dinamicamente, tentando organizar as letras de acordo com a provável próxima letra
tendo como foco as vogais, pois são as letras mais comumente utilizadas, podendo
tomar um aspecto gráfico como o mostrado a seguir:

25
Figura 10 – Teclado virtual dinâmico hipotético com letras organizadas em torno das vogais

Na imagem podemos ver letras organizadas de forma lógica ao redor das vogais,
sendo as letras mais próximas as mais “prováveis” a serem digitadas pelo histórico
de entrada de dados do usuário.
Tais propostas e seus prováveis resultados ainda ficariam muito atrás em
eficiência e eficácia se comparados ao um teclado comum, porém a chance de se
tornar uma alternativa completamente viável a nosso público alvo é alta.

6. Conclusão

Com as ferramentas e propostas de solução apresentadas, podemos concluir


que é possível promover independência, mesmo que lentamente, ao nosso público
alvo. O uso de tais ferramentas sem as soluções adaptativas de software
apresentadas já conseguem proporcionar um nível básico de interação homem-
máquina onde os usuários conseguem, mesmo com eficiência e eficácia reduzidas,
realizar tarefas básicas como navegação em websites, preenchimento de cadastros
e acesso à operações bancárias. A partir do momento em que o software proposto
for desenvolvido, este impactará em um aumento de velocidade e aproveitamento
das atividades propostas.
Este tema ainda é pouco abordado pela comunidade científica, e os
resultados aqui obtidos concretamente e hipoteticamente podem servir como um
estímulo inicial para futuros avanços na área de acessibilidade e também influenciar
as técnicas de usabilidade atuais no sentido de inovar e/ou criar ferramentas e
técnicas com outros enfoques para os usuários sem problemas motores. Dentro das

26
possibilidades que mostramos aqui, se aplicadas a usuários não-desabilitados,
podem criar outras perspectivas de interação com máquinas, ao deixar os braços
livres para outros comandos, o uso dos comandos de olho e pescoço possam talvez
serem utilizados como complemento a algum comando mais complexo que já exista
a fim de torná-los mais simples e efetivos.
Além de proporcionar independência no uso de sistemas para o nosso
público-alvo e tornando possível a realizações de atividades cotidianas, pensando
a longo prazo, podemos transformá-los em profissionais capacitados a atuar no
mercado de trabalho de Tecnologia da Informação, que já apresenta escassez
profissional, além de abrir portas para diversas outras áreas pois, como vivemos
uma realidade em que os computadores apresentam uma certa ubiquidade, ou seja,
estão presentes progressivamente em praticamente tudo que utilizamos, desde
estações de trabalho, celulares até aparelhos de marca-passo e outros
equipamentos médicos.
Hoje tudo tende a se tornar computação, tudo tende a se manter conectado
e, ao inserirmos estas pessoas a esta realidade, damos a elas a oportunidade de
sair de um estado de total limitação e dependência para também estarem
conectadas e aptas a uma vida o mais próximo da comum possível.

27
8. Bibliografia

Sem Autor. Associação Salvador: Disponível em


<http://www.associacaosalvador.com/faqs/> Acesso em: 15 nov. 2013

Tobii Technology. Tobii Eye-Tracking White paper: Disponível em


<http://www.tobii.com/en/eye-tracking-research/global/library/white-papers/tobii-
eye-tracking-white-paper/> Acesso em: 13 abril 2014

HAWKING, Sephen. The Computer: Disponível em <http://www.hawking.org.uk/the-


computer.html> Acesso em: 12 maio 2014

E. Perini, S. Soria, A. Prati e R. Cucchiara. “FaceMouse: A Human-Computer


Interface for Tetraplegic People” Disponível em:
<http://imagelab.ing.unimore.it/imagelab/pubblicazioni/Published_LNCS.pdf>
Acesso em: 10 jun 2014

28

Você também pode gostar