Você está na página 1de 11

Considerações teóricas sobre imagens

audiotáteis impressas em 3D.

<omitido para revisão cega>, <omitido para revisão cega> *1;


<omitido para revisão cega>, <omitido para revisão cega> 2;

1 – <omitido para revisão cega>, UFBR, email1@email.com.br


2 – <omitido para revisão cega>, UFBR, email2@email.com.br
*- Correspondência: Rua Hipotética, 000, Bairro, Cidade, Estado, País, 10000-000.

Área reservada para DOI

RESUMO

Imagens audiotáteis são recursos assistivos interativos para pessoas


com deficiência visual, capazes de transmitir informações verbais e
gráficas por áudio e tato. Discutem-se algumas considerações teóricas
acerca desse tipo de material, resultantes de uma Revisão
Bibliográfica Sistemática (RBS). Examina-se nomenclatura,
funcionamento, aplicações e o desenvolvimento de imagens
audiotáteis. O estudo contribui com a atualização sobre o estado da
arte de imagens audiotáteis e abre caminho para desencadeamentos
futuros nas áreas do Design e Acessibilidade.

Palavras-chave: impressão 3D, tátil, áudio, deficiência visual,


acessibilidade.

ABSTRACT

Audio-tactile images are interactive assistive resources for people with


visual impairments, capable of transmitting verbal and graphical
information through audio and touch. Some theoretical considerations
about this type of material are discussed, which are results from a
Systematic Bibliographic Review (SBR). Nomenclature, operation,
applications and the development of audio-tactile images are examined.
The study contributes with the update of the state of the art about tactile
images and opens up a path for future developments on the fields of
Design and Accessibility.

Palavras-chave: 3D printing, tactile, audio, visual impairment,


accessibility.

1. INTRODUÇÃO

Imagens táteis são recursos assistivos para pessoas com deficiência


visual, onde a informação é obtida exclusivamente através da
percepção tátil, ou seja, Braille e pontos, linhas e áreas em relevo.
Podem ser produzidas por impressão em relevo no papel
microencapsulado, termoformagem ou mesmo artesanalmente.
Recentemente, a impressão 3D vem sendo utilizada como meio
produtivo de imagens táteis (GIRAUD et al., 2017; GÖTZELMANN,
2018).
Ainda que satisfatórias, imagens táteis demandam uma carga
cognitiva elevada, pois requer que a pessoa com deficiência visual use
o mesmo canal sensorial tanto para ler textos e legendas (Braille)
quanto para compreender informações gráficas (GÖTZELMANN;
WINKLER, 2015; HOLLOWAY et al., 2018).
Uma alternativa é produzir imagens audiotáteis impressas em 3D,
onde informações textuais e descritivas são transmitidas através de
áudio enquanto a pessoa com deficiência visual (cega ou com baixa
visão) explora a imagem e suas informações gráficas táteis. Quero et
al. (2018) descreve como sendo um sistema que é capaz de transmitir
e receber interações entre diferentes modalidades sensoriais.
Götzelmann (2016a) e Shi et al. (2017) sugerem que dentre as
vantagens de se utilizar imagens audiotáteis ao invés de apenas táteis
estão a redução da complexidade, o menor esforço cognitivo para
compreender a informação, e não ser necessário o uso de espaço físico
para impressão do texto em Braille – logo, o número de informações
verbais transmitidas pode ser maior e o usuário não precisa saber
Braille. Além disso, imagens audiotáteis são mais vantajosas em
relação aos objetivos de usabilidade da ISO 9241 (GÖTZELMANN,
2018).
Com a finalidade de obter informações sobre imagens audiotáteis e
seu estado da arte, uma Revisão Bibliográfica Sistemática (RBS) foi
executada. O objetivo deste artigo é discutir algumas considerações
teóricas acerca do resultado desta revisão. Para isso, relata-se
brevemente a RBS e, em seguida, considerações sobre nomenclatura,
funcionamento, aplicações e desenvolvimento das imagens
audiotáteis são realizadas. Por fim, conclui-se o artigo com a retomada
do objetivo e desencadeamentos futuros.

2. ESTRATÉGIA

Como dito anteriormente, o artigo baseia-se nos resultados de uma


RBS. O objetivo principal foi compreender o estado da arte sobre
imagens audiotáteis, impressas em 3D, voltadas às pessoas com
deficiência visual, nos últimos 5 anos. O panorama geral da estratégia
utilizada para a revisão é apresentado pela Figura 01.
Figura 01
Panorama geral da RBS.

Foram definidas 3 bases de dados: Google Acadêmico, Scopus e


Science Direct. As pesquisas foram realizadas nos idiomas inglês e
português.
Como apresentado pelo panorama geral, 3 filtros de leitura fizeram
parte da RBS. Primeiramente, a leitura do título, resumo e palavras-
chave. Em seguida, a leitura da introdução e conclusão. Por fim, a
leitura completa da obra.
Foram, ao total, 1102 obras coletadas através da busca em bases de
dados. Excluindo-se resultados duplicados, 1058 passaram para a
leitura. A Tabela 01 apresenta os resultados quantitativos obtidos em
cada etapa.

Etapas Quantidade
Leitura de título, resumo e palavras-chave 1058
Leitura de introdução e conclusão 179
Leitura completa da obra 47
Obras aprovadas na RBS 29
Tabela 01
Quantidade de resultados em cada etapa da RBS.
Ao final da RBS, 1 dissertação e 28 artigos foram considerados
relevantes ao tema e ao objetivo proposto.
É válido mencionar que a revisão aconteceu nos meses de janeiro
e fevereiro de 2020. Discute-se o resultado no tópico a seguir.

3. DESENVOLVIMENTO E DISCUSSÕES

A imagem audiotátil, como chama Götzelmann (2016a) e Ghodke


(2019), também é chamada por autores de modelo interativo
impresso em 3D (GIRAUD et al., 2017; SHI et al., 2017; ROSSETTI et al.,
2018a; 2018b) ou ainda modelo tátil áudio-responsivo (KOLITSKY,
2019). Quando, além da interatividade por áudio e tato, a imagem
também apresenta outra atividade sensorial, pode ser chamada de
interativa multissensorial (BRULE et al., 2016) ou ainda de
audiovisuotáteis (GÖTZELMANN, 2016b; 2018).
A nomenclatura modelo interativo impresso em 3D (interactive 3D
printed model, ou interactive 3D model, dos originais em inglês), apesar
de mais utilizada, não deixa em evidência a interação sensorial por
audição, ou ainda, de que se trata da única interação disponível (além
do tato). Pode, inclusive, abarcar outros sentidos, visão e olfato, como
é o caso de modelos interativos apresentados por Brule et al. (2016) e
Shi et al. (2018; 2019).
Ao contrário, imagens audiotáteis (do inglês, audio-tactile images)
especifica que a forma de interação é através do tato e da audição.
Portanto, adota-se nesse artigo esta nomenclatura.
Porém, independente do nome dado ao material acessível, o
princípio comum das imagens audiotáteis impressas em 3D é que,
além dos elementos táteis, esse tipo de material também possui
anotações em áudio. O funcionamento principal é: a pessoa com
deficiência visual realiza a exploração tátil de uma imagem física e, em
determinados pontos de acionamento, recebe explicações em áudio
sobre os elementos táteis explorados (Figura 02).
Figura 02
Funcionamento básico de uma imagem audiotátil.

Foi identificado que a aplicação principal para as imagens


audiotáteis se encontra na educação de pessoas com deficiência visual,
tanto cegas quanto com baixa visão. Foram 16 artigos, sendo 7 grupos
de autores diferentes. Outros usos identificados foram para
orientação e mobilidade, herança cultural (museus, arte e locais
históricos), livro infantil e auxílio à navegação digital.
Na educação, menciona-se o uso de mapas audiotáteis (BRULE et
al., 2016; GHODKE, 2019; GHODKE et al., 2019; GIRAUD et al., 2017;),
formas geométricas (JAFRI et al., 2015; 2017), imagens de anatomia e
biologia (KOLITSKY, 2019) e ainda adaptações de modelos digitais
diversos retirados de repositórios como o thingiverse.com (SHI et al.,
2016; 2017; 2018; TEJADA et al., 2018).
O design dessas imagens é diversificado, assim como a
interatividade entre áudio e elementos táteis. Em linhas gerais, as 3
formas mais mencionadas de se desenvolver imagens audiotáteis é
através do uso de reconhecimento de objetos por uma câmera (visão
computacional), conexão da imagem tátil com placas eletrônicas e
imagem tátil sobre uma tela touch. Outras maneiras mencionadas
foram: reconhecimento digital de sons acústicos, uso de anel
inteligente e caneta leitora. A seguir, são exemplificados os 3 meios
mais mencionados de desenvolvimento de imagens audiotáteis.
Jafri et al. (2017) apresentam uma maneira de tornar interativo o
aprendizado de formas geométricas impressas em 3D. Utilizando o
sistema open source Trackmate, desenvolvido pelo grupo MIT Media
Lab, a criança com deficiência visual explora com suas mãos as formas
geométricas tangíveis sobre uma superfície transparente. Há uma
câmera posicionada embaixo desta superfície, que capta um código de
barras único colado em cada face (por uma etiqueta). Um programa de
computador lê este código e o traduz em informações em áudio sobre
a forma tangível.
Já Shi et al. (2017) projetaram Markit e Talkit, duas partes de uma
mesma ferramenta para adicionar marcadores em imagens impressas
em 3D. Markit é um add-on para o software Blender, que serve para
adicionar marcadores (cubos com etiquetas em 5 dos seus lados, para
serem reconhecidos por visão computacional) e os associarem a
áudios específicos. Talkit é um aplicativo que reconhece esses
marcadores e desencadeia arquivos em áudio quando a pessoa com
deficiência visual toca com seu dedo indicador em um elemento tátil
previamente marcado. Shi et al. (2018) revisitaram este protótipo,
lançando o aplicativo Talkit++ que, além de arquivos em áudio,
também suporta sons não verbais e animações para pessoas com baixa
visão.
Utilizando impressão 3D, corte a laser, pregos metálicos e uma
placa eletrônica Touch Board (compatível com Arduino), Giraud et al.
(2017) desenvolveram um mapa interativo 3D de um reino fictício.
Quando a pessoa com deficiência visual toca em um ponto metálico, a
placa reconhece qual ponto foi tocado e reproduz um áudio com seu
nome e explicação.
Enquanto isso, Götzelmann (2018) utiliza a tela touch de celulares
ou tablets para adicionar interatividade a mapas táteis. Os mapas são
impressos em 3D com filamento transparente, com no máximo 1mm
de altura. Ao redor deles, são impressos códigos capacitivos (com
filamento condutivo). A pessoa com deficiência visual sobrepõe o
mapa sobre uma tela touch e utiliza um aplicativo para reconhecer o
código capacitivo. A partir do reconhecimento, o usuário pode realizar
a exploração tátil de seus elementos, utilizar diferentes toques para
receber resposta em áudio, assim como comando de voz. Além disso,
por ser um mapa translúcido, a luz da tela pode indicar áreas, pontos
e linhas visualmente para pessoas com baixa visão.

4. CONCLUSÕES

O objetivo do artigo foi realizar considerações teóricas acerca de


imagens audiotáteis impressas em 3D, contribuindo assim com
informações relevantes sobre o estado da arte deste tema.
Tratou-se da nomenclatura utilizada para se referir a imagens
audiotáteis e seu princípio básico de funcionamento. Foi identificado
que sua principal aplicação é na educação de pessoas com deficiência
visual. Por fim, apresentou-se as diferentes formas de
desenvolvimento de imagens audiotáteis, sendo os 3 meios de mais
destaque: visão computacional, imagens táteis ligadas a placas
eletrônicas e imagem tátil sobre uma tela touch.
O artigo abre caminho para outras pesquisas sobre o tema,
contribuindo com considerações teóricas válidas para o campo do
Design e Acessibilidade. Como pesquisa futura, indica-se o estudo
sobre qual a melhor forma de se desenvolver imagens audiotáteis,
dentre as mencionadas.

AGRADECIMENTOS

Agradecemos à CAPES pelo financiamento de bolsa de estudos no


Programa de Demanda Social.
REFERÊNCIAS BIBLIOGRÁFICAS

BRULE, E.; BAILLY, G.; BROCK, A.; VALENTIN, F.; DENIS, G; JOUFFRAIS, C.
MapSense: Design and Field Study of Interactive Maps for Children Living
with Visual Impairments. In: INTERNATIONAL CONFERENCE FOR HUMAN-
COMPUTER INTERACTION, 2016, San Jose, EUA. Anais... San Jose, 2016.
GHODKE, U. The Cross-Sensory Globe: Co-Designing a 3D Audio-Tactile Globe
Prototype for Blind and Low-Vision Users to Learn Geography. 2019. 62p.
Dissertação (Mestrado em Design Inclusivo). OCAD University, Toronto,
2019.
GHODKE, U.; YUSIM, L.; SOMANATH, S.; COPPIN, P. The Cross-Sensory Globe:
Participatory Design of a 3D Audio-Tactile Globe Prototype for Blind and
Low-Vision Users to Learn Geography. In: DESIGNING INTERACTIVE
SYSTEMS CONFERENCE, 2019, San Diego, EUA. DIS’19: Proceedings.... Nova
Iorque: Association for Computing Machinery, 2019.
GIRAUD, S.; BROCK, A.; MACÉ, M.; JOUFFRAIS, C. Map learning with a 3D printed
interactive small-scale model: Improvement of space and text memorization
in visually impaired students. Frontiers in Psychology, v.8, a.930, jun., 2017.
GÖTZELMANN, T. CapMaps: Capacitive sensing 3D printed audio-tactile maps.
In: Miesenberger, K.; Penaz, P. (eds.). Computer Helping People with Special
Needs. ICCHP 2016. Lecture Notes in Computer Science. Cham: Springer,
2016a.
GÖTZELMANN, T. LucentMaps: 3D printed audiovisual tactile maps for blind and
visually impaired people. In: ASSETS 2016 - 18TH INTERNATIONAL ACM
SIGACCESS CONFERENCE ON COMPUTERS AND ACCESSIBILITY, 2016, Reno,
EUA. Anais... Reno, 2016b.
GÖTZELMANN, T. Visually augmented audio-tactile graphics for visually
impaired people. ACM Transactions on Accessible Computing, v.11, n.2,
a.8, 2018.
GÖTZELMANN, T.; WINKLER, K. SmartTactMaps: a smartphone-based approach
to support blind persons in exploring tactile maps. In: 8TH ACM
INTERNATIONAL CONFERENCE ON PERVASIVE TECHNOLOGIES RELATED
TO ASSISTIVE ENVIRONMENTS, 2015, Corfu, Grécia. Anais... Nova Iorque:
Association for Computing Machinery, 2015.
HOLLOWAY, L.; MARRIOTT, K.; BUTLER, M. Accessible maps for the blind:
Comparing 3D printed models with tactile graphics. In: CONFERENCE ON
HUMAN FACTORS IN COMPUTING SYSTEMS, 2018, Montreal, Canadá.
Anais... Nova Iorque: Association for Computing Machinery, 2018.
JAFRI, R.; ALJUHANI, A.; ALI, S. A Tangible Interface-based Application for
Teaching Tactual Shape Perception and Spatial Awareness Sub-Concepts to
Visually Impaired Children. Procedia Manufacturing, v. 3, p. 5562–5569,
jan., 2015.
JAFRI, R.; ALJUHANI, A.; ALI, S. A tangible user interface-based application
utilizing 3D-printed manipulatives for teaching tactual shape perception and
spatial awareness sub-concepts to visually impaired children. International
Journal of Child-Computer Interaction, v. 11, p. 3–11, jan., 2017.
KOLITSKY, M. Making 3D Laser Cut Stratigraphic Audio-responsive Tactile
Templates. Journal of Science Education for Students with Disabilities,
v.22, n.1, 2019.
QUERO, L.; BARTOLOMÉ, J.; LEE, S.; HAN, E.; KIM, S.; CHO, J. An Interactive
Multimodal Guide to Improve Art Accessibility for Blind People. In: 20TH
INTERNATIONAL ACM SIGACCESS CONFERENCE ON COMPUTERS AND
ACCESSIBILITY, 2018, Galway, Irlanda. Anais… Nova Iorque: Association for
Computing Machinery, 2018.
ROSSETTI, V.; FURFARI, F.; LEPORINI, B.; PELAGATTI, S.; QUARTA, A. Enabling
Access to Cultural Heritage for the visually impaired: An Interactive 3D model
of a Cultural Site. Procedia Computer Science, v. 130, p. 383-391, 2018a.
ROSSETTI, V.; FURFARI, F.; LEPORINI, B.; PELAGATTI, S.; QUARTA, A. Smart
Cultural Site: An Interactive 3d Model Accessible to People with Visual
Impairment. IOP Conference Series: Materials Science and Engineering,
v.364, n.1, jun., 2018b.
SHI, L.; MCLACHLAN, R.; ZHAO, Y.; AZENKOT, S. Magic Touch: Interacting with 3d
printed graphics. In: ASSETS 2016 - 18TH INTERNATIONAL ACM SIGACCESS
CONFERENCE ON COMPUTERS AND ACCESSIBILITY, 2016, Reno, EUA.
Anais... Reno, 2016.
SHI, L.; LAWSON, H.; ZHANG, Z.; AZENKOT, S. Designing Interactive 3D Printed
Models with Teachers of the Visually Impaired. In: CHI CONFERENCE ON
HUMAN FACTORS IN COMPUTING SCIENCE, 2019, Glasgow, Escócia. Anais…
Nova Iorque: Association for Computing Machinery, 2019.
SHI, L.; ZHANG, Z.; AZENKOT, S. A demo of talkit++: Interacting with 3D printed
models using an iOS device. In: 20TH INTERNATIONAL ACM SIGACCESS
CONFERENCE ON COMPUTERS AND ACCESSIBILITY, 2018, Galway, Irlanda.
Anais… Nova Iorque: Association for Computing Machinery, 2018.
SHI, L.; ZHAO, Y.; AZENKOT, S. Markit and Talkit: a low-barrier toolkit to augment
3D printed models with audio annotations. In: ACM SYMPOSIUM ON USER
INTERFACE SOFTWARE AND TECHNOLOGY, 2017, Quebec, Canadá. Anais...
Nova Iorque: Association for Computing Machinery, 2017.
TEJADA, C.; FUJIMOTO, O.; LI, Z.; ASHBROOK, D. Blowhole: Blowing-Activated
Tags for Interactive 3D-Printed Models. In: GRAPHICS INTERFACE, 2018,
Ontario, Canadá. Anais... 2018.

Você também pode gostar