Você está na página 1de 124

Ministério da Educação - MEC

Universidade Aberta do Brasil - UAB


Universidade Federal do Piauí - UFPI
Centro de Educação Aberta e a Distância - CEAD

SISTEMAS MULTIMÍDIA

Vinicius Ponte Machado


Reitor Diretor do Centro de Educação Aberta e a
José Arimatéia Dantas Lopes Distância - CEAD
Gildásio Guedes Fernandes
Vice-Reitora
Nadir do Nascimento Nogueira Vice-Diretora do Centro de Educação
Aberta e a Distância - CEAD1
Superintendente de Comunicação Lívia Fernanda Nery da Silva
Jacqueline Lima Dourado
Coordenador(a) do Curso de Licenciatura
Editor em Computação
Ricardo Alaggio Ribeiro Keylla Maria de Sá Urtiga Aita

EDUFPI - Conselho Editorial Coordenador(a) de Tutoria do Curso de


Ricardo Alaggio Ribeiro (presidente) Licenciatura em Computação
Antonio Fonseca dos Santos Neto Aline Montenegro Leal Silva
Francisca Maria Soares Mendes
José Machado Moita Neto
Solimar Oliveira Lima
Teresinha de Jesus Mesquita Queiroz
Viriato Campelo

EQUIPE TÉCNICA

Revisão de Originais
Fabiana Sousa
Projeto Gráfico e Diagramação
Nalton Luiz Silva Parente de Pinho
Capa
Nalton Luiz Silva Parente de Pinho

FICHA CATALOGRÁFICA
Serviço de Processamento Técnico da Universidade Federal do Piauí
Biblioteca Comunitária Jornalista Carlos Castello Branco
Dados internacionais de Catalogação na Publicação
M149s Machado, Vinicius Ponte.
Sistemas multimídia / Vinicius Ponte Machado. –
Teresina : EDUFPI, 2019.
126 p.

ISBN

1. Sistemas multimídia. 2. Mídia digital.


3. Computação. I. Título.

CDD 004.6
De acordo com a Lei n. 9.9610, de 19 de fevereiro de 1998, nenhuma parte deste livro pode ser fotocopiada,
gravada, reproduzida ou armazenada num sistema de recuperação de informações ou transmitida sob
qualquer forma ou por qualquer meio eletrônico ou mecânico sem o prévio consentimento do detentor
dos direitos autorais.
Editora da Universidade Federal do Piauí - EDUFPI
Campus Universitário Ministro Petrônio Portella
CEP: 64049-550 - Bairro Ininga - Teresina - PI - Brasil
APRESENTAÇÃO

Desde a época do advento da TV, a sociedade tem se deparado com


uma nova mídia de recursos áudio-visuais, bem diferente daquela que por
décadas estava acostumada, como a mídia escrita e de imagens estáticas,
ou até mesmo as faladas como a comunicação via rádio. Tais recursos
mudaram a forma de como nos comunicamos e podemos perceber
o mundo ao nosso redor. Mais recentemente a Internet proporcionou
a essa mesma sociedade o consumo dessa nova mídia sobre demanda,
ou seja, ao invés da informação ser imposta pelos transmissores (rádio e
TV), tivemos a oportunidade de buscar por nossas próprias informações
e entretenimento ao momento que nos é conveniente.
Ao mesmo tempo, a computação sofreu uma evolução de tal forma
que permitiu essa sociedade, antes consumidora dessas mídias, pudesse
ser também produtora da união de áudio, vídeo e informação. Essa união
de multimídias permitiu ainda que sistemas computacionais fossem
construídos de forma a atender as demandas da sociedade por informação
mais rica e mais fácil de ser interpretada.
O objetivo desta apostila é proporcionar um entendimento do
desenvolvimento e impacto que os sistemas multimídia trazem para
a sociedade. O texto foi escrito de forma objetiva, e cada capítulo é
acompanhado de embasamento teórico, bem como de exercícios. A
bibliografia e a webliografia ao fim das notas permite que o leitor se
aprofunde na teoria apresentada em cada unidade.
Na Unidade I são apresentados os conceitos básicos relacionados
ao tema. A Unidade II trata das principais ferramentas para desenvolver
um sistema multimídia, mostrando os principais software de autoria e as
linguagens de programação mais comumente utilizadas. Já na Unidade
III mostramos como se desenvolve os projetos multimídia. Por fim,
a Unidade IV traz as definições e normas que devem ser utilizadas na
manipulação dos elementos utilizados nos sistemas multimídia.
Boa Leitura!!
Vinícius Machado
SUMÁRIO

UNIDADE I – CONCEITOS BÁSICOS RELACIONADOS À


MULTIMÍDIA

1. SISTEMAS MULTIMÍDIA................................................. 16
1.1. Introdução........................................................................16
1.2. Histórico..........................................................................17
1.3. Aplicações Multimídia......................................................18
1.3.1. Entretenimento: Aumento da Interatividade..............18
1.3.2. Informação sob demanda (IOD)...............................18
1.3.3. Educação...................................................................19
1.3.4. Telemedicina.............................................................19
1.3.5. Videofonia e Videoconferência..................................19
1.4. Mídias..............................................................................19
1.4.1. Mídia de Percepção...................................................20
1.4.2. Mídia de Representação............................................20
1.4.3. Mídia de Armazenamento.........................................21
1.4.4. Mídia de Transmissão...............................................21
1.4.5. Aplicações Pessoa-a-Pessoa e Pessoa-a-Sistema............21
1.5. Taxonomia Recomendada pela ITU..................................22
1.6. Distribuição de Áudio e Vídeo..........................................23
1.6.1. Campos de Aplicação................................................23
1.6.2. Características da distribuição de vídeo de apresentações...24
1.6.3. Distribuição de Áudio e Vídeo em WANs.................25
1.7. Desafios da Multimídia.....................................................26
2. TÉCNICAS DE TRANSMISSÃO....................................... 27
2.1. Introdução........................................................................27
2.2. Streaming de Midia..........................................................27
2.3. Multicasting.....................................................................29
2.4. MBone.............................................................................30

3. CLASSES DE SISTEMAS MULTIMIDIA......................... 30


3.1. Tipo De Produtos Multimídia..........................................31
3.1.1. Vídeo/Filme sob demanda (VOD).............................33
3.2. Sistemas Multimídia Standalone.......................................33
3.3. Sistemas Multimídia Distribuídos.....................................34
3.3.1. Classes de Sistemas Multimídia Distribuídos.............34
3.4. Tipos de Plataformas........................................................35
3.4.1. Principais Famílias de Plataformas.............................36
3.5. Áudio-Videoconferência....................................................36
3.5.1. Requisitos..................................................................37
3.5.2. Videoconferência baseada em circuitos e pacotes.......38
3.5.3. Videoconferência a Pacotes com comunicação ponto-a-
multiponto..........................................................................40
3.5.4. Requisitos de Rede....................................................41
EXERCÍCIOS......................................................................................42
WEBLIOGRAFIA..............................................................................43

UNIDADE II – PRINCIPAIS FERRAMENTAS DE


DESENVOLVIMENTO PARA MULTIMÍDIA...................... 45

4. PROGRAMAS DE AUTORIA............................................ 46
4.1. ANÁLISE DE SOFTWARE............................................47
4.1.1. Softwares...................................................................47
4.1.2. Software Educacional................................................47
4.1.3. Categoria de Software Educacional............................47
4.1.4. A Ação do Professor e o Software de Autoria.............48

5. APLICATIVOS FECHADOS............................................. 48

6. FERRAMENTAS DE AUTORIA........................................ 50
6.1. Autoria de Títulos Lineares...............................................51
6.2. Autoria de Títulos Hipermídia..........................................52
6.2.1. Hipermídia HTML..................................................52
6.2.2. Autoria de Sítios.......................................................54
6.3. Software de autoria de multimídia – baseado em páginas.. 54
6.4. Software de autoria de multimídia – baseado no tempo....56

7. LINGUAGENS DE PROGRAMAÇÃO............................... 57
7.1. Linguagem de Marcação...................................................59
7.1.1. O Formato XML.......................................................60
7.2. A Linguagem VRML........................................................61
EXERCÍCIOS.............................................................................63
WEBLIOGRAFIA.......................................................................63

UNIDADE III – PROJETOS DE SISTEMAS


MULTIMÍDIA........................................................................ 65

8. INTRODUÇÃO AO PROJETO MULTIMÍDIA................ 66


8.1. Projeto..............................................................................67
8.2. Produção..........................................................................69
8.3. Preparação de conteúdo....................................................70

9. TECNOLOGIAS PARA PRODUÇÃO DE CONTEÚDO.. 71


9.1. Transmidia Storytelling.....................................................71
9.2. Realidade Aumentada.......................................................73
9.3. Realidade Virtual..............................................................74
9.3.1. Hardware..................................................................75
9.3.2. Realidade Virtual Imersiva........................................76
9.3.3. Realidade Virtual Não-Imersiva................................77
9.4. Rastreamento....................................................................77

10. REQUISITOS PARA SISTEMAS MULTIMÍDIA............ 78


10.1. Dispositivos de Armazenamento Multimídia...................79
10.2. Multimídia em Rede.......................................................80
10.3. Servidores Multimídia.....................................................81
10.4. Apresentação de Áudio e Vídeo.......................................82
10.4.1. Barramentos locais...................................................82
10.5. Requisitos de Sistema Operacional..................................84
EXERCÍCIOS.............................................................................85
WEBLIOGRAFIA.......................................................................85

UNIDADE IV – ELEMENTOS MULTIMÍDIA: TEXTO,


IMAGEM, ÁUDIO, ANIMAÇÃO E VÍDEO.......................... 87
11. ÁUDIO.............................................................................. 88
11.1. Representação digital de áudio.........................................88
11.2. Características da fala......................................................88
11.3. Representação simbólica da música: o padrão MIDI.......89
11.4. Técnicas de Compressão de Áudio Digital.......................90
11.4.1. Quantificação não linear..........................................90
11.4.2. Codificação Predictiva.............................................91
11.4.3. MPEG Áudio..........................................................92
11.4.4. Um codificador básico MPEG-Audio......................93
11.4.5. MP3........................................................................94

12. VÍDEO.............................................................................. 95
12.1. Níveis de sistema de vídeo...............................................95
12.2. Técnicas de compressão de vídeos...................................96
12.3. Tipos de sinais de vídeo..................................................98
12.4. Captura e reprodução de imagens e vídeos analógicos.....100
12.5. Vídeos e Imagens Coloridos............................................101

13. TEXTO............................................................................. 102


13.1. Fontes e Faces.................................................................103

14. IMAGENS......................................................................... 107


14.1. Pixel................................................................................107
14.2. Contraste........................................................................108
14.3. Harmonia Cromática......................................................111
14.4. Imagem digital................................................................112
14.4.1. RGB........................................................................113
14.4.2. Imagem Bitmap vs Vetorial.....................................114
14.4.3. Bitmap x Compressão..............................................116
14.4.4. Formatos Bitmap.....................................................118

15. ANIMAÇÃO...................................................................... 119


15.1. Métodos tradicionais de animação...................................119
15.2. Qualidade versus tamanho em animações.......................121
15.3. Looping e Morphing.......................................................122
EXERCÍCIOS.............................................................................123
WEBLIOGRAFIA.......................................................................124
REFERÊNCIAS..........................................................................125
UNIDADE I
Conceitos básicos relacionados à multimídia

RESUMO

A constante evolução da computação influencia diretamente


o comportamento da sociedade em diversos ramos como economia,
educação e lazer. A forma de como a informação é repassada também
foi influenciada por essa evolução. Os sistemas multimídia são
desenvolvidos de forma a proporcionar uma melhor relação entre as
mídias (áudio, vídeo, texto e animação) e o meio que ela se propaga
principalmente na Internet.
Nesta Unidade examinaremos os principais conceitos
relacionados ao desenvolvimento dos sistemas multimídia enfatizando
as principais mídias e os meios de transmissão e distribuição. O texto
desta Unidade contempla ideias de vários autores, expressando diversas
visões sobre os assuntos.
A Unidade é acompanhada de exercícios sem a solução. Cada
questão deve ser encarada como um tema, sobre o qual o aluno deve
dissertar. Recomenda-se que seja feita uma pesquisa sobre o assunto
e que a questão seja respondida de forma ampla, podendo refletir a
opinião do aluno. A bibliografia e a webliografia ao fim dos capítulos e
unidades devem ser utilizadas para adquirir um conhecimento razoável
sobre o tema de cada capítulo. Ao término da leitura desta Unidade, o
estudante deverá: a) Perceber a importância dos sistemas multimídia
na sociedade; b) Entender os principais conceitos sobre o tema c) Ser
capaz de distinguir os principais tipos de sistema multimídia.

Sistemas Multimídia | 11
1. SISTEMAS MULTIMÍDIA

1.1. Introdução
O desenvolvimento dos computadores também tem contribuído
para melhorar a comunicação, desde os primeiros terminais que
só permitiam informações do tipo texto, até chegar aos dias atuais
computadores pessoais que fornecem informações contendo som,
figuras, vídeos etc. a baixo custo e alto desempenho (WILLRICH,
2000).
O uso do termo “multimídia” (múltiplas mídias) não é novo,
ele é utilizado há muito tempo, mesmo antes da utilização de
microcomputadores. Uma apresentação multimídia que era feita
nos anos 80, consistia em utilizar uma sequência de slides (físicos)
acompanhada de uma fita cassete. O termo multimídia geralmente
vem acompanhado de outros dois termos: Hipertexto e Hipermídia.
FLUCKIGER (1995) define multimídia como campo
interessado na integração controlada por computador de textos,
gráficos, imagens, vídeos, animações, sons, e qualquer outro meio o
qual todo tipo de informação pode ser representado, armazenado,
transmitido e processado digitalmente. São programas e sistemas
em que a comunicação entre homem e computador se dá através de
múltiplos meios de representação de informação (p.ex.: áudio, imagem
estática, animação, gráficos e texto), ou seja, multimídia é o conjunto
de recursos que visa estimular todos os sentidos, porém, os mais usuais
são a visão e a audição. Multimídia significa que uma informação digital
pode ser representada através de áudio, vídeo e animação em conjunto
com mídias tradicionais (texto, gráficos e imagens) simultaneamente.
Pode-se definir hipertexto como sendo um texto que possui
conexão com outros textos. Este termo foi inventado por Ted Nelson
em 1965, e geralmente está ligado a uma não-linearidade na leitura de
um texto qualquer.
O conceito de Hipermídia também tem ver com a não-linearidade
da informação, porém não está limitada somente a textos, pode incluir

12 | Unidade I – Conceitos Básicos Relacionados à Multimídia


outras mídias como imagens, sons, vídeos, etc. Hipermídia pode ser
considerada como uma das aplicações multimídia.

1.2. Histórico
Segundo FIGUEREDO (2010), a multimídia foi um marco da
evolução da tecnologia da informação. Até 1990, era um termo que
poucos utilizavam, pois os computadores possuíam poucos recursos
o que impossibilitava o uso da multimídia digital em ambientes
domésticos. No início da década de 90 surgiu o que as empresas de
informática chamavam de “kit multimídia”. As empresas queriam dizer
que o kit transformava o computador do usuário em uma máquina
multimídia, o que confundiu alguns usuários os quais até hoje, acham
que ela é simplesmente o kit, que era formado por uma placa de som
caixas de som estéreo e um drive de CD. É claro que multimídia é
muito mais que isso.
Hoje em dia, muitos usam o termo multimídia, mas quando são
perguntados sobre o conceito, as respostas passam longe da realidade.
A história da multimídia pode ser dividida em três momentos
(FIGUEREDO, 2010).
Em um primeiro momento houve a articulação de várias
linguagens e mídias, ou seja, a utilização de algumas mídias, sem
vinculo aparente, de maneira articulada. Por exemplo: um filme
mudo, com um som de fundo produzido por um tocador de fitas k-7.
Já em um segundo momento, tivemos a criação de uma nova
mídia e de uma nova linguagem unificada, ou seja, as mídias agora
já são utilizadas em conjunto como um filme que já possui áudio
de vídeo em um único dispositivo. É neste momento que surge os
conceitos de hipertexto, hipermídia e a conversão de mídias analogias
em digitais e vice-versa começam a se complicar e merecer estudos
mais apurados.
Por fim, no terceiro momento, houve a redefinição da
multimídia, criando uma nova forma de trabalhar, comunicar-se,
divertir-se, etc. É quando a multimídia atinge o patamar que vivemos

Sistemas Multimídia | 13
hoje, o qual é indispensável aos sistemas modernos e onde as mídias
são interativas e provenientes de muitas fontes, a exemplo a internet.

1.3. Aplicações Multimídia


A motivação do uso de dados multimídia em sistemas
computacionais é o aumento da transferência de informações pelo
uso simultâneo de um ou mais sensos do usuário. Isto pois humanos
aprendem mais e mais rapidamente quando vários dos seus sentidos
(visão, audição, etc.) são utilizados (WILLRICH, 2000).
Outro objetivo das aplicações multimídia é emular a
comunicações humanas face-a-face. Isto tem levado à contínua
investigação de sistemas de comunicação e computação que se
aproximam da velocidade de transmissão, fidelidade e eficiência das
comunicações humanas face-a-face.
Áudio, vídeo e imagens são os meios naturais da comunicação
entre humanos. Portanto, sistemas multimídia têm aplicações em todas
as áreas que estas mídias possam ser utilizadas. Nas seções seguintes
são apresentados alguns exemplos de aplicações multimídia.

1.3.1. Entretenimento: aumento da interatividade


O uso da multimídia para entretenimento não é recente. Ao
logo do tempo a escala e sofisticação dos jogos e filmes avançaraam
drasticamente em três direções (BUFORD, 1994): Vídeo sob-
demanda, cinema interativo e jogos colaborativos suportados por
computador.

1.3.2. Informação sob demanda (IOD)


É um sistema similar ao VOD (Video on Demand), mas outros
tipos de informação existem além do vídeo. Para o usuário, o sistema
pode ser visto como uma biblioteca vasta e versátil. Nele, usuários
realizam pesquisas através de uma interface em uma TV ou em um
computador e o sistema procuraria, obteria, transferiria e apresentaria
informações ao usuário.

14 | Unidade I – Conceitos Básicos Relacionados à Multimídia


1.3.3. Educação
Sistemas multimídia são aplicados na educação. Pessoas
aprendem mais e mais rapidamente quando elas podem ver, ouvir
e trabalhar com novos conceitos, que tornam multimídia um meio
natural de treinar e educar. Muitos sistemas de educação/treinamento
multimídia atuais são sistemas standalones com o material armazenado
em CD-ROMs que podem ser compartilhados por outros usuários.

1.3.4. Telemedicina
Telemedicina é outra aplicação multimídia importante,
especialmente em caso de emergência em localizações remotas.
Em telemedicina, todos os registros dos pacientes são armazenados
eletronicamente. Instituições e equipamentos são conectados através
de uma rede multimídia.

1.3.5. Videofonia e Videoconferência


Sistemas de Videofonia e videoconferência permitem que
usuários dispersos se comuniquem efetivamente através de transmissões
de áudio e vídeo. Muitos sistemas atuais utilizam máquinas específicas
e redes a circuitos comutados (visto mais adiante). Eles são caros e não
são facilmente disponíveis. No futuro, vídeos serão disponíveis nas
nossas janelas da estação de trabalho, comunicando sobre uma rede
de pacotes chaveados de propósito geral. Videofones serão tão comuns
como os telefones atuais.

1.4. Mídias
Por falta de conhecimento, muitas vezes são chamados de mídias
os tipos de elementos que podem ser representados para o ser humano.
Elementos representativos como texto, som e imagem pertencem
a uma categoria de mídia chamada Mídia de representação. Na
verdade, as mídias podem se classificar em quatro categorias: Mídia de
percepção, Mídia de representação, Mídia de armazenamento e Mídia
de transmissão.

Sistemas Multimídia | 15
1.4.1. Mídia de Percepção
São os equipamentos que têm como função estimular os
sentidos dos seres humanos. A visão e a audição são os estímulos
naturais provenientes de monitores e placas de som, por exemplo. O
tato pode estar ligado a aplicações de realidade virtual.

1.4.2. Mídia de Representação


São os elementos utilizados para representar uma ideia, como
por exemplo: texto, imagem gráfica vetorial e estática (matricial),
áudio, vídeo e animações. Para o desenvolvimento de projetos
multimídia, deve-se levar em consideração o efeito de cada elemento no
comportamento humano, como é apresentado nas curvas da Figura 1.

Figura 1: Espectro de Representação da Ideia (WILLRICH, 2000)

Um bom projeto multimídia deve conter estes elementos


distribuídos uniformemente, dependendo do contexto em que se
encontre. Por exemplo, um projeto multimídia para um hotel que
fique localizado em um centro histórico brasileiro. Esta aplicação
multimídia poderá conter uma parte que trata da história do local
onde deverá ser utilizado textos e figuras ilustrativas, despertando
o lado intelectual do ser humano. Em contrapartida, esta mesma
aplicação poderá conter vídeos e figuras ilustrativas do hotel
acompanhados de música (ou som do próprio vídeo), despertando,
dessa forma o lado emocional do ser humano. Deve-se lembrar de
que quando o cinema mudo ganhou som, o sucesso foi absoluto,
pois o cinema ganhou muito em emoção.
16 | Unidade I – Conceitos Básicos Relacionados à Multimídia
1.4.3. Mídia de Armazenamento
São todos os meios que podem ser utilizados para o
armazenamento de elementos da mídia de representação. Podem-
se citar várias formas de armazenamento tais como: cartuchos para
videogames, CD-ROM para computadores e videogames, disco-laser
interativos entre outras.

1.4.4. Mídia de Transmissão


São todos os meios de transmissão que são utilizados para
veiculação da mídia de representação. A principal característica que
deve ser levada em consideração é a largura de banda (bandwidth) que
pode variar de algumas centenas de kbytes por segundo até algumas
dezenas de Mbytes por segundo. Deve-se ter em conta que estas
aplicações devem ser processadas em tempo real e os dados têm uma
natureza contínua, sendo assim, outras características também devem
ser consideradas:
• Diminuição da latência – latency (atraso do recebimento dos
pacotes transmitidos).
• Jitter (variação do atraso dos pacotes transmitidos).
• Taxa de perda de quadros – frame loss rate (taxa de pacotes
perdidos).
• Taxa de erro de bits – bit error rate (taxa de bits recebidos
que possuem erros).
Existem técnicas e padrões que dão suporte a esta transmissão de
dados, como as técnicas de streaming e multicasting.

1.4.5. Aplicações Pessoa-a-Pessoa e Pessoa-a-Sistema


FLUCKIGER (1995) classifica as aplicações multimídia
em rede em duas grandes classes: nas aplicações Pessoa-a-Sistema
(ou pessoa-a-servidores de informações) os indivíduos ou grupo de
pessoas comunicam com sistemas remotos para acessar, receber, ou
interagir com informações multimídia. Já nas aplicações Pessoa-a-
Sistemas Multimídia | 17
Pessoa o objetivo principal é aumentar a comunicação entre humanos.
O sujeito de comunicação varia de relações sociais privadas (p.e. em
videofonia) até a comunicação de grupos em trabalho cooperativo.
As aplicações pessoa-a-pessoa ainda podem ser subdividas de várias
maneiras, três critérios de subdivisão são:
• aplicações privadas versos aplicações profissionais;
• interpessoais (duas pessoas) versos aplicações orientada-a-
grupos;
• aplicações tempo-real ou síncronas versos aplicações
assíncronas.

As aplicações multimídia pessoa a pessoa podem ser subdividas


em aplicações síncronas e assíncronas. Aplicações multimídia síncronas
ou tempo-real são aquelas as quais a informação, gerada em tempo-
real pelo produtor ou que está armazenada no produtor, é transmitida
por um produtor a um receptor que apresenta a informação na
medida que ela está disponível. As aplicações nesta categoria incluem:
Aplicações Interpessoais (pessoa-a-pessoa): a partir das quais apenas
dois indivíduos estão envolvidos, como na videofonia; aplicações de
Distribuição (pessoa -para -grupo): a partir das quais informações
multimídia, como áudio e vídeo, são transmitidos ao vivo de uma
fonte para vários destinos (sem canal de retorno dos destinos para
a fonte); e Teleconferência de Grupo (grupo-a-grupo): é o termo
genérico para comunicação conversacional bidirecional entre dois ou
mais grupos de pessoas.
Já o objetivo das aplicações pessoa-a-sistema é aumentar ou
permitir modos inovadores de comunicação entre pessoas e fontes de
informação (ou servidores de informação). Estas aplicações podem
ser subdivididas em duas grandes categorias, dependendo do tipo de
acesso ao servidor: aplicações interativas e de distribuição.
1.5. Taxonomia Recomendada pela ITU
A ITU (International Telecommunications Union) propõe
em sua recomendação I.211 uma taxonomia de serviços (aplicações)

18 | Unidade I – Conceitos Básicos Relacionados à Multimídia


multimídia. Os chamados serviços de conversação implicam a
interação entre um humano e outro humano ou sistema. Esta classe
inclui serviços pessoa-a-pessoa tal como na videofonia e também
serviços pessoa-a-sistemas, como telesegurança e telecompras. Já os
Serviços de mensagem cobrem trocas de mensagem multimídia que
não são em tempo-real ou assíncronas entre mailboxes.
Os Serviços de recuperação (busca) cobrem todos os tipos de
acesso a servidores de informações multimídia. Tipicamente, o usuário
envia um pedido para o servidor e a informação pedida é liberada para
o usuário em tempo-real. Vídeo sob demanda é um exemplo deste
tipo de serviço. Por fim, os Serviços de distribuição cobrem serviços os
quais a informação é distribuída sob a iniciativa de um servidor. Um
exemplo desse tipo de serviço é a transmissão de programas de TV.
Esta classe ainda é subdividida em:
Serviços de Distribuição sem controle de apresentação pelo
usuário, que é caso dos programas de TV, distribuição de jornais
eletrônicos;
Serviços de Distribuição com controle de apresentação pelo
usuário, que é o caso do tele-ensino e tele-anúncio.

1.6. Distribuição de áudio e vídeo


O objetivo deste tipo de aplicação é a disseminação de fluxos de
áudio e vídeo para múltiplos indivíduos em localizações distintas. Com
relação a taxonomia, as aplicações descritas aqui são do tipo pessoa-a-
pessoa, de distribuição, unidirecional, e é endereçada à comunicação
de grupos e não a de indivíduos. Usualmente ela opera no modo
síncrono. Elas são muito usadas como groupware para suportar CSCW
e para a difusão de eventos (como seminários, reuniões) sob a rede.

1.6.1. Campos de Aplicação


A distribuição de áudio e vídeo no modo unidirecional é
usada principalmente para eventos ao vivo e armazenados, como a
difusão de seminários, conferências, teses e reuniões, podendo usar

Sistemas Multimídia | 19
multicast para grupos fechados ou abertos, ou ainda funcionalidades
broadcast verdadeiras. O campo de aplicação inclui: educação,
treinamento profissional, apresentações comerciais e de negócios,
atividades promocionais públicas ou privadas, trabalho cooperativo e
distribuição de eventos profissionais. A disseminação de seminários ou
reuniões abertas pode ser classificada em duas categorias: distribuição
institucional (distribuição dentro de uma organização local, que
implica o uso exclusivo de uma rede de transporte no local, como
por exemplo, em uma Intranet) e a distribuição externa (para várias
organizações sobre as WANs, por exemplo, a Internet). Um exemplo
de aplicação muito popular nos dias de hoje são os canais de TV e
rádio sobre a Internet.

1.6.2. Características da distribuição de vídeo de apresentações


A menos que a taxa de bits disponível e o desempenho da rede
permita uma qualidade de TV, vídeo digital é sempre uma questão
de compromisso entre a taxa de quadros e a resolução. Com uma
taxa de bits limitada, a taxa de quadros fica reduzida. No caso de
apresentações envolvendo apenas discussão, os requisitos são os
mesmos da videofonia: é melhor reduzir solavancos do que ter alta
resolução. No caso de apresentações com várias transparências ou uso
intensivo do quadro, é melhor ter alta resolução do que alta taxa de
quadros. Por exemplo, a transmissão de vídeo na taxa de 1 fps com
resolução de qualidade TV tem melhores resultados que 4 a 5 fps com
baixa resolução.
Uma técnica para melhorar o desempenho global seria o controle,
via operador, da resolução e da taxa de quadros. Assim, poderia-se
escolher em melhorar a resolução quando certa transparência ou um
quadro branco é focado, e aumentando a taxa de quadros quando
a resolução não é importante. Infelizmente os sistemas atuais não
suportam esta técnica.
O som é outro componente essencial em aplicações de
distribuição de áudio e vídeo. Diferente da videofonia ou mesmo da
telefonia, usuários são mais tolerantes a distorções quando assistem

20 | Unidade I – Conceitos Básicos Relacionados à Multimídia


passivamente a uma apresentação. Assim, uma pequena perda da
semântica é aceitável.

1.6.3. Distribuição de áudio e vídeo em


O número de eventos que são transmitidos em redes de longa
distância (WANs) vem aumentando a cada dia e são muito populares
sobre a infraestrutura MBone (vista mais adiante). A maior parte
da discussão apresentada na seção anterior está relacionada com a
distribuição de áudio e vídeo em WANs (na maior parte das vezes
sob a Internet). Nesta seção são apresentados apenas os aspectos que
diferenciam a distribuição de áudio e vídeo institucional da distribuição
em WANs.
Abaixo são apresentadas algumas aplicações desta classe de
aplicações multimídia:
• Conferências Profissionais: permitindo uma maior audiência.
Um exemplo é a distribuição regular da IETF (Internet
Engineering Task Force) sob a Internet.
• Educação a Distância: palestras são distribuídas a sítios
distantes. Usada principalmente dentro do quadro de
colaborações educacionais entre universidades.
• Grandes projetos colaborativos distribuídos: reuniões podem
ser difundidas mundialmente.
• Promoção de pesquisas ou agências governamentais: agências
públicas podem usar a rede para difundir eventos. Um
exemplo de difusão ao vivo da missão a Marte pela Nasa, e a
distribuição das palestras do SBRC’97 (Simpósio Brasileiro
de Redes de Computadores), ambas realizadas a partir da
Internet.
Os problemas de confidencialidade ou privacidade são mais
evidentes sobre WANs que em redes fechadas a organizações (p.e.
Intranet). Por exemplo, no caso do exemplo de difusão de reuniões
de grandes projetos colaborativos, é interessante que apenas pessoas
autorizadas pudessem assistir a reunião.
Sistemas Multimídia | 21
Na criptografia apenas o receptor com uma chave de criptografia
pode apresentar o fluxo recebido. Esta abordagem é usada, por
exemplo, pelos canais de TV pay-per-view. Progressos significativos
estão ocorrendo no desenvolvimento de algoritmos seguros e de pouco
custo de CPU. Na maioria das vezes, softwares de criptografia são
instalados no emissor e nos receptores. A autoridade central distribui
uma chave ao grupo fechado.
A taxa de bits necessária à distribuição de áudio e vídeo sob
WANs é a mesma da distribuição em redes locais: 200 Kbits/s para
alta resolução e baixa taxa de quadros e 6 a 8 Mbits/s para qualidade
de TV usando MPEG-2.
A dificuldade essencial das redes a pacotes é a taxa de bits
disponíveis, pois nem todos os pontos aceitam 200 Kbits/s adicionais
na linha de acesso à WAN. Além disso, a WAN em si pode usualmente
manipular apenas poucos fluxos broadcast simultâneos: IP, que é
provido com uma funcionalidade broadcast emulada (obtida por
multicast para grupos abertos), é a tecnologia de rede de escolha de
hoje; e a Internet, é a rede de transporte natural para suportar grandes
distribuições. ST-II e IPv6 são tecnologias de comutação de pacotes
que suportam multicast inerente. Diferente do IP usado atualmente
(Ipv4), ST-II é provido de um mecanismo de reserva de recursos.
Este limita o risco de perdas de pacotes que é inerente ao IP. Outro
problema da rede IP é que ela é do tipo melhor esforço, tornando a
qualidade altamente dependente da carga da rede. Uma solução para
o problema de qualidade imprevisível é superdimencionar a taxa de
bits da rede.

1.7. Desafios da Multimídia


Tecnologias devem ser implementadas e utilizadas (LU, 1996)
respeitando os requisitos das informações multimídia.
Dados multimídia têm dimensão temporal e devem ser
transmitidos, processados e apresentados em uma taxa fixa em muitas
aplicações, assim processamento e comunicação multimídia devem
satisfazer requisitos de tempo-real. As aplicações multimídia usam

22 | Unidade I – Conceitos Básicos Relacionados à Multimídia


simultaneamente múltiplos tipos de mídia. As relações temporais e
espaciais entre estas mídias devem ser mantidas.
Além disso, dados multimídia são dados intensivos, assim eles
devem ser compactados, e redes de alta velocidade e computadores
potentes são necessários para manipular estes dados.
Dados multimídia não têm sintaxe e semântica óbvia. Banco de
dados convencionais não suportam efetivamente dados multimídia.
Técnicas de indexação, recuperação e reconhecimento de informações
multimídia são necessários.

2. Técnicas de transmissão
2.1. Introdução
São todos os meios de transmissão utilizados para veiculação da
mídia de representação. A principal característica a ser considerada é
a largura de banda (bandwidth) que pode variar de algumas centenas
de kbytes por segundo até algumas dezenas de Mbytes por segundo.
Deve-se ter em conta que estas aplicações devem ser processadas em
tempo real e os dados têm uma natureza contínua, sendo assim, outras
características também devem ter importância tais como Diminuição
da latência – latency (atraso do recebimento dos pacotes transmitidos),
Jitter (variação do atraso dos pacotes transmitidos), Taxa de perda de
quadros (frame loss rate-taxa de pacotes perdidos) e Taxa de erro de
bits (bit error rate - taxa de bits recebidos que possuem erros). Existem
técnicas e padrões que dão suporte a esta transmissão de dados, a saber,
técnicas de streaming e multicasting”.

2.2. Streaming de Mídia


Segundo VARAJÃO (2012), Streaming é técnica de particionar
um arquivo em pedaços e enviá-los para o usuário em sequência e
continuamente. O receptor é capaz de usar ou reproduzir os dados
à medida que eles chegam. O software do receptor pode então
começar a processar os pedaços tão logo que os receba. Por exemplo,
um sistema de streaming pode particionar um arquivo de áudio em

Sistemas Multimídia | 23
vários pacotes, com tamanhos ajustados para a largura de banda
disponível entre o cliente e o servidor. Quando o cliente tiver
recebido pacotes suficientes, o software pode simultaneamente
reproduzir um pacote, descomprimir outro e receber um terceiro.
Este modelo contrasta com o método mais tradicional, a partir do
qual a reprodução é retardada até que todo o arquivo tenha sido
recebido.
A tecnologia de streamming é orientada para títulos lineares
e baseia-se em particionar um arquivo em pedaços e enviá-lo para
o usuário em sequência e continuamente. O receptor é capaz de
usar ou reproduzir os dados à medida que eles chegam. O software
do receptor pode então começar a processar os pedaços tão logo
os receba. Por exemplo, um sistema de streaming pode particionar
um arquivo de áudio em vários pacotes, com tamanhos ajustados
para a largura de banda disponível entre o cliente e o servidor.
Quando o cliente tiver recebido pacotes suficientes, o software
pode simultaneamente reproduzir um pacote, descomprimir outro
e receber um terceiro. Este modelo contrasta com o método mais
tradicional, a partir do qual a reprodução é retardada até que todo o
arquivo tenha sido recebido. O maior problema que essa tecnologia
tenta resolver é a manutenção do tempo real na exibição dos dados.
Streaming Video pode ser definido como uma sequência de
imagens em movimento que são enviadas através de uma rede de
dados, de forma comprimida e que são reproduzidas para o usuário
assim que chegam ao destino. Streaming de Media é a combinação
de streaming de vídeo e de áudio (VARAJÃO, 2012). Desta forma,
um usuário WEB não precisa esperar pela recepção completa de
um grande arquivo antes de ver o vídeo ou escutar o áudio. Isto
porque a mídia é enviada de maneira contínua e é reproduzida à
medida que chega ao destino. O usuário deve usar uma aplicação
que reproduza a mídia ao descomprimir os dados, enviando a
informação de vídeo para o monitor e o sinal de áudio para as
caixas de som. Este programa chamado player pode tanto ser parte
integrante de um WEB browser ou ser fornecido por terceiros.
24 | Unidade I – Conceitos Básicos Relacionados à Multimídia
2.3. Multicasting
Em comunicações tradicionais envolvendo vários pontos
simultaneamente, para cada pacote do host de origem é feita uma
replicação para o número de hosts destinos, e cada pacote é enviado
para seu destino separadamente. Este modelo impõe uma limitação no
número de máquinas que poderiam estar envolvidas na comunicação,
pois o tráfego gerado na rede e as necessidades computacionais do host
de origem – que gera cópias de cada pacote – aumentam linearmente
com o número de hosts destinos envolvidos.
A Figura 2 exemplifica uma transmissão tradicional. No
exemplo, um pacote deve ser enviado para os hosts destinos A, B
e C. Ele é replicado no host de origem e três cópias são enviadas,
consumindo maior desempenho no host X e maior largura de banda
na rede, mesmo que alguns dos segmentos de rede sejam comuns aos
três.

Figura 2: Transmissão com replicação do datagrama1

Existem, porém, tecnologias que tratam estas limitações, sendo


chamadas soluções escalares de rede. O uso da difusão seletiva IP é
uma destas soluções. Utilizando difusão seletiva, apenas uma cópia

1
Datagrama é "uma entidade de dados completa e independente que contém
informações suficientes para ser roteada da origem ao destino sem precisar confiar em
trocas anteriores entre essa fonte, a máquina de destino e a rede de transporte". Um
datagrama é uma unidade de transferência básica associada a uma rede de comutação
de pacotes em que a entrega, hora de chegada, e a ordem não são garantidos.

Sistemas Multimídia | 25
de cada pacote é enviada por enlace, sendo copiada apenas quando
houver um braço na árvore lógica dos destinos. A utilização de difusão
seletiva fornece um ganho de processamento de CPU e de largura de
banda quando vários sites estão envolvidos simultaneamente.

2.4. MBone
O MBone é uma rede virtual rodando sobre a Internet, ou seja,
um sistema que facilita a difusão de mídia quando há apresentações
para um grupo de pessoas, as quais, na maior parte do tempo, apenas
uma pessoa está transmitindo e as demais recebendo.
A estratégia de tráfego multimídia do MBone está tendo hoje
em dia um crescimento exponencial, graças às vantagens obtidas
com o uso de transmissões por difusão seletiva. Isso porque o uso de
videoconferência com o MBone proporciona um ganho na utilização
de banda e processamento das máquinas envolvidas, já que um único
datagrama pode atingir várias sub-redes que possuam uma mesma
rota de comunicação com o nó transmissor, e várias estações nestas
sub-redes, sem a necessidade de ser replicado. Como o tráfego de
videoconferência, que engloba áudio e vídeo, é bastante intenso, os
ganhos obtidos com o uso de difusão seletiva são ainda mais relevantes
(VARAJÃO 2012).
Esta estratégia está sendo largamente utilizada na Internet
para a transmissão de tráfego multimídia devido, em grande parte, à
racionalização quanto à utilização dos recursos envolvidos, seja largura
de banda, seja tempo de processamento gasto no encaminhamento
de pacotes. Como um dos maiores problemas encontrados hoje na
Internet é o crescimento incontrolável de máquinas e de usuários
ansiosos por terem acesso às facilidades oferecidas nesta rede, é de se
acreditar que, futuramente, a fim de contornar esta demanda explosiva
por recursos computacionais, os mecanismos utilizados no MBone se
tornem padrões de fato para transmissão de multimídia.

3. Classes de sistemas multimídia


Os produtos multimídia podem ser classificados de acordo com
o seu grau de interatividade com o usuário.

26 | Unidade I – Conceitos Básicos Relacionados à Multimídia


3.1. Tipo de produtos multimídia
Os títulos são os resultados da criação de produtos multimídia.
São gravados em arquivos não executáveis e precisam de aplicativos
para serem utilizados. Os títulos podem ser: Lineares ou Hipermídia
Os lineares são títulos cuja apresentação do material segue
ordem predeterminada. O usuário final tem poucos controles (avanço,
retrocesso, avanço rápido etc.) e geralmente são intercambiáveis com
animações. São exemplos de títulos lineares a apresentação de palestras
em show de slides, demonstrações e tutoriais.
Nos títulos hipermídia, a ordem de visualização é determinada
pelo usuário final que possui diversos controles para navegação (seguir
referência, voltar, etc.). Os hipertextos são casos particulares de títulos
hipermídia. São exemplos e títulos hipermídia os títulos de referência
(dicionários), ajuda on-line, quiosques informativos, catálogos
interativos, etc.
Já os aplicativos são arquivos executáveis classificados mediante
sua utilização dos títulos multimídia. Vamos a essa classificação:
Aplicativos com interface multimídia: São aplicativos
desenvolvidos em ambientes normais de programação de aplicativos
gráficos (p.ex.: Visual Basic e Delphi) que simplesmente utilizam-
se da multimídia para facilitar sua utilização, ou seja, os aplicativos
desta classificação não criam ou manipulam produtos multimídia,
apenas os utiliza para facilitar a comunicação entre o computador e
o usuário. São exemplos de aplicativos com interface multimídia: (a)
Aplicativos educacionais, (b) aplicativos de produtividade pessoal (ex.:
agendas, geradores de relatórios), (c) Sistema de Gestão, (d) Sistema
de Mapeamento, etc.
Aplicativos multimídia: São aplicativos cuja principal função é
criar/manipular títulos multimídia. Processam o próprio material de
multimídia, geralmente em tempo real. É um estágio avançado dos
sistemas gráficos interativos e podem sem implementados em qualquer
linguagem de programação de sistemas (ex.: C++ ou Java).
Sistemas Multimídia | 27
São exemplos de aplicativos multimídia:
• Ferramentas de manipulação de imagens: Corel Draw,
PhotoShop, Paint, etc;
• Criação de maquetas eletrônicas, imagens médicas: Sketchup,
VRML, etc;
• Sistemas de computação musical: Sound Forge, ACID, etc;
• Sistemas de modelagem 3D e Realidade Virtual: VRML,
Sketchup, etc;

Os sites são os mais importantes títulos hipermídia da atualidade
e por isso precisam de um estudo mais apurado. Sabemos que para usar
um título é necessário um aplicativo. No caso dos sites o aplicativo
é o navegador (browser), como exemplo temos Internet Explorer,
Netscape, Opera, Google Chrome, entre outros. Com o avanço dos
sites foi possível trazer a multimídia para a internet.
Uma dos desafios para autoria de multimídia na Internet. é a
ausência de padronização. Porém, essa dificuldade está acabando, pois
os analistas se conscientizaram que a padronização é algo interessante
para todos. Apesar disso, ainda é possível encontrar problemas de
padronização em alguns navegadores atuais.
As limitações de faixa dos canais de acesso também é uma das
difuculdades encontradas pelos desenvolvedores. Possuir internet com
velocidade aceitável ainda está muito caro, mas as previsões apontam
para o fim deste custo tão elevado devido a políticas públicas e a
importância de uma internet barata e acessível a todos.
Parecido com a limitação de faixa de canais de acesso, as
tecnologias de fluxo contínuo (streaming) também é um obstáculo
aos desenvolvedores. Muitos sites trabalham com tecnologia de fluxo
contínuo, o chamado Streaming. Essa tecnologia permite aos usuários
terem acesso a informações em tempo real, através de sons, vídeos e
animações transmitidas ao vivo.

28 | Unidade I – Conceitos Básicos Relacionados à Multimídia


3.1.1. Vídeo/Filme sob demanda (VOD)
Atualmente nós assistimos a programas de TV e filmes
passivamente: nós não podemos interagir com os programas e não
podemos controlar o tempo que queremos assisti-los. Serviços de
vídeo/filme sob demanda estão sendo desenvolvidos pelas indústrias
de TV, TV a cabo e companhias telefônicas para quebrar esta limitação
e fornecer outras funcionalidades (WILLRICH, 2000).
Em VOD, uma grande coleção de vídeos são armazenados em
servidores de vídeo. Usuários ou clientes acessam estes vídeos através
de uma rede, como por exemplo, o Netflix2. As principais vantagens
de VOD são poder assistir a uma programação a qualquer instante que
desejarmos com a possibilidade de interromper, avançar e voltar atrás,
ou mesmo pular para uma determinada cena, além da alta qualidade,
pois vídeos são armazenados digitalmente. A qualidade não degradará
com o aumento de telespectadores.
Devido ao mercado potencial, muitas companhias e organizações
estão pesquisando, experimentando e prototipando sistemas VOD.
O desafio é como suportar um grande número de telespectadores ao
mesmo tempo com um custo razoável.

3.2. Sistemas Multimídia Standalone


Esforços de pesquisa em computação multimídia estão
divididos em dois grandes grupos (FURHT, 1994). Um grupo
centra seus esforços em estações de trabalho multimídia standalone,
sistemas de software associados e ferramentas; o outro grupo combina
computação multimídia com sistemas distribuídos oferecendo maiores
potencialidades.
Aplicações multimídia em sistemas standalone utilizam apenas
os recursos presentes no sistema local para prover serviços multimídia.
Desta maneira, o sistema local fornece todo o poder de processamento
necessário. Tais sistemas devem ser equipados com os dispositivos de

2
https://www.netflix.com/

Sistemas Multimídia | 29
captura e apresentação multimídia, tal como microfones e câmeras.
Ele não faz uso de capacidades de armazenamento remoto, todas
as informações necessárias devem ser armazenadas localmente
(comunicação de dados multimídia não é suportada).
Alguns exemplos de aplicações de sistemas multimídia
standalone são apresentados: treinamento baseado em computador,
educação baseada em computador individual e sistemas de autoria
multimídia com a qual autores podem desenvolver documentos
multimídia comerciais ou simples apresentações privadas, tal como
ferramentas de composição de música, ferramentas de autoria de
documentos multimídia e hipermídia.

3.3. Sistemas Multimídia Distribuídos


As razões para que sistemas multimídia podem necessitar de
uma rede de comunicação são principalmente duas:
• Suportar aplicações em rede. O propósito de muitas
aplicações multimídia é fornecer serviços de comunicação
a distância. Exemplos: videoconferência, distribuição de
pacotes de áudio e vídeo, e-mail multimídia.
• Implementação de modelos cliente-servidor. Aplicações
stand-alone podem ser de alto custo para armazenamento
de informações. Neste caso, a utilização de servidores
remotamente acessados pelos sistemas clientes permitem o
compartilhamento e armazenamento de informações.

3.3.1. Classes de sistemas multimídia distribuídos


Sistemas distribuídos podem ainda ser classificados em várias
classes. A ITU (International Telecommunications Union) identifica
quatro classes básicas de aplicações e serviços multimídiam: serviços de
conversação: implica na interação entre um humano e outro humano
ou sistema e inclui serviços interpessoais tal como videoconferência,
videofonia, telesegurança e telecompras; Os serviços de mensagem
cobrem trocas de mensagem multimídia não tempo-real ou assíncronas

30 | Unidade I – Conceitos Básicos Relacionados à Multimídia


entre mailboxes; Serviços de recuperação: cobrem todos os tipos de
acesso a servidores de informações multimídia. Tipicamente, o usuário
envia um pedido para o servidor e a informação pedida é liberada
para o usuário em tempo-real. Vídeo sob demanda é um exemplo
deste tipo de serviço; Serviços de distribuição: cobrem serviços onde a
informação é distribuída sob a iniciativa de um servidor. Um exemplo
destes serviços é a transmissão de programas de TV.

3.4. Tipos de plataformas


A chamada plataforma de entrega é o hardware do usuário
final. Apenas para uso dos títulos e aplicativos. Já a plataforma de
desenvolvimento é o hardware do desenvolvedor. Pode ser dividido
em plataforma de autoria (hardware para criação dos aplicativos
multimídia e com interface multimídia) e Plataforma de criação de
material (hardware para criação dos títulos lineares e hipermídia).
Podem ser dispositivos gráficos tais como monitores, adaptadores
gráficos, dispositivos de entrada gráfica, dispositivos de cópia ou
dispositivos multimídia como interfaces de som e de vídeo e interfaces
de controle para equipamentos multimídia externos;
São características das plataformas de desenvolvimento
(WILLRICH, 2000):
• Processador rápido;
• Grande quantidade de memória RAM;
• Disco rígido rápido e de alta capacidade;
• Placa de som profissional;
• Monitor de pelo menos 17";
• Adaptador gráfico com cor verdadeira na resolução de 1024
× 768, no mínimo.
As plataformas de entrega só precisam executar o produto
multimídia, já as plataformas de desenvolvimento, precisam executar,
além do produto multimídia, as ferramentas de criação desse produto.

Sistemas Multimídia | 31
3.4.1. Principais famílias de plataformas
A plataforma Wintel tem como componentes microcomputadores
baseados em arquitetura Intel somados aos sistemas operacionais da
Microsoft. A família Wintel é a mais difundida no mundo, pois o seu
sistema operacional é o mais usado e a arquitetura dos computadores da
Intel é a mais vendida.
O padrão de configuração multimídia pertencente a essa
família é o MPC (PC - Multimídia), criado para evitar problemas de
incompatibilidade entre os diversos padrões existentes em cada um dos
componentes de um PC. Os principais hardwares que um MPC pode
possuir são: o drive de CD/DVD-ROM, a placa de som, as caixas de som,
o microfone e o scanner. Obviamente o padrão MPC possui muito outros
hardwares não citados aqui. Os dispositivos são isolados dos aplicativos
através de controladores (drivers 3).
Diferente da plataforma Wintel, as estações de trabalho UNIX
baseadas no sistema operacional Unix e seus descendentes. No geral, essa
família possui um desempenho mais alto que Wintel, porém as ferramentas
de desenvolvimento requerem um maior treinamento dos usuários, o
que pode onerar o uso dessa família. O transporte de aplicativos entre
plataformas da família exige no mínimo a recompilação destes aplicativosa
e podem ser reutilizados para criação de softwares para a família Wintel.
Já a plataforma Macintosh é baseada no sistema operacional da
Apple. Para quem nunca trabalhou com nenhuma família de plataformas,
esta é a opção mais simples de uso e possui as melhores ferramentas para
se trabalhar com som, porém a difusão dos aplicativos ainda está em
crescimento, tornando-a incompatível com a maioria das ferramentas
disponíveis no mercado.

3.5. Áudio-videoconferência
A áudio-videoconferência ou simplesmente videoconferência
envolve vários indivíduos ou vários grupos de indivíduos engajados em

3
Drivers são pequenos programas que fazem a comunicação entre o Sistema
Operacional de sua máquina e o Hardware.

32 | Unidade I – Conceitos Básicos Relacionados à Multimídia


diálogo. O objetivo não é manter uma simples conversação bilateral,
mas suportar reuniões. Dessa maneira, a videoconferência pode ser
ponto-a-ponto como na videofonia, ou ponto-a-multiponto como
na distribuição de vídeo, mas sempre implica numa comunicação
bidirecional.
A videoconfêrencia envolve ao menos um grupo de pessoas
em uma das localizações. Desse modo, são necessárias uma ou várias
câmeras para registrar as cenas. As várias opções de registro de vídeo
são:
• Uma câmera de TV fixa: a câmera registra uma vista completa
do grupo. Neste caso geralmente as pessoas se sentam em
uma mesa na forma de um “V” ou na forma de um semi-
círculo.
• Uma câmera de TV móvel: a câmera filma apenas o
interlocutor atual.
• Uma câmera fixa e outra móvel: este caso é a junção dos dois
anteriores, sendo que a visão é chaveada por um operador.

3.5.1. Requisitos
Exceto quando documentos estão envolvidos, os requisitos da
videoconferência são similares àqueles da videofonia. É importante
reduzir o salto de movimento e uma limitada resolução pode ser
tolerada. Porque a baixa taxa de quadros altera a transmissão da
informação emocional, essencial para emular a comunicação face-a-
face. Portanto, taxas de 8 a 12 fps são aceitáveis, assim a resolução
é limitada geralmente a um quarto da qualidade de TV. Quando a
videoconferência envolve a apresentação de documentos, ela necessita
de uma resolução de média qualidade para que o documento seja
legível.
Como apresentado anteriormente, usuários são mais tolerantes
a distorções quando assistem passivamente. Dessa forma uma pequena
perda da semântica é aceitável, devendo o som ter uma qualidade
suficiente para ser amplificado por alto-falantes.

Sistemas Multimídia | 33
3.5.2. Videoconferência baseada em circuitos e pacotes
Os primeiros sistemas de videoconferência eram baseados em
difusão por satélite de televisão. A comunicação era assimétrica, com
um sítio origem do vídeo e múltiplas localizações receptoras. O canal
de retorno era normalmente feito via chamadas telefônicas. Desde
então, os serviços de videoconferência transformaram-se em simétricos
e seu desenvolvimento resultou em duas abordagens tecnológicas:
Videoconferência baseada em circuito e videoconferência baseada em
pacotes (WILLRICH, 2000).
A videoconferência surgiu nos anos oitenta, puxada pelo
desenvolvimento da tecnologia de TV digital e progressos nos
algoritmos de compressão. Os primeiros serviços eram fornecidos
pelas PTO (Operadoras Públicas de Telecomunicações), em salas de
reuniões dedicadas (estúdios de vídeo), equipadas com dispositivos
de áudio e vídeo analógicos, digitalizadores, sistemas compressão/
descompressão e conexões aos sistemas de comutação a circuito.
A partir da metade dos anos oitenta surgiram os estudos privados
e linhas continuamente alugadas conectando sítios privados. Apenas
grandes organizações podiam dispor destes estúdios privados, isto
devido aos seus altos custos dos circuitos de 1,5 ou 2 Mbits/s.
Nesta época apareceram produtos dedicados à videoconferência,
compostos de pacotes com câmeras de TV, microfones, alto-falantes,
monitores e módulos para digitalização, compressão e descompressão,
geralmente em empacotados em uma unidade física única. Estes
produtos eram instalados em salas privadas chamadas de estúdio de
videoconferência privados. A primeira característica destes produtos
é que eles eram dispositivos dedicados (não de uso geral), projetados
para operar sobre circuitos de taxa de transmissão garantida. Estes
sistemas geralmente produziam uma taxa de fluxo de bits constante.
Tais sistemas eram chamados de Video-codecs, ou simplesmente
codecs. Codecs é uma abreviação de codificador/decodificador usado
no processamento de sinal. Eles são instalados em salas privadas

34 | Unidade I – Conceitos Básicos Relacionados à Multimídia


conectadas a redes de comutação de circuitos, em geral ISDN, com
velocidades variando de 112 ou 128 Kbits/s a 335 ou 384 Kbits/s.
A última geração de sistemas de videoconferência a circuito
repousa-se sob o modo desktop o qual o serviço é fornecido no
escritório. Estes sistemas necessitam de um serviço comutado de
domínio público, geralmente ISDN, no escritório. Muitos sistemas
permitem dois circuitos simultaneamente, fornecendo uma taxa de
bits de 112 ou 128 Kbits/s. Tipicamente, 16 Kbits/s é dedicado ao
áudio e 96 a 112 Kbits/s ao canal de vídeo. Muitos sistemas oferecem
funcionalidades de quadro branco compartilhado. Em geral, eles
suportam apenas uma câmera de TV, mas podem oferecer uma
câmera de vídeo documento opcional.
A emergência de sistemas de videoconferência explorando
redes a pacotes não podia ser separada do desenvolvimento da
videofonia a pacotes, no início dos anos noventa. Ela resultou da
exploração dos dispositivos (estações de trabalho e PC) e redes de
dados (LAN) já disponível nos escritórios para suportar serviços de
videoconferência. A videoconferência e a videofonia são suportadas
por diversos dispositivos, que são disponíveis na forma de kits de
hardware e software para estações de trabalho e computadores
pessoais.
Atualmente estes dispositivos oferecem uma resolução de
vídeo de alta qualidade, mas nos primeiros produtos a apresentação
e equipamentos de captura eram de qualidade média. O controle
da câmera era também bastante limitado. Um dos maiores desafios
dos dispositivos de videoconefrência é a integração de ferramentas
de áudio e vídeo com outras ferramentas de teleconferência, tal
como quadro branco e aplicações compartilhadas para fornecer uma
plataforma de teleconferência multimídia integrada.
Produtos de videoconferência de fabricantes diferentes
geralmente não interoperam. Softwares de domínio público são
geralmente a única solução para interoperabilidade.

Sistemas Multimídia | 35
3.5.3. Videoconferência a pacotes com comunicação ponto-a-
multiponto

Múltiplas conexões ponto-a-ponto


Neste caso um número de conexões ponto-a-ponto são
estabelecidas entre os participantes da videoconferência. Diferentes dos
sistemas de videoconferência a circuitos, a taxa de bits não é garantida
pelas redes a pacotes. Exceto quando se utiliza redes de pacotes
orientadas a conexões especiais tal como aquelas baseadas sobre o
protocolo ST-II. Neste caso a rede básica não toma conhecimento destas
conexões especiais, elas são convenções puras entre sistemas finais. Elas
são chamadas conexões a nível de transporte. As convenções ou regras
que os sistemas finais adotam em tais conexões são governadas pelos
protocolos de transporte. Sobre a Internet normalmente é utilizado o
protocolo RTP (Real-Time Transport Protocol) ou o TCP (Transport
Control Protocol).
O maior problema do esquema de implementação do multicast
é que a fonte deve gerar múltiplos fluxos de dados idênticos, um
para cada destino. Este esquema não é econômico em termos de
processamento. A vantagem desse esquema é que a confidencialidade
é mais alta, pois ela apenas envolve membros especificamente aceitos.

Multicast para grupos


Suportar multicast para grupos em uma LAN é teoricamente
simples: explora-se a capacidade multicast inerente às LANs de meios-
compartilhados (Ethernet, Token Ring, FDDI). No que se refere a
WANs, esta funcionalidade é disponível sobre vários tipos de rede
sem conexão (IP, SMDS – Switched Multimegabit Data Service)
ou orientada conexão (ST-II). Utilizando um serviço multicast, um
fluxo de uma fonte chega a todos os membros do grupo. Ela é uma
abordagem elegante, mas nem todas implementações asseguram
confidencialidade. Quando utilizada para grupos abertos, a privacidade
pode ser assegurada usando criptografia.

36 | Unidade I – Conceitos Básicos Relacionados à Multimídia


Figura 3: Arquitetura de um sistema de video-conferência (WILLRICH, 2000).

3.5.4. Requisitos de Rede


Para suportar sistemas de videoconferência baseados em circuitos,
as redes de escolha são ISDN ou Switched 56, sendo que estes sistemas
estão projetados para operar sobre taxas de 56 a 384 Kbits/s. Este tipo
de sistema é útil para videoconferência no modo sala, para o modo
desktop ele seria muito caro. O serviço a circuito emulado oferecido
pela tecnologia ATM é uma alternativa de alta velocidade ao ISDN,
abrindo uma era de muito mais alta qualidade de áudio e vídeo. A
tecnologia ATM é a sucessora natural do (N-)ISDN.
Os requisitos de taxa de bits da videoconferência baseada em
pacotes são similares àqueles da distribuição de vídeo, embora o
compromisso resolução/taxa de quadros seja diferente. Uma resolução
VCR e 2 fps requer 100 Kbits/s, sendo que 13 a 64 Kbits/s devem
ser adicionados para canal de áudio. Uma qualidade equivalente a
TV requer 6 a 8 Mbits/s usando produtos JPEG-baseados. Diferente
da distribuição de vídeo, que não é uma aplicação interativa, a
videoconferência é sensível a atrasos. Atrasos introduzidos pelos
sistemas finais são na ordem de segundos. Os atrasos introduzidos pela
rede são muito menores na ordem de décimos a poucas centenas de
milisengundos.

Sistemas Multimídia | 37
Para videoconferências ponto-a-ponto sob longas distâncias
com baixa taxa de quadros e media resolução pode-se utilizar qualquer
rede, seja sem conexão (IP) ou orientada conexão (X.25, Frame Relay,
ATM). Mas quando redes são sobrecarregadas, tecnologias providas
de alguma forma de garantia de taxa de bits, tal como ST-II ou ATM,
trabalham melhor.
Videconferências ponto-a-multiponto não trabalham muito
bem sem multicasting a pacotes. Vários protocolos Internet suportam
multicast, incluindo IP e ST-II. A versão inicial do IP multicast
está evolutivamente sendo suportada por roteadores, mas eles não
suportam grupos fechados multicast. Multicast ST-II fornece uma
melhor confidencialidade em adição ao mecanismo de reserva de taxa
de bits, mas esta tecnologia está sendo empregada apenas dentro de
algumas comunidades.
Videoconferência sob redes a pacotes é uma extensão tecnológica
da videofonia um-a-um que construtores de estações de trabalho
propuseram no início dos anos noventa. O principal problema está
associado à capacidade da rede a pacotes fornecer funções multicast,
permitindo extensão dos membros da videoconferência com um custo
adicional mínimo, e numa maior capacidade de estações incorporarem
outras ferramentas multimídia de conferência.

EXERCÍCIOS
As questões abaixo devem ser respondidas em forma dissertiva
e argumentativa com pelo menos uma lauda. Devem também refletir
a interpretação da leitura do texto juntamente com pesquisas sobre o
tema arguido.

1) Defina com suas palavras o termo multimídia no contexto de


sistemas de informação.
2) Quais são as principais aplicações multimídia? Explique cada uma
delas.

38 | Unidade I – Conceitos Básicos Relacionados à Multimídia


3) Descreva o que são Mídia de percepção, Mídia de representação,
Mídia de armazenamento e Mídia de transmissão.
4) Explique as Aplicações Pessoa-a-Pessoa e Pessoa-a-Sistema no
contexto de sistemas multimídia.
5) O que é Mbone?
6) Quais as principais características de VoD (vídeo sob demanda)?
7) Quais as principais famílias de plataformas multimídia ? Explique
as diferenças.
8) Explique a diferença entre videoconferência baseada em circuitos e
pacotes e a pacotes com comunicação ponto-a-multiponto.

WEBLIOGRAFIA

Fundamentos de Sistemas Multimídia


ftp://ftp.inf.puc-rio.br/pub/docs/techreports/07_01_soares.pdf

Apostila de Sistemas Multimídia


http://sinf1a.xpg.uol.com.br/intro_comp/sistemas_multimidia.pdf

Vídeo sob Demanda


http://www.midiacom.uff.br/~debora/fsmm/trab-2004-1/VoD.pdf

Plataforma para criação e utilização de conteúdos multimídia


educacionais
www.br-ie.org/pub/index.php/wie/article/download/2050/1812

O Que é Videoconferência e Como Funciona


http://www.ead.edumed.org.br/file.php/1/Videoconferencia.pdf

Sistemas Multimídia | 39
UNIDADE II
Principais ferramentas de desenvolvimento
para multimídia

Resumo
À medida que os sistemas multimídia são inseridos no cotidiano
da sociedade, diversas ferramentas são desenvolvidas para auxiliar os
projetistas a tornar esses sistemas mais interativos e interessantes. Além
de softwares que trabalham diretamente com a mídia, facilitando a
edição e padronização para exibição em diversas plataformas, ainda
temos linguagens de programação que permitem customizações muito
específicas que tornam os sistemas multimídia utilizados pelos mais
diversos ramos de aplicação como medicina, ensino e entretenimento,
por exemplo.
Nesta Unidade veremos os conceitos que permeiam as
ferramentas de desenvolvimento de sistemas multimídia, passando
pelos softwares de autoria e as principais linguagens de programação
específicas para o desenvolvimento desses sistemas. O texto desta
Unidade é contempla ideias de vários autores, expressando diversas
visões sobre os assuntos.
O Capítulo é acompanhado de exercícios sem a solução. Cada
questão deve ser encarada como um tema, sobre o qual o aluno deve
dissertar. Recomenda-se que seja feita uma pesquisa sobre o assunto
e que a questão seja respondida de forma ampla, podendo refletir a
opinião do aluno. A bibliografia e a webliografia ao fim dos capítulos e
unidades devem ser utilizadas para adquirir um conhecimento razoável
sobre o tema de cada capítulo. Ao término da leitura desta Unidade,
o estudante deverá: a) Compreender os conceitos de desenvolvimento
de sistemas multimidia; b) Entender como funciona as ferramentas
de autoria, e c) Ser capaz de entender a importância das linguagens de
programação no desenvolvimento de sistemas multimidia.

Sistemas Multimídia | 41
4. Programas de autoria
Os elementos de multimídia são colocados juntos em um
projeto utilizando-se de programas de autoria, que são ferramentas
de software projetadas para controlar os elementos de multimídia e
propiciar interação ao usuário. Os programas de autoria fornecem:

• Métodos para que os usuários interajam no projeto.


• Facilidades para criar e editar texto, imagens etc.
• Gerenciamento de periféricos.

Os programas de autoria fornecem a estrutura necessária para


organizar e editar os elementos de um projeto multimídia, incluindo
gráficos, sons, animações e vídeoclipes. Estes programas são utilizados
para o desenvolvimento da interatividade e da interface do usuário
para apresentar seu projeto na tela e para agrupar os elementos de
multimídia em um projeto único e coeso.
Estas ferramentas fornecem um ambiente integrado para a
combinação do conteúdo e das funções do projeto. Os sistemas
normalmente incluem a habilidade de criar, editar e importar tipos
específicos de dados; juntar dados brutos em uma sequência de
reprodução; e fornecer um método ou linguagem estruturada para
responder a entradas do usuário.
O software de autoria é um programa equipado com diversas
ferramentas de multimídia que permitem o desenvolvimento de
uma variedade de atividades alternativas que podem estimular o
desenvolvimento cognitivo, a linguagem e a autonomia dos usuários.
O uso desta tecnologia na educação permite que o professor
acompanhe e utilize os recursos oferecidos como uma ferramenta
pedagógica, favorecendo assim o processo ensino-aprendizagem. O
professor contribuirá como mediador do conhecimento e o aluno não
mais será um mero espectador, mas sim um sujeito ativo e participativo
no seu processo de construção do conhecimento.

42 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


4.1. ANÁLISE DE SOFTWARE
4.1.1. Softwares
Os softwares são programas desenvolvidos a fim de atender as
necessidades dos usuários ex. (planilhas de cálculos, editores de texto,
aplicativos gráficos, jogos. Também podem ser conceituados como
conjunto de elementos lógicos necessários à realização de tarefas
em um ambiente computacional. Nesse ambiente, o conjunto dos
componentes que não fazem parte do equipamento físico propriamente
dito e incluem as instruções e programas (e os dados a eles associados)
empregados durante a utilização do sistema.

4.1.2. Software Educacional


Já um software educacional é todo aquele que possa ser usado
para algum objetivo educacional, pedagogicamente defensável por
professores e alunos, qualquer que seja a natureza e a finalidade
para a qual tenha sido criado. Entretanto para que um software seja
utilizado com finalidade educacional, qualidade, interface e pertinência
pedagógica necessitam ser avaliados.

4.1.3. Categoria de Software Educacional


Os softwares de Autoria são programas que codificam o que
o usuário quer realizar, podendo o mesmo criar outros programas,
apresentações, aulas, etc. com possibilidades de criações multimídia,
como por exemplo, Everest4 e Visual Class5. Para o professor, os softwares
de autoria são importantes, pois ajudam a entender as necessidades e
dificuldades do aluno, por meio das informações que ficam registradas
em um banco de dados do servidor e permitem saber todas as tentativas
do aluno até que ele obtenha a alternativa correta. Desse modo, essas
informações servem para que a escola tenha a possibilidade de trabalhar
com cada aluno os seus pontos fracos no processo ensino-aprendizagem.

4
http://www.insystem.com/everest/
5
http://www.class.com.br/

Sistemas Multimídia | 43
4.1.4. A ação do professor e o software de autoria
A apropriação da tecnologia por parte do professor é um
processo de construção que perpassa não só pela prontidão pedagógica
necessária no âmbito da sala de aula, como também pela competência
efetivamente exercitada cotidianamente na mediação do processo
de construção do conhecimento. Quando o professor assume a
atitude de pesquisador da sua prática, reconstruindo-a na busca de
outras e de novas estratégias, abandona o caráter transmissivo do
conhecimento. Ao comprarmos um software nem sempre temos a
garantia da abrangência do conteúdo disponibilizado, tampouco de
sua adequação metodológica em consonância ao projeto político-
pedagógico da escola.

5. Aplicativos fechados
Para o profissionais das áreas de aplicação de tecnologia
multimídia, as ferramentas que requerem menor curva de aprendizado
(isto é, são de aprendizado mais fácil) são os aplicativos fechados.
Tipicamente, são usados para a criação de material, como os editores
de som, de música, de imagens e de animações. Esses programas
normalmente apresentam interfaces gráficas fáceis de usar, através
das quais o usuário trabalha por meio de manipulação direta de
representações gráficas dos elementos da aplicação, auxiliado por
recursos como cardápios, caixas de diálogo e mensagens de ajuda. Isso
torna seu aprendizado mais fácil, permitindo que os desenvolvedores
alcancem rapidamente uma alta produtividade.
O ACTIVE (SCHIRMER& KIRSTE, 1996) é um pacote de
software de autoria, de arquitetura aberta usado para criar banco de
dados e apresentações interativas em multimídia.
EVEREST (mencionado anteriormente) é utilizado em muitas
escolas onde alunos e professores montam com facilidade suas
aplicações multimídia, trabalhando com imagens, vídeos, sons etc.
Por ser um programa aberto, o EVEREST possibilita a liberdade de
aplicação e, por consequência, a de criação. Com ele, os alunos podem
apresentar trabalhos, elaborar material de consulta para a escola,

44 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


partilhar pesquisas entre escolas, elaborando projetos em parceria.
As notas publicitárias do EVEREST destacam a metodologia do
programa como aberta e dinâmica, através da qual o aluno desenvolve
sua autonomia, buscando informações e organizando-as, enquanto
que (retirar – desnecessário e soa coloquial) o professor torna-se um
orientador dentro desse processo, passando ambos a trabalhar em
ambiente cooperativo, motivador e inovador.
GUTEMBERG6 é um sistema de autoria baseado em ambiente
gráfico Windows. Possibilita a criação de hiperdocumentos associando
gráficos, imagens, áudio e técnicas de hipertexto.
O HIPPER, Sistema Hipermídia aplicado ao processo ensino
aprendizagem, a exemplo dos demais, trata-se de uma ferramenta de
autoria voltada para a criação de material didático em hipermídia.
Possibilita a incorporação de vídeo, áudio, imagens estáticas e
dinâmicas. Destina-se especialmente a ambientes de ensino e pesquisa.
O HYPERSTUDIO7 permite a confecção de trabalhos em
multimídia. Com o programa, os estudantes podem criar seus trabalhos
utilizando textos, fotos, vídeos e sons, que podem ser retirados das
mais diferentes fontes de pesquisa, como disco laser, internet, outros
softwares e câmeras digitais. Ou, ainda, consultar a biblioteca de sons
e imagens do próprio programa. O software contém ainda sugestões
de projetos para trabalhos multidisciplinares. Ele também é muito
utilizado por profissionais liberais e executivos em apresentações de
negócios, confecção de relatórios, portfólios pessoais ou empresariais,
entre outras finalidades.
O OPUS PRO8 é destinado à criação de apresentações
multimídia combinando imagens, textos, sons e animações. Ao
mesmo tempo em que reforça os importantes conceitos relativos
ao planejamento, permite que o material obtido durante a etapa de

6
http://www.gutenberg-technology.com/product-authoring.html
7
http://www.mackiev.com/hyperstudio/
8
http://www.digitalworkshop.com/products/opus-pro.shtml

Sistemas Multimídia | 45
pesquisa seja agrupado para a finalização do processo de autoria em
multimídia. O projeto pode ser compilado em um arquivo executável.
No Visual Class, o autor pode criar uma aula no servidor e
disponibilizar instantaneamente em todas as estações de rede. O Visual
Class é um software com toda a interface em português. O único pré-
requisito é um conhecimento do ambiente Windows.

6. Ferramentas de autoria
A produção profissional de multimídia não se presta à utilização
de ferramentas puramente visuais. Por outro lado, o aprendizado de
ambientes baseados em linguagens algorítmicas é longo e difícil, só
sendo justificável no caso de desenvolvimento de aplicativos complexos,
com requisitos pesados de desempenho. Os desenvolvedores desse tipo
de produto precisam dominar também muitas técnicas de engenharia
de software, além dos detalhes geralmente já bastante complexos dos
ambientes de programação.
Uma solução intermediária é fornecida pelas ferramentas de
autoria nas quais parte da interface de usuário pode ser gerada por
manipulação direta. Uma linguagem de programação pode ser usada
para programar as ações correspondentes às solicitações do usuário.
Pode ser também admitida a integração de módulos escritos em
linguagem de programação convencional. Ferramentas de autoria
geralmente partem de uma metáfora básica: o título em produção é
encarado como um conjunto de slides, um documento, um livro, ou
algum outro modelo conceitual familiar para a maioria das pessoas.
Naturalmente, a metáfora é apenas um ponto de partida para a
introdução dos conceitos, e as ferramentas de autoria utilizam os
recursos informáticos para oferecer possibilidades muito além das
ferramentas manuais.
A distinção entre ferramentas de autoria e ambientes de
programação não é absoluta. Para cada faixa de produtos existe uma
gama de ferramentas mais adequadas. A escolha correta da ferramenta
de autoria é um fator fundamental para o sucesso de um projeto de
multimídia.
46 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia
Hipertexto e hipermídia são desenvolvidos mediante o uso de
pacotes de software baseados em linguagens de programação como
Java e a Hypertext Markup Language (HTML), que criam hiperlinks
para outras partes de um documento ou para outros documentos e
arquivos de multimídia, hipertexto e documentos em hipermídia, por
isso, podem ser programados para permitir que um leitor navegue
por um banco de dados em multimídia seguindo uma sucessão de
hiperlinks ao longo de vários arquivos de multimídia. Os sites de rede
na Internet são um exemplo conhecido desta tecnologia. Portanto, o
uso de software de hipertexto e hipermídia em navegadores de rede e
outros programas propicia um ambiente para apresentações interativas
de multimídia online.

6.1. Autoria de títulos lineares


Ferramentas para a autoria de títulos lineares permitem,
geralmente, apresentações com avanços manuais, como as usadas
em palestras, ou avanços automáticos, como nas demonstrações em
feiras. Pode ser conveniente gerar versões em vídeo das apresentações
automáticas; no capítulo sobre vídeo, será discutido como se pode
fazer isso.
As ferramentas mais recentes suportam a tecnologia OLE (Object
Linking and Embedding)9, que permite a inclusão nas apresentações de
objetos criados por grande número de aplicativos. Isso inclui não só
objetos de imagem, som e animação, como também adição objetos
de estrutura complexa, tais como texto com formato, planilhas ou
diagramas de controle de projetos. Os objetos podem ser embutidos
no corpo dos títulos, ou podem tomar a forma de referências a
arquivos externos, o que evita os inconvenientes associados a arquivos
de grandes dimensões. Os objetos OLE podem ser editados in loco,
através da invocação da ferramenta que originalmente os criou. São

9
OLE é um sistema de objetos distribuídos e um protocolo desenvolvido pela
Microsoft. Ele permite a um editor disponibilizar parte de um documento para
outro editor, e então reimportá-lo.

Sistemas Multimídia | 47
exemplos de ferramentas para autoria de títulos lineares o PowerPoint,
da Microsoft, orientado para slides, e o Acrobat Writer, da Adobe,
orientado para documentação on-line.

6.2. Autoria de títulos hipermídia


As ferramentas para a autoria de títulos hipermídia adicionam
aos recursos de integração de material em multimídia os recursos de
navegação não-linear característicos do hipertexto. Até há poucos anos,
ainda eram comuns sistemas de hipertexto puro, tais como o Gopher,
da Internet. A partir da difusão dos ambientes gráficos, tornou-se
comum adicionar aos ambientes de hipertexto o suporte a recursos
gráficos, que permitem inclusive a exibição de texto com formato
(fontes, estilos etc.) e, posteriormente, a inclusão de elementos de
multimídia.
Recursos de hipertexto incluem a capacidade de especificar
controles de navegação, através dos quais os usuários podem percorrer
o título de forma não-sequencial. Os controles de navegação podem
tomar a forma de botões, palavras sensíveis (hot words) ou pontos
sensíveis (hot spots) em imagens. O resultado de um controle de
navegação pode ser um salto para outra página, usado quando se quer
percorrer o título seguindo determinados assuntos, e não a ordem das
páginas; ou pode ser o surgimento de uma janela temporária (pop-up
wÍndow), recurso muito usado para definições de termos.
O sucesso da WWW como rede mundial de hipermídia
transformou a linguagem HTML em linguagem padrão de hipertexto.
Discutiremos a seguir alguns aspectos e algumas ferramentas para
autoria em HTML.

6.2.1. Hipermídia HTML


A linguagem HTML é um tipo de linguagem de marcação
(mark-up language), isto é, um formato de texto que contém palavras-
chaves indicadoras de formato tipográfico. A HTML não é uma
linguagem de propriedade particular, mas deriva da SGML (slandard
generalized mark-up language), uma linguagem padronizada para

48 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


o intercâmbio de dados tipográficos entre múltiplas plataformas. É
mais do que uma linguagem de marcação de documentos lineares,
porque inclui um padrão de inclusão de referências a outros arquivos
em HTML; o conjunto dos arquivos constitui um hiperdocumento.
O arquivo referenciado pode ser também um entre diversos formatos
suportados de arquivo de material multimídia.
As referências em HTML podem apontar para arquivos locais,
o que permite sua utilização em hiperdocumentos locais, tais como
sistemas de ajuda e manuais de referência. Além disso, se o computador
estiver conectado à Internet, pode- se usar referências no formato URL (
universal resource locator), que localiza os arquivos em qualquer sistema
servidor através do endereço que este possui na rede. Ao contrário de
sistemas anteriores de hipertexto, a WWW permite a interligação de
documentos entre múltiplos computadores de diferentes ambientes
operacionais e em escala mundial.
A consulta aos hiperdocumentos, por outro lado, é feita através
de um navegador (browser). Os navegadores geralmente existem em
versões transportadas para múltiplas plataformas. É possível, portanto,
criar o hiperdocumento em uma plataforma e visualizá-la em outras.
A reprodução do material multimídia, entretanto, depende de que
o navegador suporte os formatos apresentados de imagem , áudio e
vídeo.
Sendo a HTML uma linguagem em que todas as informações
estão em formato texto, os hiperdocumentos podem ser editados por
um editor de textos qualquer. O crescimento explosivo da WWW faz
com que a exportação de arquivos em formato HTML esteja disponível
em muitas ferramentas.
Ao contrário do que acontece quando se usa o formato PDF, o
transporte para HTML requer considerável trabalho de edição para
que sua leitura se torne confortável. Finalmente, é importante notar
que, quando recursos mais recentes (como o HTML 5) ou avançados
da linguagem são usados, os diversos navegadores visualizam de forma
diferente a mesma página. Por isso, o autor deve definir quais os
navegadores preferenciais para visualização do título, informando isto

Sistemas Multimídia | 49
na página inicial (home page) do hiperdocumento. De preferência,
deve-se também indicar a resolução mínima da tela que permitirá a
visualização adequada.

6.2.2. Autoria de Sítios


Do ponto de vista do ambiente operacional, um sítio WWW
é uma coleção de arquivos, organizados em uma estrutura de pastas
que contém páginas de hipertexto e outros materiais vinculados a
essas páginas. Possíveis materiais constituintes de um sítio incluem
páginas de hipertexto, material gráfico e de multimídia vinculados a
essas páginas. Outros tipos de documentos são distribuídos através do
sítio como por exemplo, arquivos de trabalho usados pelo software
servidor do sítio e vários tipos de software que conferem interatividade
a páginas do sítio, chamados de código ativo.
As páginas podem ser visitadas seguindo-se uma estrutura de
navegação realizada através das hiperligações (hypelinks). Tipicamente,
as hiperligações internas de um sítio são expressas de forma relativa
(baseadas na estrutura interna de pastas do sítio). Já as hiperligações
externas são expressas de forma absoluta, através de um endereço URL
completo, que contém o nome do servidor. Normalmente, a primeira
página visitada de um sítio é a página inicial (home page).
Um sítio pode pertencer a um dos seguintes tipos de rede: externa
(à World Wide Web), quando o sítio é acessível através da Internet; ou
interna (Intranet), quando o sítio só for acessível através da rede interna
de uma organização. Geralmente, um sítio pode ser transformado em
um título hipermídia local, distribuído, por exemplo, através de um
CD ou Pendrive. Nesta transformação, os arquivos de trabalho do
servidor são eliminados, permanecendo o restante da estrutura de
arquivos e de hiperligações.

6.3. Software de autoria de multimídia – baseado em páginas Web


Nestas ferramentas, os elementos são organizados como páginas
de um livro permitindo:

50 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


• Sua vinculação em sequências organizadas.
• Saltos para páginas específicas.
• Execução de som, animações, vídeos etc.

Um exemplo disso é o Multimedia ToolBook10, ferramenta


desenvolvida, no início da década de 90, pela empresa Assymetrix que
utiliza a metáfora de um livro para o desenvolvimento de aplicativos.
ToolBook surgiu como uma nova ferramenta de autoria voltada
para multimídia em geral, mas atualmente é focada no desenvolvimento
de aplicações de Aprendizado on-line (e-learning), Treinamento
Baseado em Computador (TBC/CBT) e tutoriais e cursos on-line, via
web ou em CD. O ToolBook possui uma linguagem de programação
própria, o OpenScript. Por ser uma ferramenta específica para a
plataforma Windows, possui muitos recursos de integração com o
sistema, como uso de controle ActiveX e inserção de objetos OLE,
acesso a biblioteca de programação DLL (32 e 16 bits) e suporte a
DirectX11. Estes recursos são muito úteis, por exemplo, quando se
deseja criar um tutorial interativo de alguma aplicação Windows.
Seu paradigma de desenvolvimento é baseado na analogia a livros.
Cada arquivo da aplicação é um livro composto de páginas (as telas)
sobre as quais são dispostos os objetos. Existem também os capítulos
(fundos de página), que agrupam conjuntos de páginas similares, bem
como os objetos gráficos podem ser agrupados (similar ao recurso
que existe em programas de desenho vetorial ou baseados em objetos,
como o CorelDraw). Os componentes no ToolBook obedecem, assim,
uma interessante hierarquia de objetos: objetos gráficos, grupos de
objetos, páginas, fundos, livro e sistema.

10
http://asymetrix-multimedia-toolbook-cbt-editio.software.informer.com/4.0/
11
Microsoft DirectX é uma coleção de APIs (Application Programming Interface)
que tratam de tarefas relacionadas a programação de jogos para o sistema operacional
Microsoft Windows

Sistemas Multimídia | 51
Em seu foco crescente para a área de ensino on-line, o
ToolBook introduziu suporte ao protocolo Microsoft Learning Resource
iNterChange (LRN), formato baseado em XML (visto mais adiante)
para distribuição de conteúdo e-Learning, desenvolvido pelo Projeto
IMS e adotado pela Microsoft; e ao padrão Sharable Content Object
Reference Model (SCORM) da ADLNet para educação on-line.

6.4. Software de autoria de multimídia – baseado no tempo


Nestes sistemas, os elementos multimídia e os eventos são
organizados ao longo de uma linha de tempo, com resoluções de no
máximo 1/30 de segundo. Este tipo de ferramenta permite:
• Definição da velocidade de apresentação de estruturas
gráficas;
• Sincronização de som e imagem;
• Saltos para qualquer posição em uma sequência, permitindo
controle interativo e de movimentação. Exemplo: Macromedia
Flash, ferramenta desenvolvida no final dos anos 90 pela
empresa Macromedia, a partir da qual o desenvolvimento
baseia-se no tempo.
O Adobe Director12 é uma ferramenta de autoria voltada para
a multimídia interativa em CD e Internet. Tem ganhado grande
enfoque para a internet, onde suas aplicações rodam através do plug in
para web Adobe Shockwave. É uma ferramenta multiplataforma, sendo
capaz de gerar arquivos executáveis em Windows e Macintosh (sua
plataforma de origem) a partir dos mesmos arquivos fonte, desde que
se possua a versão da ferramenta para as duas plataformas. O plugin
Shockwave também está disponível para PC/Mac.
O Director é baseado na metáfora de filmes. Cada arquivo é
um filme, em que o andamento da aplicação se dá em um roteiro
que exige a sequência de quadros (frames) que são exibidos no palco

12
https://www.adobe.com/pt/products/director.html

52 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


(a tela) no decorrer do tempo. Os objetos são chamados atores e são
agrupados em elenco.

7. Linguagens de programação
Embora algumas ferramentas, mais simples e especializadas,
sejam operáveis exclusivamente através de interfaces gráficas, a
tendência das ferramentas profissionais é dispor de algum tipo de
linguagem de programação. Esta linguagem pode ser específica
da ferramenta, ou derivada de alguma linguagem de programação
usual. Nos ambientes Windows, muitas ferramentas têm linguagens
de programação derivadas do Basic. Algumas ferramentas de autoria
dispõem do recurso de captura de macros e permitem que uma
sequência de ações do usuário seja capturada na forma de código da
linguagem de programação.
Para a construção de produtos multimídia mais sofisticados,
como jogos, por exemplo, é necessário o uso de linguagens de
programação. Esta ferramenta apresenta a vantagem de se ter maior
flexibilidade para a construção do produto, permitindo a construção
de comportamento dinâmico e adicionando maior interatividade
ao produto multimídia criado. Entretanto, diferente do aplicativo
fechado, a linguagem de programação apresenta uma curva de
aprendizado muito maior e requer conhecimento técnico não
somente sobre a linguagem de programação em si, mas também sobre
o sistema operacional, sobre redes de computadores, sobre banco de
dados, etc. Alem disso, é necessário conhecer técnicas de programação
e construção de algoritmos e estruturas de dados para que se possa
fazer bom uso dos recursos oferecidos pela linguagem de programação.
Esta é portanto uma ferramenta de autoria indicada para profissionais
de informática com formação em desenvolvimento de software.
O conhecimento de boas práticas de desenvolvimento (Padrões de
Projeto, Coesão, Acoplamento, Injeção de Dependências) e teste de
software são fundamentais para o sucesso no projeto de software.
As linguagens de programação são na sua maioria procedurais,
sendo os programas escritos na forma de receita de bolo, com as
Sistemas Multimídia | 53
instruções descrevendo passo a passo o processamento a ser realizado
pelo programa construído. Essas linguagens de programação são
usadas através de ambientes de desenvolvimento integrado (IDE
do inglês Integrated Development Environment) que oferecem vários
recursos necessários à atividade de programação tais como compilador,
depurador, conjunto de bibliotecas suportadas pela linguagem,
ajuda on-line, recurso auto-complete para ajudar na codificação das
instruções, entre outros. ).

As linguagens de programação mais conhecidas são:


• Cobol, Fortran, List que ainda são usadas em aplicações
muito específicas em plataforma alta, mas que não são usadas
em aplicações multimídia;
• Linguagem Pascal e Basic que foram criadas para o ensino
de programação e que evoluíram para uso profissional na
forma de dialetos como Visual Basic da microsoft e Delphi
da Borland;
• Linguagem C que é uma poderosa linguagem de programação,
sendo usada para criação de praticamente todo tipo de
software, incluindo aí software multimídia;
• Linguagem C++ que é uma variação da linguagem C, mas
com recursos de programação orientada a objetos o que a
tornam mais poderosa ainda do que a própria linguagem C;
• Linguagem Java que se tornou padrão de mercado e que é usada
para aplicações corporativas e sistemas web corporativos. Teve
muito progresso na melhoria de desempenho na execução dos
programas criados, porém ainda é mais lenta do que outras
linguagens como Pascal e C ou C++;
• Linguagem C# que é uma cópia da linguagem C++ só que
para a plataforma. Net que é a plataforma da Microsoft para
desenvolvimento de software;
• Linguagens de Script como PHP, Python e Ruby que são muito
usadas para criação de Web Sites e Comercio Eletrônico.

54 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


Dentre as linguagens apresentadas acima as que são mais indicadas
para a autoria de produtos multimídia são a linguagem C e C++. Isto
não significa que não se possa construir um produto multimídia
usando o Visual Basic, mas o seu esforço de programação será muito
maior, certamente. Além disso é importante usar uma linguagem de
programação que seja suportada em mais de uma plataforma (UNIX,
Windows, Macintosh ) e que tenha bom desempenho na execução dos
programas, isto é, que produza programas rápidos.

7.1. Linguagem de marcação


Para representar essas e outras formatações mais complexas,
criou-se o que chamamos de SGML – Standard Generalized Markup
Language (Linguagem de Marcação Padrão Generalizada). Dela
derivam as conhecidas HTML – HyperText Markup Language
(Linguagem de Marcação de Hipertexto) e a XML – Extensible
Markup Language (Linguagem de Marcação Extensível). A linguagem
de marcação pode ser compreendida como um conjunto de caracteres
e definições utilizado para atribuir características específicas a uma
porção do texto (VARAJÃO, 2016). O exemplo abaixo traz um trecho
com formatação HTML (que é uma linguagem de marcação).
Escrita: A palavra a seguir aparece em <B>Negrito</B>.
Resultado: a palavra a seguir aparece em Negrito. Neste exemplo
foi utilizado a tag <B>, que é o símbolo que representa onde o texto
começa a aparecer em negrito, e </B>, que define onde ele deixa de
estar em negrito. Este é o formato utilizado em tags HTML.
Task-Action-Grammar (TAG) são justamente as marcações
(pequenas sequências de caracteres) da linguagem de marcação.
Logicamente há uma interpretação da TAG pelo programa que irá
apresentar o texto e colocá-lo no formato especificado. Todos os
formatos de texto atualmente conhecidos utilizam tags para formatar
um texto. Obviamente essas marcações não aparecem para o usuário.
Podemos citar alguns:
• RTF – RichText File;

Sistemas Multimídia | 55
• PDF – Portable Document Format;
• DOC – Formato de arquivo do Microsoft Word;
• HTM / HTML – HyperText Markup Language;
Arquivos ASC e TXT são textos em código ASCII puro, sem
formatação.

7.1.1. O Formato XML


Por ser o mais difundido e utilizado atualmente, o formato XML
merece uma atenção especial. É importante frisar que XML não se
limita a apresentação de texto para Internet, como alguns imaginam.
XML é um formato genérico de transferência e manipulação de
conteúdo. Pode-se dizer que é uma meta-linguagem para criação de
marcações. Essas marcações geralmente seguem formato semelhante ao
HTML, daí a confusão. Para utilizarmos XML existe o que chamamos
de “parsers”. Um parser XML nada mais é que um conversor de um
arquivo XML para que seja apresentado como desejado. Por exemplo,
o pseudo-códico XML abaixo:
<título>Incidente em Antares</
título><autor>Érico Veríssimo</autor>
Se o meu parser estiver configurado para apresentar <título> em
negrito + itálico e <autor> em itálico, o texto seria apresentado da
seguinte maneira:

Incidente em Antares
Érico Veríssimo
E se este mesmo parser fosse responsável apenas por converter
conteúdo XML em HTML o texto ficaria assim:
<b><i>Incidente em Antares</i></b><i>Érico
Veríssimo</i>
Trecho este que poderia ser perfeitamente utilizado para
visualização em um browser de Internet. Os parsers são conhecidos

56 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


como “implícitos” e “externos”. Parsers implícitos são aqueles que já
estão integrados nos visualizadores de texto mais utilizados, como o
Microsoft Word, por exemplo.
Os Pasers são preparados para entender conteúdo XML de
padrões conhecidos, como o XSL e o CSS (folhas de estilo). Os
parsers externos são componentes responsáveis apenas pela tradução
do conteúdo e são utilizados em conjunto com outros softwares ou
linguagens de programação. É o caso do DOM (Document Object
Model), componente distribuído pela Microsoft para uso em seus
aplicativos.

7.2. A Linguagem VRML


Virtual Reality Modeling Language (VRML) permite a exploração
de ambientes virtuais na WWW. Do mesmo modo que o HTML
tornou-se um padrão para a autoria de páginas, a VRML permite a
integração de mundos tridimensionais com hiperlinks na web. Home
pages tornam-se espaços.
A visualização de espaços virtuais a partir de modelos VRML
a partir de plugins, nos navegadores da web, como mostra a figura a
seguir, é feita em um monitor gráfico sob o controle do “mouse” e,
portanto, não é imersiva. A sintaxe e as estruturas de dados da VRML
fornecem uma ferramenta excelente para a modelagem de mundos
tridimensionais funcionais e interativos e que podem ser transferidos
para sistemas imersivos.
Algumas tecnologias utilizam combinações de Realidade Virtual
com outros dispositivos reais e virtuais. Sensores de movimento são
empregados tanto para monitorar movimentos de dançarinos e de
atletas para estudos posteriores em RV imersiva. Essas tecnologias de
Realidade Aumentada, permitem a visualização de ambientes reais
com a superposição de objetos virtuais. Sistemas de telepresença (tais
como, telemedicina, telerobótica, etc) fazem com que o usuário seja
imerso em um mundo real capturado por câmaras de vídeo em uma
localidade a kilômetros de distância e permitem a manipulação remota
de objetos reais via braços mecânicos e manipuladores (VARAJÃO,
2012).
Sistemas Multimídia | 57
Devido a suas características tecnológicas, aplicações de Realidade
Virtual (RV) são literalmente ilimitadas. Acredita-se que a RV venha
a reformatar a interface entre o usuário e a tecnologia da informação
oferecendo novos meios para a comunicação, informação, visualização
de processos e a expressão criativa de ideias. Um ambiente virtual
pode representar qualquer mundo tridimensional real ou abstrato,
por exemplo, prédios, paisagens, naufrágios, espaçonaves, sítios
arqueológicos, anatomia humana (animal), esculturas, reconstituição
de crimes, sistema solar, prospecção de petróleo etc.
Representações visuais e sensoriais são especialmente interessantes
para representação de sistemas abstratos tais como campos magnéticos,
sistemas de fluxo com turbulência, modelos moleculares, sistemas
matemáticos, acústica de auditórios, estoques e comportamento de
mercados, densidades populacionais, fluxo de informações bem como
quaisquer outros trabalhos de natureza artística ou criativa. Esses
mundos virtuais podem ser animados, interativos e compartilhados
podendo expor seu comportamento e funcionalidade.
A linguagem VRML acrescenta percepção à navegação na web
através de descrições completas da cena em que o usuário se encontra,
montando verdadeiros mundos virtuais (“razão pela qual os arquivos
VRML apresentam a extensão .wrl”, de world reality language).
Para navegar pela realidade virtual na internet, é necessário ter
uma ferramenta que entenda a VRML, normalmente um plugin deverá
ser instalado no browser, por exemplo, o CosmoPlayer13 e o Cortona14.
Também existem ferramentas de autoria para o desenvolvimento das
páginas, por exemplo, o VRMLPad.

13
https://cosmo-player.en.softonic.com/
14
www.cortona3d.com/

58 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


Exercícios
As questões abaixo devem ser respondidas em forma dissertiva
e argumentativa com pelo menos uma lauda. Devem também refletir
a interpretação da leitura do texto juntamente com pesquisas sobre o
tema arguido.

1) Como podem ser categorizados os Softwares de Autoria? Explique


cada um deles.
2) Quais as diferenças entre autoria de títulos lineares e autoria de
títulos hipermídia?
3) Como funcionam os softwares autoria baseados na web?
4) Como funcionam os softwares autoria baseados no tempo?
5) Em que as linguagens de programação podem facilitar o
desenvolvimento de sistemas multimídia?
6) Para que servem as linguagens de marcação?
7) Em que casos devem ser usado o formato XML?
8) O que é VRML?

WEBLIOGRAFIA

Softwares de autoria
http://educacao-e-tecnologias.blogspot.com.br/2010/09/softwares-
de-autoria.html
http://softwareautoria.blogspot.com.br/

Desenvolvendo jogos educacionais por meio de softwares de autoria


http://seer.ufrgs.br/index.php/renote/article/download/57637/34605

Sistemas Multimídia | 59
Ferramentas para desenvolvimento de multimídia
http://www.musci.com.br/multimidia/autoria.pdf

Ferramentas para autoria de produtos multimídia


https://sites.google.com/site/sistemaseaplicacoesmultimidia/aulas/
aula-5---autoria

Apostilas de XML
www.centroatl.pt/titulos/tecnologias/imagens/oguiapraticoda-xml-
excerto.pdf
http://www-usr.inf.ufsm.br/~rose/curso3/cafe/XML-Cap1-
Linguagem.pdf
http://diretorio.shopsul.net/download/internet/Apostila_XHTML.
pdf

VRML
www.inf.pucrs.br/manssour/VRML/index.html
www.deinf.ufma.br/~paiva/cursos/cg/apost/tutorialUniJuiVRML.pdf

60 | Unidade II – Principais Ferramentas de Desenvolvimento para Multimídia


UNIDADE III
Projetos de sistemas multimídia

Resumo
Elaborar projetos é uma forma de independência. É uma
abordagem para explorar a criatividade humana, a mágica das ideias
e o potencial das organizações. Gerenciar um projeto significa aplicar
conhecimentos, habilidades e técnicas às atividades atreladas à gestão
com a finalidade de se atender aos seus requisitos. Além disso, conhecer
as tecnologias que são usadas nos projetos é essencial para que a tarefa
proposta seja bem sucedida.
Na gestão de projetos multimídia não é diferente. Nesta
Unidade veremos o impacto das tecnologias que permeiam o tema e
apresentaremos as técnicas e tecnologias para a elaboração e gestão de
um projeto multimídia.
O Capítulo é acompanhado de exercícios sem a solução. Cada
questão deve ser encarada como um tema, sobre o qual o aluno deve
dissertar. Recomenda-se que seja feita uma pesquisa sobre o assunto
e que a questão seja respondida de forma ampla, podendo refletir a
opinião do aluno. A bibliografia e a webliografia ao fim dos capítulos e
unidades devem ser utilizadas para adquirir um conhecimento razoável
sobre o tema de cada capítulo.

Sistemas Multimídia | 61
8. Introdução ao projeto multimídia
Antes de começar um projeto multimídia, deve-se desenvolver
uma direção do seu escopo e conteúdo. Para tanto faz-se necessário
formar, em nossa mente, uma ideia coesa na medida em que se pensa em
vários métodos disponíveis para transmitir as mensagens aos usuários.
Depois é essencial que seja desenvolvido um esboço organizado e
um planejamento sensato em termos de quais habilidades, tempo,
orçamento, ferramentas e recursos estão disponíveis (VARAJÃO,
2012).
O software, as mensagens e o conteúdo apresentado na interface
humana constituem juntos um projeto de multimídia. Um Projeto
de Multimídia não precisa ser interativo, visto que os usuários podem
conectar-se para agradar olhos e ouvidos assim como faz o cinema e a
televisão.
Os projetos multimídia podem ser do tipo Linear, quando
começa num ponto e é executado até o fim, por exemplo: filmes,
cinema ou televisão; ou não lineares (ou interativo), quando o
controle da movimentação pelo conteúdo é permitido aos usuários à
sua própria vontade.
Determinar como um usuário irá interagir e movimentar-se
pelo conteúdo de um projeto requer grande atenção nas mensagens,
no esboço, na arte-final e na programação. Um bom projeto pode ser
estragado se tiver uma interface mal projetada ou com o conteúdo
inadequado ou incorreto. Um Projeto de Multimídia é multidisciplinar
e exige delegação de tarefas de acordo com a habilitação e a competência
de cada membro do grupo.
Alguns projetos de multimídia podem ser tão simples que podem
substituir todos os estágios de organização, planejamento, produção e
teste por um único trabalho, fazendo a multimídia instantaneamente,
por exemplo, em uma apresentação de uma reunião semanal sobre a
performance da produção da empresa em que sejam inseridos sons de
arquivos. Entretanto em projetos mais complexos, faz-se necessário
sua divisão em vários estágios.

62 | Unidade III – Projetos de Sistemas Multimídia


8.1. Projeto
Cuidados importantes são determinar como um usuário irá
interagir e movimentar-se pelo conteúdo de um projeto requer grande
atenção nas mensagens, no esboço, na arte-final e na programação.
Um bom projeto pode ser estragado se tiver uma interface mal
projetada ou com o conteúdo inadequado ou incorreto. Um Projeto
de Multimídia é multidisciplinar e exige delegação de tarefas de acordo
com a habilitação e a competência de cada membro do grupo. Os
projetos em multimídia devem ser desenvolvidos em, no mínimo, 5
estágios (VARAJÃO, 2012):
1. Processamento da ideia, definição das necessidades e esboço
das mensagens e objetivos;
2. Planejamento, estimativa do tempo necessário para fazer
todos os elementos, verificar oorçamento e preparar um
protótipo;
3. Produção, implementar todas as tarefas definidas na etapa
anterior e produzir um produto final;
4. Teste, testar com usuários beta;
5. Distribuição, embalar e distribuir o projeto para o usuário
final.
Talvez a coisa mais importante a ter em mente durante o estágio
de processamento da ideia é o balanço entre aplicação e praticidade.
À medida que o projetista pensa na ideia, deverá comparar seu
propósito com a praticidade e custo de produção e distribuição. Deve-
se começar pelas definições amplas e depois pensar e refinar cada
elemento constituído na multimídia e então gerar um plano de ação
que se tornará o mapa do caminho para a produção.
Algumas questões são importantes de serem avaliadas quando
se deseja desenvolver um projeto de multimídia. Deve-se pensar em
qual é a essência do que se deseja realizar e quais são as aplicações e
mensagens. Deve-se perceber também quais elementos e multimídia
(textos, sons e visuais) apresentarão melhor sua mensagem e se já existe

Sistemas Multimídia | 63
material pronto para ser aproveirado. Ademais, algumas questões
técnicas devem ser feitas:
1. Será um projeto novo ou uma expansão de algo já existente?
2. Qual o hardware disponível para o projeto? Ele é suficiente?
3. Que tipo de armazenamento de dados será necessário para
a apresentação?
4. Qual o hardware do cliente?
5. Qual a sua ferramenta de desenvolvimento?
6. Quanto tempo está disponível para o desenvolvimento?
7. Quanto tempo pode ser gasto?

Pode-se manter um balanço entre a aplicação e a praticidade


dinamicamente adicionando ou subtraindo elementos da multimídia
conforme são traçadas as ideias.
Deve-se criar um plano de ação detalhado e balanceado,
normalmente na forma de uma tabela ou organograma de produção. A
partir daí podem-se estimar custos e verificar a viabilidade econômica
do projeto. Utilizar sempre experiências acumuladas em projetos
anteriores.
Existem várias ferramentas de gerenciamento de projetos que
podem auxiliar na ordenação das diversas tarefas, itens de trabalho,
recursos e custos necessários etc. Estas ferramentas devem fornecer
vantagens de análise de modo a ajudar o gerente a manter o projeto
dentro do cronograma e do orçamento, durante a fase de produção.
Quando se trabalha com projetos cujo planejamento abrange
várias fases, tarefas e itens de trabalho necessários para sua conclusão,
faz-se necessário que estes elementos sejam distribuídos em uma
linha de tempo. Destarte, necessita-se de uma estimativa de horas
indispensáveis para cada tarefa, e sua posterior distribuição pelo
número de pessoas dedicadas ao projeto. Portanto, se for possível,

64 | Unidade III – Projetos de Sistemas Multimídia


deve-se balancear as horas necessárias para uma tarefa dentre os vários
funcionários fazendo com que a mesma leve menos tempo.
A estimativa de custos na criação de projetos multimídia envolve
uma pesquisa contínua e um trabalho de desenvolvimento caracterizado
por experimentos criativos de tentativa e erro. Cada projeto novo é
diferente do anterior e cada um pode requerer ferramentas e soluções
diferentes. Faz-se necessário também incluir custos indiretos de
administração e gerenciamento, contatos com clientes (telefônicos ou
visitas), escrever relatórios etc.
Além do mais, existem especialistas que deverão trabalhar no
projeto somente durante certas fases (músicos, artista gráfico, jornalista
etc.) que poderão exigir gastos adicionais à estimativa inicial para a
participação de reuniões do projeto e nas sessões de criação. De modo
geral estes 3 elementos (tempo, dinheiro e pessoas) podem variar nas
estimativas do projeto. Caso um deles seja diminuído, será necessário
aumentar outro elemento ou ambos.

8.2. Produção
A fase de produção multimídia é a fase em que o projeto
multimídia está realmente sendo executado. Durante esta fase poderão
ocorrer diversos tipos de contratempos, desta maneira, faz-se necessário
um controle eficiente do tempo necessário para o desempenho das
diversas pessoas, tarefas e utilização dos recursos de software e hardware
envolvidos.
Várias atividades fundamentais de produção merecem
atenção especial: mapas de navegação, agrupamento do conteúdo,
encaminhamento, comunicação, uso dos talentos etc. Mapear a
estrutura de navegação de um projeto é uma tarefa que deve ser feita
no início da fase de planejamento de cada projeto.
Um mapa de movimentação (Figura 4) fornece uma tabela, bem
como um gráfico do fluxo lógico da interface interativa. Existem 4
estruturas fundamentais de organização da navegação do usuário pelo
projeto:

Sistemas Multimídia | 65
1. Linear: movimentação sequencial de um quadro para outro;
2. Hierárquica: estrutura de árvore invertida, formada pela
lógica natural do conteúdo;
3. Não-linear: movimentação livre através do conteúdo do
projeto, não existem caminhos pré ;
4. Composta: mistura das formas de organização anteriores.

Figura 4: Modelo de estruturas de navegação em hiperdocumentos (VARAJÃO, 2012).

8.3. Preparação de conteúdo


É uma das tarefas de produção mais caras e que consome mais
tempo. O projetista deve planejar antecipadamente reservando tempo
e dinheiro para esta tarefa. Deve também especificar no planejamento
do projeto o formato e a qualidade do conteúdo e os dados que lhe
devem ser fornecidos, pois a conversão do formato e as edições levam
tempo.

66 | Unidade III – Projetos de Sistemas Multimídia


A comunicação entre as pessoas que estão criando o projeto
bem como a gerência do projeto e o cliente são fundamentais para
o sucesso do projeto. Ciclos de aprovação do cliente: devem-se evitar
retornos contínuos criando-se um esquema que especifique o número
e a duração de ciclos de aprovação do cliente, proporcionando um
mecanismo eficiente de pedidos de mudança. O cliente deverá ser
lembrado que pagará uma taxa extra pelo retrabalho de partes não
previstas na especificação de requisitos.
Mídia para armazenamento de dados e transporte: tanto o
projetista quanto o cliente precisam de sistemas de transferência de
mídia correspondentes. Para armazenar a mídia, é possível usar a
própria internet para transferir os arquivos, discos flexíveis, discos
rígidos externos, pendrives, discos óticos etc.
Mesmo em projetos pequenos, o projetista se vê lidando
com muitos bits e partes digitais, portanto é importante que exista
um método para encaminhar o recebimento do material que será
incorporado no projeto multimídia. Deve ser preocupação do
projetista:
• Desenvolver uma conversão de nomes de arquivos em
diretórios ou pastas com nomes lógicos;
• Se trabalhando em plataformas diferentes, deve-se desenvolver
um sistema de identificação de arquivo que não comprometa
seu controle em quaisquer plataformas;
• Controlar a versão dos arquivos e sempre saber qual a versão
mais antiga e com quem está a versão mais atual.

9. Tecnologias para Produção de conteúdo

9.1. Transmidia Storytelling


É o fenômeno do transporte da informação para as múltiplas
plataformas de comunicação. É um movimento que acompanha a
criação de novas tecnologias, como leitores de e-books e celulares com
TV digital.
Sistemas Multimídia | 67
O termo Storytelling não tem uma década de existência. Foi
cunhado por Henry Jenkins, professor de estudos de mídia do MIT.
Ele se refere ao ato de contar uma história “storytelling” através de
vários veículos de mídia “transmídia”.
A informação, ao passar por múltiplas-plataformas, recebe
de cada mídia uma contribuição especial presente somente neste
canal, algo novo para uma narrativa principal. Este fato é usado por
empresas de entretenimento para convidar o seu público a participar
de alguma forma em uma narrativa diferente por diversos meios, sem
necessidade de convergência a um único aparelho de comunicação.
Filmes e seriados televisivos ganham prolongações no mundo online
com conteúdos e continuações exclusivas, possibilidade de download
de trilhas sonoras para celular, sugestões de novos capítulos, games
e subprodutos estrategicamente distribuídos por todos os meios
existentes.
Essa extrapolação dos limites pela transmídia convoca o
público consumidor a interagir com os múltiplos conteúdos,
proporcionando, assim, uma nova proposta de experiência. É isto
o que geralmente torna interessante ao consumidor participar
ativamente das áreas da indústria da informação de seu interesse.
Esse interesse do consumidor criou há pouco tempo um efeito
denominado “viralização”, o qual a publicidade já encontra-se bem
inserida lucrando com o custo baixo e um potencial de alcance de
consumidores elevado. É comum observar produtos surgidos nas
novas plataformas migrarem para as antigas plataformas. Isto ocorre
devido à grande repercussão que recebem entre os internautas.
As revoluções da transmídia, assim como a viralização de
campanhas, servem como ferramenta de marketing para as grandes
marcas globais que distribuem e multiplicam seus produtos em escala
mundial, quebrando fronteiras para lucrar cada vez mais, adquirindo
novos consumidores em todos os continentes. Esta publicidade
globalizada converge para uma uniformização da mensagem e, até
mesmo, uma uniformização da cultura, já que o inglês torna-se uma
língua padrão em ambiente on-line.

68 | Unidade III – Projetos de Sistemas Multimídia


9.2. Realidade Aumentada
A realidade aumentada é o enriquecimento do ambiente real com
objetos virtuais, usando algum dispositivo tecnológico, funcionando
em tempo real. Também pode ser entendida como uma melhoria
do mundo real com textos, imagens e objetos virtuais, gerados por
computador (INSLEY, 2003). É a mistura de mundos reais e virtuais,
em algum ponto da realidade/virtualidade contínua, que conecta
ambientes completamente reais a ambientes completamente virtuais.
É um sistema que suplementa o mundo real com objetos virtuais
gerados por computador, parecendo coexistir no mesmo espaço
combinando objetos reais e virtuais no ambiente real, executando
interativamente em tempo real. Além do que, alinha objetos reais e
virtuais entre si. Aplica-se a todos os sentidos, incluindo audição, tato
e força e cheiro (AZUMA, 2001).
A Figura 5 apresenta um exemplo de aplicação de realidade
aumentada com uma mesa real enriquecida com vaso e carro virtuais.

Figura 5: Exemplo de realidade aumentada.

Essa tecnologia deverá ter grande impacto no relacionamento


das pessoas, através de novas maneiras de realizar visualização,
comunicação e interação com pessoas e informação.

Sistemas Multimídia | 69
A realidade aumentada e a realidade virtual [VARAJÃO, 2012]
podem ser comparadas da seguinte forma:
• A realidade aumentada enriquece a cena do mundo real com
objetos virtuais, enquanto a realidade virtual é totalmente
gerada por computador;
• No ambiente de realidade aumentada, o usuário mantém
o sentido de presença no mundo real, enquanto que na
realidade virtual, a sensação visual é controlada pelo sistema;
• A realidade aumentada precisa de um mecanismo para
combinar o real e o virtual, enquanto a realidade virtual
precisa de um mecanismo para integrar o usuário ao mundo
virtual.

9.3. Realidade Virtual


A Realidade Virtual (RV) é uma interface avançada do usuário
para acessar aplicações executadas no computador, propiciando a
visualização, movimentação e interação do usuário, em tempo real,
em ambientes tridimensionais gerados por computador. O sentido da
visão costuma ser preponderante em aplicações de realidade virtual,
mas os outros sentidos, como tato, audição, etc. também podem ser
usados para enriquecer a experiência do usuário.
O termo Realidade Virtual foi inicialmente proposto por Jaron
Lanier, fundador do VPL Research (1989). Outros termos relacionados
incluem Realidade Artificial, Cyberespaço e, mais recentemente,
Mundos.
Atualmente, o termo Realidade Virtual é usado em uma grande
variedade de recursos e normalmente de forma confusa. Originalmente
este termo referia-se a ‘Realidade Virtual Imersiva’. Em RV Imersiva,
o usuário mergulha em um mundo artificial de três dimensões geradas
pelo computador.

70 | Unidade III – Projetos de Sistemas Multimídia


A modelagem dos ambientes virtuais, usando linguagens como
VRML (Virtual Reality Modeling Language) e sua sucessora, X3D15,
além de outras linguagens e ferramentas de autoria, permite, ao
usuário visualizar ambientes tridimensionais, movimentar-se dentro
deles e manipular seus objetos virtuais. Os objetos virtuais podem ser
animados, apresentando comportamentos autônomos ou disparados
por eventos. A interação do usuário com o ambiente virtual é um dos
aspectos importantes da interface e está relacionada com a capacidade
do computador detectar e reagir às ações do usuário, promovendo
alterações na aplicação. O usuário, interagindo com um ambiente
virtual tridimensional realista, em tempo-real, vendo as cenas
serem alteradas como resposta aos seus comandos, como ocorre nos
videogames atuais, torna a interação mais rica e natural, gerando mais
engajamento e eficiência.

9.3.1. Hardware
O Capacete para realidade Virtual ou Head-Mounted Display
(HMD), como pode ser visto na figura a seguir, foi o primeiro
dispositivo desenvolvido que permitiu experimentos imersivos. Evans
e Sutherland demonstram um HMD com qualidade stereo já em
1965. O Laboratório de Pesquisas VPL (Universidade de Michigan)
desenvolveu seu primeiro HMD em 1989.
Um HMD típico possui duas telas de cristal líquido em miniatura
e um sistema ótico que direciona as imagens para os dois olhos, em
uma visão de um mundo virtual em qualidade stereo. Um sensor de
movimento mede continuamente a posição e orientação da cabeça do
usuário permitindo que a imagem fornecida pelo computador seja
ajustada dentro do cenário virtual. Como resultado, o usuário pode
olhar a sua volta e caminhar pelo mundo virtual. Para minimizar o
desconforto do uso do HMD, foram desenvolvidos outros dispositivos

15
http://www.lsi.usp.br/~lsoares/x3d/faq.html

Sistemas Multimídia | 71
para visão imersiva. Recentemente temos no mercado o Oculus Rift16
(Figura 6) e Playstation VR17.

Figura 6: Oculus Rift

Para que o usuário possa interagir com o ambiente virtual,


manipular objetos etc. existe uma grande variedade de dispositivos
de entrada, entretanto os mais utilizados são as luvas e joysticks, como
pode ser observado na figura a seguir. Outros dispositivos podem ser
utilizados para propiciar a imersão do usuário no ambiente virtual,
tais como som direcional, dispositivos táteis e de force feedback,
reconhecimento de voz etc.

9.3.2. Realidade Virtual Imersiva


As principais características da realidade virtual Imersiva são
descritas a seguir:
Visores referenciados pela posição da cabeça, que permitem a
navegação no espaço tridimensional para caminhadas, observações do
ambiente virtual e locomoção de modo geral;

16
https://www.oculus.com/
17
https://www.playstation.com/en-au/explore/playstation-vr/

72 | Unidade III – Projetos de Sistemas Multimídia


• Visão stereo, para incrementar o sentido espacial;
• O mundo virtual é representado em uma escala 1:1 dando a
maior realidade aos objetos (tamanho do ser humano);
• Interações realísticas com objetos virtuais a partir das luvas
e outros dispositivos, viabilizando a operação, controle e
manipulação no mundo virtual;
• A “ilusão convincente” de estar completamente imerso no
ambiente artificial.
Podem-se compartilhar ambientes virtuais a partir de redes de
computadores, um exemplo desse compartilhamento está representado
na figura a seguir, a qual três usuários, em locais diferentes, conectados
por rede de computadores compartilham o mesmo ambiente virtual
utilizando dispositivos diferentes, por exemplo, o BOOM a CAVE e
o capacete.
Todos os usuários veem o mesmo ambiente, cada um do seu
respectivo ponto de vista. Cada ser humano é representado por uma
imagem humana virtual (avatar) para os outros participantes. Cada
usuário pode ver, interagir e comunicar-se com o outro como uma
equipe.

9.3.3. Realidade Virtual Não-Imersiva


Atualmente o termo “Realidade Virtual” é também utilizado
em aplicações não totalmente imersivas. Cada vez mais as fronteiras
do universo virtual ficam mais nebulosas permitindo o aparecimento
desse tipo de ambiente. Em ambientes não imersivos podem-se utilizar
navegação com o mouse através de um ambiente tridimensional em
um monitor de vídeo, ou a partir de um óculo, projetor estéreo e
outros. A ferramenta QuickTime VR (da Apple), por exemplo, utiliza
fotos para modelar mundos tridimensionais e fornecer pseudo visões
de caminhadas e paisagens em um monitor de vídeo.
9.4. Rastreamento
O rastreamento em ambientes de realidade virtual e aumentada
tem a função de identificar a posição da mão, da cabeça, do próprio

Sistemas Multimídia | 73
usuário ou de algo atrelado a ele, como uma placa. Com isto, o
sistema permite que o usuário exerça um controle de posicionamento
em ambientes virtuais ou aumentados, podendo, por exemplo,
movimentar-se e tocar, agarrar, mover e soltar objetos virtuais.
Para uso em aplicações de realidade virtual, muitos dispositivos
de rastreamento foram desenvolvidos usando princípios mecânicos,
magnéticos, de ultrasom, etc. Cada tipo apresenta vantagens e
desvantagens, mas em geral são caros. Mais recentemente, com a
popularização da webcam e com o avanço das técnicas de visão
computacional e do poder de processamento dos microcomputadores,
o rastreamento óptico passou a ser uma realidade em função da
disponibilidade e do baixo custo.

10. Requisitos para Sistemas Multimidia


Uma plataforma multimídia é um sistema capaz de suportar
aplicações multimídia. De um ponto de vista simplificado, ela pode ser
considerada como sendo um computador com dispositivos especiais
de entrada e saída. Sua organização básica é mostrada na Figura 7.

Figura 7: Arquitetura simplificada de um computador multimídia (WILLRICH, 2012).

74 | Unidade III – Projetos de Sistemas Multimídia


Os requisitos de hardware necessários a uma plataforma
multimídia depende do tipo de utilização, por exemplo: hardware
para apresentação de informações multimídia, para captura em
tempo-real de informações multimídia, para autoria de documentos
multimídia, para agir como servidor multimídia. Alguns requisitos de
hardware para alguns tipos de utilização de plataformas multimídia
são apresentados no próximo capítulo.
De modo geral, as aplicações multimídia impõem os alguns
requisitos na arquitetura de hardware que deve ter um alto poder
de processamento e uma alta taxa de transferência de dados (pois
áudio e vídeo digital implicam numa grande quantidade de dados).
Muitas aplicações exigem vários dispositivos de entrada e saída ao
mesmo tempo. Assim, um tipo de arquitetura paralela é preferida.
A arquitetura de hardware deveria ser escalável para acomodar novos
dispositivos de entrada e saída e aplicações.

10.1. Dispositivos de armazenamento aultimídia


Um dos requisitos dos terminais multimídia é a capacidade de
armazenamento de informações multimídia (WILLRICH, 2012).
Os dispositivos de armazenamento devem ser baratos e hábeis de
manter informações. Estes dispositivos têm tempo de acesso maior
que a memória central. Os dispositivos de armazenamento mais
convencionais utilizam um meio de registro magnético.
Fitas magnéticas registram sequências de bits, mas 8 bits são
registrados transversalmente. Cartuchos modernos têm capacidade de
armazenamento de 200 a 800 MBytes. O acesso às fitas é seqüencial,
isto é apropriado para apresentação de mídias contínuas individuais,
mas o tempo de acesso às mídias é longo (tempo para posicionar a fita
no início da mídia. Por exemplo, elas são usadas para armazenar som
digital, o que é chamado de DATs (Digital Audio Tapes). A capacidade
de armazenamento das fitas é um fator limitante para seu uso em
sistemas multimídia.
Discos magnéticos registram informações digitais em trilhas
concêntricas. Cada trilha é dividida em setores . Seu acesso semi-

Sistemas Multimídia | 75
sequencial direto na trilha certa e sequencial na trilha. O tempo de
acesso é cerca de 50ms e a taxa de transferência é normalmente de
10 MBytes/s. A capacidade de armazenamento dos discos magnéticos
normalmente variam de 80 MBytes a 8.4 GBytes.
Discos óticos não podem ser facilmente escritos por usuários,
por isto eles são usados para distribuição de informações registradas,
que é o caso dos CD-ROMs. CD-ROMs tem uma capacidade de
648 MBytes. Certos discos óticos podem ser escritos pelo usuário, tal
como os discos WORM, que podem apenas ser escritos uma única
vez. O tempo de acesso é cerca de 300ms e a taxa de transferência
é normalmente de 300 KBytes/s. Discos óticos são apropriados para
armazenamento multimídia, especialmente mídias contínuas.

10.2. Multimídia em rede


Um terminal multimídia pode atuar como um transmissor e
um receptor de informações ao mesmo tempo, como na videofonia.
Na operação de transmissão, sob controle da CPU, o áudio e vídeo
capturado é enviado para a interface de comunicação (de rede) para
transmissão. Na recepção, a interface de rede passa eles para a CPU.
Após certo processamento, a CPU passa para os dispositivos de saída
de áudio e vídeo.
A compressão e a descompressão dos dados são realizadas nos
terminais multimídia. Como apresentado no capítulo anterior, a
compressão de dados é normalmente usada para reduzir o conjunto de
dados a ser manipulado pelo terminal e pela rede. Mas a compressão
e a descompressão são normalmente computacionalmente muito
pesadas. A abordagem comum para a compressão e descompressão de
áudio e vídeo é empregar um hardware específico. Ele funciona bem,
mas este tipo de hardware não é muito flexível. Por exemplo, se uma
placa MJPEG (Motion JPEG) for usada para codagem, decodagem
e apresentação de vídeo em uma estação de trabalho, ela não pode
decodificar e apresentar um vídeo MPEG, limitando o uso do sistema.
A implementação via software é flexível, mas ela é muito lenta para
as CPUs atuais. Uma abordagem flexível é utilizar processadores de

76 | Unidade III – Projetos de Sistemas Multimídia


sinais digitais programáveis (DSP) para implementar compressões
e descompressões de áudio e vídeo. Neste caso, o DSP pode ser
programado para codificar e decodificar muitos tipos de fluxos e muito
mais rápido que a implementação por software apenas.

10.3. Servidores multimídia


Terminais multimídia podem interagir via uma rede de
comunicação de maneira simétrica. Por exemplo, dois terminais
providos de uma câmera, microfone alto-falante para suportar
videofonia bilateral. Neste caso os dois são fonte e destino de
informações multimídia.
Várias aplicações multimídia são assimétricas: a tendência
é compartilhar remotamente recursos em sistemas maiores ou
especializados. Assim, é possível uma economia de hardware e
operação, em que potencialidades de armazenamento (discos e fitas
magnéticos), softwares de aplicação (gestão de base de dados, CAD)
poder de processamento podem ser compartilhados. Esta é a ideia do
paradigma cliente-servidor (WILLRICH, 2012).
No caso da multimídia, o servidor é um sistema computacional
que oferece serviços multimídia para outros sistemas que agem como
clientes multimídia. Servidores multimídia devem ter alta capacidade
de armazenamento e funcionalidades de captura de informações
multimídia e podem ser dedicados a um tipo de mídia específico
(servidor de vídeo, de áudio, etc). Abaixo são apresentados alguns
exemplos de servidores multimídia:
• Servidor de Imagem: computador provido de uma alta
capacidade de armazenamento (ótica ou magnética);
• Servidor de Vídeo: similar ao servidor de imagens, mas com
um poder de processamento maior para permitir a saída
múltipla de vários fluxos de vídeo;
• Servidor de Varredura: um ou um conjunto de estações de
varredura (Scanners) compartilhadas;

Sistemas Multimídia | 77
• Servidor de TV: um gateway entre sinais de TV e a rede local;
• Servidor de Fax: um gateway entre um serviço de telefax
público e a rede local.

10.4. Apresentação de Áudio e Vídeo


No caso do fluxo de vídeo, as imagens devem ser transferidas
para a memória de vídeo. Note que os dados de áudio e vídeo passam
duas vezes pelo barramento de memória (e também pelo barramento de
periférico). Neste caso, o elemento central que dita o desempenho do
comportamento total é o barramento de memória (mais o barramento
de periférico). E quando várias mídias contínuas estão envolvidas
na aplicação, a largura de banda do barramento atinge seu limite,
causando atraso. Para ter uma ideia , a largura de banda de memória
é de 127,2 MBps para o PCI (33MHz e 32 bits) e 508,6 MBps para
o 64bits PCI 2.1 (66MHz e 64 bits), e a do barramento de periférico
é de 12 MBps para o USB e até de 400 MBps para o Firewire/IEEE
1394.
Pode-se pensar então por que não passar diretamente os dados
do disco para o dispositivo de apresentação? Isto não é possível pois
a transferência dos fluxos de áudio e vídeo para o conversor D/A e
para a memória de vídeo deve ser feita sob o controle dos programas
a MC buferiza os fragmentos individuais de som e vídeo que são
lidos do disco esta buferização assegura que estes fragmentos sejam
transferidos na cadência correta para apresentação, assegurando que as
dependências temporais sejam respeitadas.
Outrossim, é necessário notar que o barramento de memória (do
sistema) é também compartilhado por todos os outros componentes
do sistema, baixando assim a escalabilidade do sistema. Isto porque a
capacidade do barramento limita o número de dispositivos e elementos
de processamento conectados a ele.

10.4.1. Barramentos locais


Para solucionar estes problemas de limitação de barramento,
algumas arquiteturas desenvolveram barramentos locais para conectar

78 | Unidade III – Projetos de Sistemas Multimídia


diretamente componentes de estações de trabalho, por exemplo, um
barramento conectando a interface de rede ao módulo de entrada/saída
de vídeo e a memória principal. Isso reduz o gargalo do barramento do
sistema, pois os dados são passados diretamente entre componentes da
estação sem passar através do barramento compartilhado do sistema.
O barramento do sistema (compartilhado) fornece um alto grau
de flexibilidade e modularidade. A flexibilidade é perdida quando se
utiliza barramentos locais, pois caminhos de comunicação dedicados
não são flexíveis. Se, por exemplo, um video codec (codificador/
decodificador) libera um grande fluxo de dados diretamente para a
saída gráfica, não existe a possibilidade de editar este fluxo, e a estação
de trabalho é dedicada à apresentação do fluxo. Já os barramentos
locais são geralmente proprietários (não padronizados). Eles são
soluções ad hoc para problemas específicos de aplicações específicas.
Isto cria problemas de incompatibilidade de componentes de sistemas
de diferentes fabricantes, adicionando mais confusão a já confusa
situação de muitos tipos de barramentos de sistema (WILLRICH,
2012).
Um exemplo deste tipo de barramento é a interface AGP
(Accelerated Graphics Port) desenvolvida pela Intel, projetada para
aumentar as capacidades gráficas 3D e de vídeo do PC. AGP reduz a
carga de vídeo no barramento PCI. Como resultado, esta tecnologia
obtém uma apresentação gráfica mais suave e rápida. A diferença é
notada principalmente em jogos 3D que necessitam que os jogadores
se movimentem em um mundo virtual, como em Tomb Raider ou
Quake.
Fisicamente separado do barramento PCI, AGP é um barramento
de alta velocidade (528 MBps) entre o controlador gráfico e o conjunto
de chips da placa-mãe (chipset). Em vez de realizar a pré-carga de texturas
na memória gráfica local, a tecnologia AGP permite que o chip gráfico
obtenha os mapas de texturas diretamente da memória do sistema o
que possibilita que o chip gráfico processe dados de gráficos liberando
o processador para realizar outras operações. Realizando o tráfego de
gráficos no barramento AGP e fora do barramento PCI é fornecido às

Sistemas Multimídia | 79
aplicações maior uso da largura de banda e menores atrasos. Isso libera
o barramento PCI a usar adaptadores de rede a 100 Mbps, ultra DMA
hard drives e outros dispositivos PCI de alta velocidade. Minimizando
a necessidade de grande capacidade de memória gráfica local, o acesso
direto do AGP à memória do sistema permite o uso de texturas mais
ricas e maiores e que não são comportadas na memória gráfica local.
Os dados de textura armazenandos na memória principal do sistema
fornece um maior realismo nas aplicações gráficas. Usuários podem
então obter aplicações de 3D de alto desempenho e programas CAD
para visualização sofisticada de dados e ferramentas de autoria.

10.5. Requisitos de Sistema Operacional


Aplicações multimídia interagem diretamente com o sistema
operacional. Um sistema operacional multimídia deve utilizar os
recursos de hardware de maneira eficiente de modo que o uso destes
recursos seja maximizado. Os requisitos de qualidade de serviço
(visto no capítulo II e detalhado mais adiante neste curso) devem ser
garantidos usando gerenciamento de recursos e escalonamento de
processos apropriados. Um dos maiores requisitos de QoS a nível de
sistema operacional é o tempo de processamento garantido para cada
tarefa.
É preferível que o sistema operacional possa executar tanto
aplicações multimídia quanto aplicações tradicionais. Isto tem duas
implicações: a API (Application Programming Interface) tradicional
deveria ser mantida; as aplicações tradicionais não deveriam ser privadas
de recursos quando requisitos de QoS de aplicações multimídia são
garantidos.

80 | Unidade III – Projetos de Sistemas Multimídia


Exercícios
As questões abaixo devem ser respondidas em forma dissertiva
e argumentativa com pelo menos uma lauda. Devem também refletir
a interpretação da leitura do texto juntamente com pesquisas sobre o
tema arguido.

1) Quais as diferenças entre um projeto multimídia linear e não


linear?
2) Explique cada um dos 5 estágios de um projeto multimídia.
3) O que é um mapa de movimentação no contexto de um projeto
multimídia?
4) O que é o Transmidia Storytelling?
5) O que é a realidade aumentada?
6) O que é a realidade virtual?
7) Qual a diferença entre a realidade virtual imersiva e não imersiva?
8) Explique os requisitos para o funcionamento de um sistema
multimídia.

WEBLIOGRAFIA

Desenvolvimento de Um Sistema Multimídia para Autoria


h t t p : / / w w w. c o n h e c e r. o rg . b r / d o w n l o a d / c p / N O VA S % 2 0
TECNOLOGIAS/M4/leitura%20anexa%202.pdf

Realidade Aumentada
https://www.tecmundo.com.br/realidade-aumentada/2124-como-
funciona-a-realidade-aumentada.htm
http://realidadeaumentada.com.br/

Realidade Virtual
http://www.portalrealidadevirtual.com.br/
https://www.tecmundo.com.br/realidade-virtual

Sistemas Multimídia | 81
UNIDADE IV
Elementos multimídia: texto, imagem, áudio,
animação e vídeo

Resumo
Para que ideia possa ser implementada em sistema multimídia,
diversos elementos devem ser manipulados para que se possa passar
para o usuário aquilo que foi pensado.
Nesta Unidade além de mostrarmos os principais elementos
que devem ser levados em consideração em um projeto multimídia,
abordaremos não só a questão das mídias dinâmicas como sons e
vídeo, como também as mídias estáticas como texto e imagens.
A Unidade é acompanhada de exercícios sem a solução. Cada
questão deve ser encarada como um tema, sobre o qual o aluno deve
dissertar. Recomenda-se que seja feita uma pesquisa sobre o assunto
e que a questão seja respondida de forma ampla, podendo refletir a
opinião do aluno. A bibliografia e a webliografia ao fim dos capítulos e
unidades devem ser utilizadas para adquirir um conhecimento razoável
sobre o tema de cada capítulo. Ao término da leitura desta Unidade,
o estudante deverá: a) conhecer principais elementos multimídia; b)
conhecer os principais aspectos de manipulação desses elementos; e c)
Ser capaz de discutir a implementação e uso desses elementos nas mais
diversas situações criativas.

Sistemas Multimídia | 83
11. Áudio
Áudio é causado pelo distúrbio da pressão de ar que alcança
o tímpano. Quando a frequência do distúrbio de ar está na faixa de
20 Hz a 20.000 Hz ele é audível. A maioria dos sistemas multimídia
trabalham com esta faixa de frequência (WILLRICH, 2012). Outro
parâmetro usado para a medição do som é a amplitude (medido em
decibéis - dB), variação que causa o som leve ou pesado. Por exemplo,
o limiar da dor é de 100 a 120 dB. A onda sonora é uma onda contínua
no tempo e amplitude.

11.1. Representação digital de áudio


A forma de onda de áudio é convertida em um sinal elétrico
contínuo (analógico) por um microfone. Este sinal elétrico é medido
normalmente em volts. Para que sistemas computacionais processem
e comuniquem sinais de áudio, o sinal elétrico deve ser convertido em
um sinal digital. O mecanismo que converte o sinal de áudio digital
em analógico é chamado de Conversor Analógico para Digital (CAD).
Áudio digital necessita ser amostrado continuamente em uma
taxa fixa. Cada amostra é representada por um número fixo de bits. A
tabela abaixo mostra a taxa de amostragem e o número de bits usados
para cada amostra para várias aplicações de áudio. Relembrando:
quanto maior a taxa de amostragem e maior o número de bits por
amostragem, maior é a qualidade do áudio restituído, mas com isso
maior é a taxa de bits.
Para a apresentação do áudio digitalizado é necessário realizar a
transformação de uma representação artificial do som em uma forma
de onda física audível pelo ouvido humano. Para isto são utilizados
Conversores Digital para Analógico (CDA). Normalmente os
conversores CAD e CDA são implementados em uma única placa.

11.2. Características da fala


A fala é a forma dominante de comunicação entre humanos. Ela
suporta linguagens faladas, portanto, ela tem um conteúdo semântico.

84 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


Esta característica da fala tem duas consequências imediatas quando
consideramos seu uso em sistemas computacionais.
Parte do conteúdo semântico pode ser reconhecido pelo
computador. Os componentes individuais da fala: fonemas e grupos
de fonemas, que são as palavras, podem ser reconhecidas. Isto é
chamado de reconhecimento de voz. A translação pelo computador de
uma descrição codificada de uma mensagem em uma voz é possível.
Isto é chamado de sintetização de voz. Um tipo particular de síntese é
a conversão texto para voz.
A faixa de frequência da voz é de 50 Hz a 10 kHz. Apesar disto
a largura de banda necessária à transmissão ou registro é menor que
10 kHz. Isto porque humanos não falam todo o tempo sequências
de fonemas seguem períodos de silêncio. Os sons que não sejam
voz e que os humanos podem ouvir em geral não têm semânticas
complexas. Assim há poucas razões para trabalhos de reconhecimento
computadorizado destes tipos de sons. Há algumas aplicações militares
de reconhecimento de sons não- fala.

11.3. Representação simbólica da música: o padrão MIDI


Como visto anteriormente, qualquer som pode ser representado
como um sinal de som digitalizado, que é uma sequência de
amostras, cada uma codificada por dígitos binários. Esta sequência
pode ser descompactada como nos discos compactos de áudio ou
compactados. Uma característica deste modo é que ele não preserva
a descrição semântica do som. A menos que seja utilizado técnicas de
reconhecimento complexas, o computador não sabe se a sequência
de bits representa, por exemplo, uma fala ou música, e se música que
notas são usadas e por quais instrumentos.
Algumas representações de som preservam a semântica da
informação. No caso da codificação da fala, pode-se usar um texto e
atributos como voz masculina ou feminina, sotaque e taxa de palavras.
A música também pode ser descrita de uma maneira simbólica usando
técnicas similares às pautas musicais. O formato mais utilizado para
isso é aquele definido no padrão MIDI (Musical Instrument Digital

Sistemas Multimídia | 85
Interface). Esse padrão define como codificar todos os elementos
musicais, tal como sequências de notas, condições temporais, e o
“instrumento” que deve executar cada nota (são 127 instrumentos
e outros sons como aqueles produzidos por helicóptero, telefone,
aplausos, etc.).
Arquivos MIDI são muito mais compactos que amostragens
digitalizadas um arquivo MIDI pode ser 1000 vezes menor que um
arquivo CD áudio. Além disso, a representação MIDI é revisável
(modificáveis). As desvantagens são a necessidade de um processamento
extra de informação e imprecisão dos instrumentos de som (variam
com o dispositivo usado para a apresentação).

11.4. Técnicas de compressão de áudio digital


11.4.1. Quantificação não linear
Quando o mesmo tamanho de passo de quantificação é usado
na conversão A/D sem olhar para a amplitude do sinal, o processo de
conversão é dito uniforme. Este processo de conversão A/D é chamado
de modulação por pulso codificado (PCM). Ele é simples, mas não é
eficiente a quantificação linear resulta em uma mais elevada SNR na
região de amplitude de sinal mais alta que na região de mais baixa
amplitudes. Esta elevada SNR na região de amplitude mais alta não
aumenta a qualidade percebida, pelo fato de nós sermos mais sensíveis
às componentes de amplitude mais baixas.
A fim de explorar este fato, o tamanho de passo de quantificação
que aumenta logaritmicamente com a amplitude do sinal é muito
usado na quantificação de sinais de voz. Neste caso, os passos de
quantificação são menores quando a amplitude é baixa. Esta técnica
de compressão realiza uma transformação de um sinal linear em um
sinal não linear.
Na prática, uma quantificação uniforme é aplicada a um sinal
não linear transformado em vez de aplicar uma quantificação não
uniforme ao sinal linear. Os resultados destas duas abordagens é o
mesmo. O processo de transformação de um sinal linear em não linear
86 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo
é chamado de companding. A digitalização uniforme de um sinal
companded é chamado de companded PCM. Esta é na realidade uma
técnica de compressão analógica realizada antes da conversão A/D
e expandida após a conversão D/A. Usando esta técnica, o sinal de
8 bits pode produzir um sinal de qualidade equivalente aquele sinal
codificado PCM de 12 bit.
Na área da telefonia digital, utiliza-se um método de
transformação de natureza logarítmica para comprimir áudios. Ele
mapea 13 ou 14 bits dos valores linearmente quantificados para
códigos de 8 bits. O mapeamento de 13 para 8 é conhecido como
transformação A-law, e o mapeamento de 14 para 8 é conhecido
como transformação μ- law. Usando esta transformação, a SNR da
saída transformada é mais uniforme na faixa de amplitude do sinal de
entrada. A transformação A-law é usada normalmente em redes ISDN
(Redes Digitais de Serviços Integrados) na Europa, e μ-law na América
do Norte e Japão. A recomendação ITU G.711 (vista mais adiante),
especifica as transformações A- law e μ-law (WILLRICH, 2012).

11.4.2. Codificação Predictiva


Na codificação predictiva, em vez de se transmitir uma amostra,
a diferença entre uma previsão do valor da amostra e do valor real
é codificada e transmitida. Essa diferença é chamada de erro de
predição. Se essa diferença é quantificada e codificada, o esquema
de codificação é chamado de PCM diferencial (DPCM), também
chamado de modulação delta. Desde que o valor previsto por cada
amostra seja calculado apenas a partir do passado do sinal codificado,
o valor previsto é disponível tanto para o codificador quanto para o
decodificador. No momento da decodificação, o erro de predição é
adicionado ao valor previsto da amostra.
A eficiência desta técnica é obtida explorando o fato que valores
de amostras vizinhas são correlacionados e o erro de previsão será
menor que o valor original da amostra. Em muitos casos, poucos bits
por amostra necessitam ser transmitidos. Por exemplo, compactando
um fluxo de áudio de 16 bits, utilizando 4 bits para representar o erro
Sistemas Multimídia | 87
de predição, a qualidade pode ser mantida se o erro de predição for
sempre menor que 16 passos de quantificação original.
A modulação delta apresenta alguns problemas. O variante mais
prático é chamado de DPCM adaptativo (ADPCM). Para manipular
sinais que mudam rapidamente tão bem quanto sinais que mudam
lentamente, o tamanho do passo de quantificação aumenta com o
aumento da variação do sinal. Então se a forma de onda está trocando
rapidamente, grandes passos de quantificação são utilizados e vice-
versa. Este é o método usado em CD-I (compact disc-interative). Esta
técnica reduz a taxa de bits de áudio de alta qualidade de 1,4 Mbps
para 32 kbps.

11.4.3. MPEG Áudio


Até aqui foi apresentado algumas técnicas de codificação de
áudio especialmente projetadas para a voz, com uma suposição de que
a largura de banda do áudio está dentro de 3,4 kHz até 7 kHz. Esta
seção introduz uma técnica de compressão de áudio genérico que pode
ser usada para comprimir sons dentro da faixa dos sons audíveis (até
20 kHz).

Mascaragem
Um som pode tornar outro som impossível de ser ouvido, ou
ele pode tornar outro som sem peso. Isso é chamado de mascaragem.
A mascaragem de um som pode ser total ou parcial. Como sons
mascarados não são audíveis eles podem ser descartados. Esta é a
estratégia utilizada pelos padrões ISO MPEG-1 Audio e MPEG-2
Audio. Aqui nós veremos o padrão MPEG-1 Audio, por simplificação
abreviado para MPEG-Audio.
MPEG-Audio é um padrão de compressão de áudio genérico.
Diferente de muitos outros codificadores especialmente projetados
para sinais de voz, o codificador MPEG-Audio realiza a compressão
sem a suposição acerca da natureza da fonte do áudio. Em vez disso,
ele explora as limitações de percepção do sistema auditivo humano.

88 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


MPEG-Audio permite três frequências de amostragens: 32,
44.1 ou 48 kHz. A sequência de bits compactada pode suportar
um ou dois canais de áudio. O fluxo comprimido pode ter uma das
várias taxas de bits fixas e predefinidas variando de 32 a 244 Kbits/s.
Dependendo da taxa de amostragem do áudio, o codificador MPEG-
Audio pode ter uma razão de compressão variando de 2,7 a 24. Testes
mostram que em taxas de compressão 6:1 ouvintes experientes não
detectam diferenças (WILLRICH, 2012).

11.4.4. Um codificador básico MPEG-Audio


A Figura 8 mostra um diagrama de blocos de um codificador
MPEG-Audio básico:
• Bloco mapeamento tempo-freqüência: divide a entrada em
sub-bandas de freqüências múltiplas;
• Bloco modelo psico-acústico: cria um conjunto de dados para
controlar a operação do bloco quantificador e codificador;
• Bloco quantificador e codificador: cria um conjunto de
símbolos de código. As sub- bandas menos importantes e
áudios inaudíveis são removidos;
• Bloco empacotamento de quadros: monta e formata os
símbolos de código e adiciona outras informações (tal como
correção de erros), se necessário, para formar um fluxo de
áudio codificado.

Figura 8: Codificador MPEG-Áudio Básico (WILLRICH, 2012)

Sistemas Multimídia | 89
O padrão MPEG-1-Audio define um fluxo de bits que pode
suportar um ou dois canais de áudio: um canal único, dois canais
independentes, ou um sinal estéreo. Os dois canais de um sinal
estéreo podem ser processados independentemente ou como um
estéreo conjunto (joined stereo) para explorar a redundância estéreo
(correlações entre canais estéreo).
O padrão MPEG-2-Audio estende as funcionalidades do seu
predecessor pela codificação multicanal com até cinco canais (esquerdo,
direito, centro, e dois canais surround), mais um canal adicional de
baixa frequência, e/ou até sete canais multilíngues/comentários. Ele
também estende a codificação estéreo e mono do MPEG- 1-Audio
com taxas de amostragens adicionais.

11.4.5. MP3
MPEG Audio especifica uma família de 3 esquemas de
codificação de áudio, chamadas de Layer-1, Layer-2 e Layer-3. O
padrão especifica o formato do fluxo de bits e o decoficador para cada
esquema de codificação. Ele não especifica o codificador em si para
possibilitar avanços futuros.
De Layer-1 a Layer-3, a complexidade e desempenho (qualidade
de som e taxa de bits) aumentam. Os três codificadores são compatíveis
no modo hierárquico, isto é, o decodificador Layer-N é capaz de
decodificar um fluxo de bits fluxo codificado com codificador Layer-N
e abaixo de N.
Dentre estes Layers, o esquema de codificação mais conhecido
é o MPEG 1 Layer 3, conhecido como MP3. Este formato substitui
o WAVE (arquivos de som do windows 95). Sua vantagem é a
compressão, uma música de 4 min ocupando 45 MB em wave será
reduzida a 4,5 MB no formato mp3. Existem várias aplicações para o
MP3: para ouvir MP3 é necessários players especiais, como RealPlayer
ou WinAmp; para criar MP3 é necessário codificadores de WAVE em
MP3 e direto do CD para MP3.

90 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


O princípio de funcionamento básico do mp3 é buscar num
sinal de áudio normal, como um arquivo wave, todas os sinais
redundantes e irrelevantes que não sensibilizam nosso ouvido. Isto é
relativo. O algoritmo de compactação do mp3 corta frequências muito
altas, acima dos 20kHz, que não são audíveis pelo ouvido humano.
Só aí já são muitos bits economizados. Em qualquer música, se duas
frequências muito próxima foram "tocadas" ao mesmo tempo nosso
ouvido somente ouvirá a mais forte, ou seja, o mp3 simplesmente
diminui o número de bits desse sinal mais fraco e mantém os bits do
sinal mais forte, diminuindo assim o tamanho final do arquivo na
proporção 12:1 (qualidade semelhante ao CD).
Com a redução dos requisitos de armazenamento das músicas,
pensou-se em criar aparelhos digitais de música que tocassem o formato
MP3: walkmans, portáveis e para carros, periféricos para computador,
etc.

12. Video
O olho humano é capaz de processar um fluxo maior de
informações do que o ouvido. A enorme capacidade de processamento
de dados da visão humana se reflete nos requisitos para armazenamento
e transmissão de imagem em movimento. A digitalização do vídeo tem
como aspecto essencial as técnicas de compressão e descompressão de
sinais digitais, como veremos mais adiante.

12.1. Níveis de sistema de vídeo


Os níveis de sistemas vídeo dividem-se em (FIGUEREDO,
2010):
• Consumidor: equipamentos domésticos, com por exemplo,
o VHS, 8mm, DVD;
• Industrial: produtoras de vídeo e de multimídia;
• Difusão: emissoras de TV, como por exemplo, o Tipo C e os
sistemas digitais;
• HDTV: alta definição.
Sistemas Multimídia | 91
Nos sistemas das grandes produtoras de vídeo (cinema e televisão),
o surgimento do vídeo se dá a partir da criação de uma fita mestra.
Com ela, as imagens sofrem justaposição, intercalação e combinação
de material de vídeo, que foi originalmente gravado ou sintetizado.
Neste processo, o vídeo está sujeito a perdas em cada geração de cópia.
Pode ser feita a edição em nível de quadros e a indexação via código
de tempo. Esses códigos de tempo são chamados de códigos SMPTE
(mensagens indicativas de tempo) e permitem o posicionamento com
precisão de quadro. Os códigos, que são mensagens digitais, registram
hora, minuto, segundo e quadro do vídeo. Com isso pode ser feita
uma gravação longitudinal, com trilhas separadas ou uma gravação
vertical, com o retraço vertical.
Para a criação de um vídeo, é preciso ter em mente as opções
do código de tempo SMPTE (quadros/segundo). A seguir, alguns
exemplos:
• 24 - cinema;
• 25 - TV européia;
• 30 - TV americana preto-e-branco;
• 29,97 (“Drop-frame’ ’) - TV americana colorida.

12.2. Técnicas de compressão de vídeos


Um vídeo pode consumir uma quantidade enorme de estruturas
de armazenamento. Para se ter uma ideia, vejamos o cálculo a seguir:
• 1 quadro = 240.000 pixels = 720.000 bytes;
• Um segundo de vídeo = 30 quadros = 21.600.000 bytes =
20,6 Mb(;)
• Uma hora de vídeo = 72,43 Gb(.)

Com esse cálculo, percebemos a impossibilidade de gravar


um filme em um disco de DVD, sem a utilização de técnicas para
reduzir o número de bytes deste vídeo. Essa redução pode ser feita de
duas maneiras: sem perdas ou com perdas. A compressão sem Perdas

92 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


praticamente não oferece nenhum atrativo, pois o grau de compressão
é insignificante quando se precisa colocar mais de 150 Gb em um
disco de 4,7 Gb por isso, ambas as técnicas são utilizadas, ou seja, além
do uso das técnicas de compressão Sem Perdas, similar ao que acontece
na criação de arquivos .ZIP ou .RAR, também técnicas de compressão
Com Perdas são aplicadas. Entre as principais técnicas Com Perdas,
temos:
• Compressão da crominância: implícita no modelo YIQ
(Y - luminância, I e Q - componentes cromáticos em-fase
e quadratura). Retira do vídeo tons de cores que o olho
humano dificilmente será capaz de identificar;
• Compressão intraquadros: semelhante ao JPEG (Joint
Photographic Experts Group). Aproveita e remove
redundâncias e semelhanças dentro de um quadro;
• Compressão interquadros: aproveita a semelhança entre
quadros consecutivos do vídeo devido a coerência entre
quadros;
• Os algoritmos que aplicam as técnicas de compressão
em vídeos são chamados de codecs (codificadores/
decodificadores). Os principais codecs de vídeo são:
• Sem Perdas: HuffYUV, MSU, MJPEG, H.264 e FFmpeg
Video 1;
• Com Perdas: Xvid, DivX, RMVB, WMV, Theora, Sorenson,
MPEG (Motion Picture Experts Group) e JPEG em
movimento, que utiliza-se apenas da compressão intra-
quadros, possui baixa compressão, mesmo tendo o vídeo
editável quadro a quadro. OJPEG em movimento é adequado
para interfaces e edição de vídeos.
Deve-se ter cuidado com o codec MPEG, algumas empresas
usam o nome MPEG (MP) indiscriminadamente para nomear seus
produtos, produtos estes que nada tem a ver com o padrão MPEG
(FIGUEREDO, 2010). O MPEG possui as seguintes variantes:

Sistemas Multimídia | 93
• MPEG-1 (CD, VHS): resoluções de 320 x 240 com 30
quadros por segundo (não entrelaçados);
• MPEG-2 (DVD, HDTV): 720 x 480 e 1280 x 760, com 60
quadros por segundo (entrelaçados);
• MPEG-3: apenas para som;
• MPEG-4: Aplicação de transmissão de redes;
• MPEG-7: Em desenvolvimento.

A compressão de vídeos também é muito importante em sistema


de conferência remota, por reduzir drasticamente a largura de banda
necessária para manter o tempo real da transmissão. A Teleconferência
é a comunicação simultânea entre mais de dois participantes através de
meios adequados de comunicação, na qual apenas um é visto e ouvido
pelos demais, em um determinado instante. Já a videoconferência
é modalidade de teleconferência, na qual as imagens de sons dos
participantes, captadas através de câmeras de vídeo, são distribuídas
aos demais participantes simultaneamente e em tempo real.

12.3. Tipos de sinais de vídeo


Vídeo Componente consiste em um sinal de vídeo que é
separado em três componentes: red, green e blue. Cada um desses
componentes possui um cabo específico, portanto, são três cabos e
três conectores conectando câmeras ou outros equipamentos em uma
TV ou monitor. Este tipo de sinal apresenta o melhor esquema de
reprodução de cores, pois não há interferência entre os sinais R, G ou
B. Requer maior largura de banda para transmissão e boa sincronização
dos três componentes.
No sinal de vídeo composto, a cor (crominância) e a intensidade
(luminância) são misturadas em uma única onda portadora. O sinal
da crominância é composto por duas componentes de cores (I e Q, do
modelo YIQ, ou U e V, do modelo YUV). Os componentes de cores
são agrupados em uma sub-portadora e esta sub-portadora é unida com

94 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


o sinal da luminância na portadora principal. O receptor desacopla
os sinais, recuperando a imagem. Este tipo de sinal é utilizado para
transmissão de TV em cores. Quando conectados a TVs, os vídeos
compostos usam somente um único cabo. Devido à mistura dos sinais,
pode haver alguma interferência entre a luminância e a crominância.
O S-Vídeo também é chamado de vídeo separado ou super vídeo.
Utiliza-se de dois cabos: um para luminância e outro para o sinal da
crominância composta. Neste caso, há uma menor interferência entre
os sinais em relação ao vídeo composto. A separação entre o sinal da
luminância e da crominância se deve ao fato dos seres humanos serem
capazes de diferenciar resolução espacial em imagens em nível de cinza
melhor que em imagens coloridas.
Para colaborar com a efetividade da tecnologia de alta definição
surgiu o HDMI (High-Definition Multimidia Interface – Interface
Multimídia de Alta Definifição), um sistema de conexão que é capaz
de transmitir áudio e vídeo através de um único cabo, ao invés do
que acontecia anteriormente, em que cada tipo de transmissão possuía
cabos e entradas exclusivas nos aparelhos (FIGUEREDO, 2010).
Além da qualidade das imagens, o HDMI também se sobressai
em relação a outros formatos devido ao fato de ser mais compacto e
de fácil encaixe. Existem dois tipos de conectores HDMI: o HDMI
tipo A e o HDMI tipo B. O HDMI tipo A possui 19 pinos e é o mais
popularizado dos dois, pois é compatível também com a tecnologia
DVI-D (outro tipo de conexão digital, porém inferior ao HDMI).
Desta forma, é necessário que apenas uma das pontas do cabo seja
HDMI e a outra DVI. O conector HDMI tipo B é destinado a
resoluções de altíssima qualidade e trabalha no sistema dual link,
dobrando a capacidade de transmissão do cabo.
Sua primeira versão, a HDMI 1.0, além de toda a inovação de
transmissão de áudio e vídeo por um único cabo, a uma velocidade
de 4,95 Gbps (Gigabytes por segundo), esta versão permitia que seu
usuário tivesse até 8 canais de áudio. A primeira revisão, lançada em
maio de 2004 e chamada de HDMI 1.1, trouxe o suporte ao padrão

Sistemas Multimídia | 95
DVD-Áudio. Em sua versão HDMI 1.2, lançada em agosto de 2005,
o sistema passou a suportar formatos de áudio do tipo One Bit Audio
e passava a ser utilizado também em computadores.
Apesar de ter havido a versão 12a, o sistema só sofre uma
alteração significativa em junho de 2006, com o lançamento do
HDMI 1.3. Esta nova versão suportava maior frequência (até 340
Mhz) e numa velocidade de transmissão de 10,2 Gbps. Para mais,
ela também ganhava uma inovação quanto a aparelhos utilizando o
sistema: agora era possível conectar cabos HDMI a câmeras de vídeo
portáteis, eliminando problemas de sincronismo entre áudio e vídeo.
Ainda nesta versão, o sistema HDMI passou a suportar novos padrões
de cores, de 30, 36 e 48 bits. Depois disso ainda foram realizadas
pequenas alterações nas versões 1.3a e 1.3b, lançadas em novembro de
2006 e outubro de 2007, respectivamente.
A resolução de vídeos de sistemas HDMI são medidas da
mesma forma que a grande maioria das imagens e vídeos, a saber em
pixels. Quanto maior for a resolução, melhor deverá ser a qualidade
das imagens exibidas em sua tela. A letra que segue o número se refere
ao tipo de mapeamento realizado pelo aparelho: p para progressive
scan (mapeamento progressivo), e i para interlaced scan (mapeamento
entrelaçado) (leia mais sobre os tipos de mapeamento logo abaixo).
Portanto, se você encontrar uma marcação de 480p, saiba que a
resolução será de 640x480 pixels com mapeamento progressivo. 720i
indica que a resolução máxima deste equipamento é de 1280x720
pixels com mapeamento entrelaçado. Outro valor bastante comum é
o 1080, (Full HD) ou seja, 1920x1080 pixels.

12.4. Captura e reprodução de imagens e vídeos analógicos


As imagens são capturadas usando câmeras da seguinte maneira:
as lentes da câmera focam uma imagem de uma cena em uma
superfície foto-sensível de sensores CCD(Charge-Coupled Device);
o brilho de cada ponto é convertido em uma carga elétrica por uma
camada foto-sensível, estas cargas são proporcionais ao brilho nos
pontos; a superfície foto-sensível é rastreada por um feixe de elétrons

96 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


para capturar as cargas elétricas, devendo ser feito rapidamente antes
que a cena mude. Desta maneira a imagem ou cena é convertida em
um sinal elétrico contínuo (FIGUEREDO, 2010).
Nesta seção, por simplificação assume-se a captura e reprodução
de vídeos monocromáticos, na qual apenas um sinal de luminância é
produzido (apenas a luminosidade é capturada, temos a imagem em
tons de cinza). Neste caso são usadas câmeras de Luminância, que
captam a imagem em tons de cinza, e gera um sinal só com a luminância
da imagem. A imagem é gerada por um CCD monocromático que
capta o tom de cinza que incide em cada célula do circuito. Este tipo
de câmera é utilizada em geral para aplicações em visão computacional
e nos casos os quais a informação sobre a luminosidade da imagem é
suficiente.
O dispositivo de apresentação de imagens mais utilizado é o
tubo de raios catódicos (CRT). Ele é usado nos aparelhos de TV e
monitores de computadores. Há uma camada de fósforo fluorescente
no interior do CRT. Esta camada é rastreada por um feixe de elétrons
na mesma forma do processo de captura na câmera. Quando o feixe
toca o fósforo ele emite luz durante um curto instante. O brilho da luz
depende da força do feixe. Quando quadros repetem-se suficientemente
rápidos a persistência da visão resulta na reprodução de um vídeo.
Em implementação prática, o sinal elétrico enviado da câmera para o
dispositivo de apresentação deve conter informações adicionais para
assegurar que o rastreamento esteja sincronizado com o rastreamento
do sensor na câmera. Esta informação é chamada sync information.

12.5. Vídeos e Imagens Coloridos


Todos os sistemas de TV a cores são baseados na teoria Tristimulus
de reprodução da cor. Essa teoria afirma que qualquer cor pode ser
reproduzida com a mistura das três cores primárias: vermelho, verde e
azul. Para capturar imagens coloridas, uma câmera divide a luz nos seus
componentes vermelho, verde e azul. Estas três componentes de cor
são focalizadas em sensores de vermelho, verde e azul, que convertem
estes três componentes em sinais elétricos separados.

Sistemas Multimídia | 97
Em um monitor colorido, há 3 tipos de fósforos fluorescentes
que emitem luzes vermelha, verde e azul quando tocadas por 3 feixes
de elétrons. Estes fósforos são arranjados de tal forma que cada
posição do vídeo tem 3 tipos de fósforo. A mistura da luz emitida
desses 3 fósforos produz um ponto de cor.

13. Texto
Com o uso dos computadores, surgiu a necessidade de
representar letras e caracteres especiais através de códigos numéricos,
para que pudessem ser manipulados e transmitidos entre os
diferentes sistemas de computador (VARAJÃO, 2012). Por isso,
criou-se o padrão ASCII – American Standard Code for Information
Interchange (Código Padrão Americano para Troca de Informações),
em que cada letra do alfabeto, número ou caractere especial possuía
um código correspondente entre 0 e 255.
Isso era inicialmente suficiente para que a informação pudesse
ser transmitida ou representada. Porém, com a expansão mundial
do uso do computador, era necessário atender às particularidades
da língua de cada país, incorporando acentos e outros tantos
caracteres especiais, que já ultrapassavam 256 e não mais poderiam
ser representados pelo padrão ASCII. Uma medida paliativa adotada
foi o conhecido termo “código de página”, o qual os primeiros 128
caracteres da tabela seguiam uma codificação padrão, enquanto
os restantes eram utilizados de acordo com a necessidade de cada
país, informando ao sistema operacional a página que estaria sendo
utilizada.
Não é difícil perceber que, com o advento da Internet existe
a possibilidade de um computador acessar conteúdo de outro país
e a visualização do texto exibido pode ser dificultada. Diante dessa
necessidade, criou-se o padrão Unicode, que não mais se limita a 1
byte (8 bits) por caractere, mas sim 2 bytes (16 bits), permitindo a
representação de até 65536 caracteres distintos (VARAJÃO, 2012).

98 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


13.1. Fontes e Faces
Quando o computador desenha a letra A na tela ou na
impressora, deve saber como representá-la. Ele faz isso de acordo com
o hardware disponível e com a sua especificação de escolha de tipos e
fontes disponíveis. Monitores de alta resolução e impressoras podem
tornar a aparência dos caracteres mais atraente e variada. Atualmente a
ampla seleção de de fontes (Figura 9) ajuda a encontrar a face e a fonte
adequadas às necessidades do projeto.

Figura 9: A letra A representado por diferentes fontes

Uma Face é uma família de caracteres gráficos que normalmente


inclui muitos tamanhos e estilos de tipos. Uma Fonte é um conjunto
de caracteres de um único tamanho e estilo pertencente a uma família
de face particular. Na figura anterior observar as diferenças existentes
na grafia do caractere “A” ao utilizarmos fontes diferentes.
Tamanhos e tipos geralmente são expressos em pontos; um
ponto corresponde a 0,0138 polegadas ou aproximadamente 1/72
de uma polegada. Os Estilos normais das fontes são: negrito, itálico
(oblíquo) e sublinhado; outros atributos como contorno de caracteres
podem ser adicionados pelo software. É comum confundir os termos
fonte e face. Dependendo do tipo do computador (PC, Mac, etc.),
caracteres identificados em uma fonte podem oferecer diferenças de
formato e tamanho.
Os caracteres identificados em uma fonte em particular (por
exemplo, Courier New 12 pontos) não se parecem quando se comparam
os ambientes Macintosh e Windows. Um tamanho de ponto não
descreve exatamente a altura ou a largura dos seus caracteres, podendo
variar de acordo com a resolução dos monitores. Isso acontece porque
a altura x (a altura da letra minúscula x, veja na Figura 1) de duas

Sistemas Multimídia | 99
fontes pode variar, embora a altura das letras minúsculas dessas fontes
possa ser a mesma.

Figura 10: Atributos de Caracteres (VARAJÃO, 2012)

A distância da parte superior das letras maiúsculas até a parte


inferior das letras descendentes (como as letras g e y) normalmente
define o tamanho de uma fonte do computador. As fontes de
computador adicionam espaço abaixo das letras descendentes (e
algumas vezes acima) para fornecer o espaçamento de linha ou
entrelinhamento apropriado. O entrelinhamento pode ser ajustado no
computador com as opções linha e ponto.
Quando o tipo era definido à mão, o tipo de uma única fonte
era sempre armazenado em duas caixas:
• Alta, letras maiúsculas (caixa alta) e;
• Baixa, letras minúsculas (caixa baixa).
Em algumas situações, como em senhas, o computador é
sensível à caixa. Mas na maioriadas situações que requerem entrada
pelo teclado o computador reconhece as formas da caixa alta e caixa
baixa de um caractere como iguais. Estudos mostram que palavras e
frases com letras com caixas alta e baixa misturadas são mais fáceis de
ler do que todas elas em caixa alta.
Antigamente, para se escrever um caractere, era necessário
procurar os formatos em uma tabela de mapa de bits contendo uma
representação de cada caractere em todos os tamanhos. Atualmente
existem formatos que descrevem cada caractere em termos de
construções matemáticas, por ex.: Postscript (curvas de Bisei) e Truetype
(curvas quadráticas); principais vantagens:

100 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


• Melhor definição do caractere, em qualquer definição tanto
com 10 pontos quanto com 100 pontos e;
• Maior velocidade de impressão.

As fontes de mapa de bits, Truetype e Postscript não são


apresentadas (ou impressas) exatamente da mesma forma, embora
possam compartilhar o mesmo nome e tamanho. Fórmulas diferentes
são utilizadas pelas três tecnologias. Isso significa que a quebra de
palavra em um campo de texto pode mudar. Sendo assim deve-se ter
cuidado ao criar um campo ou botão que ajuste precisamente o texto
apresentado com a fonte Postscript, este, ao ser apresentado com a
mesma fonte Truetype poderá ser truncado ou quebrado, destruindo
o layout do botão.
Ao imaginar um projeto multimídia que não tenha nem um
texto, o seu conteúdo poderia não ser absolutamente complexo,
entretanto, o projetista precisaria utilizar muitas figuras e símbolos
para orientar o público a movimentar-se pelo projeto.
Palavras e símbolos em qualquer forma, falada ou escrita,
transmitem um significado compreensível e amplamente
compartilhado por um número maior de pessoas – com exatidão de
detalhes. Um item exclusivo do texto de um menu acompanhado por
uma única ação (clique do mouse, ou o pressionar de uma tecla, ou
o monitor de vídeo, com o dedo) requer um pequeno treinamento e
deve ser claro e imediato. Deve-se usar texto em títulos e cabeçalhos
(para dizer ao leitor sobre o que se está falando), em menus (para
ao leitor onde ir), para movimentar-se (para dizer como chegar em
alguma opção) e para o conteúdo (para indicar o que será visto quando
chegar no conteúdo).
Na elaboração de um sistema de movimentação, deve-se levar
o usuário a um destino em particular com poucas ações e no mínimo
tempo possível. Se o usuário não precisar do botão “Ajuda” para chegar
lá, significa que o projeto está no caminho certo.

Sistemas Multimídia | 101


Quanto ao espaçamento, o texto pode ser classificado como
uniforme ou proporcional. Uniforme é aquele tipo de escrita utilizado
nas máquinas de escrever: todas as letras possuem a mesma proporção
lateral. No texto proporcional, cada letra possui largura específica
(VARAJÃO, 2012).
Assim como a propaganda de uma casa pode ser feita por
um corretor de imóveis, um vinho pode ser lembrado de diferentes
maneiras pelos críticos de culinária, e a plataforma de um candidato
político também pode variar, as faces podem ser descritas de
muitos modos. O tipo do caractere tem sido caracterizado como
feminino, masculino, delicado, formal, cômico, jornalístico, técnico
etc. Entretanto há um método para a categorização de faces que é
universalmente entendido, e ele tem menos a ver com a resposta do
leitor do que com as propriedades mecânicas e históricas. Este método
utiliza os termos serif e sans serif.
Serif e sans serif são os modos mais simples de categorizar uma
face; o tipo tem uma serifa ou não. Serifa é um pequeno arremate ou
decoração no final de uma letra retocada.
A escolha das fontes tanto na mídia impressa quanto na
multimídia é de grande importância para o entendimento do assunto.
Nesse contexto, apresentamos a seguir algumas regras para a utilização
das fontes:
• Após selecionar as fontes, peça a opinião de outras pessoas;
aprender a receber críticas;
• Para tipos pequenos utilize a fonte mais legível disponível;
descartar as ilegíveis. Usar o mínimo possível de faces
diferentes no mesmo trabalho; variar a altura e tamanho;
• Em parágrafos, evitar linhas muito juntas, pois são difíceis
de ler;
• Variar o tamanho da fonte de acordo com a importância da
mensagem;

102 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


• Em cabeçalhos grandes, ajustar o espaço entre as letras
(ranhura) para que fique na proporção certa;
• Explorar diferentes cores para realçar um tipo ou torná-lo
mais legível;
• Utilizar texto com o efeito anti-aliasing que permite uma
transição entre a letra e seu fundo (pontilhando as bordas
das letras);
• Textos em várias cores, alterados ou distorcidos graficamente:
dentro de uma esfera, por exemplo, atraem a atenção;
• Sombreamentos podem ser feitos colocando-se uma
cópia transparente da palavra no topo do texto original e
ressaltando-se o esse original com alguns pixéis para cima e
pintando-se a outra de cinza (por exemplo).
Para trabalhos mais elaborados existem diversas ferramentas
de edição de fontes disponíveis na internet, com elas podem-se criar
novos tipos de fontes. Dependendo da aplicação a utilização de novos
tipos de fontes pode trazer problemas incalculáveis.

14. Imagens
Embora nós possamos contar com nossos olhos para nos trazer
a maior parte das informações do mundo externo, eles não são capazes
de revelar tudo. Nós podemos ver apenas objetos que emitam ou sejam
iluminados por ondas de luz em nosso alcance de percepção, que
representa somente 1/70 de todo o espectro eletromagnético. O olho
humano enxerga radiações luminosas entre 4 mil e 8 mil angströns,
unidade de comprimento de onda.

14.1. Pixel
Pixel (aglutinação de Picture e Element, ou seja, elemento de
imagem, sendo Pix a abreviatura em inglês para Picture) é o menor
elemento num dispositivo de exibição (como por exemplo um
monitor), ao qual é possível atribuir-se uma cor. De uma forma mais

Sistemas Multimídia | 103


simples, um pixel é o menor ponto que forma uma imagem digital,
sendo que o conjunto de milhares de pixels formam a imagem inteira.
Num monitor colorido cada Pixel é composto por um conjunto
de 3 pontos: verde, vermelho e azul. Cada um destes pontos é capaz de
exibir 256 tonalidades diferentes (o equivalente a 8 bits) e combinando
tonalidades dos três pontos é possível exibir em torno de 16 milhões
de cores diferentes. Em resolução de 640 x 480 temos 307 mil pixels,
a 800 x 600 temos 480 mil, a 1024 x 768 temos 786 mil e assim por
diante (VARAJÃO, 2012).
O Pixel é a menor unidade de uma Imagem, e quanto maior for
o número de pixeis, melhor a resolução que a imagem terá. Em caso
de Imagens de Satélites, temos, na maioria das vezes, imagens não
coloridas, elas são colhidas e mostradas em tons de cinza; a quantidade
desses tons de cinza de cada imagem é denominada de BITS, sempre
demonstrados em potência de 2; ou seja, uma imagem com oito bits,
por exemplo, refere-se a 2 na potência 8; ou seja, 256 tons de cinza, e
estes tons de cinza variam entre o branco e o preto.
Mistura das cores RGB é a abreviatura do sistema de cores
aditivas formado por Vermelho (Red), Verde (Green) e Azul (Blue). É
o sistema aditivo de cores, ou seja, de projeções de luz, como monitores
e datashows, em contraposição ao sistema subtrativo, que é o das
impressões CMYK - Ciano (Cyan), Magenta (Magenta), Amarelo
(Yellow) e Preto ("K"ey - do inglês chave, pois é a base. O modelo
de cores RGB é baseado na teoria de visão colorida tricromática, de
Young-Helmholtz, e no triângulo de cores de Maxwell. O uso do
modelo RGB como padrão para apresentação de cores na Internet tem
suas raízes nos padrões de cores de televisões RCA de 1953 e no uso do
padrão RGB nas câmeras Land/Polaroid, Edwin Land.

14.2. Contraste
É a diferença em luz, brilho, tom, isto é, das propriedades
visuais, entre duas cores que as fazem mais ou menos distinguíveis. O
contraste faz com que um objeto seja distinguível de outros e do plano
de fundo.

104 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


Quando duas cores diferentes entram em contraste direto, o
contraste intensifica as diferenças entre ambas. O contraste aumenta
quanto maior for o grau de diferença e maior for o grau de contacto,
chegando a seu máximo contraste quando uma cor está rodeada por
outra.
O efeito de contraste é recíproco, já que afeta às duas cores
que intervêm neste efeito. Todas as cores de uma composição sofrem
a influência das cores com as quais entram em contato. Existem
diferentes tipos de contrastes: contraste de luminosidade, de valor, de
saturação de temperatura, silmultâneo e contrastes complementares.
O Contraste de luminosidade, Também denominado contraste claro-
escuro, se produz ao confrontar uma cor clara ou saturada com branco
e uma cor escura ou saturada de preto. É um dos mais efetivos, sendo
muito recomendável para conteúdos textuais, que devem destacar com
clareza sobre o fundo.
Já o Contraste de valor ocorre quando se apresentam dois valores
diferentes em contraste simultâneo, o mais claro parecerá mais alto, e
o mais escuro, mais baixo. Por exemplo, ao colocar dois retângulos
grenás, um sobre fundos esverdeados e o outro sobre fundo laranja,
veremos mais claro o situado sobre fundo esverdeado. A justaposição
de cores primárias exalta o valor de cada um.
O Contraste de saturação origina-se da modulação de um tom
puro, saturando-o com branco, negro ou cinza. O contraste pode dar-
se entre cores puras ou então pela confrontação destes com outros não
puros. As cores puras perdem luminosidade quando se adiciona preto
e variam sua saturação mediante a adição do branco, modificando os
atributos de calor e frieza. O verde é a cor que menos muda misturada
tanto com o branco como com o preto. Como exemplo, se situarmos
sobre o mesmo fundo três retângulos com diferentes saturações de
amarelo, contrastará sempre o mais puro.
O Contraste de temperatura é o contraste produzido ao
confrontar uma cor cálida com outra fria. A calidez ou a frieza de uma
cor é relativa, já que a cor é modificada pelas cores que a rodeiam.
Sendo assim, um amarelo pode ser cálido com respeito a um azul e

Sistemas Multimídia | 105


frio com respeito a um vermelho. E também um mesmo amarelo pode
ser mais cálido se estiver rodeado de cores frias, e menos cálidas se o
rodeiam com vermelho, laranja etc.
Duas cores complementares são as que oferecem juntas melhores
possibilidades de contraste, embora resulte muito violentas visualmente
combinar duas cores complementares intensas (VARAJÃO, 2012).
Para conseguir uma harmonia, convém que um deles seja a sua
cor pura, e a outra esteja modulado com branco ou preto. O Contraste
simultâneo é o fenômeno segundo o qual nosso olho, para uma cor
dada, exige simultaneamente a cor complementar, e senão der, ele
mesmo a produz. Essa busca do olho não pode passar despercebida
quando se trabalha com cores. Pois muitas vezes, por tentar estar em
equilíbrio, o cérebro interpreta as cores de maneira diferente de como
elas são de verdade. Isso pode gerar efeitos interessantes, como também
atrapalhar tudo.
O contraste simultâneo é uma consequência do trabalho
do olho pela busca de equilíbrio. Ele ocorre sempre que o olho é
sensibilizado por uma cor. A partir desse instante, o olho procura o
tom complementar a essa cor, para que esses tons se anulem e ele possa
voltar ao seu estado de equilíbrio inicial. Quando o olho encontra
esse tom complementar e consegue se anular, consegue-se a famosa
“harmonia cromática”. Entretanto, quando o olho não encontra o
tom complementar, ele a projeta em algum tom qualquer localizado
próximo a cor original. Dessa forma, cada cor assume um pouco do
tom complementar de outra.
Duas cores claras brilhantes colocadas uma ao lado de outra
impactam nossa vista, produzindo um efeito de rejeição, enquanto
que se situamos essas mesmas duas cores uma dentro da outra o efeito
muda completamente, resultando agradável.
Uma mesma cor pode mudar muito seu aspecto visual
dependendo da cor na qual se encontrar embutida. Este efeito fornece
um mudança de aparência de uma cor dependendo da luz incidente
sobre ela, do material de que está formado ou da diferente cor que lhe
sirva de fundo. Essa mudança recebe o nome de Metamerismo.

106 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


14.3. Harmonia Cromática
Ocorre quando certa escolha de cores permite ao olho manter-
se em equilíbrio, ou seja, a soma de todos os tons tem que resultar
em um cinza médio. Quando há harmonia cromática, há uma
situação de conforto para o olho, uma situação de relaxamento, o olho
dificilmente cansará de olhar a essa imagem. Essa é a grande vantagem
de se trabalhar a partir da harmonia. É importante lembrar que o
olho sempre vai buscar o equilíbrio, independente de haver ou não
harmonia cromática.
Quando há harmonia, o cérebro interpreta as cores assim como
elas são em sua natureza químico-física, o efeito delas é estático, sólido
e previsível. Já quando não há harmonia, o olho tentará criar essa
situação de equilíbrio através de efeitos como o contraste simultâneo e
o surgimento de pós-imagens, que dão às cores novos efeitos, enorme
oscilação e as tornam abstratas.
Existem diversas maneiras de se alcançar o cinza médio na
mistura das cores, desde as mais simples misturando branco e preto, ou
através da soma de tons complementares – até as mais complexas que
envolve a mistura de diversas cores, (desde que bem pensadas). Essas
misturas de cores são chamadas de “acordes” de cores. É interessante
pensar nesse termo, retirado da música, pois lá ele significa mistura de
notas diferentes, mas harmônicas (VARAJÃO, 2012).
Nem tudo que for feito, precisa ser harmônico, quando se foge
da harmonia cromática, se alcança efeitos novos que podem tornar um
trabalho muito mais interessante. Entretanto, nesses casos se faz ainda
mais necessário o conhecimento da harmonia e suas consequências,
bem como as conseqüências da sua ausência.
Tipos de harmonia cromática:
• Monocromática: é a harmonia resultante de uma cor da roda
das cores. As tonalidades podem mudar, mas todas ficam no
mesmo matiz da roda das cores;
• Análoga: é a harmonia formada de uma cor primária
combinada com duas cores vizinhas a ela na roda das cores.
Sistemas Multimídia | 107
Por exemplo: um arranjo com flores amarelas combinadas
com flores amarelo-alaranjadas com amarelo-esverdeadas;
• Complementar: é a harmonia que ocorre quando combinamos
cores opostas na roda das cores. Muito comum nesse caso é a
mistura do vermelho com verde, azul com amarelo;
• Triadica: é a harmonia onde usamos três cores da roda das
cores que tem a mesma distância entre elas. Por exemplo:
azul, amarelo e vermelho. Esse tipo de combinação consegue
dar um efeito visual muito atraente;
• Complemento dividido: é a harmonia conseguida através da
mistura de uma tonalidade da escala com as duas vizinhas da
cor diretamente oposta a primeira. É caso de um arranjo com
as cores amarelo, azul-violeta, vermelho-violeta;
- Acromática: é a harmonia onde usamos flores só brancas e
folhagem. Na arte floral, o verde e o branco não são considerados
cores.

14.4. Imagem digital


Uma imagem digital é composta por pontos discretos de tons e/
ou cores, ou brilho, e não por uma variação contínua. Para a criação de
uma imagem digital, deve-se dividir a imagem contínua em uma série
de pontos que irão possuir uma determinada tonalidade (gray- scale)
ou cor (colorido).
Adicionalmente a este processo de divisão, deve-se descrever
cada ponto por um valor digital. Os processos de divisão da
imagem contínua e determinação dos valores digitais de cada ponto
são chamados de amostragem e quantização, respectivamente. A
combinação destes dois processos é o que se denomina de digitalização
de imagens, sempre se referindo ao pixel, sendo a menor unidade de
atribuição de uma imagem digital.
A qualidade está diretamente relacionada com o número de
pixels e linhas, e com a gama de intensidades de brilho que se pode ter
em uma imagem. Estes dois aspectos são conhecidos como resolução da
108 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo
imagem, que pode ser definida por dois fatores: a “resolução espacial”
e a “resolução de brilho” (ou “resolução de cores” no caso de imagens
coloridas). Quando se trata de movimento, outro aspecto importante
é a taxa que se apresenta cada quadro, de modo que se tenha a ilusão
do movimento.
O termo “resolução espacial” (no nosso caso, espacial se refere ao
espaço 2D) é usado para descrever quantos pixels compõem a imagem
digital, desta forma, quanto maior o número de pixels maior será a
“resolução espacial”.

14.4.1. RGB
O modelo de cores RGB é um modelo aditivo no qual o
vermelho, o verde e o azul (usados em modelos aditivos de luzes)
são combinados de várias maneiras para reproduzir outras cores. O
nome do modelo e a abreviação RGB vêm das três cores primárias:
vermelho, verde e azul (Red, Green e Blue, em inglês); e só foi possível
devido ao desenvolvimento tecnológico de tubos de raios catódicos
– com os quais foi possível fazer o display de cores ao invés de uma
fosforescência monocromática (incluindo a escala de cinza), como no
filme preto e branco e nas imagens de televisão antigas.
Sistemas coloridos com 24 bits funcionam com três canais de
256 sombras discretas de cada uma das cores (vermelho, verde e azul)
representadas como os três eixos de um cubo, permitindo um total de
16.777.216 cores (256 * 256 * 256).
Essas três cores não devem ser confundidas com os pigmentos
primários vermelho, azul e amarelo, conhecidos no mundo das artes
como “cores primárias”, já que se combinam baseadas na reflexão e
absorção de fótons, visto que o RGB depende da emissão de fótons de
um componente excitado a um estado de energia mais elevado (fonte
emissora, por exemplo, o tubo de raios catódicos).
O modelo de cores RGB, por si só, não define o que significa
“vermelho”, “verde” ou “azul” (espectroscopicamente), e então os
resultados de misturá-los não são tão exatos (e sim relativos, na média
da percepção do olho humano).

Sistemas Multimídia | 109


O termo RGBA é também usado significando Red, Green,
Blue e Alfa. Este não é um modelo de cores diferente, e sim uma
representação – uma vez que o Alpha é usado para indicar transparência.
Em modelos de representação de cores de satélite, por exemplo, o
Alpha pode representar o efeito de turgidez ocasionado pela atmosfera
- deixando as cores com padrões mais opacos do que seria a realidade.
Uma cor no modelo de cores RGB pode ser descrita pela
indicação da quantidade de vermelho, verde e azul que contém. Cada
uma pode variar entre o mínimo (completamente escuro) e máximo
(completamente intenso). Quando todas as cores estão no mínimo,
o resultado é preto. Se todas estão no máximo, o resultado é branco.
Uma das representações mais usuais para as cores é a utilização
da escala de 0 à 255, bastante encontrada na computação pela
conveniência de se guardar cada valor de cor em 1 byte (8 bits).
Destarte, o vermelho completamente intenso é representado por 255,
0, 0.
Nos programas de edição de imagem, esses valores são
habitualmente representados por meio de notação hexadecimal, indo
de 00 (mais escuro) até FF (mais claro) para o valor de cada uma
das cores. Assim, a cor #000000 é o preto, pois não há projeção de
nem uma das três cores; em contrapartida, #FFFFFF representa a
cor branca, pois as três cores estarão projetadas em sua intensidade
máxima.
As cores são complementares às do sistema CMYK - Ciano
(Cyan), Magenta (Magenta), Amarelo (Yellow) e Preto (blacK) - e a
sua mistura forma a cor branca.

14.4.2. Imagem Bitmap vs Vetorial


É uma representação em duas dimensões de uma imagem como
um conjunto finito de valores digitais, chamados pixels. A matriz é
uma malha, em que cada ponto ou célula é um pixel com um valor
associado a cada ponto.
Esse valor é chamado de intensidade da imagem e representa
alguma propriedade, como cor, tonalidade, brilho e outras, ou seja,

110 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


é como se tivéssemos uma tabela de correspondência do número às
várias cores. Uma das formas de representação da imagem digital é por
percentagem de três cores: vermelho, verde e azul, conhecido como
RGB.Portanto, a imagem é guardada numa forma numérica como
dados. É bastante usual a imagem digital ser comprimida.
Quanto mais fina a malha for, maior será a qualidade da imagem.
E quanto mais possibilidades temos de ter no número em cada pixel,
maior será a quantidade de cores que poderemos colocar em cada pixel
logo, maior a qualidade da imagem, e, por conseguinte, maior será o
seu tamanho.
Independentemente de suas formas, as imagens imóveis são
geradas pelo computador de 2 modos (Figura 11):
• Mapa de bits (ou raster/bitmap), matriz de informação
descrevendo os pontosindividuais (pixels); e
• Vetores, a informação a respeito das figuras é descrita a partir
de suas coordenadas no plano cartesiano.
Sendo que o raster pode representar imagens estáticas ou em
movimento (filmes), e o vetorial pode representar imagens estáticas
em duas (2D) ou três dimensões (3D).
A imagem vetorial vai tentar traduzir a imagem recorrendo
a instrumentos de vetores e de desenho, tipo: retas, pontos, curvas,
polígonos simples, etc. isto associado a uma proporcionalidade de
posição permitindo que não se perca qualquer definição da imagem
mesmo que se estenda a área de imagem. Tem a vantagem adicional de
ocupar menos espaço em termos de memória.
A imagem de rastreio ou raster tem esse problema ao se aumentar
as dimensões da imagem, os pixels vão se distribuir por uma área
maior, logo, tornando a imagem mais indefinida. E claro que iremos
ter de guardar cada pixel. A qualidade de uma imagem digital dar-se-á
sobre dois aspectos: a quantidade de pixel por polegada (resolução da
imagem), e o número de pixels na horizontal e na vertical (tamanho
da imagem em centímetros).

Sistemas Multimídia | 111


Imagem vetorial é um tipo de imagem gerada a partir de
descrições geométricas de formas, diferente das imagens chamadas
mapa de bits, que são geradas a partir de pontos minúsculos
diferenciados por suas cores. Uma imagem vetorial normalmente é
composta por curvas, elipses, polígonos, texto, entre outros elementos,
isto é, utilizam vetores matemáticos para sua descrição. Em um trecho
de desenho sólido, de uma cor apenas, um programa vetorial apenas
repete o padrão, não tendo que armazenar dados para cada pixel.
Por serem baseados em vetores, esses gráficos geralmente são
mais leves (ocupam menos memória no disco) e não perdem qualidade
ao serem ampliados, já que as funções matemáticas adequam-se
facilmente à escala, o que não ocorre com gráficos raster que utilizavam
métodos de interpolação na tentativa de preservar a qualidade. Outra
vantagem do desenho vetorial é a possibilidade de isolar objetos e
zonas, tratando-as independentemente.
Existe um tipo especial de imagem gerada por computador que
mistura os conceitos de ambos tipos: o cálculo matemático (escalável
por natureza) e imagem raster: as imagens fractais.

Figura 11: Imagem Vetorial vs Imagem Raster

14.4.3. Bitmap x Compressão


Uma imagem bitmap contém basicamente dois tipos de
informação: canal gamma (luminosidade) e chroma (cor). Em uma
112 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo
busca incessante por espaço de armazenamento ou aumento de
velocidade de transmissão de conteúdo, o termo “compressão” é
utilizado em diversas áreas da computação e não poderia ser diferente
quando se fala de imagem. Em uma imagem bitmap, existem dois
processos de compressão utilizados: compressão algorítmica e
compressão de chroma.

Compressão Algorítmica
Esse processo faz uso de uma particularidade dos arquivos
de imagem: é comum que bits sequenciais contenham a mesma
informação. Por exemplo, os bits que representam uma parede branca
aparecerão em sequência em boa parte da imagem. Neste processo são
utilizados dois algoritmos de compressão: Huffmann e Run-Length
(RLE).
O Huffmann atribui apelidos a sequências de caracteres com
maior incidência no arquivo. Por exemplo: coração, comunicação,
plantação, compactação etc. Se substituirmos todas as incidências de
“ação” por “!\” teremos uma redução de 50% (de 4 letras para 2) na
incidência destas sequências. O mesmo pode ser aplicado em imagens.
O Run-Length identifica as repetições contínuas (adjacentes)
de uma informação e converte em número de vezes que aparece. Por
exemplo: a sequência “AAAABBBCCAAAAAAAA” seria representada
por “A4B3C2A8”, ou seja, a letra e o número de vezes que ela aparece.
Não é difícil perceber que em imagens isso é mais do que comum.

Compressão Chroma
Este segundo processo solicita ao usuário que informe um
percentual de compressão (de 0 a 100%) que irá fazer uso de uma
particularidade da visão humana para comprimir a imagem: o
número de cores que enxergamos. O olho humano não percebe todas
as nuances de cores muitas vezes representadas em uma foto. Dessa
maneira, através do processo de compressão de chroma, cores com tons
muito próximas são unificadas, reduzindo, dessa maneira, o número
de informação do arquivo. O percentual define qual a tolerância para

Sistemas Multimídia | 113


a diferença das cores, sendo que 0 indica um processo intolerante, ou
seja, nem uma cor será unificada. A combinação destes dois algoritmos
traz grandes taxas de compressão em imagens.

14.4.4. Formatos Bitmap


De posse dessas informações básicas a respeito dos formatos
bitmap, veja na seção a seguir as particularidades de cada um dos
formatos. Um arquivo BMP representa fielmente a informação tal qual
como ela aparece no arquivo, com até 16 milhões de cores (true-color).
Portanto seu formato é extenso. Pela sua fidelidade, é aconselhável
para qualquer uso que não leve em consideração tamanho do arquivo.
O formato JPG representa a imagem em true-color, porém
passa pelos dois processos de compressão: chroma e algorítmico. É
aconselhável para representar fotos em ambientes com escassez de
recursos de memória e transferência de dados (Internet, por exemplo).
O formato GIF é caracterizado por poder representar imagens com
transparência. Porém só pode representar uma paleta de 256 cores. O
processo de compressão é somente algorítmico.
A representação da transparência se dá pela escolha de uma
das cores da paleta. Por exemplo, se em uma imagem diz-se que o
vermelho será transparente na hora de salvar, esta cor não aparecerá
quando da apresentação da imagem, aparecendo o fundo onde ela está
sobreposta.
Por permitir a transparência de apenas uma cor, este formato
apresenta problemas ao apresentar imagens com transparência e
suavização de serrilhado. Os semitons que fazem a suavização não
ficam transparentes (pois apenas uma cor o será), gerando efeito
indesejado.
O formato GIF ainda possui uma particularidade: em um único
arquivo é possível armazenar uma sequência de imagens, gerando
animação. É conhecido como GIF animado. É aconselhável para
representar gráficos comerciais com poucas cores em ambientes com
escassez de memória e transferência de dados (VARAJÃO, 2012).

114 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


O PNG seria o formato ideal de imagem: 16 milhões de cores
(true-color), com transparência e compressão. Este formato trabalha
com um canal que citamos no início do capítulo: gamma. Ele é
utilizado basicamente para dois fins: correção da aparência da imagem
em diferentes plataformas e transparência de vários semitons. Ainda há
a vantagem de possuir código fonte aberto (livre). Ele é aconselhável
para qualquer ambiente.

15. Animação
A animação é a arte de criar uma ilusão de movimento a partir
da apresentação de uma sequência de imagens estáticas e semelhantes.
Os pioneiros da animação são Eadweard Muybridge, Emile Cohl, Earl
Hund e Walt Disney. Esta ilusão é dada pelo fato de um objeto visto
pelo olho humano continuar na retina por um curto espaço de tempo
após a visualização. A este fenômeno dá-se o nome de persistência da
visão.
O olho pode detectar pequenas quantidades de energia luminosa.
Olhos adaptados à escuridão podem detectar luz equivalente a de
uma vela a 30 km de distância a qual a energia luminosa recebida é
de apenas alguns metros. A retenção da imagem na retina pode ser
percebida a partir de uma tremulação (flicker) da imagem quando esta
é vista a menos de 16 quadros por segundo. Os filmes comerciais usam
24 quadros por segundo. O movimento de “câmera lenta” pode ser
observado quando o filme é passado a 15 quadros por segundo.

15.1. Métodos tradicionais de animação


Antes do advento da animação por computador, todos os
quadros eram feitos a mão. Se considerarmos que cada segundo de
uma animação contém 24 quadros, podemos imaginar a tremenda
quantidade de trabalho necessária para criar os filmes animados.
Atualmente existem várias técnicas de animação, algumas delas serão
descritas a seguir:

Sistemas Multimídia | 115


• Tradicional, os desenhos são feitos em acetato e filmados
quadro a quadro. “Branca de Neve e os Sete Anões” (1937)
foi o primeiro longa-metragem animado;
• Computação gráfica, o desenho é modificado com o software
3D de acordo com a cena. “Toy Story” (1995), da Walt
Disney Pictures e da Pixar Animation Studios, foi realizado
com esta técnica;
• Stop motion, bonecos maleáveis são filmados em diferentes
posições. “O Estranho Mundo de Jack” (1993), de Tim
Burton, é um marco do stop motion em longa-metragem.
Atualmente, 90% da animação tradicional é feita no
computador. Os desenhos a lápis agora são escaneados e toda
colorização é digitalizada. Na maioria das vezes, há uma integração
entre a animação tradicional e computação 3D. Assim foram feitos
“Tarzan” e “Fantasia 2000”, dos estúdios Disney, e “A Caminho de El
Dorado” e “O Príncipe do Egito”, da DreamWorks.
O stop motion é uma animação tão trabalhosa quanto a
tradicional ou a digital. Ela utiliza sets em miniatura, em que bonecos
de plástico maleável são modelados em 24 posições diferentes para
cada segundo de filme. As cenas são filmadas quadro a quadro, depois
editadas e sonorizadas. Nessa fase, o computador pode ser útil para
criar efeitos especiais de chuva, sombra, fogo ou fumaça. Em “A Fuga
das Galinhas”, usou-se o Commotion 3.0, software que cria efeitos
digitais em imagens em movimento (VARAJÃO, 2012).
Apesar da aceitação do stop motion, a maioria dos filmes
animados ainda é feita de maneira tradicional, ou seja, desenhada
quadro a quadro no papel. Em “A Fuga das Galinhas”, bonecos
maleáveis, filmados quadro a quadro, permitem que os personagens se
movimentem em três dimensões.
A terceira técnica mais usada nos desenhos animados atuais é
a computação gráfica. “Toy Story”, de 1995, foi o marco dessa nova
era. Totalmente animado por computador pela Walt Disney Pictures

116 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


e a Pixar Animation Studios, o desenho foi um mergulho definitivo
na animação digital. Desde “A Bela e a Fera” (1991), a computação
gráfica era usada apenas em combinação com a animação tradicional.
Sucesso de público e de crítica, “Toy Story” abriu espaço para outras
produções realizadas com tecnologia idêntica, como “FormiguinhaZ”,
“Vida de Inseto” e, claro, “Toy Story 2”.
Ao contrário da animação tradicional, na qual milhares de
desenhos precisam ser feitos, o software 3D usado na animação
computadorizada permite que se façam alterações sobre a mesma
imagem desenhada.

15.2. Qualidade versus tamanho em animações


Do mesmo modo que com as imagens, o compromisso entre
tamanho e qualidade compromete a animação. Uma animação
pode rodar mais rápido se é menor em tamanho. A velocidade de
apresentação da animação também depende da configuração do
computador. O formato FLIC (FLI/FLC) e o formato FLI equivale
à animação usada pelo 3D Studio e em muitos outros programas
baseados em PC e suporta animações de 256 cores em resolução de
320x200; já o formato FLC contém animações de 256 cores para
imagens de qualquer resolução.
Já o formato MPEG (.mpg) é um formato de animação especial
que pode ser 40 vezes menor em tamanho de arquivo do que o
formato FLIC. Este formato é muito popular na internet, visto que seu
tamanho reduzido favorece o aumento da velocidade de transmissão.
Tal como o JPEG, o MPEG é considerado fortemente sujeito a perdas,
visto que dependendo do tipo de compressão a qualidade da imagem
fica bastante reduzida.
O formato QuickTime (QT/MooV), é o formato padrão de
animação do Macintosh, que permite muitos tipos de compressão e
resolução além de conter trilhas de áudio. Os filmes no QuickTime
variam enormemente em tamanho e qualidade dependendo da
quantidade de cores e da compressão.

Sistemas Multimídia | 117


Numa comparação simples entre os formatos descritos, podemos
observar que para uma animação de 100 quadros em uma resolução
de 240x160 o tamanho dos arquivos de acordo com os formatos será
(VARAJÃO, 2012):
• FLI/FLC – 3,8 MB;
• MPEG – 430 KB;
• QuickTime em 8 bits, compressão JPEG e qualidade média
– 280 KB;
• QuickTime em 8 bits, compressão JPEG e qualidade alta –
1,7 MB;
• QuickTime em 8 bits, compressão Vídeo e qualidade média
– 1,8 MB;
• QuickTime em 16 bits, sem compressão e qualidade média
– 7,68 MB;
O áudio pode ser facilmente adicionado à animação, utilizando-
se pacotes como Aawin, Animator Player e Adobe Premier.

15.3. Looping e Morphing


Looping é o processo de tocar a animação continuamente.
Podendo ser utilizado quando a animação necessita da criação de
poucos quadros. Estes quadros tocados em um loop configuram a
aparência de uma animação longa. Por exemplo, com 3 a 4 quadros
representamos os movimentos de um homem caminhando, mas
colocando estes quadros em um loop teremos a impressão de que o
homem está caminhando uma longa distância.
Podemos fazer loops em animações a partir do primeiro quadro
ou a partir de um quadro qualquer. Por exemplo, queremos uma
animação que rode uma vez e então repita a partir do quinto quadro,
isso pode ser feito a partir da ferramenta de desenvolvimento de
animações sem maiores problemas.
Morphing ou metamorfose é a transformação de uma imagem
em outra. Os primeiros programas funcionavam apenas com imagens
118 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo
em duas dimensões, entretanto, atualmente já épossível realizar
morphing em imagens 3D. A metamorfose envolve a utilização de
dois elementos: o elemento inicial, do qual queremos começar a
transformação; e o elemento final, isto é, aquele onde queremos chegar
através da metamorfose.
A ideia é fazer com que pareça que um item esteja se transformando
fisicamente no outro. Para tanto o animador seleciona pontos similares
aos dois elementos. Por exemplo, olhos, ouvidos, nariz, cabelo etc.
Quando mudamos de um objeto para outro semelhante, por exemplo,
rosto para rosto, carro para carro, fica mais fácil encontrar esses pontos
semelhantes e a metamorfose funciona bem. Por outro lado, para
objetos muito diferentes a metamorfose fica muito mais difícil.

Exercícios
As questões abaixo devem ser respondidas em forma dissertiva
e argumentativa com pelo menos uma lauda. Devem também refletir
a interpretação da leitura do texto juntamente com pesquisas sobre o
tema arguido.

1) Comente sobre a representação de som MIDI.


2) Quais são as principais técnicas de compressão de áudio digital?
3) Descreva o funcionamento de um Codificador MPEG-Áudio
básico.
4) O que é a codificação MP3 e como funciona?
5) Explique as principais técnicas de compressão de vídeo.
6) Explique detalhadamente os principais fatores que devem ser
levados em consideração em um projeto multimídia no que diz
respeito às fontes tipográficas.
7) Qual a diferença entre imagens vetoriais e mapa de bits?
8) Descreva e exemplifique as principais técnicas de animação.

Sistemas Multimídia | 119


WEBLIOGRAFIA

Noções de codificação e compressão de som digital


https://ineslacerda.wordpress.com/2013/02/06/nocoes-de-
codificacao-e-compressao-de-som-digital/
http://www.stefanelli.eng.br/webpage/am_som.html

Video Digital
h t t p : / / w w w. i m g . l x . i t . p t / ~ f p / c a v / a n o 2 0 0 5 _ 2 0 0 6 /
Trabalho_2/3compressaodevideodigital.htm
http://www.cricte2004.eletrica.ufpr.br/edu/anterior/pds98/Mpeg/
mpeg.html

TV Digital
http://www.teleco.com.br/tvd_duvida.asp
http://www.lcs.poli.usp.br/~gstolfi/mack/Ap4_Audio_M8.pdf

Animação
http://www.bmonteiro.com/apostila.pdf
http://adm.online.unip.br/img_ead_dp/30561.PDF

120 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


REFERÊNCIASBIBLIOGRÁFICAS

AZUMA,R., BAILLOT,Y., BEHRINGER, R., FEINER, S., JULIER,


S., MACINTYRE, B. Recent Advances in Augmented Reality. IEEE
Computer Graphics and Applications 21, 6 (Nov/Dec 2001), 34-47.

BUFORD,J. F. Koegel.Multimedia Systems. ACM Press - SIGGRAPH


Series - New York, New York, 1994.

FIGUEREDO, R. T. Apostilia de Sistemas Multimidia. Petrolina:


2010. Disponível em: https://pt.scribd.com/doc/102768493/
Apostila-de-Multimidia. Acessado em 20 de outubro de 2016.

FLUCKIGER, F. Understanding Networked Multimedia:


Applications and Technology. Prentice Hall International (UK)
Limited, 1995.

FURHT,B. Multimedia Systems: An Overview. IEEE Multimedia


Spring 1994, pp. 47-59.
HEURING, V. P; MURDOCCA, M. J. Introdução à arquitetura
de computadores. Rio de Janeiro: Campus, 2002.
WILLRICH

INSLEY, S. Obstacles to general purpose augmented reality, ECE


399H,
Information Security & Cryptography, Oregon, EUA, dezembro de
2003, disponível em:http://islab.oregonstate.edu/koc/ece399/f03/
final/insley2.pdf

Sistemas Multimídia | 121


LU, G. Communication and Computing for Distributed
Multimedia Systems. Artech House Inc., 1996

SCHIRMER, J; KIRSTE, T; ACTIVE M3: an authoring system for


active multimedia mail. Proc. SPIE 2667, Multimedia Computing and
Networking 1996, 112 (March 25, 1996); doi:10.1117/12.235865.

VARAJÃO,F. Sistemas Multimidia. Florianópolis: 2012. Disponível


em: http://sysrad.com.br/redmine/attachments/3044/apostila-
sistemas_de_multimidia.pdf. Acessado em 20 de outubro de 2016.

WILLRICH,R. Sistemas Multimidia Distribuídos. Florianópolis:


2000. Disponível em: www.gsigma.ufsc.br/~popov/aulas/multimidia/
SistemasMultimidia.pdf. Acessado em 20 de outubro de 2016.

122 | Unidade IV – Elementos Multimídia: texto, imagem, áudio, animação e vídeo


AUTOR
VINÍCIUS PONTE MACHADO é Doutor em
Engenharia Elétrica e de Computação pela
Universidade Federal do Rio Grande do Norte,
mestre em Informática Aplicada pela Universidade
de Fortaleza (2003) e graduado em Informática pela
mesma instituição (1999). Atualmente é professor
adjunto da Universidade Federal do Piauí e docente pesquisador do
Programa de Pós-Graduação em Ciência da Computação da UFPI. Tem
experiência na área de Ciência da Computação, com ênfase em Gestão
do Conhecimento e Inteligência Artificial, atuando principalmente nos
seguintes temas: sistemas multiagente, aprendizagem de máquina e
Redes Industriais.

Você também pode gostar