Você está na página 1de 7

DESIGN E MULTIMÍDIA

VÍDEO NA MULTIMÍDIA

-1-
Como já deve ter percebido, o vídeo nada mais é do que uma sequência de fotos. O que faz com que essas fotos

sejam um vídeo é a questão.

Estamos saindo da era analógica do vídeo e engatinhando na era digital, são muitas mudanças, então é hora de

começar a pegar pesado.

Essa tecnologia, que podemos chamar de vídeo, foi desenvolvida para as tvs de tubo (CRT) e logo a indústria

precisava de uma forma de gravar e exibir essas imagens. Para isso, criaram o videoteipe, uma fita magnética que

vinha em rolos e custava uma pequena fortuna. Só com o lançamento do VHS que usávamos até pouco tempo, foi

então que o formato se popularizou.

Claro que hoje já é raro quem tenha um videocassete e ainda o use com frequência, e já estamos deixando de

usar até mesmo o DVD em face do blu-ray, mas vamos fechar o conceito dos vídeos.

Até agora você já viu como são formadas as imagens e os áudios. Finalmente chegou a vez dos vídeos.

Essa talvez seja uma das mídias mais complexas já que, para começar, até a introdução do formato digital de alta

resolução não havia um consenso mundial sobre o formato adotado para a exibição. Mas vamos por partes.

(Como você deve lembrar lá da primeira aula, o vídeo só veio a existir lá pro final do século XIX e desde então

vivemos uma corrida atrás da melhor experiência visual possível.

Na aula 2, onde foi falado sobre imagens 2D, você já aprendeu o conceito da formação das imagens através dos

pixels e do uso do processo aditivo para formar as cores visíveis na tela, inclusive sobre o canal alpha, que cria

transparência nas imagens. Até aqui tudo funciona do mesmo jeito, com a diferença de que tudo agora possui

movimento.

Como já dito anteriormente, um dos grandes problemas era a falta de padrão, e esse padrão era divido da

seguinte forma:

Cada um desses formatos implicava em diferentes formas de interpretar as cores e até mesmo no tamanho do

quadro do vídeo. Isso acarretava em problemas nas transmissões e cópias que atravessavam os países. Desde

imagens em preto e branco ou com cores distorcidas, até mesmo imagens cortadas ou achatadas para que se

encaixassem no padrão do país de exibição. Foram criadas máquinas que faziam a conversão entre os padrões,

mas acho que você consegue imaginar a confusão e o trabalho que isso criava.

-2-
Confira na tabela os formatos característicos dos padrões.

Como pode perceber e deve se lembrar da aula 3, ainda estamos envoltos com a frequência de quadros por

segundo (FPS) e perceba que o formato PAL se aproxima mais do cinema, enquanto o formato NTSC demanda

um número maior de quadros.

Coincidência ou não, os países mais desenvolvidos usam o formato NTSC já que o uso de mais quadros vai pedir

uma maior infraestrutura para distribuir essas imagens na rede.

O formato também é outra questão interessante. Há variações pequenas entre programas, alguns usam 486 ou

576 linhas horizontais ao invés das 480 e 570 padrões. Já 105 novos formatos de alta resolução HDTV atingem

resoluções de até 1920 x 1080.

Compare no gráfico as resoluções usadas. Saiba que esses valores são superados pela indústria do cinema, que já

experimenta exibições nas resoluções de 2k, 4K e até 8K. Também em fase de testes se encontra a UHDTV com

resolução de 7.680 x 4.320 pixels.

-3-
Mas como imagens desse tamanho conseguem ser geradas e exibidas na tela de casa através de satélites e

antenas de TV.

Para resolver esse problema de largura de banda, criaram o processo de entrelaçamento.

Você já viu a especificação de uma tv ou de um filme que diz que a resolução é 1080i ou 720p, ou o dvd player

que você comprou tem progressive scan? O “p” de progressive e “i”de interlaced são justamente essas opções.

Estes são dois métodos que os disposítivos têm de apresentar as imagens. O sistema progressivo, como o nome

diz, mostra todas as imagens do filme de forma progressiva. Um atrás do outro.

No caso das tvs analógicas, não tem transmissão que aguente a quantidade de quadros de uma transmissão

progressiva, então engenheiros resolveram fazer o seguinte:

-4-
A imagem que é transmitida vem em linhas, como você já viu, então eles perceberam que não era necessário

enviar todas as imagens inteiras para que o telespectador as visse com qualidade. Assim a transmissão separa

cada uma das imagens em linhas alternadas, como se fossem ora 1-3-5..., a imagem seguinte 2-4-6... e, logo ao

serem exibidas em sequência, elas se complementam e temos a impressão de que apenas uma imagem é exibida.

É fácil identificar se um vídeo é progressivo ou entrelaçado, especialmente em cenas de ação. Se quando você

pausar a imagem ela estiver nítida, o sistema é progressivo, se estiver como na imagem a seguir, ele é

entrelaçado já você pode ver as duas imagens que formam o quadro.

Já aconteceu de ao ver uma imagem ela estar cortada? E a legenda que aparece pela metade? Isso pode ser

evitado fazendo o uso de um recurso

Simples. Margens de segurança. Hoje, qualquer programa que trabalha com vídeo disponibiliza essa função.

Repare nessa imagem:

Nela existem dois retângulos. Eles são as margens de segurança. A mais externa, de vídeo, e a interna, de texto.

Elas sugerem que cada um dos conteúdos fique dentro desse limite, caso contrário, a imagem pode aparecer

cortada em alguns dispositivos. Essas margens compreendem de modo geral 10% e 15% do vídeo.

Outro fator que temos que ficar atentos é o aspecto. Até agora aprendemos que os pixels são quadrados que se

agrupam para formar as imagens. Isso não é 100% verdade quando se trata de vídeo.

Dependendo do formato desejado, o aspecto do pixel é alterado, isso para que a imagem não seja distorcida ao

ser exibida nos dispositivos.

Veja como isso acontece na imagem a seguir. No exemplo foi pega a imagem original, com um pixel padrão

(quadrado), e em seguida, essa mesma imagem foi reconfigurada para os novos aspectos de acordo com os

formatos de vídeo.

-5-
Por isso, é importante que você conheça essa característica. Assim, ao criar o arquivo, já fará uso do aspecto

correto e no momento de exibição, não haverá distorção.

Esses diferentes aspectos são vistos em DVDs onde podemos ler no rótulo 4:3 (formato quadrado) e 16:9

(formato expandido - widescreen).

E agora? Pra onde vai isso tudo?

Hoje, na fase digital do vídeo, as imagens são armazenadas em fitas ou em disco. No caso das fitas existe uma

grande variedade de acordo com o formato. De qualquer forma, veja na imagem que visualmente não houve

muita diferença na caixa desde o VHS, mas a tecnologia por dentro foi totalmente renovada.

Em contraste com a tecnologia analógica, as fitas digitais gravam vídeo e áudio como zeros e uns, e enquanto

uma fita analógica grava apenas duas faixas por quadro, as fitas digitais gravam em média 10 faixas por quadro

de vídeo. Ainda está inserida nas fitas uma faixa de timecode, uma informação derivada das numerações de

borda usadas na película do cinema, e que as câmeras, gravadoras de mesa e computadores leem essa

informação de tempo no seguinte formato: Hora : Minuto : Segundo : Frame tem a intenção de apresentar o

tempo de início e final de cada fita. E, diferente do VHS onde sempre que se ligava o aparelho o tempo estava

zerado, nas fitas profissionais o tempo está vinculado ao quadro de imagem, sendo assim, não importa o

momento em que se liga o aparelho e o momento em que a fita está, o timecode apresentado será relativo ao

tempo gravado.

Um erro comum na gravação do timecode, normalmente pelo cinegrafista, é que ao iniciar uma nova gravação,

ele reinicia o timecode. Isso ocorre que ao levar para a edição, o produtor terá dificuldade em anotar os tempos

das sequências e o computador pode se confundir em relação à captura do material, já que o timecode, ao ser

reiniciado, zera a contagem de tempo. Por isso é importante prestar muita atenção a esse detalhe.

Hoje também é comum o armazenamento de vídeos em disco. A vantagem é que podemos armazenar muito mais

informação e trabalhar com resoluções diversas independente de fitas e leitoras. Outra enorme vantagem é que,

armazenando em disco, a captura desse material se dá na velocidade da transferência disponível, seja ela

Firewire, USB etc, contra a captura em tempo real limitada pela captura de fitas.

-6-
O armazenamento dos vídeos, assim como você já viu na aula que fala das imagens 2D, pode ser comprimido

através de cálculos matemáticos. Quem faz esse papel aqui são os codecs (COdificador/DECodificador),

programas que fazem esses cálculos. Assim como nas imagens, existem os codecs com perda e sem perda.

Exemplos desses formatos são o H264 (sem perda) e que hoje é usado na tv digital porque além dele conseguir

manter a alta qualidade, ele foi criado já se pensando na multiplataforma dos novos formatos de tv como celular

e etc.

Já entre os formatos com perda estão o divx e o wmv, conhecidos pelas altas taxas de compressão e por isso

famosos para o uso na internet.

Por essas características de cada formato é que é importante conhecer a propriedades de cada um deles e a sua

finalidade para que sejam usados de forma correta nos projetos. Por exemplo: alguns codecs aceitam áudio

anexado, outros aceitam transparência; uns indexam metadatas, outros possuem uma maior interação com

outros programas como edição, composição e etc.

Atenção para o detalhe que todo codificador precisa de um decodificador, então se você vier a usar um codec que

ninguém mais tenha acesso, o seu público não conseguirá assistir ao seu vídeo.

-7-

Você também pode gostar