Você está na página 1de 147

SISTEMAS DE TELEVISÃO

V15
O olho humano
O sistema visual humano , assim como outros sistemas do corpo , é complexo , por
isso abordaremos aqui somente as partes relevantes ao escopo do curso.
A quantidade de luz que penetra no olho é controlada pela íris (pupila ) que varia o
diâmetro da abertura de entrada de 2 a 8 mm. Quando o olho focaliza a cena , a ima-
gem correspondente é projetada sobre a membrana interna chamada retina , a qual
possui dois tipos de receptores de luz discretos : os cones e os bastonetes.

Os cones são em número de 6 a 7 milhões em cada olho e estão localizados na parte


central da retina , chamada fóvea. Eles são sensíveis à cor e cada um está conectado a
uma terminação nervosa dedicada. O número de bastonetes é em torno de 75 a 150
milhões ,distribuídos em toda a superfície da retina. Eles não distinguem cores , mas
3
são sensíveis a baixos níveis de iluminação.
A fóvea é uma reentrância circular com aproximadamente 2,25 mm quadrados de área.
A densidade de cones nesta área da retina é de aproximadamente 150000 elementos por
milímetros quadrados. Baseando-se nessas aproximações, o número de cones na região
de maior acuidade do olho é de aproximadamente 340000 elementos . Para efeito com-
parativo , esta resolução é facilmente alcançada pela tecnologia atual, usando um CCD
de área não superior a 7 mm x 7 mm. Dentre as características do sistema visual huma-
no relevantes para o projeto de visão artificial, podemos destacar a enorme faixa de va-
lores de intensidade luminosa ( da ordem de 10 elevado a 10 ) aos quais o olho pode se
adaptar. Convém notar , entretanto , que o olho humano não pode operar em toda esta
faixa simultaneamente . Ao invés disso , ele excursiona ao longo de toda esta faixa se
adaptando em sua sensibilidade global , um fenômeno conhecido como adaptação de
brilho . A faixa total de valores de intensidade que o olho pode discriminar simultanea-
mente é pequena em relação à faixa total de adaptação, porém podemos concluir que a
visão humana é muito mais sensível às variações de luz do que da distinção das cores
de uma imagem.
Luminosidade versus Imagem( Brilho)

Instrumentos medidores
> LUXIMETRO
> FOTOMETRO

Luz de flash : 3000 lux


Caracteristicas da Visão Humana

Outra característica da visão humana , é a


chamada “persistência da visão”, que não detecta
no seu consciente sequencia de imagens
transmitidas em uma taxa acima de 16 a 20
quadros(fotos) por segundo.

Velocidades menores causarão um efeito chamado


flicker que é um “centelhamento “ da imagem, tipo
o que ocorria em projetores
4 bem antigos.
Dispositivos de imagem
• Na reprodução ( Display)
– Tecnologia analogica :
Cinescopio
– Tecnologia digital : Monitor
LED;Cristal Liquido(LCD) Cinescopio
e Plasma
• Na geração ( câmera )
– Tecnologia analogica :
Plumbicom
Plumbicom
– Tecnologia digital : CCD(
charged coupled device)
O Cinescopio
ou
TRC ( tubo de raios
catódicos )
Estrutura de um CCD
Plumbicom ou Vidicom
Cameras antigas
Maquinas fotograficas
Cameras modernas
Cameras modernas

Camera 3D Camera HD de externa


O sinal de TV Analógico
Na reprodução :
Na figura abaixo o tubo de imagem possui três canhões de feixes de elétrons ,
cada um com a finalidade de excitar somente os pontos de fósforo das cores
correspondentes na tela . A máscara de sombra tem pequenos orifícios alinha-
dos com a tríade de pontos . Se apenas um canhão estiver acionado , somente
a cor correspondente vai aparecer na tela , com a intensidade equivalente do
sinal captado , porém , quando os três canhões forem acionados , a tela vai re-
produzir a combinação de cores , conforme o tempo e a intensidade do sinal
captado .

5
O sinal de TV Analógico
Na captação :
A câmera de TV é o dispositivo que
transforma imagem em impulsos elé-
tricos , chamado sinal de vídeo.
A imagem é captada pela câmera por
três tubos distintos para cada cor :
vermelho, verde e azul, utilizando-se
de três filtros ópticos correspondentes.
Respectivamente, os sinais de saída ,
conforme mostra a figura, são : para
o tubo 1, o sinal R ( Red - vermelho ),
tubo 2, o sinal G ( Green - verde ) e o
tubo 3, o sinal B ( Blue - azul ) .
A câmera é normalmente composta pela
cabeça (HEAD), cujo transdutor de luz
em sinal elétrico é o CCD ( Charged
Coupled Device) e pela CCU ( Camera
Control Unit ) , onde são realizados os
ajustes no sinal para melhorar a imagem
captada, como controle de foco, íris,
2
zoom, brilho, croma , etc...
Codificação dos sinais de
de crominancia
Em um circuito de TV à cores analógico
fechado , em um estúdio , por exemplo ,
os sinais de vídeo vermelho , verde e
azul , poderão compor a única informa-
ção necessária para formar a imagem ,
porém para transmissão de TV comercial
foi necessário a codificação desses sinais
para se adaptar ao sistema já existente , o
monocromático , o qual , baseava-se em
variações do nível de luminância somente.
Portanto , os sinais de vídeo à cores são
codificados , combinados entre si em pro-
porções específicas para formar os sinais
de luminância “ Y “ e crominância “ C “.

6
Mistura aditiva de cores
A idéia de adição de cores é mostrada
na figura ao lado . Há três círculos em
vermelho , verde e azul , que se super-
põem parcialmente. Nos locais em que
os círculos estão superpostos, a cor mos-
trada é a mistura produzida pela adição
das cores primárias . No centro , todos
os três círculos de cor se sobrepõem ,
produzindo o branco. Na prática, todas
as cores naturais podem ser produzidas
com misturas aditivas do vermelho (R)
verde (G) e o azul (B) .

7
O sinal de luminância Y é
formado a partir dos O sinal de luminância Y
sinais de croma R, Ge B.
Primeiro as tensões esses
sinais fornecem a
informação de cor , em
seguida esses sinais
primários , através de uma
matriz de resistores, são
codificados para formar o
sinal com as
informações das
intensidades de brilho
correspondente. Nessa
matriz é formada a
seguinte relação :
Y = 0,30R + 0,59G + 0,11B . 8
O sinal de crominância C é
formado de dois sinais de O sinal de
vídeo de mistura de cor :
R-Y e B-Y , e não dos três crominância C
sinais primários R,G e B .
O propósito é obter dois si-
nais que defasados de 90º,
um do outro , e conforme
o nível de cada um , irão
formar o sinal em quadra-
tura , o qual contém todas
as informações de cromi-
nância do espectro .
No sistema PAL ( Phase
Alternation Line) os sinais
R-Y e B-Y são atenuados
por fatores K1 ( 0,87 ) e K2
( 0,49 ) , formando respecti-
vamente os sinais U e V,
para poder reduzir a banda
passante para 1,3 MHz, sem
com isso prejudicar o sinal
na sua demodulação . 9
Conforme visto na
Os sinais Q e I ( U e V) figura anterior ,
os sinais Q e I se
apresentam da
mesma forma que os
sinais B-Y e
R-Y, porém
deslocados em
ângulo
de 33 graus . Isto é
devido à utiliza-
ção de uma faixa de
matiz que pro-
duz mesmo
rendimento da
modula-
ção em quadratura
com menor lar-
gura de banda na
transmissão . Pos-
teriormente , no
receptor , os sinais
B-Y e R-Y serão
recuperados , para
então , reproduzir os
sinais R , G e
B novamente. O sinal
de luminância
Y e uma salva de 3,58
Mhz , a qual
serve de referência
para a demodu-
ção de fase na
recepção , são mul-
tiplexados para
formar o “sinal de
10
vídeo composto” .
No receptor de vídeo
C Demodulador
de R -Y Matriz Monitor
Demultiplexador de de
C Demodulador resistores
Y de B -Y vídeo

Oscilador de
90º 3,58 Mhz

Sinal de vídeo Sinal proveniente do


composto Saída R G B .
detector de salva

Os sinais R , G , B e Y são recuperados no receptor de vídeo da seguinte maneira:


Os sinais Y e C são separados pelo demultiplexador . Os sinais R-Y e B-Y são
demodulados a partir do sinal C . Na matriz de resistor os sinais R , G e B são re-
cuperados , como segue : R = (R-Y) + Y , B = (B-Y) + Y e G = (G-Y) + Y, sendo
G-Y = - [ 0,51 (R-Y) + 0,19 (B-Y)] .
Maiores sistemas no mundo – PAL - NTSC
NTSC PAL
Exemplo – No Brasil Padrão M
60 Imagens por segundo
Entrelaçamento 2:1 Variação dos
Ângulo de visualização: 10 graus (hor.) padrões
Relação de Aspecto: 4:3
480 linhas ativas
640 elementos de imagem por linha
Interfaces
A interface é o dispositivo utilizado para se compatibilizar as
conexões de passagem do sinal nos equipamentos , entre o
transmissor e o receptor .

As interfaces podem ser em série ou interface em paralelo não é


preferida em grandes instalações devido a ser dispendiosa , de
difícil instalação e pelas limitações do comprimento do cabo.

Normalmente , a interface paralela é utilizada para transmissão mais


veloz em curtas distâncias (estúdios) ou para diminuir a taxa de
transmissão , proporcional à quantidade de bits por palavra
Interfaces de vídeo
• Analogicas
– Video composto – CVBS ou CV – conector BNC ou RCA
– S-Video – conector mini DIM
– Video componente – Y/Cr/Cb ou Y/C - conector BNC ou RCA
• Hibridas ou intermediarias
– VGA/SVGA – Video grafic adapter – conector db-9
– DVI – Digital visual interface - sinal digital com protocolo
TDMS – conector proprietario
– HDMI( high defivition multimidea interface ) - sinal digital com
protocolo TDMS – conector proprietário . Inclui áudio
• Digitais
– SDI – Serial digital interface – Sinal analógico digitalizado ( D1
/D2/D6 ) conector BNC
– ASI ( assynchronous digital interface) – sinal SDI já comprimido
e multiplexado pelas técnicas MPEG transport stream
Interfaces analógicas de video
• Video composto : O sinal é composto em um
único cabo pelo sinal de luminância(preto e
branco) , crominancia e sincronismos ( horizontal
, vertical e de cor). E a interface mais usada nos
equipamentos de vídeo, porem sua qualidade é
pior do que as outras interfaces . Na figura
observa-se que somente o cabo com conector
amarelo transporta o vídeo . Os de cor vermelha e
branca são dos áudios associados
Interfaces analógicas de video
• S-Video - Super vídeo : Transmite
por meio de dois pares de sinal ( Y
luminância e C crominancia )e terra
sincronizados .
O sinal Y de luminância além dos
elementos de preto e branco carrega
também os pulsos de sincronismo
horizontal e vertical.
O sinal C de crominancia além dos
sinais de cor , carrega também
informações que possibilitam a
fidelidade e sincronismo das cores.
Interfaces S-Video
Interfaces analógicas de video
• Video componente : Formado por 3
componentes : luminância e dois de cor ( azul e
vermelho). A cor verde é obtida por
processamento no receptor.
O código de cores dos cabos e conectores
entretanto seguem as cores básicas conforme
mostrado abaixo
Interfaces analógicas de video
• Video RGB : Esta interface possui
vários formatos e padrões ,
diferenciando basicamente no tipo
de conector físico utilizado e no
processo de sincronismo horizontal ,
vertical e das cores .
Existem formatos onde os sinais de
sincronismo são enviados em
separado , e formatos onde são
enviados ou junto com o sinal
vermelho ou com o azul. As figuras ao
lado ilustram estes formatos .
Resolução da imagem
No olho humano , durante a captação de uma nova
imagem , ainda permanece a imagem anterior por
um breve período .
A esta permanência da imagem no sistema ocular é
dado o nome de “persistência da visão”. Para
que a visão humana não perceba as variações de
quadro na exibição de TV ou Cinema , a
frequência de amostragem tem que ser maior que
24 quadros por segundo . A 24 q /s ainda é
sentido o efeito de cintilação ou “flicker”.
A menor parte da reprodução da imagem é o “
Elemento de Imagem” ou “Picture Element” (
pel ou pixel ) .
A Resolução Horizontal é o número de pixels em
cada linha e a Resolução Vertical é o número de
linhas neces sárias para compor cada quadro .
A quantidade de pixels que compõem um quadro
ou imagem é a Resolução da Imagem :
RI = RH x RV.
Resolução da imagem
A resolução também pode ser expressa em DPI ( dotch per inch ou
pontos por polegada, neste caso vai depender do tamanho do
display. Alguns sistemas permitem a configuração de acordo com a
necessidade do usuário , outros ( ex TV ) já são definidas pelo
transmissor .
Variação da qualidade da imagem com a resolução
Recomendações para uma boa visualização

Alem da resolução da
imagem a distancia do
observador também
exerce um papel
fundamental na
percepção da qualidade
e que varia também com
o tamanho do monitor
ou display.
Sistema de varreduras de vídeo
A tela de um monitor de vídeo é composta por elementos de imagem ( pixels ) e

linhas horizontais . Para que a imagem apareça na tela é necessário que os pixels
sejam energizados de forma ordenada , da esquerda para a direita , de cima para
baixo , de quadro em quadro , de maneira recíproca como o sinal da câmera
captou a imagem. Este movimento do feixe é chamado de varredura .

14
Tipos de varredura de imagem
.
Existem dois tipos de varreduras : A entrelaçada e a progressiva

14
Tipos de varreduras de vídeo
A varredura Entrelaçada é a mais utilizada em monitores de vídeo e
aparelhos de TV, também conhecida como varredura 2:1. O quadro é formado
por 2 campos , um com linhas ímpares e outro com linhas pares.

Na varredura progressiva , como o nome já diz ,a informação para a composição


do quadro é passada seqüencialmente , linha à linha . É utilizada em monitores
SVGA de PC’s .

14
.
Vantagens da varredura Entrelaçada :
- tecnologia conhecida pela indústria ,
- compatível com a maioria dos produtos
fabricados ,
- menor banda-passante do sinal para uma
mesma resolução vertical (forma simples de
compressão ).

Vantagens da varredura Progressiva :


- 50 % de aumento na resolução vertical (com
conseqüente aumento de banda),
- simplicidade de circuitos , o que acaba
reduzindo os ruídos indesejáveis ,
- compatibilidade com a recepção de tela plana ,
- maior facilidade para14a compressão digital .
TRANSMISSÃO EM HDTV
Limitações da Transmissão Analógica

Degradações causadas pelo Canal de


Comunicação:
-Distorção (Não-linearidade)
-Ruído (Aditivo; aleatório e
impulsivo)
-Perdas (Atenuação, Limitação de
Banda Passante, "Fading")
-Interferências (Aditivas, de origem
humana)
Comparação entre os sistemas analógicos e digitais
Vantagens da tecnologia digital
• A qualidade do sinal recebido é indistinguível do
sinal transmitido.
• Várias gerações em fita de vídeo sem perda da
qualidade final.
• A eliminação das distorções , das interferências e
dos ruídos.
• A possibilidade de se transmitir vários canais de
vídeo , áudio e dados por um mesmo meio ,
mantendo-se a qualidade.
• A convergência das diversas mídias , como
Telefonia , Internet e sinal de TV . Este fato criou
a “Multimídia”.
• Equipamentos com alto grau de compactação ,
confiabilidade e baixo custo relativo.
• Melhor utilização da banda passante.
• Possibilidade de realização de negócios e serviços.
Frequencia de TV em VHF e UHF
Testes de video analogicos
• Amplitude do sinal de vídeo
– Objetivo : avaliar se o sinal esta com 1 Vpp
– Sinal de teste : color bar
• Resposta de frequência
– Objetivo : Detectar eventual perda nas altas frequencias
– Sinal de teste : multi burst
• Ganho e fase diferencial
– Objetivo : avaliar distorções do sinal em amplitude e fase
– Sinal de teste : Staircase
• Fator K
– Objetivo : avaliar resposta em variações lentas e rápidas
– Sinal de teste : Pulso e barra
O sinal de teste em vídeo composto
A forma de onda apresentada ao
lado é de um sinal de teste
“color-bar”, o qual , demonstra
bem todos os com ponentes de
uma linha que o sinal de vídeo
composto pode ter : a salva de
3,58 Mhz ( burst ou salva ) , o
sincronismo
horizontal ( sinc H ) ,as salvas de
cor bem definidas ,cada uma
com os seus níveis de amplitude
( que determina a saturação ) e
os níveis DC ( que deter minam
a intensidade da cor e a escala
de cinza para o sinal
monocromático),
o nível de branco , o nível de
preto e o nível de apagamento ,
com um total de nível pico-a-
pico de 140 un. IRE .
O sinal de teste em vídeo composto
➢ Caso o sinal não
tivesse as barras
de cores , ou seja
, na figura
somente os
degraus em
vermelho
teríamos um sinal
chamado escala
de cinza
➢ O sinal de
sincronismo
vertical não
aparece por conta
na escala de
tempo
Testes efetuados nos sistemas de vídeo analogicos

Sinal de teste multiburst : original e o degradado

Sinal original

Sinal degredado
Sinal de teste multiburst visto no waveform
Teste da fase diferencial com o vectorscope
Outros sinais de teste

• Sinais combinados de imagem


– Combinação de imagens em uma mesma tela , com
diferentes objetivos e verificações
Outros sinais de teste
• Grade de convergencia
Avaliar eventual problema de convergência
dos Elementos de imagem, típica nas
extremidades da tela
Sistemas de transmissão para TV Digital
• HFC – Hibrido fibra coaxial (Modulação 64-QAM)
– Relação Sinal/Ruído minima :Maior que 30 dB
– Taxa Bruta: 43 MBits/s
– Taxa Tipica: SDTV : 10 M HDTV : 15 Mbps
– Exemplo aplicação no Brasil : NET
• Radiodifusão / UHF (Modulação 8-VSB)
– Relação Sinal/Ruído minima :Maior que 15 dB
– Taxa Bruta: 38 MBits/s
– Taxa Tipica : 3 M (SDTV)
– Exemplo no Brasil : Tv´s comerciais abertas
• Satélite DTH (Direct to Home) (Modulação QPSK)
– Relação sinal ruido minima : maior que 18 db
– Taxa Bruta: 40 MBits/s
– Taxa Tipica: 5 M ( SDTV) 10 M ( HDTV)
– Exemplos no Brasil : Claro TV , SKY
SISTEMA DE TV DIGITAL

Codificação do sinal
responsável pela codificação e compressão dos sinais de áudio e vídeo analógicos em um formato digital,
chamado de fluxo elementar;

Multiplexação dos sinais


responsável pela multiplexação dos fluxos elementares (de vídeo, áudio ou dados), de modo a formar
somente um stream de dados;

Codificação do canal e modulação


responsável por converter o stream de dados em um meio de transmissão por um meio físico, como ar ou
cabos de cobre.
Etapas ou camadas da transmissão da TV digital
TV Digital – Padrões – Comparação

ATSC DVB ISDB ( Japão


( USA) (Europa ) /Brasil)

vídeo
Codificação MPEG – 2 Vídeo

( Amostragem, áudio Dolby AC-3 MPEG – 2 Áudio MPEG-2 AAC


quantização e (Dolby AC-3 opcional)
codificação )

Multiplexação de sinais
MPEG Transport Stream (TS)
terrestre 8-VSB COFDM BST-OFDM
Broadcast
Modulação cabo 64 QAM QAM (16,32,64,128 e 256) 64 QAM
(Transmissão
da portadora)
HFC
satélite QPSK QPSK 8-PSK
DTH
TV Digital – Padrões – Comparação

Padrão Países Lares com TV Número de TVs


(milhões) (milhões)

ATSC EUA, Canadá, Coréia do Sul 125 267

Argentina *, Taiwan * 15 18

DVB União Européia, Austrália, Nova 205 270


Zelândia, Singapura, Índia

ISDB Japão 45 100

Brasil ** 38 53
Parâmetros do ISDB-T (6 MHz)
Modo ISDB-T Modo 1 Modo 2 Modo 3
Banda do Canal 5575 kHz 5573 kHz 5572 kHz
(6000/14) (6000/14)  (6000/14) 
13+ f 13+ f 13+ f
Espaçamento 3.968 kHz 1.984 kHz 0.992 kHz
Portadoras 6000/14/108 6000/14/216 6000/14/432
No. Total de 1405 2809 5617
Portadoras 108 13+1 216 13+1 432 13+1
Processo de QPSK, 16QAM, 64QAM, DQPSK
Modulação
Duração do Símbolo 252µs 504µs 1008µs
Banda de Guarda 1/4, 1/8, 1/16, 1/32 da duração do Símbolo
Código Interno Código Convolucional (1/2, 2/3, 3/4, 5/6, 7/8)
Código Externo RS (204,188)
Intercalamento 0, 0.096, 0.19, 0.38 seg.
Taxa de Bits 3.651 ~ 23.234Mbit/s
Normas tecnicas da TV Digital
TV Digital – Formatos de HDTV
Formato Padrão de Reso-lução Resolução visual Taxa média de bits do
Resolução (fator vertical-temporal video comprimido/sem
para sinais compressão(estimativa)
entrelaçados) (Mbits/s)

1080p HDTV 1080X1920 756 X 1920 19 (12 – 32)


60 campos / seg

1500 Mbps
720i HDTV 720X1280 720 X 1280 14 (8 – 20)
30 quadros / seg

480p EDTV 480X720 480 X 720 6 (4 – 8)


30 quadros / seg

480i SDTV 480X720 336 X 720 4,8 (3 – 8)


60 campos / seg
270 Mbps

240p LDTV 240X320 240 X 320 1,1 (0,5 –


30 quadros / seg 1,2)

Principais formatos de Televisão Digital (Fonte: Anatel)


Caracteristicas HDTV x SDTV
Tecnologias de Visualização
• Visão direta:
– Cinescópio – Tela de fosforo (TRC)
– Tela de Plasma
– Cristal Líquido (LCD) retro-iluminado
– Tela de LED
• Projeção (frontal ou retro) :
– Com TRC’s
– Micro-espelhos
– Cristal Líquido transmissivo
Requisitos do Sistema de Visualização

• Reprodução de Movimento:
– Persistência baixa
– Mesma taxa de varredura que a captura da
imagem (ex.: 60 Hz, 2:1)
• Reprodução de textos:
– Persistência alta
– Taxa de varredura determinada pela cintilação
(ex.:  75 Hz, p)
Relação de Aspecto da HDTV

• Compatibilidade com imagens 4:3


16

43

43 43
9
(12  9)

43
Relação de Aspecto da HDTV

• Compatibilidade com formatos de Cinema

Cinema (1.85:1) HDTV (1.78:1 = 16:9)

TV (1.33:1 = 4:3) Cinemascope (2.35:1)


Processos da TX de video digital
•Conversão analogico digital
-Amostragem + Quantização + codificação
•Compressão de Dados
• Eliminar redundancias espaciais e temporais
•Formatação de Dados
• Processo de multiplexaçaõ das informações
•Transmissão Digital
• Modulação digital
Conversão analogico digital
Para converter um sinal analógico em digital , o
mesmo deverá se submeter aos processo de “amostragem”
e “quantização”. A esta conversão se dá o nome de
“digitalização”e ela será tanto melhor quanto melhor for a
amostragem e a quantização .
A frequência de de amostragem é que definirá com
que intervalo de tempo ( período ) um conversor avaliará
o sinal analógico . Normalmente estes valores são de de
44 KHz ou 48 KHz para o áudio e 13,5 MHz para o
vídeo .
A quantização indicará de quantos em quantos
milivolts o sinal analógico será percebido nos instantes da
amostragem , posteriormente , esse nível é codificado em
bytes .
Por exemplo, no sinal de luminância de vídeo, a
quantização nos indicaria as variações
dos tons de cinza deste vídeo .
Normalmente estes valores são bytes de 16 ou 20
bits para o áudio e bytes de 8 ou 10 bits para o vídeo .
O teorema de amostragem de Nyquist
Para que um sinal analógico possa ser codificado em
sinal digital , sem que haja perda significativa da
informação é necessário que a frequência de amostragem
seja no mínimo o dobro do valor da frequência do sinal que
se deseja amostrar. Fa = 2 x F max
O teorema de amostragem de Nyquist
Na figura ao lado, repare
que no sinal superior a taxa
de amostragem é alta o
suficiente para converter a
informação sem haver perdas

No sinal inferior , a taxa


de amostragem não é
suficientemente alta para
converter a informação
original sem deformação .
CONVERSOR ANALOGICO DIGITAL PARA VIDEO

SAIDA DIGITAL PADRÃO NRZ

ENTRADA ANALOGICA
SAIDA SAIDA
PARALELA SERIAL SAIDA
Conversor A/D SERIAL

> Frequencia de amostragem do vídeo : 13,5 Mhz


> Quantidade de bits : 8 ; 10 ou 12 bits dependendo da qualidade
desejada
Conversores analógicos digitais disponíveis no mercado
Degradações ocorridas nos sistemas digitais
• OBJETIVAS : Avaliadas com o analuzador do diagrama de olho
– JITTER : Variaçoes rápidas em tempo do sinal digital ( NRZ)
– RUIDO : Afeta a relação sinal ruido do sinal digital ( NRZ)
• SUBJETIVAS
– Congelamennto ou Freezing: Imagem fica retida ( congelada) no ultimo
quadro que foi processado com qualidade
– Blocking ou artfacts : Imagem não apresenta os pixels alinhados de forma
adequadra . Os mesmos ficam dispostos em posições aleatórias . Pode ate
ocorrer a perda de alguns pixels
– Cintilação ou Flicking : Imagem para estar piscando .
– Aliasing : imagem apresenta distorção da região periférica dos objetos ,
como um “ serrilhado” nas bordas .
– Efeito “ Pan-Tilt” : ocorre quando na captação da imagem a câmera sofre
uma variação brusca no seu movimento ( ccw/cw ouu up/down) . Isto pode
causar o efeito de blocking descrito acima
O “padrão de olho”, conforme a figura ao lado , é a
Deformações
superposição de bits sucessivos , defasados entre si de 180 Diagrama de olho
graus. O instrumento de medida é um osciloscópio , sendo
introduzido o sinal serial na entrada vertical e o sinal de
“clock”na entrada horizontal , produzindo a forma do
“padrão”, mas na prática o sinal apresenta algumas
deformações , como:

- roll-off ou undershooting- é a perda da informação


causada pela deficiência de resposta de altas frequências do
sistema, que deforma o “risetime”do pulso , provocando
falsa identificação em “altas” no receptor ;

- jitter - é o desvio no tempo do sinal serial em relação ao


“clock”;

- return-loss - deformação do pulso por descasamento de


impedância ;

- variação do nível D.C. do sinal ;


26
- ruído - degradação por deslocamento físico do sinal .
Regenerador de sinal digital
Uma das principais qualidades da transmissão do sinal digital é a garantia que
a informação correspondente pode ser fielmente recuperada no receptor, desde
que o chamado “ponto de quebra” (crashpoint) do sistema não seja ultrapassado,
o qual está relacionado com o comprimento máximo e tipo dos cabos e da taxa
de transmissão utilizada . Após o “crashpoint” a taxa de erros aumenta conside-
ravelmente , tornando inviável a transmissão . Temos como exemplo a tabela :
Para o cabo tipo RGU-59 :
Taxa de TX -- > 270 Mbps / 360 Mbps / 1485 Mbps
Distância máxima -- > 274 m / 236 m / 73 m

Quando se necessita transmitir o sinal em comprimentos maiores que o do “ponto


de quebra” correspondente, é utilizado o regenerador de sinal digital, que também
serve para amplificar e distribuir o sinal , sendo de grande utilidade para o sistema.

27
Efeito aliasing fruto do processo conversão A/D
Na conversão A/D para vídeo quando a frequência do sinal
amostrado for alta muito próxima do limite para o teorema
de Nyquist , pode ocorrer um efeito chamado aliasing o qual
se caracteriza por apresentar descontinuidades em linhas
diagonais ou contorno de imagens. Para evitar esta distorção
é adicionado um filtro “passa-baixas” na entrada do conver
sor A/D. Outra maneira de se “mascarar” este efeito é a
utilização da técnica “ Randomized Rounding”, que consiste
em adicionar um ruído conhecido como “Dither”.
Por possuir característica de inserção aleatória , o ruído
simula um efeito de contornar e destacar a imagem.
Para se evitar que o sinal serial de saída tenha uma
polaridade constante (só 0 ou só 1), é adicionado um
“scrambler” com saída em NRZ ou NRZI (invertido).
18
Efeito aliasing e sua correção com efeito DITHER

Dither : Ruido
introduzido no
“serrilhado” para
minimizar o efeito do
aliasing
Correções do aliasing
Cintilação ou Flicker
O vídeo digital
O vídeo digital é a conversão do vídeo analógico em
digital , ou seja , a codificação da informação que
encontra-se em sinal analógico para “bytes”.
Desta forma , o sinal já digital pode ser manipulado ao
longo do processo de transmissão e/ou gravação e ,
posteriormente , a informação original é recuperada .
O vídeo digital surgiu após o áudio digital e o advento
do CD-ROM . O primeiro formato para gravação digital
em VT foi com vídeo em componentes ( Y, R-Y e B-Y )
chamado “D1”.
O segundo formato de gravação digital foi com o
vídeo composto chamado “D2”, que comprovou ser de
melhor qualidade , já que todo o sinal analógico é
convertido para digital .
Nos dois formatos citados , o sinal analógico é
convertido para digital (conversão A/D) processado ,
transmitido , e então , reconvertido para sinal analógico
(conversão D/A). 15
O sinal de vídeo D-1
Conforme a recomendação CCIR 601descrita anteriormente , para o
padrão 4:2:2 teremos a frequência de amostragem total de 13,5 + 6,75 + 6,75
(MHz)igual a 27 MHz , o que irá gerar uma sequência de saída de 27
Mbytes/seg.

Esta saída , como já foi visto , poderá ser em sinal de bits em série ou em
paralelo , formando bytes de 8 ou 10 bits.

A recomendação CCIR 601 especifica a utilização de bytes de 8 bits ,


porém já foi comprovada a maior eficiência de de 10 bits por byte , já que com
8 bits o número máximo de níveis distintos é de 256 e com 10 bits é de 1024 .
Além disto , o sinal do vídeo D-1 necessita de bytes auxiliares para
“marcar” o início e o final de cada linha ativa de vídeo ,chamados “SAV”e
“EAV”(Start e End Active Video). Estes
21
bytes também são utilizados para o
sincronismo do sinal ,não necessitando do modo convencional de sincronismo .
O sinal de vídeo D-2
Com o desenvolimento da tecnologia e a necessidade de algumas
indústrias do setor de trabalhar com o sinal em formato totalmente digital ,
foi criado o vídeo D-2, que é o vídeo obtido com a digitalização de todo o
vídeo analógico composto , o qual é levado a um conversor A/D , sendo
transformado em vídeo digital paralelo com taxa de 14,3Mbps p/ NTSC ou
17,7 Mbps p/ o sistema PAL , posteriormente pode ser transformado (
aplicando-se a mesma técnica utilizada no vídeo D-1) em vídeo composto
serial D-2 , com taxa de 143 Mbps p/ NTSC ou 177 Mbps p/ o sistema PAL .

No formato D-2 não há necessidade de inserção dos pulsos de


sincronismo , devido ao vídeo , por ser composto , já traz todas as
informações de sincronismo adequadas .
Padrões de conversão para o vídeo digital
Padrão D-1 (CCIR 601): Video Componente ( Y , Cb , Cr )
1 linha = 720 amostras de Luminância + (2× 360 amostras de
crominância ) = 720 pixels/linha × 482 linhas × 30 frames =
10.411.200 pixels/s × 8 bits × ( 1 + 1/2 + 1/2) = 166,58 Mbit/s

Padrão D-2 (Digital Composto):


1 linha = 51s ; Taxa de Amostragem = 14,31818 MHz
14,31818 MHz × 51 s = 730 amostras / linha × 482 linhas × 30
frames = 10.555.800 amostras/s × 8 bits = 84,45 Mbit/s

Padrão D-6 (HDTV Digital): HDMI


1920 pixels × 1080 linhas × 30 frames = 62.208.000 pixels/s
× 8 bits (1 + 1/2 + 1/2) = 995 Mbit/s
Amostragem dos sinais de luminância e crominancia
O primeiro padrão a ser utilizado foi o vídeo digital em
componentes , sendo chamado de “D-1” , o qual é baseado na
recomendação
“CCIR-601” , que especifica as frequências de amostragens
para os sinais de luminância “Y”e crominância “CB” ( B-Y) e
“CR ”(R-Y)
de 13,5 MHz e 6,75 MHz respectivamente , devido ao fato
delas terem a mesma frequência sub-múltipla de 3,375 MHz
(para utilizar o
mesmo oscilador ), a qual também é sub-multipla dos sistemas
de 525 e 625 linhas.
Amostragem dos sinais de luminância e crominancia
A estrutura de amostragem definida acima é conhecida
como “ 4 : 2 : 2 ”, pois para cada 4 amostras para do sinal “Y”
existem 2 para o
sinal “CB” e 2 para o sinal “CR”. Existem ainda outros
padrões , como o 4:4:4 e o 4:2:0.
Padrões de amostragem dos sinais de
vídeo digital
Linha par
Estrutura 4:2:2 - Media qualidade
Linha impar

Linha par
Estrutura 4:2:0 - Baixa qualidade
Linha impar

Linha par
Estrutura 4:4:4 - Media qualidade
Linha impar
Padrões dos sinais de vídeo digital
Conversão de formato,padrão e sistema
Conversão de formato : Ocorre quando há necessidade de se transmitir, por

exemplo, um sinal de vídeo digital composto em sinal de vídeo em componentes , ou vice-versa . A


conversão de formato ocorre sempre passando o sinal para o formato inter mediário (analógico
em componentes ) primeiro, para depois codificar para o formato desejado .

Conversão de padrão e sistema : Ocorre quando há necessidade de se

converter os sistemas NTSC / PAL / SECAM e os padrões M / N / G

Temos dois equipamentos que executam estas funções :

> Transcodificadores

> Conversores de padrão

Conversão de Resolução – Video Scaler

Utilizado quando necessitamos compatibiliz\ar as resoluções de vídeo , por exemplo : HDTV para

SDTV ; 4 K HDTV para 2 K HDTV


23
A interface em série (serial
digital interface SDI ) se
comporta como se fosse um
A interface em
transmissor . série
O sinal serial de saída se
comporta como se fosse a
portadora de vídeo , áudio e
dados auxiliares , porém
combinando os sinais de entrada
após a digitalização , conforme a
figura ao lado .
Possibilita transmitir vários
canais de áudio /dados embutidos
(multiplexados),tornando as
instalações muito mais simples.
Normalmente é usado cabo
coaxial com conector BNC . 25
Funcionamento do HDMI
Tanto o DVI quanto o HDMI fazem uso de um protocolo chamado Transition Minimized Differential
Signaling (TMDS), o que os tornam, até certo ponto, parecidos. No HDMI, são usados três canais
TMDS para a transmissão das informações de áudio e vídeo. Os dispositivos que iniciam a
transmissão são chamados de sources. Por sua vez, os dispositivos que recebem o sinal da
transmissão são chamados de sinks.
A tecnologia TMDS exerce uma função extremamente importante na transmissão do HDMI porque,
embora o sinal seja todo digital, isso não significa que está livre de falhas e interferências. Com os
canais TMDS, a transmissão de dados pode ser feita de maneira codificada, tornando-a protegida.
Isso é possível porque o canal TMDS utiliza um esquema de cancelamento. Nele, o sinal é duplicado,
porém o segundo sinal é invertido. O dispositivo receptor recebe ambos os sinais e os compara. As
diferenças encontradas nessa comparação permitem identificar as alterações indevidas - isto é, os
ruídos da transmissão - e descartá-las.
Quando a transmissão é iniciada, os três canais TMDS são utilizados para o envio de dados de vídeo,
o chamado Video Data Period. Cada canal envia 8 bits por vez, totalizando 24 bits. Isso é feito numa
freqüência denominada pixel clock que varia de 25 MHz a 165 MHz. No caso de transmissões que não
alcançam os 25 MHz, como o que acontece em sinais PAL e NTSC, é feito uso de uma técnica de
repetição de pixels. Com esse modo de funcionamento, o HDMI pode transmitir mais de 165 milhões
de pixels.
INTERFACES DE VIDEO
Interface HDMI
Interface DVI
Conversor VGA para HDMI

VGA x HDMI
Conversor – HDMI para VGA
Conversor VGA
X
Video composto
Conversão VGA para vídeo composto
Conversor de resolução – Video Scaler
Preços
Tecnicas de compressão de sinal
Compressão de dados de arquivos
Compressão de Dados
• Fatores explorados:
– Redundância de dados
• Imagem estática : Espacial
• Vídeo: Espacial + Temporal
– Processamento de sinais
• Codificadores preditivos ( LRE´s)
• Algoritmos de processamento de imagens
– Propriedades da Percepção Humana
• Os sentidos humanos relacionados a percepção da
imagem são limitados
• Podem tolerar falhas sem perder a comunicação
Compressão Digital
A compressão digital é a razão entre a taxa do sinal de entrada em relação à taxa
do sinal de saída de um circuito. Assim, por exemplo, 3 MB de dados de entrada
convertidos para 1 MB de dados de saída apresenta uma taxa de compressão de 3 :1.
Porém a técnica de compressão não é nova, ela já era realizada ( a nível analógico )
desde o advento da TV Monocromática e em seguida na TV a Cores. Veja os se-
guintes exemplos :
1º) O recurso da varredura entrelaçada é uma forma de compressão, já que se
consegue uma maior resolução sem o aumento da banda-ocupada.
2º ) Na TV a Cores, os sinais R, G e B produzidos na câmera geram uma banda de
12 MHz que posteriormente é reduzida para 4MHz, com a utilização somente dos
sinais R-Y e B-Y, os quais transportam a informação desejada.

Na compressão do sinal digital os detalhes relevantes da informação são chamados


de entropia e os irrelevantes são denominados de redundância e são usadas três
tipos de técnicas : Redundância Espacial, Redundância Temporal e Estatística.

Podemos dizer que todos os sistemas de compressão digital visam :


1º) Identificar e separar a entropia da redundância.
2º) Eliminar a redundância no codificador.
3º) Transmitir ou gravar somente a entropia, garantindo que ao se reduzir a quanti-
dade de dados, se mantenha um determinado grau de fidelidade da imagem.
Redundância
Espacial
Devemos ter sempre em mente que o
sinal de vídeo se compõe de sequências
de quadros, que por sua vez se compõe
de sequências de campos, que por sua
vez se compõe de sequências de linhas,
que se compõe de sequências de pixels,
que são compostos por três “pontos” de
fósforo, cada um responsável por trans-
formar o sinal recebido em uma única
informação de luz. Sendo assim, se a
mesma informação se repetir milhares
ou milhões de vezes seguidas, podere-
mos então transmitir um sinal com uma
nova informação somente quando houver mudança na imagem a ser transmitida.

A Redundância Espacial é aquela que as informações se repetem em pontos


adjacentes de uma mesma linha da varredura horizontal ou em linhas adjacentes
da varredura vertical .

A figura mostra que como a Redundância Espacial é obtida no mesmo quadro ,


ela é denominada de “Compressão Intraframe”.
Redundância Temporal
A Redundância Temporal é aquela em
que os mesmos elementos de imagem se
repetem em quadros diferentes de uma
mesma cena em exibição , ou seja , ao
longo do tempo. Como a Redundância
Temporal é obtida em quadros sucessi-
vos , a compressão que pode ser feita é
denominada “Compressão Interframe”
A Redundância Temporal é mais com-
plexa em sistemas com varredura entre-
laçada porque os sinais correspondentes
dos pixels de um campo estarão em po-
sição diferente no campo seguinte.

Na figura ao lado podemos observar que a grande maioria dos


elementos de imagem de vários quadros sucessivos se repetem
até um novo componente entrar em cena. No caso, o pássaro é
a chamada entropia e o restante da cena é a redundância.
MPEG - formatos utilizados de vídeo
MPEG-1 , características :
. Formato criado para entreterimento ( com qualidade similar
a VHS ).
. Utilizado em CD-ROM e Internet.
. É muito usado em microcomputadores porque pode ser
descomprimido via software.
. Utiliza a técnica DCT em blocos de 8 X 8 .
. Só dá tratamento ao áudio e ao vídeo.
. A compressão do áudio é em Musicam 1 ( mono/ estéreo ).
. A taxa de transmissão padrão é de 1,5 Mbps.
. Processa 1 frame de cada vez.
18
MPEG - formatos utilizados de vídeo
MPEG-2 , características :

. Revolucionou toda a indústria da Televisão mundial , já que foi


o formato que realmente veio a substituir a TV Analógica
comercial pela TV Digital.

. É tão eficaz que não houve necessidade do desenvolvimento e


comercialização do padrão MPEG-3 , o qual inicialmente foi
projetado para o HDTV, pois pode transmitir um sinal de vídeo
nesse padrão com 6 canais de áudio ou até 6 programas em
padrão SDTV em um canal de banda de 6 MHz.
18
Sistemas de compressão de imagens em movimento
Funcionamento do MPEG-2
O MPEG-2 na verdade não é uma técnica,
mas sim várias técnicas conjugadas, para se
obter a máxima compressão , mantendo-se
a qualidade do sinal.
A técnica que o diferencia é a seguinte :
. Separa a imagem em 3 tipos : I , P e B.
. I ( Intra-coded Pictures ) - A imagem
original é codificada usando suas próprias
informações do frame. A DCT codifica um
quadro ou um campo de uma imagem com
varredura entrelaçada. Os frames I servem
de referência para outros tipos de frames ,
por isso são sempre codificados com alta
taxa de bits.
. P ( Predictive Coded Pictures ) - É uma
imagem codificada que utiliza a predição para compensação de movimentos a
partir
de uma imagem passada tomada como referência. A diferença entre a imagem
atual
e a predita é codificada em DCT.
. B ( Bidirectionally Predictive Pictures ) - É uma imagem codificada que utiliza a
predição observando uma imagem passada (I) para melhor codificar uma imagem
corrente ou observa uma imagem futura 19 (P) para codificar uma imagem corrente.
.
MPEG 4
MPEG 4 Inicialmente o MPEG-4 era destinado a vídeos de baixo bit-
rate, entretanto, a sua abrangência foi expandida posteriormente para
ser muito mais que um padrão de codificação multimidia. O MPEG-4
é eficiente através de uma variedade de bit-rates indo desde poucos
kilobits por segundo até dezenas de megabits por segundo.
Ele fornece as seguintes funcionalidades:
>Eficiencia de codificação melhorada
>Possibilidade de codificação de diferentes media(vídeo, áudio, fala)
>Flexível a erros para possibilitar transmissões robustas
>Possibilidade de interceção com a cena áudio-visual gerada através
do receptor
O MPEG-4 absorve muitas das funcionalidades do MPEG-
1 e MPEG-2 e outros padrões relacionados, adicionando novas
funcionalidades como o suporte ao VRML (estendido) para
renderização 3D, arquivos compostos orientados a objeto
MPEG 4
Basicamente opera processando e codificando os diferentes objetos
da imagem . As objetos então codificados ( wavelets) são
posicionados para a composição dos quadros . Antes deste
processamento são retiradas as redundâncias espaciais e temporais .
MPEG 4
Por conta do processo utilizado de composição da imagem em cada
quadro , novos objetos podem ser facilmente inseridos ,
reposicionados , retirados da cena .

Poderiamos ter aqui


um placar incluído na
imagem
JPEG 2K
JPEG 2000 é um padrão de compressão de
imagens de alta definição criado em 1999. Este tipo de
compressão utiliza métodos de lógica difusa para criar
os dados de origem (que são os dados em que as
imagens provêm e não são descartados). Pode
compactar até 90% do arquivo original sem perder a
qualidade de imagem, pois os pixels não são gerados
aleatoriamente na tela, e sim com um cálculo
geométrico em que as cores primárias e o RGB ficam
paralelos ao eixo central do arquivo.
JPEG 2K
Performance de compressão superior: A altas taxas
de bit, quando artefatos se tornam quase
imperceptíveis, JPEG2000 tem uma vantagem de
fidelidade medida a nível de máquina sobre o
JPEG. Em baixas taxas de bit (por exemplo menor
que 0.25 bits/pixel para imagens em escala de
cinza),JPEG2000 tem muito mais vantagens
significantes sobre certos modos de JPEG:
artefatos são menos visíveis e quase não há
“bloqueamento”.Opera c/ taxas típicas de 150 Mbps
JPEG normal x JPEG 2K
Os ganhos de compressão sobre JPEG são atribuídos ao
uso do DWT (Discrete Wavelet Transform) também usado
no MPEG 4 garantindo assim sua melhor qualidade.
Compressão do sinal de áudio
Na compressão do sinal de áudio é mais uma vez explorada uma
característica do sentido humano, que neste caso é a audição, para
reduzir ao máximo a quantidade de bits necessário para a
transmissão do referido sinal. Esta característica é um fenômeno
subjetivo que consiste em ser criada uma “máscara de limite”
pelos tons mais altos, onde os tons mais baixos nas vizinhanças
desses tons mais altos não serão ouvidos. Isto possibilita remover
toda a informação dos tons inaudíveis sem causar distorção no
sinal de áudio e reduz em muito a taxa de transmissão do sinal.
Compressão do sinal de áudio
A figura ao lado apresenta
um gráfico onde podemos
observar os tons mais
fortes, a “máscara de
limite” criada por esses
tons e a “máscara”
quando não há áudio, ou
seja em estática.
A“máscara limite”
depende da intensidade e
da duração dos tons,
porque o limite ainda
perdura por algum tempo
e vai degradando aos
poucos.
Formatos mais utilizados em áudio digital.
Enquanto que para o vídeo digital normalmente são utilizados 8 ou
10 bits para cada byte, para o áudio são utilizados entre 16 e 24 bits
em cada byte na amostragem e quantização, devido ao fato do sinal
exigir maior fidelidade para a sua posterior reprodução.

Outra variação no
formato muito
usado atualmente é
a quantidade de
canais de áudio
associado ao video,
conforme ilustrado
ao lado
24
Formatos mais usados em áudio digital
>AES/EBU (Audio Engineering Society/European
BroadcastingUnion

> Embedded Audio( áudio embutido/encapsulado )

>Dolby Digital AC-3 (Algorithm Code de 3ªgeração -


5.1),

>Dolby E ( ate 12 canais )

>MP-3
O formato AES/EBU apresenta as
seguintes características:
➢ Pode utilizar 2 canais estéreo ou 4 canais
distintos.
➢ Transporta em dados auxiliares : código
de temporização e verificação de erros na
transmissão.
➢ Utiliza de 16 a 24 bits por amostra em
frequência de 48 kHz.
➢ Bit rate com sinal comprimido de 32 a
384 kbps.
O formato “Embedded Audio” apresenta
as seguintes características :
. Vantagens : como são transmitidos no mesmo SDI
(Serial Digital Interconnect) que o sinal de vídeo,
possibilita incorporar vários canais de áudio, através
da multiplexação, além dos projetos de
implantação serem muito mais simples e
econômicos, pois possibilita a redução de
distribuidores, cabos e equipamentos para
chaveamento do sinal.
. Desvantagens : apresenta “click” quando é feito
algum corte ou chaveamento do sinal, já que o
mesmo é incorporado ao vídeo, além da dificuldade
de garantia de alinhamento de fase com os frames
dos respectivos sinais de vídeo. Esta dificuldade
aumenta com o número de canais envolvidos. Com o
“surround sound”, o
alinhamento de fase tornou-se impossível, devido ao
uso da técnica em cascata o efeito é completamente
destruído. Para a solução25 destes problemas outras
técnicas foram desenvolvidas.
O formato Dolby Digital AC-3 foi o formato
escolhido como padrão para uso em sistemas de
transmissão unidirecional, ou seja, quando o
áudio a ser transmitido é o áudio final, como
por exemplo em transmissão de TV comercial ,
TV a cabo ou DVD, devido ao fato do sinal
analógico ser codificado em componentes
spectrais e passar por uma matriz, muitas
componentes do sinal não são transmitidas e
dessa forma após a decodificação é quase
impossível recodificá-lo novamente no formato
AC-3, podendo o mesmo ficar de baixa
qualidade ou até inaudível.
A configuração usada é a 5.1, onde como
vimos, pode ser transmitido 5 canais distintos e
mais o “subwoofer”, o qual é recodificado em 2
canais para poder ser então retransmitido. Por
codificar 4 canais em 2 e depois decodificá-lo em
4 canais, é que o Dolby26Surround também é
chamado de Dolby 4:2:4.
O formato Dolby Digital AC-3.
A principal vantagem do Dolby Digital AC-3
é a capacidade de produzir um áudio de
qualidade com uma taxa de transmissão muito
baixa.
A principal desvantagem é a baixa separação
entre os canais e a dificuldade de se garantir em
fase os sinais dos diferentes canais em função
dos processos de conversao A/D e de
codificação.
Outro problema comum em transmissão do
sinal de áudio é o chamado “erro de lip synch”,
que é o atraso do sinal de áudio em relação ao
sinal de vídeo quando ultrapassar 33 ms. A
solução mais comum nestes casos é a de usar um
circuito para obter um “delay” na quantidade
desejada, compensando desta maneira o atraso
sofrido. 26
O formato Dolby E.
O formato de áudio Dolby E foi desenvolvido para uso em
distribuição, broadcasting,e em pós-produção, útil em aplicações
tal como enviar programa para edição ou inser-ção de comerciais
ou envio de programas à grandes distâncias como via satélite.
Como Dolby E os frames de áudio ficam sempre casados com os
respectivos frames de vídeo, obtendo-se qualquer edição ou
chaveamento sem “clicks” ou “estalos” no sinal.

Isto é possível devido ao fato do formato garantir sempre um


atraso fixo de 01 frame em relação ao vídeo, necessitando apenas
de um “burst” de referência.
27
O formato Dolby E.
Também é possível se editar o som em modo “assemble”
diretamente no “bit stream” sem a necessidade de se codificar ou
decodificar o sinal.
O Dolby E codifica até 12 canais de áudio com resolução de 20
bits por amostra a uma frequência de 48kHz de amostragem.
Assim, quando o áudio Dolby for aplicado em formato
“Embedded”, fica fácil de se prever o “delay”. Porém, quando o
vídeo não permitir o formato “Embedded”, é necessário atrasar o
áudio em 01 frame.
O formato é flexível e permite programação Multicanal com
configuração de “5.1+2”que pode transportar :
. 1 áudio 5.1 de 6 canais mais 2 ( esquerdo total e direito total , ou
um canal estéreo );
. 1 áudio 5.1 de 6 canais mais 2 áudios mono ( distintos );
. 3 canais estéreos, ou 6 canais mono.
27
O formato MP3
A designação “MP3” é proveniente da expressão
“MPEG-1 Layer- III”, a qual era o nome do grupo
dedicado ao desenvolvimento das técnicas de
compressão
para o áudio nas normas do MPEG.
O MP3 é um processo muito eficaz e ideal para
manipular sinais para música.
O MP3 é o sistema de compressão que obtém maior
qualidade de som estéreo mesmo com um “bit rate”
muito baixo.
A tabela a seguir apresenta uma comparaçaõ da
qualidade do som do MP3 com outros meios de
transmissão.
A tabela abaixo apresenta uma comparaçaõ da qualidade do som do
MP3 para os diferentes meios de transmissão.
Para efeito de comparação, para reproduzir
uma música de 4 minutos num CD são utilizados
cerca de 40 Mbytes. Via Internet, usando um
modem com velocidade de 56 kbps, seria
necessário gastar mais de 2 horas para o
“download”.
Com o formato MP3 esta música seria um
arquivo de cerca de 3,3 Mbytes, o que levaria
apenas 10 minutos para ser adquirido. Devido à
facilidade de manipulação dos arquivos e a
proliferação de muitos programas específicos, o
MP3 se popularizou rapidamente na Internet e no
Comércio em geral.
Multiplexação de Programas
Padrão MPEG 2
Vídeo
Áudio 1 Programa 1
MUX
Áudio 2
Programa 2 Fluxo de
Dados Programa 3 MUX
Buffer
Transporte

Mapa de Programas
PT TS
( transport
stream)
PROGRAM STREAM
T
R X
VIDEO
P PROGRAM PS A TRANSPORT STREAM
G
AUDIO
ASI N
M
#
STREAM S
1 DADOS MULTIPLEX P
O
R
T
TS
S
T
R
E
A
M
VIDEO
P PROGRAM M
AUDIO
G
M STREAM ASI U
# DADOS MULTIPLEX X
N
Encoder

A figura acima apresenta um diagrama em blocos genérico


de um Encoder, onde podemos observar que as entradas de
áudio e vídeo podem ser em sinal analógico ou digital, além
da entrada de dados. Após o tratamento dos sinais de
entrada, um multiplex irá transformar esses sinais em um só
“stream” de saída, o qual poderá ainda ser embaralhado
por um “scrambler”, para então ser enviado à saída.
29
Os sinais de entrada do Encoder sofrem tratamento para
serem transformados em sinais digitais de fluxo contínuo
chamados de PES (Packetized Elementary Stream),os quais
são empacotados com tamanho variável e podem possuir
ainda vários TS (Transport Stream), dependendo da sua
utilização, porém cada TS possui um PID (Program
Identification), que garante a30identificação correta para a
decodificação.
Fluxo de Transporte
Na saída do Multiplex os PES são encapsulados
em pacotes TS de tamanho fixo de 188 bytes , onde
4 bytes são para cabeçalho.
O Fluxo de Transport de saída é mais do que
uma multiplexação de áudio e vídeo, porque inclui
grande quantidade de Metadados auxiliares, com
informações sobre os sinais dos programas
conhecidos como Essência.
Estes Metadados são os PAT ( Program
Association Table ) ou tabela de associação de
programas, que lista todos os programas do fluxo, e
os PMT (Program Map Table) ou tabela de mapas
de programas, que lista os fluxos elementares onde
são formados cada programa.
Alguns Encoder’s podem possuir acoplados em
seu próprio equipamento moduladores QPSK
(moduladores por chaveamento de deslocamento de
fase ), porém esses moduladores também podem ser
utilizados para modular outros
31
tipos de sinais.
Fluxo de Transporte – Transport Stream
O pacote do Fluxo de Transmissão ( TS ) do MPEG-2 é também conhecido como “
188 : 204 ”, por se referir aos 188 bytes de dados de transmissão e aos 16 bytes do
código de correção “Reed Solomon” ( RS ), aumentando o pacote para 204 bytes.

Em seguida , normalmente é utilizado outro código de correção, o FEC (


Forward Error Correction ), e sua eficiência depende dos valores das relações que são
utilizados, ou seja os de 1/2 , 2/3 , 3/4, 5/6 ou 7/8. Por exemplo, no caso do FEC de ¾
para cada 4 bits de dados teremos mais 3 bits de código de correção, aumentando

a taxa de transmissão ( TR - Transmission Rate ).

Os pacotes podem ter ou não a mesma base de tempo , por isso o nome de
assíncrono serial interface , entretanto os pacotes tem de ter o mesmo tamanho, o que
vai facilitar a identificação da origem e do final do pacote, assim como detectar perda
de pacote 31
Testes de video digital
• Testes objetivos
– Amplitude do sinal digital
– Diagrama de olho
– Jitter
– Analise do protocolo mpeg – Transport stream
• Testes subjetivos
– Ocorrencia de artfacts – Blocking
– Ocorrencia de congelamento
– Resposta pan-tilt
Sinais de teste de video
Analisador de protocolo MPEG

Você também pode gostar