Você está na página 1de 18

Instituto Federal Fluminense – campus Campos Centro

Bacharelado em Engenharia Elétrica

Ingride Estter Pereira


Matheus Simões
Thamira Gomes

COMPRESSÃO DE ÁUDIO E VÍDEO

Campos dos Goytacazes


2021
SUMÁRIO

1 INTRODUÇÃO 3
2 DESENVOLVIMENTO 3
2.1 Redundância Espacial e Temporal 3
2.2 Estimação e Compensação de Movimento 4
2.3 Diferença dos MPEG 4
2.4 Compressão de Áudio 7
2.4.1. Dolby Surround AC-3 9
2.4.1.1. Conversão analógico-digital 11
2.4.1.2. Análise/Síntese Filter Bank 13
2.4.1.3. Frame de sincronização AC-3 15
2.4.1.4. Alocação de bits 15
2.4.1.5. Considerações finais sobre o AC-3 15
3 REFERÊNCIAS BIBLIOGRÁFICAS 17
1 INTRODUÇÃO

O vídeo é, por vezes, chamado “moving picture”, uma vez que o mesmo
consiste da apresentação de imagens estáticas a uma frequência alta o suficiente
para levar à impressão de continuidade do movimento pelo olho humano. Cada
imagem em um vídeo é chamado um quadro (field), ou imagem. Um mecanismo
extremamente simplificado para codificação de vídeo consiste da codificação dos
vários quadros, independentemente, através de um codificador JPEG. Esta
metodologia é conhecida como MJPEG (motion JPEG ou moving JPEG). – A taxa
de compressão neste caso é a mesma de uma imagem JPEG, na faixa de 1:10 a
1:20, o que não é o suficiente para diminuir significativamente as necessidades de
banda passante de transmissão (televisão digital continuaria com cerca de 16Mbps).

2 DESENVOLVIMENTO

2.1 Redundância Espacial e Temporal

Padrões de compressão de imagem como JPEG, operam sobre a


redundância que é esperada entre os pixels vizinhos em um pequeno bloco de 8×8
pixels. Este tipo de característica de uma imagem é conhecida como Redundância
Espacial, visto que a redundância ocorre no âmbito dos pixels. Ao se considerar um
vídeo, porém, deve-se facilmente concordar que existe uma grande similaridade
entre dois quadros vizinhos (ou próximos) de uma sequência de vídeo. Tal
característica de quadros é conhecida como Redundância Temporal, uma vez que
ela ocorre em relação a quadros que foram gerados em pequeno intervalo de tempo.
Em um filme usualmente as cenas tem pelo menos 3 segundos, que a 30 fps
resultaria em um conjunto de pelo menos 90 quadros com grande redundância
temporal. Em uma transmissão de um telejornal, o que se move é, basicamente, o
interlocutor.
2.2 Estimação e Compensação de Movimento

A técnica utilizada para aproveitar a redundância temporal é a predição do


conteúdo de vários quadros a partir de uma combinação de um quadro anterior (e
em alguns casos um posterior também). Ao invés de transmitir os quadros como
uma sequência de imagens não relacionadas entre si, somente algumas imagens
são enviadas neste modo e para as demais somente a diferença entre o quadro e o
quadro predito (predicted) são enviadas. A precisão da predição depende do quão
boa é a estimação de movimento de um quadro para outro. Esta operação é
conhecida como Estimação de Movimento (motion estimation). Como a estimação
de movimento não é precisa, também precisam ser enviados valores de diferença
entre a posição estimada e a posição real dos elementos. Tal operação é conhecida
como compensação do movimento (motion compensation).
O Vetor de Movimento (motion vector), é o vetor de movimento codificado,
caso exista um. Ele indica a posição (x,y) do macrobloco em relação à posição
original, bem como a posição original. Vetores de movimento associados com um
macrobloco usualmente são limitados a uma área bem definida em volta do
macrobloco sendo codificado. Ademais, a área é usualmente restrita à aresta da
imagem.

2.3 Diferença dos MPEG

MPEG significa o grupo de especialistas em imagens em movimento. É um


grupo de trabalho de especialistas que foi formado em 1988 pela ISO e pela IEC. Foi
uma iniciativa conjunta entre Hiroshi Yasuda, da Nippon Telegraph and Telephone e
Leonardo Chiariglione. Chiariglione é o presidente do grupo desde o início do grupo.
O objetivo do MPEG era estabelecer padrões para compressão e transmissão
de áudio e vídeo. Em 2005, o grupo cresceu e incluiu aproximadamente 350
membros por reunião de várias indústrias, universidades e instituições de pesquisa.
Os padrões definidos pelo MPEG consistem em diferentes partes. Cada parte
cobre um determinado aspecto de toda a especificação. O MPEG padronizou os
seguintes formatos de compactação e padrões auxiliares:
MPEG-1 (1993): Codificação de imagens em movimento e áudio associado
para mídia de armazenamento digital em até cerca de 1,5 Mbit / s (ISO / IEC 11172).
Projetado para compactar vídeo digital bruto com qualidade de VHS e áudio de CD
sem perda excessiva de qualidade, tornando possíveis CDs de vídeo, TV a cabo /
satélite digital e transmissão de áudio digital (DAB). Inclui o popular formato de
compressão de áudio MPEG1 Audio Layer III (MP3).
MPEG-2 (1995): Codificação genérica de imagens em movimento e
informações de áudio associadas (ISO / IEC 13818). Descreve uma combinação de
compactação de vídeo com perdas e métodos de compactação de dados de áudio
com perdas, que permitem o armazenamento e a transmissão de filmes usando
mídia de armazenamento atualmente disponível e largura de banda de transmissão.
MPEG-3: Lidou com a padronização de compressão escalável e
multi-resolução e foi planejado para compactação HDTV, mas foi encontrado para
ser redundante e foi fundido com o MPEG2.
MPEG-4 (1999): Codificação de objetos audiovisuais. Inclui a compactação
de dados AV para aplicativos de web (streaming de mídia) e distribuição de CD, voz
(telefone, videofone) e transmissão de televisão. Inclui o MPEG-4 Part 14 (MP4).
MPEG-7 (2002): Interface de descrição de conteúdo multimídia. Não é um
padrão que lida com a codificação real de imagens em movimento e áudio, como
MPEG1, MPEG2 e MPEG4. Ele usa XML para armazenar metadados e pode ser
anexado ao timecode para marcar eventos específicos ou sincronizar as letras de
uma música.
MPEG-21 (2001): framework multimídia. Destina-se a definir um quadro
aberto para aplicações multimídia. Baseado na definição de um Item Digital e
usuários interagindo com Itens Digitais.
Um dos formatos MPEG mais usados ​é o .mpg ou .mpeg. O .mpg é uma das
inúmeras extensões de arquivo para compressão de áudio e vídeo MPEG-1 ou
MPEG-2. O MPEG-1 e MPEG-2 é um padrão para compactação com perdas de
vídeo e áudio.Uma compactação com perda significa que, ao salvar um arquivo, há
uma pequena perda de qualidade devido à compactação. Com cada nova gravação,
há uma ligeira perda de qualidade devido à compressão. Portanto, não é o melhor
formato no caso de alguém precisar continuar fazendo várias edições e salvamentos
na imagem. Ainda assim, se uma só fizer algumas edições e o arquivo for salvo em
um formato de alta qualidade, a pequena perda de qualidade devido à compactação
é principalmente insignificante. Uma vantagem de usar esse formato é que, devido à
compactação, o arquivo ocupará menos espaço para armazenamento de dados.

O padrão MPEG-1 consiste nas seguintes partes:


● Sistemas (armazenamento e sincronização de vídeo, áudio e outros
dados juntos);
● Vídeo (conteúdo de vídeo compactado);
● Áudio (conteúdo de áudio compactado);
● Teste de conformidade (atestando a exatidão das implementações do
padrão);
● Software de referência (exemplo de software que mostra como
codificar e decodificar de acordo com o padrão).

O MPEG4 foi lançado em 1999 e foi desenvolvido como um método de


codificação para dispositivos com recursos limitados, principalmente dispositivos
portáteis, como players de mídia e telefones celulares. Este formato também é
frequentemente utilizado para arquivos de vídeo e áudio online, principalmente mídia
de fluxo contínuo, bem como para distribuição de CD, telefone, videofones e
aplicações de televisão de transmissão.
O MPEG4 é baseado no padrão MPEG-1 e MPEG-2 e, como eles, é um
padrão de algoritmo de compactação com perdas de vídeo e gráficos. No entanto,
os arquivos MPEG-4 são menores em tamanho e, portanto, são preferidos para
streaming on-line ou armazenamento em players portáteis com espaço em disco
limitado. Isso ocorre principalmente porque o MPEG-4 é baseado na tecnologia
wavelet que pode compactar imagens coloridas em taxas de 20: 1 até 300: 1 e
imagens em escala de cinza de 20: 1 a 50: 1. Além disso, o mecanismo de
compressão MPEG4 é um pouco mais complicado do que o MPEG2. Isso ocorre
porque o MPEG4 precisa de melhores algoritmos para varrer e determinar quais
pixels podem ser descartados, para reduzir ainda mais o tamanho dos dados.

Itens como recursos do MPEG4:


● O MPEG-4 permite que diferentes desenvolvedores de software e
hardware criem objetos multimídia que possuam melhores habilidades
de adaptabilidade e flexibilidade para melhorar a qualidade de serviços
e tecnologias como televisão digital, gráficos de animação, a World
Wide Web e suas extensões.
● Os provedores de rede de dados podem usar o MPEG-4 para a
transparência de dados. Com a ajuda de procedimentos padrão, os
dados MPEG-4 podem ser interpretados e transformados em outros
tipos de sinal compatíveis com qualquer rede disponível.
● O formato MPEG-4 fornece aos usuários finais uma ampla variedade
de interação com vários objetos animados.
● Sinalização padronizada de Gerenciamento de Direitos Digitais,
também conhecida na comunidade MPEG como Gerenciamento e
Proteção da Propriedade Intelectual (IPMP).

MPEG4 ficou bastante popular ao longo dos anos. Um dos formatos mais
utilizados é o .mp4. O MPEG-4 Part 12 foi desenvolvido a partir do arquivo MOV da
Apple e acabou resultando no MPEG-4 Part 14, que é o formato MP4. O MP4 é um
formato de contêiner. Isso significa que ele pode ser usado para armazenar dados
de áudio e / ou vídeo. O vídeo e o áudio MP4 também podem ser transmitidos pela
Internet.

2.4 Compressão de Áudio

Assim como a ISO (International Organization for Standardization) formou o


grupo MPEG para definir padrões para a compressão e transmissão de áudio e
vídeo, a ITU também padronizou diferentes codificadores de áudio os quais foram
nomeados com os códigos G.7xx como, por exemplo, o G.719. Estes existem para
vários níveis de complexidade e foram bastante focados para aplicações de
conversação como a comunicação digital telefônica, videoconferência e
teleconferência.
Outros codificadores importantes são aqueles pertencentes aos Dolby
Laboratories que têm aprimorado seus codificadores notavelmente através das
versões AC-1 (Audio Coding 1 ), AC-2, AC-3 e AC-4. O codificador Dolby AC-3 é
bastante reconhecido pela sua inclusão no sistema HDTV nos Estados Unidos da
América na época e, o AC-4 como um forte concorrente do AAC para os novos
sistemas HDTV, DVDs e cinemas.
Todos estes sistemas variam em seu modo exato de operação, mas
funcionam aproximadamente da mesma maneira. Se tratando de codificadores de
áudio que toleram perdas de informação, estes se aproveitam das propriedades
perceptuais do sistema auditivo humano para realizar compressão. Com estes
sistemas, o processo de compressão produz distorções consideráveis no sinal mas
que são imperceptíveis para os ouvintes humanos. As propriedades perceptuais
estão presentes no domínio do tempo e da frequência, surgindo a necessidade de
transformadas ou técnicas com estas perspectivas. Os compressores utilizam então
uma de diversas técnicas para obter essa visão, como por exemplo, a técnica por
banco de filtros utilizada nos codificadores MPEG camada 1 e 2 que filtra o sinal de
entrada em 32 sub-bandas.
Nos repositórios de trabalhos científicos são comumente encontrados
trabalhos sobre compressão de áudio baseados em técnica de análise em
tempo-frequência como, por exemplo, a chamada de Decomposição de Pacotes
Wavelet (Wavelet Packet Decomposition, WPD) que é considerada uma variação (ou
generalização) da conhecida Transformada Discreta Wavelet (Discrete Wavelet
Transform, DWT).
O enfoque da transformada de wavelets através da teoria da análise de
multiresolução tem possibilitado diferentes técnicas de compressão as quais, muitas
das vezes, são baseadas na eliminação das componentes de detalhe do sinal. Para
o caso de áudio, esse efeito se traduz na decomposição de sinais em sub-bandas
que serão codificadas de acordo com as propriedades perceptuais.
Grande parte dos trabalhos encontrados usando a WPD para compressão de
áudio são baseados nas sofisticações dos modelos das propriedades perceptuais e
das técnicas de quantização utilizadas nos codificadores mais reconhecidos.

Dependendo da finalidade do sinal de áudio, a compressão pode ser de áudio


em geral ou também pode ser especializados em determinado tipo de som, como os
compressores de voz. Na compressão de áudio em geral, os principais aspectos
explorados são:
• Redundância de correlação (ou entre valores de símbolos);
• Redundância de codificação (ou estatística);
• Fatores psicoacústicos (ou sistema auditivo humano).
As redundâncias de correlação e codificação são geralmente exploradas nas
compressões de áudio sem perdas, utilizando técnicas como, por exemplo, predição
linear e codificação de entropia. Já os fatores psicoacústicos são explorados na
compressão de áudio com perdas utilizando as chamadas técnicas perceptuais, por
isso, também são chamados de codificadores perceptuais.
A rigor, a psicoacústica é uma área de estudo presente entre a acústica e a
fisiologia auditiva que envolve principalmente a sensação auditiva provocada em
seres humanos para diferentes características do som. Todos esses fatores indicam
componentes do sinal que podem ser quantizados ou até eliminados sem haver uma
degradação considerável na qualidade do áudio para o ouvinte.

Os conceitos por trás das várias técnicas baseadas em modelo perceptual


são todos bastante semelhantes, sendo a estrutura comum destes representada na
figura a seguir. Primeiro, os algoritmos processam um modelo de audição para o
áudio de referência (original) e o áudio testado (codificado). O resultado pode ser
considerado como a representação interna dos sinais no sistema auditivo humano.
Em seguida, é realizado uma comparação das duas representações que leva a uma
estimativa da diferença audível entre elas. Essa informação é então processada
através do referido modelo cognitivo de acordo como o cérebro de um humano faria
em um teste de audição. No final, é tido uma predição da qualidade do áudio que
pode ser comparado a uma pontuação de opinião média resultante de um teste
subjetivo.

Figura 1 - A estrutura comum para a medição de qualidade de áudio perceptual.

2.4.1. Dolby Surround AC-3

Complementando o que foi dito no documento anterior:


Segue o diagrama de blocos do AC-3:

Figura 2 - Codificador Dolby AC-3.

Figura 3 - Decodificador Dolby AC-3.


O sistema de compressão Dolby AC-3 trabalha com até seis canais de áudio
de entrada no sistema de codificação (geralmente os seis canais são considerados
como 5.1 canais de áudio, pois o canal de baixas freqüências é considerado como
0.1). O sistema de canalização é feito de acordo com a recomendação ITU-R
BS-775, denominado “sistema de som estereofônico multicanal com e sem
acompanhamento de vídeo”. A largura de faixa designada para cada canal é
mostrada na Tabela 1.

Tabela 1 - Canais de áudio suportados pelo AC-3.

A disposição de cada canal dentro do ambiente de reprodução é atribuída


pelo sistema AC-3 tal como mostra a figura a seguir. Cada sinal de entrada no
sistema pode estar na forma analógica ou na forma digital. No caso de estar em
formato analógico, deve-se fazer a conversão analógico-digital a fim de que se
possa processar o sinal usando-se o algoritmo de compressão e codificação.

2.4.1.1. Conversão analógico-digital

Cada canal de entrada no codificador AC-3 pode ser amostrado a uma


freqüência de 32 KHz (FM ), 44.1 KHz ou 48 KHz (HDTV). As freqüências de 44.1
KHz e 48 KHz são utilizadas para áudio com acompanhamento de vídeo, e portanto
constituem um compromisso entre as freqüências de varredura de quadro e de linha,
a fim de se assegurar um número inteiro de amostras de áudio por quadro ou
campo. Para o caso de HDTV, é utilizada uma freqüência de amostragem de 48
KHz, que é gerada a partir de um oscilador padrão de 27 MHz, a fim de se
sincronizar o codificador de áudio, o codificador de vídeo e o sistema de transporte.

Figura 4 - Disposição espacial dos canais de áudio do sistema AC-3

Se o sinal de entrada no codificador estiver em formato digital e a uma


freqüência de amostragem diferente, o codificador faz a conversão a 32 KHz, 44.1
KHz ou 48 KHz (dependendo do caso), a fim de que todo o sinal seja codificado a
partir do mesmo formato de amostragem. Cada amostra de áudio pode ser
quantizada e codificada com uma precisão de 16 bits a 24 bits. Dessa forma, na
saída do conversor analógico digital se tem disponíveis amostras PCM (Pulse Code
Modulation) quantizadas nessa faixa de precisão. A filtragem dos canais de áudio e
o processo de conversão A/D são mostrados na Figura. 4. Note que no caso do
canal LFE, a filtragem passa-baixas é feita por um filtro com freqüência de corte em
120 Hz. O nível DC contínuo é eliminado mediante um filtro passa-altas com uma
freqüência de corte de 3 Hz (-3dB).
Figura 5 - Conversão analógico-digital dos sinais de áudio

2.4.1.2. Análise/Síntese Filter Bank

O sistema AC-3 explora as características do sinal dentro do domínio da


freqüência (Análise Espectral ()*), a fim de se fazer o tratamento digital com base na
sensibilidade que cada componente de freqüência tem dentro do sistema de
audição. A vantagem disso é que, de acordo com a importância da componente, o
valor do coeficiente correspondente pode ser quantizado com maior ou menor
número de níveis de quantização, de forma que o número de bits designado para a
representação de cada amostra seja variável e muito menor do que aquele
correspondente ao do sinal original.
No codificador AC-3, a transformada de um sinal de áudio para o domínio da
freqüência é feita a partir da formação de blocos de áudio de 512 amostras com uma
superposição de 256 amostras com blocos adjacentes (50%). Assim, um bloco de
áudio é formado (cada 5.33 ms, para 48 KHz) a partir de 256 amostras prévias e de
256 amostras novas.
Essa forma de segmentação dobra a quantidade de informação a ser
processada, mas sua vantagem está no fato de que, quando o sinal é decodificado,
o som reproduzido fica livre do efeito de blocos (ruído “click”) que geralmente
aparece quando um sinal de infinitas amostras é processado através de blocos com
um número finito de amostras.
Cada bloco de áudio é passado por um processo de janelamento que envolve
a multiplicação das 512 amostras de um bloco por uma janela de 512 elementos
cuja forma é apresentada na figura a seguir. A forma da janela determina a
seletividade da transformada utilizada na análise )* e permite que as amostras
resultantes do processo de superposição/soma apresentado na decodificação de
blocos de áudio adjacentes se encontrem livres do efeito de bloco.

Figura 6 - Janela aplicada ao sinal de áudio pelo sistema AC-3

Os coeficientes MDCT gerados são calculados a partir da FFT (Fast Fourier


Transform), a fim de se aumentar a eficiência computacional do codificador AC-3. Os
resultados de pesquisas realizadas por e sobre o tipo de transformada aplicado a
sinais de voz e áudio indicam que existe uma preferência pela DCT em relação à
DFT. Isso é devido ao fato de que a primeira apresenta um desempenho maior de
cerca de 4 a 5 dB de SNR (relação sinal/ruído) sobre a segunda, para blocos de 128
amostras, sendo que essa diferença diminui à medida que o tamanho do bloco a ser
transformado aumenta.
2.4.1.3. Frame de sincronização AC-3

Um frame de sincronização é formado a partir do agrupamento de seis blocos


codificados de áudio, com campos adicionais de sincronização, sinalização e de
detecção de erros. Cada representa 1536 amostras de áudio codificadas e constitui
a unidade de codificação e de acesso aleatório do sistema.
O formato de um frame de sincronização AC-3 é mostrado na Figura 6. Note
que a informação de áudio, formada pelos blocos de áudio AB0..AB5, está
acompanhada de informação adicional constituída pelos campos SI, (sincronização),
BSI (informação) e CRC ( detecção de erro ).

Figura 7 - Formato de um frame de sincronização AC-3

2.4.1.4. Alocação de bits

O processo de alocação de bits consiste de um algoritmo que tem como


finalidade a determinação do número de níveis de quantização necessário para a
codificação de cada mantissa. A execução do algoritmo é feita a partir de um modelo
psico-acústico do ouvido humano, a fim de evitar que a distorção introduzida no sinal
seja percebida pelo nosso sistema de audição.

2.4.1.5. Considerações finais sobre o AC-3

Através do uso da codificação perceptual adaptativa, chegou-se finalmente a


resultados ótimos em relação à taxa de transmissão versus a qualidade do sinal
resultante. A taxa de bits alcançada na transmissão dos seis canais num serviço
normal de áudio é de 384 Kbit/s, onde o nível de compressão alcançado encontra-se
na relação de 13:1.
Durante todo o processo de codificação, tem-se levado em conta a diminuição
da taxa de bits conservando-se a qualidade do sinal resultante. Dessa forma, desde
a codificação dos expoentes até a quantização das mantissas, foram utilizadas
técnicas de codificação definidas com base nas características de resposta em
freqüência do sistema de audição humano.
Por outro lado, além de se obter um sinal de alta qualidade no receptor, a
utilização de um sistema de normalização e compressão da faixa do nível de volume
permite solucionar um problema apresentado na televisão convencional, onde
diversos programas de um mesmo canal ou de canais diferentes são reproduzidos
com diferentes níveis de volume. A normalização permite a reprodução de qualquer
programa de televisão codificado através do sistema AC-3 mediante um som de
nível constante, inclusive quando é feita uma mudança de canal.
A compatibilidade do sistema Dolby AC-3 com sistemas de áudio estéreo
convencionais é assegurada mediante a detecção de dois canais de áudio L, R,
codificados em cada de sincronização.
O sistema Dolby AC-3 vem sendo utilizado para o processamento de áudio de
alguns filmes de cinema desde o ano de 1992. A alta qualidade de som obtido para
esses casos, bem como a taxa de compressão alcançada, permitiram a
consideração do sistema AC-3 dentro do sistema HDTV proposto pela Grande
Aliança nos Estados Unidos.
3 REFERÊNCIAS BIBLIOGRÁFICAS

FERNANDES, Sérgio e BASTOS, Arilson. Televisão Profissional. 2ª ed.Antenna Edições


Técnicas LTDA., 2004, 221p.

PISA, Pedro. Vídeo par a par. UFRJ, 2008.

JACOPETTI, JÚNIOR, ZAGO, at all. Compressão Digital de Áudio (MP3).


<http://www.cricte2004.eletrica.ufpr.br/edu/anterior/pds00/trab3/mp3/#d> acesso em
05/07/2021

MIRANDA, KRAPPE, MACHADO, at all. Projeto de MP3.


<http://www.cricte2004.eletrica.ufpr.br/edu/anterior/pds01/trab3/mp3/> acesso em
05/07/2021

TECMUNDO, 2019. <


https://www.tecmundo.com.br/player-de-audio/2938-quais-as-diferencas-entre-formatos-de-a
udio-para-blu-ray-.htm> acesso em 05/07/2021

DOLBY LABORATORIES, 2019 <https://www.reviversoft.com/pt/file-extensions/AC3


> acesso em 05/07/2021

REDAÇÃO, 2018
<https://super.abril.com.br/mundo-estranho/o-que-sao-o-ingles-5-1-e-2-0-que-aparecem-com
o-opcoes-de-idioma-nos-dvds/> acesso em 05/07/2021

STOLFI, Guido. Compressão de Imagens Padrão JPEG, 2016.


<https://www.lcs.poli.usp.br/~gstolfi/PPT/APTV0616.pdf> acesso em 05/07/2021

FAZENDO VIDEO, 2018 < http://www.fazendovideo.com.br/infotec/ac3.html> acesso em


05/07/2021

FAZENDO VIDEO, 2018 < http://www.fazendovideo.com.br/infotec/surround.html> acesso


em 05/07/2021

TELECO, c2021 <https://www.teleco.com.br/tutoriais/tutorialaltvdiel1/pagina_3.asp> Acesso


em 05/07/2021

LNCC <https://www.lncc.br/~jauvane/SMM/2002/SMM-A06.pdf> Acesso em 05/07/2021

ADOBE.
<https://helpx.adobe.com/pt/media-encoder/using/video-audio-encoding-compression.html>
acesso em 05/07/2021

NATAPA. <https://pt.natapa.org/difference-between-mpeg-and-mpeg4-634> acesso


em 20/07/2021
MOTTA, Lucas.
<http://repositorio.unicamp.br/bitstream/REPOSIP/335461/1/Motta_LucasLui_M.pdf>
acesso em 20/07/2021

INATEL.
<https://www.inatel.br/revista/busca/216-compressao-de-sinais-s158468-1/file>
acesso em 20/07/2021

Você também pode gostar