Você está na página 1de 28

FACULDADE DE ENGENHARIA DA UAN

CURSO DE TELECOMUNICAÇÕES, 4ºANO- 2020

CADEIRA: FUNDAMENTOS DE TELECOMUNICAÇÕES I

Capitulo I: Teoria de Informação

1.1 Introdução

A crescente globalização dos mercados, o aumento dos padrões de exigência dos consumidores e
o forte incremento da concorrência, trouxeram novos problemas ás empresas. Neste ambiente
complexo, turbolento e em constante mutação, a informação surge como recurso vital á
sobrevivência das organizações, permitindo minimizar a incerteza associada á tomada de decisão.
A informação está altetrar inclusivamente a estrutura da própria concorrência e a competitividade
das organizações, sendo considerada uma arma estratégica para a obtenção de vantagens
competitivas. Neste contexto os sistemas SI/TI assumem um papel central, criando, memorizando,
tratando, e transmitindo informação em tempo oportuno, de modo a minimizar o erro na tomada
de decisão. A informação e os SI/TI, surgem intimamente relacionados com o desenvolvimento
quotidiano da actividade organizacional. A introdução de sistemas e tecnologias de informação nas
organizações, veio revolucionar o processo de desenvolvimento técnico e científico que é
acompanhado com o aumento intensivo do volume de informação para gerir as indústrias, os
transportes, a agricultura e outras áreas de economia nacional. A titulo de exemplo o aumento do
volume de informação estabelece uma ligação estreita com funcionamento da maioria das
empresas modernas.

O desenvolvimento com sucesso desta teoria deve-s alargamente ao trabalho de P. Hartley, Claud
Shannon e Nyguist, o qual forma parte de um campo mais vasto da teoria de comunicação. Embora
neste capítulo se pretende discutir apenas a base da teoria de informação, mas não é possível
qualquer discussão sem primeiro definir os termos Comunicação e Informação.

Do ponto de vista humano, a palavra comunicação esta associada a ideia de uma pessoa escrever
para outra pessoa, utilizando recursos a palavras. A informação é transmitida em forma de
mensagens. As mensagens são informações expressas em formas determinadas e servem para
transmitir a informação da fonte ao destinatário. Um exemplo concreto de informação serve (texto
de um telegrama, música, imagem televisiva, comando de controlo do tráfego aéreo, saída de dados
do PC etc., cujo Sinergia de Computadores e Telecomunicações

O avanço da sinergetica dos computadores como ferramenta de processamento de informação e


telecomunicações como veiculo de conversão da informação, tem rompido as barreiras de distância
e tempo, transformando o mundo numa aldeia global. Como os dominios de computador e
telecocmunicaçoes são sistemas convergentes, romperam as fonteiras e novos serviços são
estabelecidos. Estes serviços são maioritariamente computadores baseados em tecnologia digital,
como dispositivos electrônicos utilizados para o processamento da informação. A figura 1.1
apresenta a relação existente entre a tecnologia de Computadores, Telecomunicações e
Multimédia. Estas áreas interligam-se entre si e produzem a chamada tecnologia de informação e
o elemento de base de união é a representação digital de dados, liderada pela Tecnologia Digital
de Processamento de Sinais.

Multimédia

Computadores

Telecomunicações

Processamento Digital de Sinais

Fig.1.1- Papel do processamento digital de sinais envolvendo redes de computadores

Multimédia - È a produção simultanêa no ecrân do computador ou TV de variedades meios de


comunicação tais como: texto, imagens, gráficos, voz, musica etc.

1.1 Conceito de Teoria de Informação


A Teoria de informação (TI) - é a ciência que estuda as leis quantitativas relacionadas com a
elaboração, conservação, transmissão e recepção, de informação. Esta teoria surgiu nos anos 40
graças ao trabalho de Claud Shannon no seu Artigo “ The Mathematical Theory of
Communication e serve até hoje, como base fundamental de estudos dos modernos sistemas de
telecomunicações e sistemas de controlo.

Certamente nenhum trabalho isoladamente naquele século, alterou mais profundamente a


compreensão humana sobre comunicação. Os resultados alcançados por Shannon naquela época
são de grande potência, elegância, genialidade, generalidade no contexto científico.

1.2.1 Importância da Teoria de Informação e sua Aplicação nas


Telecomunicações
Com as descobertas científicas importantes verificadas na época, foi possível constatar o profundo
impacto que a tal teoria viria ter. A reacção imediata dos matemáticos da época foi pouco negativo
(eles preocupam – se com o rigor e não apreciaram a importância na engenharia daquele artigo) e
os especialistas em comunicações da época não conseguiram compreender a essência da teoria e o
seu significado. Com decorrer do tempo quando os teoremas de Claud Shannon foram digeridos
pela comunidade matemática e de engenheiros tornou-se claramente a sua interpretação e depois
chegaram a conclusão que havia sido criada uma ciência novinha em folha.

A teoria por ele criada ou inventada abriu caminho para o progresso do desenvolvimento dos
métodos de cálculos de engenharia e projecção dos objectos concretos da técnica de informação,
nos cursos especiais das instituições do ensino superior e outras aréas do saber.

1.2.2 Classificação dos Objectos das Técnicas de Informação


Dada a sua importância do ponto de vista funcional, ela pode ser distinguida em algumas classes
no contexto de tecnologias de informação que abaixo passaremos a

1. Redes e Sistemas de Telecomunicações ( Telegrafia, Telefonia, TV, Radiodifusão, Sistemas de


transmissão de dados etc.)

2. Sistemas de Medição de Informação (Sistemas de vigilancia por radares, navegação, Sistemas


de radiotécnica etc.)

3. Sistemas de Transformação de Informação (Analógica e Digital)

4. Subsistemas de Asseguramento de Infirmação nos sistemas de controlo.

5. Sistema de informação de busca e salvamento e

6. Sistemas de Investigação.

1.3 – Processos de Comunicação

Desde dos tempos remotos, o homem se esforçou em desenvolver a capacidade de se relacionar


com o próximo. Desde a descoberta do fogo, aos gritos e gestos, as formas de comunicação foram
evoluindo até a padronização das representações, para melhor expressão dos desejos e
necessidades.

Para que a comunicação fosse eficiente e pudesse servir ao interesse das tribos e grupos étnicos, o
homem utilizava sinais para as suas comunicações. A evolução continuava e a cada etapa, foram
surgindo novos elementos.

Posteriormente a palavra se mostrou um meio eficaz de comunicação. Mas a sociedade cresceu e


a palavra gritada já não era suficiente, dai surge a escrita, processo pelo qual, o homem ``fala``
através de símbolos e gráficos.
Fig.1.2 Diversas formas de comunicação

COMUNICAÇÃO

- SIGNIFICA TRANSFÊRENCIA DE INFORMAÇÃO, NO CASO DE QUE A


COMUNICAÇÃO SEJA ENTRE PESSOAS OU SISTEMAS QUE SE ENCONTRAM
DISTANTES SE FALA DE TELECOMUNICAÇÃO. ESTA COMUNICAÇÃO NÃO É
MAIS QUE A TRANSMISSÃO DE INFORMAÇÃO DE UM PONTO A OUTRO,
ATRAVÉS DE UMA SUCESSÃO DE PROCESSOS.

Estes processos se substanciam em:

1. Geração de um sinal de mensagem: Voz, musica ou dados de computador conforme foi dit.
anteriormente.

2. Descrição desse sinal de mensagem com alguma precisão, por meio de um conjunto de de
simbolos electricos, auditivos ou vocais.

3. Codificação desses simbolos em uma forma apropriada á transmissão por um meio fisico de
interesse.

4. Transmissão dos simbolos codificados até ao destinatário.

5. Decodificação e reprodução dos simbolos originais que correspondem a copia da mensagem


transmitida.

6. Recriação do sinal de mensagem original, com uma degradação de qualidade provocada por
inprefecções do sistema (condições de propagação).
Actualmente, a comunicação entrou em nossa vida cotidiana de tantas formas diferentes que é
muito fácil a diversidade de suas aplicações passar desprecibida. Os telefones em nossas mãos, os
rádios e televisores em nossas salas, os terminais de computador com acesso à Internet em nossos
escritórios e lares e nossos jornais são capazes de fornecer comunicações rápidas de qualquer parte
do mundo. A comunicação fornece a orientação para navios em alvo no mar, aeronaves em vôos e
fogetes e satélites no espaço. Realmente a lista de aplicações que envolvem a utilização de
comunicações é quase infinita.

É importante recordar, que há muitas outras formas de comunicações que não envolvem
directamente a mente humana em tempo real. Por exemplo, em uma rede de computadores, que
envolve comunicações entre dois ou mais computadores, as decisões humanas podem entrar
somente na definição dos programas e dos comandos para o computador ou na monitorização dos
resultados.

Independemente do processo de comunicação que estiver ser analisado, há três elementos básicos
em cada sistema de comunicação: Transmissor, Suporte de Transmissão e Receptor, conforme
iremos ver na Figura 1.1 .

De todo este processo, para comunicar é necessário transferir informação de um ponto para outro
ou mais objectivamente com a participação de homens e máquinas.

Uma vez que a cadeira se destina ao estudo dos sistemas de telecomunicações, interesse saber por
que forma se liga a teoria de informação com as telecomunicações. De uma forma geral, um
sistema de comunicação tem como objectivo ou finalidade a transmissão de mensagens com
determinado conteúdo informativo, por esta razão, vamos antes de tudo, dispor de um sistema
capaz de transmitir essas mensagens através de um meio qualquer, o que gastará determinado
tempo.

Uma vez que a mensagem contém em si, um certo tempo a ser transmitida, permite-nos definir a
velocidade de transmissão - como sendo a quantidade de informação transmitida em uma unidade
de tempo.

 Sistema de Comunicação de um Canal Simples

_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _

: Ccodificação/Modulação Decodificação/ Demodulação :

: :

A(t) S(t) Z(t) B(t)


Fonte de Suporte de
: Emissor Receptor : Destinatário
Informação Tx
: :
: ξ(t) :

: Fonte de Ruido, :

: Destorção e :

:
Interferência :

: canal de comunicação :

: _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _:

Esquema Estrutural

Fig. 1.3 Sistema de comunicação de um canal simples

Para melhor análise e descrição dos métodos da teoria de informação e transmissão de sinais,
vamos dispor de operadores generalizados de controlo e tratamento de sinais no sistema de
comunicação de um sinal simples.

Na figura 1.1 está representado o esquema estrutural do sistema de comunicação de um canal


simples (Único). Neste sistema quer a fonte de informação, quer o destinatário são pessoas, sendo
o emissor constituído por microfone – responsável em converter o sinal da mensagem, produzido
pela fonte de informação em uma forma adequada à transmissão por um canal.

Entretanto à medida que o sinal vai sendo transmitido se propaga ao longo do canal, ele é
distorcido devido a imperfeição do canal. Além disso, ruído e sinais interferentes ( que se originam
de outras fontes ) são acrescentados à saida do canal, o resultado do sinal recebido, corresponde a
uma versão corrompida diferente da original. O receptor tem a tarefa de operar sobre o sinal
recebido a fim de reconstruir uma forma reconhecivel do sinal original para o destinatário ou
usuário. Ele é constituido por auscultador. O suporte de comunicação ou meio de transmissão é
constituido por uma linha telefónica ( Telegrafia, Telex, Fax, Radio Difusão, Teledifusão, HDTV,
Videoconferência Teletex,Videotex, e-mail, Multimedia, comunicação por satelite e Internet ).

 Principio de Funcionamento do Esquema Estrutural SCCS


A mensagem inicial A(t) neste esquema, saída da fonte de informação, chega na entrada do
emissor, que tem como missão de transformar a informação (mensagem) em sinais eléctricos S(t),
favoráveis para a transmissão no canal de comunicação( meio de transmissão ). O papel do meio
de transmissão pode desempenhar qualquer meio físico ( ar, água, fio de cobre, fibra óptica e
outros), capaz de deixar passar os sinais.

No terminal receptor, recebidos os sinais do meio de transmissão, os sinais eléctricos Z(t) são
transformados ou decodificados e chegam ao destinatário em forma de mensagem B(t). Duma ou
outra maneira corresponde a mensagem original A(t).
A perturbação da mensagem em certo ponto é originada pela interferência ξ(t). Por interferência
entende-se toda a influência negativa, que interfere nos sinais recebidos Z (t) e diferem das
transmitidas S(t). O Conjunto transmissor (emissor), receptor, suporte de transmissão e fonte de
ruído, distorção e interferência formam - o canal de comunicação. Enquanto que, a fonte de
informação, o destinatário de informação e canal de comunicação formam - o chamado Sistema
de Comunicação de um Canal Simples (SCCS).

Para dedução do operador generalizado de controlo, que descreve sequencialmente o SCCS,


observamos, a operação concreta de mensagens e sinais que têm lugar, como por exemplo, o texto
de um telegrama (telegráfo ) no meio de transmissão do canal de comunicação.

A mensagem A(t) em forma de uma mensagem telegráfica ou telefónica entra no emissor, o qual
desempenha a função do operador de codificação sequencial de letras e símbolos que são
transformados em impulsos eléctricos sequencias S(t). O carácter de ξ(t) determina a forma do
código. Consequentemente como resultado do processo codificação, obtemos o sinal eléctrico,

S(t) = K[A(t), s k ]

Onde: sk - Vector de componentes que constituem código de sinais elementares, durante o


processo de transmissão sequencial dos impulsos S(t).

No suporte de transmissão (linha de transmissão) os sinais são distorcidos pela influência dos
efeitos indesejaveis a comunicação, tais como: ruído, interferência e distorção, que podem ser
representados como,

Z(t)=L{K[A(t), sk ],ξ(t)} (1.1)

Onde: ξ(t - representa os efeitos indesejáveis no meio fisico;

Depois da decodificação (D), os sinais obtidos recebem a copia da mensagem transmitida no


receptor.

B(t)=D[Z(t)]=D{L[K[A(t), sk ], ξ(t)]} (1.2 )

Donde: L – Representa o operador de ruído e interferência

A expressão (1.2) descreve o funcionamento do SCCS em forma de um operador.

Conforme podemos observar, para análise e sintese do SCCS é necesssario saber descrever
matematicamente as mensagens, os sinais, a distorção e as diversas operações de transformações
de sinais.

 Principio de Funcionamento do Esquema Estrutural SCM


Analisado o SCCS, passamos agora descrever o operador de controlo de um Sistema de
Comunicação Multicanal Canal (SCMC).
O SCMC- é um conjunto de dispositivos técnicos, que proporcionam ao mesmo tempo,
mútuamente e independemente a transmissão de informação numa das linhas gerais de
comunicação, mensagens para muitos destinatários. Para melhor entendimento, vamos ilustrar o
esquema estrutural do SCMC, com a frequência de distribuição de sinais,

Font de ruído, distorção


e interferência

Fonte Nº 1 A1(t) Emissor Nº1 Z1(t) B1(t)


DM1 D1

A2(t) B2t)
Fonte Nº 2 Emissor Nº2
S(t) Z(t) Z2(t)
DM2 D2
A3(t)Z8t)
U L U-1
Z3(t) B3(t)
Fonte Nº 3 Emissor Nº3
DM3 D3

An(t) …… ……… Bn(t)

Fonte Nº n Zn(t)
Emissor Nº n DMn Dn
Fig. 1.4 Esquema estrutural de um sistema de comunicação de multicanal

Como resultado do processo de codificação de informação (mensagens) no i – canal e modulação


na saída do emissor “ i ” forma-se o sinal,

𝑆𝑖 (𝑡) = 𝑀𝑖 {𝐾𝑖 [𝐴𝑖 (𝑡), 𝑆𝑥𝑖 ], 𝑥𝑖 }, (1.3)

Onde 𝑥𝑖 - portadora utilizada durante o processo de modulação.

Os sinais dos canais 𝑆𝑖 (𝑡) chegam no dispositivo de compactação da linha de comunicação, onde
de acordo com o operador de compactação U(Multiplexador) e portadora “x” formam o Sistema
de Comunicação Multicanal (SCMC)

𝑆(𝑡) = 𝑈[𝑆𝑖 (𝑡), 𝑥], (1.4)

Na linha de transmissão S(t) há uma acção recíproca com o ruído ou interferência 𝜉(𝑡).

Como resultado o sinal de saída no meio de transmissão Z(𝑡) = 𝐿[𝑆(𝑡), 𝜉(𝑡)]. Do sinal Z(t) o
dispositivo divisor de sinais de canais em concordância com o operador divisor U-1
(Demultiplexador) separa os sinais dos canais obtidos 𝑍𝑖 (𝑡).

Na demodulação DMi e decodificação Dki do sinal Zi(t) do receptor permite receber a copia do sinal
Bi(t).

Os operadores de controlo que descrevem na totalidade o trabalho de forma geral do


funcionamento do SCMC tem a seguinte expressão:

𝐵𝑖 (𝑡) = {𝐷𝑥𝑖 [𝐷𝑀𝑖 [𝑈 −1 [𝐿[𝑈][𝑀𝑖 [𝐾𝑖 [𝐴𝑖 (𝑡), 𝑆𝑥𝑖 ], 𝑥𝑖], 𝑥], 𝜉(𝑡)]]]} (1.5)

Finalmente para análise e síntese do SCMC é necessário saber descrever matematicamente as


mensagens, sinais de informação, ruido, distorção e não menos de 7 operações de transformação
de informação de mensagens e ruido.

O projecto de um Sistema Comunicação Analógico, por sua natureza é simples em termos


conceituais, mas difícil de construir, devido a rigorosos requisitos de linearidade e ajuste do
sistema. A titulo de exemplo a comunicação de voz exige produtos de distorção não linear de pelo
menos 40 dB abaixo de mensagem desejada. Em termos de processamento de sinais , o Tx consiste
em um modulador e o Rx em um demodulador, cujos detalhes são determinados pelo tipo de
modulação CW utilizada.

A simplicidade conceitual das comunicações analógicas deve-se ao facto de que as técnicas de


modulação analógica , exemplificadas por sua utilização nA rádio e TV, fazem alterações
relativamente superficiais no sinal de mensagem, a fim de preapará-lo para a transmissão no canal.
Mas especificamente, nenhum esforço significativo é feito pelo projectista do sistema para moldar
a forma de onda do sinal transmitido a fim de adequar o canal a qualquer nivel mais profundo.

Entretanto a teoria de comunicação digital se esforça para encontrar um conjunto finito de formas
de onda que seja estreitamente coincidente com as caracteristicas do canal e que , portanto, seja
mais tolerante com as insuficiências. Com isto estabelecem –se comunicações confiáveis pelo
canal. Na seleccção de boas formas de comunicação digital através de um canal ruidoso, o projecto
é influenciado unicamente pelas caracteristicas de canal.

No entanto, assim que o conjunto apropriado de formas de ondas para transmissão pelo canal for
seleccionado, a informação –fonte poderá ser codificada nas formas de onda do canal, e a
transmissão eficiente de informação da fonte até destinatário, será então garantida. Em suma, o
uso de comunicações digitais proporciona a capacidade para que a transmissão seja tanto eficiente
quanto confiável.

 Sistema de comunicação de um canal digital

Fig- 1.5 Diagrama de Blocos de um Sistema Comunicação Digital


No caso de um sistema de comunicação digital representado na Figura 1.2, cujo fundamento está
na teoria de informação. Os blocos funcionais do Tx e do Rx , iniciando-se pela extremidade
distante do canal, estão associados da seguinte forma:

Tx

 Fonte- Saida que pode ser analógica ou digital (caracteres, sinal continuo, dados binários
etc);

 Codificador de fonte – Converte sinal analógico em digital, comprime dados;

 Codificador de canal- Introduz redundância na informação digital para combater os


erros introduzidos no canal.

 Modulador-digital – Transforma a informação digital + redundância em sinais adequados


para transmissão pelo canal.

 Canal- meio de comunicação, introduz ruído e interferências nos sinais transmitidos.

RX

 Demodulador digital -Transforma os sinais recebidos do canal em uma sequência


codificada (estimativa de informação + redundancia );

 Decodificador de canal - Retira a redundância contida na sequência codificada,


detecta e corrige n ainformação digital.

 Decodificador da fonte- Expande os dados, converte sinal digital em analógico.

 Destinatario – Usuário final- (caracteres, sinal continuo, dados binários).

A partir dessa descrição, podemos concluir que o sistema de comunicação digital apresenta
maiores vantagens tais como é:

 robusto, oferece maior tolerância a efeitos fisicos(variações de temperatura, envelhimento,


vibrações mecânicas) do que o sistema analógico.

1.4 Fontes de Informação


O ambiente de telecomunicações é dominado por quatro fontes importantes de informação:

1.Fala

2. Música,

3. Imagens

4. Dados de computador

Uma fonte de informação pode ser caracterizada em termos de sinal que carrega a informação.
Um sinal é definido como uma função do tempo de valor único na qual o tempo desempenha o
papel da variável independente; em cada instante de tempo, a função tem único valor.

Para melhor compreensão vamos descrever detalhadamente as diferentes fontes de informação:

1.Fala -é o método principal de comunicação humana. Especificamente, o processo de


comunicação da fala envolve a transferência de informação de um orador a um ouvinte, a qual
se desenvolve em três etapas:

a) Produção - Uma mensagem pretendida na mente do orador é representada por um sinal de


fala que consiste em sons (i.e., ondas de pressão) gerados na região vocal e cuja disposição
é regida pelas regras de linguagem.
b) Propagação - As ondas sonoras se propagam através do ar a uma velocidade de 3.108 m/s,
chegando aos ouvidos do ouvinte.
c) Percepção - Os sons que chegam são decifradas pelo ouvinte em forma de uma mensagem
recebida completando assim a cadeia de eventos que culminam na transferência de
informação do orador para o ouvinte.

O ponto mais importante a ser observado aqui é que o espectro de potência (distribuição da
potência média ao longo da frequência) da fala se aproxima de zero para uma frequência zero e
atinge um pico nas proximidades de algumas centenas hertz. Para colocarmos as coisas em uma
forma perspectiva, entretanto, temos que considerar que o mecanismo de audição é muito
sensível à frequência. Além disso, o tipo de sistema de comunicação que está em consideração
tem uma importante participação na banda de frequências consideradas "essenciais" para o
processo de comunicação. Por exemplo, como mencionamos anteriormente, uma largura de
banda, de 300 a 3100Hz é considerada adequada para comunicações telefónicas comerciais.

2. Música - considerada neste trabalho como a segunda forma de comunicação, origina-se de


instrumento como piano, o violino e a flauta. A nota produzida por um instrumento musical pode
perdurar por um breve intervalo de tempo, como quando se pressiona a tecla de um piano, ou
pode se manter por um intervalo longo, como no exemplo de um flautista que executa uma nota
prolongada.
Geralmente a música tem duas estruturas: Uma estrutura melódica, que consiste em uma
sequência de sons ao longo do tempo, e uma estrutura harmónica, que consiste em um conjunto
de sons simultâneos.

Assim como um sinal de fala, um sinal musical é bipolar. Entretanto, um sinal musical difere do
sinal de fala, porque o seu espectro ocupa uma largura de banda muito mais ampla que pode se
estender até cerca de 15KHz. Consequentemente os sinais musicais demandam uma largura de
banda do canal muito mais ampla do que os sinais de fala para a sua transmissão.

3. Imagem - A terceira fonte de informação, imagens, depende do sistema visual humano para
sua percepção. A imagem pode ser dinâmica como na televisão, ou estática, como em um fax.

Tomando o caso da televisão, as imagens em movimento são convertidas em sinais eléctricos


para facilitar seu transporte do transmissor para o receptor. Para fazê-lo, cada imagem completa
é explorada sequencialmente. O processo de varredura é executado através de uma câmara de
TV. Em uma TV em preto e branco, a câmara contém componentes ópticos projectados para
focalizar uma imagem em um fotocátodo, que consiste em um grande número de elementos
fotossensíveis. O padrão de carga gerada na superfície fotossensível é varrido por um feixe de
electrões. Produzindo, assim, uma corrente de saída que varia temporalmente, de acordo com a
maneira em que o brilho da imagem original varia espacialmente de um ponto a outro. A corrente
de saída se chama de sinal de vídeo.

O tipo de varredura utilizado na televisão é uma forma de amostragem espacial chamada


varredura linear a qual converte a intensidade de uma imagem bidimensional; em parte, é
análoga ao modo como lemos o papel impresso, no sentido de que a varredura é executada da
esquerda para a direita, linha a linha. Nos televisores norte-americanos, uma imagem é divida em
525 linhas, as quais constituem um quadro (frame). Cada quadro é decomposto em dois campos
entrelaçados, cada um dos quais consiste em262,5 linhas. Para facilitar a apresentação, referimo-
lo aos dois campos como I e II.

1.4.1 Principais Caracteristicas Fontes de Mensagens

As principais caracteristicas fontes de mensagens são:

1.Quantidade de informação numa mensagem

2. Entropia

3. Capacidade de um canal

4. Velocidade de transmissão de informação

5. Rendimento da fonte

Uma das principais tarefas de teoria de informação é a transmissão de sinais e elaboração de


metódos de cálculos destas caracteristicas.
Designemos o volume da letra do alfabeto A- fonte de uma mensagem discreta através de m.
Suponhamos que cada mensagem inclui n simbolos sendo,

m - Volume da letra A .

n – Quantidade de simbolos numa mensagem.

Então ao escolhermos a forma como vamos medir a quantidade de informação, é necessário ter
em consideração os seguintes aspectos.

1) A mensagem com maior comprimento como lei contém maior quantidade de informação;

2) Maior quantidade de informação contém naquelas mensagens que estão formadas por simbolos
do alfabeto e possuem maior volume ;

3) A formação de uma mensagem tem caracter aleatório ou casual ( os simbolos aparecem com
distintas probabilidades de ocorrência).

O numéro total das distintas mensagens com comprimento ´´n `` tem a seguinte expressão :

N0 = mn (1.7)

Este numéro poderia ser utilizado como uma das caracteristicas fonte de mensagens, mas ele não
é comodo devido ao grau de dependência do N0 ao ´n `.

Hartley propõs em 1918, a unidade logarítmica como medida da quantidade de informação

I  LogN   nLogm (1.8)

Esta formula caracteriza a expressão de Hartley.

Conforme podemos verificar a expressão do Hartley não reflecte nenhum carácter aleatório ou
casual da informação.

Para eliminar esta desvantagem é necessário relacionar a quantidade de informação fonte de


mensagens, com a probabilidade de ocorrência dos símbolos. Este problema resolveu o Shannon
no seu trabalho “The Mathematical Theory of Communication” publicada em 1946.

Se a probabilidade de ocorrência dos símbolos do alfabeto são iguais, a quantidade de informação


que leva um símbolo é I1 = log m.

1 1
A probabilidade de ocorrência dos simbolos p = , consequentemente, m= .
m p

Se colocamos o valor de m na formula para I1 , obtemos, I1 = -log p.

A base mais usada é n = 2, chamada base binária podendo desta forma descrever -se

I1 = - Log 2  p  [bits /simbolos]


OBS : A base binária tem haver com os dois estado que é ligar e desligar ou ( ON or OFF)

n =2
0

Obtemos assim, uma expressão ou uma relação que já estabelece a ligação entre a quantidade de
informação que leva um símbolo com a probabilidade de ocorrência deste símbolo.

Nas mensagens reais os símbolos aparecem com distintas probabilidades, por exemplo o símbolo
´´ a i `´ aparece com a probabilidade P( a i ), a ϵ A.

I i = - log 2 pai 

 Conclusões importantes:

 Se há certeza de ocorrência de um evento, não há ganho de informação


quanto esse evento ocorre;
 A ocorrência de um evento nunca causa perda de informação;

 Quanto menor a probabilidade de ocorrência, maior é a informação


ganha quando o evento acontece.

. Neste caso, a quantidade de informação será:

= log 2 1 / pai  bits/simbolo.


Ii

1.5 Quantidade de Informação Média (Entropia)

A Entropia é a medida do grau da deseordem da informação (ou de um sistema). È uma grandeza


fisica que está relacionada com a segunda lei da termodinamica e que tende a aumentar
naturalmente no universo.

O conceito da Entropia foi desenvolvido pelo engenheiro e pesquisador francês Nicholas Sadi
Carnot. A pesquisa consistia sobre a transformação da energia mecânica em térmica e vice-versa.
O Rudolf Clausius foi o primeiro a usar o termo Entropia em 1865. Ele propos uma ideia de que
uma reacção química somente seria considerada espontânea se nela houvesse um aumento na
desordem do sistema racional ou seja, quanto maior a desordem dos átomos presentes em uma
reação, mais espontânea ela é.

A desordem não pode ser entendida com anarquia (bugunça), mas sim como forma de organização
das moléculas. Uma forma de entender a desordem das moléculas num sistema é o gelo que derrete.
As moléculas no estado sólido estão próximas e têm menor possibilidade de movimentação,
portanto elas estão mais organizadas. No entanto, na mudança para o estado líquido, as moleculas
irão ganhar cada vez mais liberdade para se movimentar e com isso se tornarão cada mais
desorganizadas. Essas mudanças de estado físico estão relacionadas com a energia na forma de
calor.

Fig,1.6 Representação das moleculas da água nos diferentes estados físicos

Portanto a quantidade de informação média (entropia), que leva um símbolo fonte de mensagens
será,
m m
H(A)=  Pai I ai    Pai  log 2 Pai  [bits/segundo], (1.9)
i 1 i 1

m
Sabemos que:  Pa   1
i 1
i

Esta expressão é conhecida como fórmula de Shannon para a entropia.

1.5.1 Propriedades de Entropia


Como a entropia é uma função contínua da probabilidade de ocorrência dos símbolos, ela tem as
seguintes propriedades:

1) A entropia fonte de mensagem discreta é um valor real limitado e positivo.

0  pai   1

2) A entropia é máxima se todos os símbolos de ocorrência são independentes e possuem a mesma


probabilidade,

Hmax=-mp Log 2  p  = - m
1 1
log 2 = Log 2 m (1.10)
m m

3) No caso de serem iguais as probabilidades de um determinado acontecimento, a entropia


aumenta com o aumento da quantidade de acontecimentos.

4) A entropia de dois acontecimentos alternativos pode ser medido de 0 até

Fig. 1.7 Gráfico da dependência de informação média H (Entropia) de um acontecimento com


probabilidade de ocorrência de um acontecimento

A comparação da formula (1.8) e (1.10 ) demostra que forma de medida da quantidade de


informação proposta por Shannon é mais generalizada do que o método proposto por Hartley, no
caso de ocorrência dos símbolos independentes e que não possuem a mesma probabilidade.

Para existência de uma ligação estatística entre os símbolos de uma mensagem, introduziu-se o
termo entropia condicional.

H  A´/ A   pai  paj / ai  log 2 pa j / ai 


m m
(1.11)
i 1 j 1

Onde p a j / a i  Probabilidade de ocorrência a j com a condição de que antes


dele ocorreu a i . A entropia condicional expressa na formula (1.11)- é a quantidade de informação
média que transfere um símbolo de uma mensagem com a condição de que existe a correlação
ligação entre dois símbolos vizinhos numa mensagem.
Devida esta correlação ligação entre símbolos e não igualdade de probabilidades da sua ocorrência
nas mensagens reais cai com a quantidade de informação que transfere um símbolo. A quantidade
desta perda é caracterizada por um coeficiente denominado coeficiente de excelência ou
redundância de informação.

 H1  H 2 H2
r=  1 (1.12)
H1 Log 2 m

Onde, H1  - quantidade de informação máxima, que pode ser transmitida ou transferida por um
símbolo; H 2  - quantidade de informação, que leva um símbolo nas mensagens reais.

A unidade de medida da quantidade de informação mais usada é bits ( Binary Digity ), abreviatura
em inglês, que não é mais que a quantidade de informação que transfere um símbolo fonte de
mensagens discretas.

A quantidade da informação promédia que produz a fonte por unidade de tempo chama-se
rendimento da fonte é dada pela seguinte expressão.

H
H ´ ( bits /s) (1.13)
t

1.6 A velociadade promédia com que uma fonte transfere a informação está pela

R=W H (bits/s) ou

R=rH (bits /s) (1.14)

Donde: W- quantidade de simbolos que produz a fonte por uma unidade de tempo;

H- entropia expressa em ( bits /simbolo).

1.7 Redundância de informação

Se uma imagem contiver mais símbolos do que necessário para transportar a informação, tal
mensagem diz-se ser redundante. Toda a mensagem que produz símbolos que dependem uns dos
outros tem redundância, visto que a escolha de um símbolo depende de outro.

A língua inglesa tem uma redundância considerável, pois a utilização de certas letras dependem da
escolha uma outra letra anterior; num telegrama, certas letras podem omitir – se sem destruir a
mensagem verdadeira. Noutros casos, tal como o código Hamming utiliza-se a redundância
controlada para corrigir erros.

Se a informação real da fonte (entropia) for H1  e H max representar o seu máximo valor possível,
e entropia relativa ou

H
Eficiência é e a redundância neste caso é definida:
H max

H
Redundância = 1 – , (1.15)
H max

Pode mostrar –se que H para grupos de oito letras para a língua inglesa é de cerca de 2
Bits/símbolos e que para 26 letras do alfabeto, mais um espaço se obterá.

H max = log 2 27  4.76bits / simbolo


2
Redundância = 1 – = 50%
4.76

1.8 Capacidade de um canal. Capacidade de um canal de banda limitada.


A meta do projetista de um sistema de comunicação é configurar um dispositivo que transporte um
sinal de mensagem de uma fonte, através de um canal de ruidoso, até um destinatário com o seguite
objectivo:

 O sinal de mensagem deve ser entregue ao destinatário de maneira eficiente, sujeito a


certas restrições de projecto: potência de trasmissão permissível, largura de banda de
canal disponível e custo viável de construção do sistema.

Nyquist, provou que se um sinal arbitario é transmitido através de um canal de largura de banda
W (Hz), sendo o sinal resultante da filtragem pode ser completamente reconstruído pelo receptor
através de amostragem do sinal transmitido, o qual a frequência é de 2W por segundo. Nyquist
demostrou que esta é a frequência mínima de amostragem necessária e ao mesmo tempo amostrar
este sinal, a frequência maior que 2W é inútil, já que as frequências componentes a serem
recuperadas por tal amostragem, já não existem no sinal, devido a filtragem do canal.

Para sinais digitais, isto é correspondente a dizer que o nível de transmissão de amplitude para
outro sinal que duas (2) vezes por segundo.

C max  2 B log 2 L ( bits / segundo ) (1.16)

A expressão de Nyguist é valida para canais sem ruído, o que na realidade não ocorre.

Vinte (20) anos depois de Nyquist, Shannon provou matematicamente que um canal tem uma
capacidade limitada máxima. A parte mais importante do seu trabalho, discute canais na presença
do ruído térmico. O principal resultado de Shannon, afirma que a capacidade de informação do
canal ``C`` de banda limitada cuja largura de banda B (Hz) é:
S
C max  B log 2 (1  )
N (1.17)

S
Onde B = W - Largura de banda;  Re lação Sinal / ruído
N

Esta expressão é conhecida como a formula de Shannon na definição da capacidade de de


informação num canal. Ela dá a velocidade máxima [bits/S] com que sinais de potência S (Watts)
podem passar por um canal de comunicação, o qual deixa passar sem ruído (distorção) apenas os
sinais de frequência até B (Hz) o qual produz ruídos de potência máxima N (Watts) e esses ruídos
são do tipo usual, chamado ruído branco ou Johnson).

Vejamos um exemplo numérico importante, o caso das linhas telefónicas analógicas. Elas são
construídas para passar voz humana de frequência até 3400Hz, consequentemente ,

S
 100
a) Para a relação N , teremos C maax  3400 log 2 (1  100)  3400 log 101 =

= 22600bits/seg

S
 1000
b) Para relação N C maax  3400 log 2 (1  1000)  3400 log 1001 =

= 33900bits/seg.

No caso de um sistema comunicação digital, a confiabilidade geralmente é expressa em termos


de taxa de erro de bits (BER)ou probabilidade de erro de bits medida a saida do receptor.
Naturalmente, quanto menor a BER, mais confiável será o sistema de comunicação. Neste
contexto, pode-se perguntar se é possível projectar um sistema de comunicação que opere com
BER zero, apesar de o canal ser ruidoso. Em um ambiente ideal, a resposta a esta pergunta é um
enfático sim.

A resposta está em um dos célebres teoremas de Shannon, o qual é chamado de teorema da


capacidade de informação. A formula expressa acima é valida tanto para canais de comunicação
analógica, assim como canais de comunicação digital. Na mesma formula, a capacidade de
informação C, para sistema de comunicação digital é definida como a taxa máxima em que a
informação pode ser transmitida sem erros através do canal; é medida em bits por segundo (bits/s).
Para uma largura de banda de canal B e SNR recebido, o teorema da capacidade de informação
diz-nos que um sinal de mensagem pode ser transmitido através do sistema sem erros mesmo
quando o canal é ruidoso, desde de que a taxa de transmissão de sinais real R em bits por segundo,
na qual os dados são transmitidos através do canal, seja menor do que a capacidade de informação
C.
Infelizmente, o teorema de Shannon da capacidade de informação não nos diz como projectar o
sistema. Entretanto, do ponto de vista do projecto, o teorema é muito valioso pelas seguintes razões:

1. O teorema da capacidade de informação fornece um limite no qual a taxa de transmissão de


dados é teoricamente possível para valores determinados de largura de banda de canal B e
SNR recebido.

Baseando-se nisso, podemos usar a seguinte relação,

η= R/C (1.18)

com uma medida da eficiência do sistema de comunicação digital em estudo. Quanto mais próximo
η estiver da unidade, mais eficiente será o sistema.

2. A equação 1.11 constitui como base para o comprimisso entre a largura de banda de canal B
e SNR(relação sinal/ruído) recebido. Em especial, para uma determindada taxa de
transmissão R, nós podemos reduzir a SNR recebida, aumentando a largura de banda do canal
B; dai a motivação para utilizarmos um esquema de modulação de banda larga ( Modulação
por Codificação de Pulsos (PCM)) para melhor desempenho sob ruído.

3. A equação 1.11 constitui uma estrutura ideal para compararmos o desempenho sob ruído de
um esquema de modulação em relação a outro.

1.9 Grau de Incerteza

Já vimos que o conceito da informação dada por um determinado acontecimento está dado (ligado)
intimamente com a probabilidade de ocorrência dos símbolos.

Ainda podemos associar um outro conceito definindo o Grau de Incerteza.

É verdade que se a informação fosse conhecida antes ou apriori, então não haveria necessidades
de transmiti-lá. Por isso, a informação ou mensagem tem valor importância, quando o seu estado
não é conhecido apriori. Entretanto este grau de incerteza de um estado casual ou aleatório na teoria
de informação é expressa através de uma característica conhecida por entropia.

Daqui podemos concluir que:

A probabilidade de se efectuar a transmissão de uma determinada mensagem antes da mensagem


ser recebida é chamada de probabilidade apriori (Hapri) - cria uma incerteza.

De uma forma semelhante a probabilidade de se ter transmitido uma mensagem, depois da


mensagem ter sido recebida é designada por probabilidade aposterior (Hapost), daqui a
entropia é vista como uma certeza. Em outras palavras há um ganho na quantidade de informação.

I1  Hapri  H apost ; H apost = 0 1.19)


n
I i  H appriori   pai  log 2 pai  ( 1.20)
i 1

1.10 Valor Médio da Quantidade de Informação

A Teoria de Informação tem como função de traduzir em número um conceito subjectivo que nós
conhecemos. Na realidade a mesma informação pode tomar valores diferentes consoante a pessoa
a quem é transmitida, tornando-se por consequência difícil atribuir um valor absoluto.

Suponhamos então que nos é dada uma informação, dizendo que no dia 25 de Dezembro está a
chover em Luanda. Essa informação, pouco desperta a nossa atenção, uma vez que é natural que
em Luanda chova no dia 25 de Dezembro. Probabilisticamente, podemos então dizer que é grande
a probabilidade de isto acontecer (chova em Luanda no dia 25 de Dezembro).

Se por outro lado no dia 25 de Dezembro estão 55°C á sombra ou (-60°C), já a informação se
reveste de grande valor ( maior impacto) dado que é muito pequena a probabilidade de isto
acontecer , e portanto cria uma necessidade de explicar o motivo de tal afastamento do normal.
Ficamos assim, já com a ideia de que o conceito de informação associada a um eterminado
acontecimento está matematicamente ligado com o da probabilidade de ocorrência.

1.11 Simbologia e Probabilidade

A probabilidade de ocorrência de um acontecimento é representada pela letra “P”.

O cálculo das probabilidades tem por fim o estudo dos fenómenos aleatórios.

Fenómeno aleatório. Consideremos uma prova ou experiência P e sejam P1, P2, P3, …, Pn os
resultados possíveis da realização dessa prova. Como não é viável saber de antemão qual dos
resultados possíveis, se realiza, diz-se que a prova P tem um resultado que depende do acaso. Trata-
se assim de um fenómeno aleatório ou casual.

Ex: Ao fazer-se lançamento de um dado é igualmente possível que saia a face 1 ou 2 ou 3 ou 4 ou


5 ou 6, dá-se o nome “x” de uma variável aleatória.

1.1.2 Conceito de Probabilidade

A probabilidade de realização de um acontecimento é o quociente entre o nº de casos favoráveis à


realização desse acontecimento, e o nº de casos possíveis desse mesmo acontecimento.

Sendo: 𝑓 − 𝑁ú𝑚𝑒𝑟𝑜𝑠 𝑓𝑎𝑣𝑜𝑟á𝑣𝑒𝑖𝑠

𝑛 − 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑠𝑖𝑣𝑒𝑖𝑠


𝑓
A probabilidade P é dada por: 𝑃 = 𝑛

Ex: Considere o lançamento de um dado e determine a probabilidade de que:


1) Saia a face 4;
2) Saia a face 2 ou 3
3) Saia uma face impar
4) Saia um múltiplo de 2 ou 5

Resolução

No lançamento de um dado, 6 casos igualmente possíveis, n = 6.

1) Saia a face 4

O acontecimento é saída de 4, um caso favorável entre os seis possíveis (f = 1). Assim,

𝑓 1
𝑃= =
𝑛 6
2) Saida das faces 2 e 3

Há dois casos favoráveis à realização do acontecimento (f = 2). Assim,

𝑓 2 1
𝑃= = =
𝑛 6 3
3) Saida de uma face impar, isto é, saída de 1 ou 3

Três casos favoráveis à realização do acontecimento (f = 3). Assim,

𝑓 3 1
𝑃= = =
𝑛 6 2
4) Saida de um múltiplo de 2 ou 5

Dentro dos seis casos possíveis, os múltiplos de 2, são (2, 4 ou 6) e o múltiplo de 5 é o próprio
5. Temos assim 4 casos favoráveis à realização do acontecimento (f = 4), logo

𝑓 4 2
𝑃= = =
𝑛 6 3

1.13 Axiomas das Probabilidades

1. A probabilidade de que se realize um determinado acontecimento, é um número real não


negativo.

𝑃(𝐴) ≥ 0
2. A probabilidade de que se realize um determinado acontecimento, é um número real não
negativo, e igual ou menor do que a unidade:
0 ≤ 𝑃(𝐴) ≤ 1
3. A probabilidade de um acontecimento impossível é igual a zero. Como vimos no exemplo.
Isto é, o conjunto não possui qualquer elemento, como se sabe representa-se esse conjunto
por ∅ (Conjunto vazio):
𝑃(∅) = 0

4. Se, A e B são acontecimentos incompatíveis, a probabilidade de que se realize o


acontecimento A, ou o acontecimento B, é igual a soma das probabilidades:
𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
5. A probabilidade de realização de um acontecimento certo é igual a unidade:
𝑃(𝐸) = 1
6. A probabilidade do acontecimento contrário de A é a diferença para a unidade da
probabilidade de A.
Demonstração:
Seja, 𝐴̅ o acontecimento contrario de A, 𝐴 ∪ 𝐴̅ = 𝐸
A e 𝐴̅ – são acontecimentos incompatíveis
𝑃(𝐴 ∪ 𝐴̅) = 𝑃(𝐸) → 𝑃(𝐴) + 𝑃(𝐴̅) = 1
𝑃(𝐴̅) = 1 − 𝑃(𝐴)

1.14 Teorema Soma das Probabilidades

O teorema da soma das probabilidades e formulada da seguinte maneira:

A probabilidade soma de dois acontecimentos incompatíveis é igual a soma ou probabilidade soma


destes acontecimentos:

𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) (1.21)

Demonstremos o teorema soma das probabilidades para exames de situações. Suponhamos que os
possíveis resultados de uma experiência culmina em um conjunto de situações, que são
representados em forma de “n” pontos:

Suponhamos, que destas situações “m” são situações bem sucedidas de A, e k – de B. então
𝑚 𝑘
𝑃(𝐴) = 𝑛 ; 𝑃(𝐵) = 𝑛.

Como os acontecimentos A e B são incompatíveis, então nenhuma das situações é bem sucedida
e, A e B em conjunto. Consequentemente, os acontecimentos A + B são compatíveis 𝑚 + 𝑛 e
𝑚+𝑛
𝑃(𝐴 + 𝐵) =
𝑛
Estes resultados podem ser postos na fórmula (1) e o teorema é demonstrado.

Representemos o teorema generalizado da soma de três acontecimentos. Designemos D como


sendo os acontecimentos P(A + B) e adicionemos na soma mais um acontecimento C. assim
𝑃(𝐴 + 𝐵 + 𝐶) = 𝑃(𝐷 + 𝐶) = 𝑃(𝐷) + 𝑃(𝐶) = 𝑃(𝐴 + 𝐵) + 𝑃(𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶)

Este teorema cumpre-se : 𝑛 + 1

A1, A2, …, An+1

Representemos

A1 + A2 + … + An = C.

Teremos:

𝑃(𝐴1 + 𝐴2 + ⋯ + 𝐴𝑛 + 𝐴𝑛+1 ) = 𝑃(𝐶) + 𝑃(𝐴𝑛+1 )

Para n acontecimentos, demonstremos o teorema

𝑃(𝐶) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐴𝑛 )

Daqui, temos

𝑃(𝐴1 + 𝐴2 + ⋯ + 𝐴𝑛 + 𝐴𝑛+1 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐴𝑛 ) + 𝐴𝑛+1

Neste caso, o teorema da soma de probabilidade aplicado a qualquer número de acontecimentos


incompatíveis será:

𝑛 𝑛
(1.22)
𝑃 (∑ 𝐴𝑖 ) = ∑ 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1

Consequência: Se os acontecimentos A1, A2, …, An formam grupo completo de acontecimentos


incompatíveis, então a soma destas probabilidades é igual a “1”.

∑𝑛𝑖=1 𝑃(𝐴𝑖 ) = 1 Demonstrando:

Ou P(A1 + A2 + … + An) = 1.

Tal como A1, A2, …, An - São acontecimentos incompatíveis, então empregamos o teorema da das
probabilidades
𝑛

𝑃(𝐴1 + 𝐴2 + ⋯ + 𝐴𝑛 ) = 𝑃(𝐴1 ) + 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐴𝑛 ) = ∑ 𝑃(𝐴𝑖 ) = 1


𝑖=1

Onde, ∑𝑛𝑖=1 𝑃(𝐴𝑖 ) = 1

Antes de nós aplicarmos a 2ª consequência do teorema da soma das probabilidades, determinemos


a noção de “acontecimentos opostos”.

Def: Os acontecimentos opostos são 2 (dois) acontecimentos incompatíveis que formam grupo
completo.
Def1: O acontecimento é oposto ao acontecimento A, adminte-se representar por 𝐴̅.

Consequência nº 2: Soma de probabilidade de dois acontecimentos opostos é igual a “1”:

𝑃(𝐴) + 𝑃(𝐴̅) = 1

Esta consequência é um caso especial da consequência nº 1. Ela está representada aqui devido da
sua importância e o seu uso nas questões práticas do cálculo de probabilidades.

Como já demonstramos, o teorema da soma de probabilidade de expressão (1) só é valida para


acontecimentos incompatíveis. No caso quando os acontecimentos A e B são compatível é expressa
pela seguinte fórmula:

𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵) (1.23)

Pela validez da fórmula (3) podemos ver a fig. 1.1

Para três acontecimentos. A probabilidade soma destes três acontecimentos compatíveis calcula-
se pela seguinte expressão:

𝑃(𝐴 + 𝐵 + 𝐶) = 𝑃(𝐴) + 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐴𝐵) − 𝑃(𝐴𝐶) − 𝑃(𝐵𝐶) + 𝑃(𝐴𝐵𝐶)

Duma forma análoga podemos escrever para multiplicação dos acontecimentos.

𝑃(𝐴𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 + 𝐵) (1.24)

Da fig. 1.2, podemos ver que:

𝑃(𝐴𝐵𝐶) = 𝑃(𝐴)𝑃(𝐵)𝑃(𝐶) − 𝑃(𝐴 + 𝐵) − 𝑃(𝐴 + 𝐶) − 𝑃(𝐵 + 𝐶) + 𝑃(𝐴 + 𝐵 + 𝐶) (1.25)

1.15 Multiplicação de Probabilidades

Antes de introduzirmos o teorema da multiplicação de probabilidades, vamos aplicar primeiro a


noção de acontecimentos “independentes” e “dependentes”.
Def: O acontecimento A é chamado de independente ao acontecimento B, se a probabilidade de
ocorrência A não depende S e o acontecimento B ocorreu ou não.

Def: O acontecimento A é chamado dependente do acontecimento B, se a probabilidade de


ocorrência de A muda em dependência de que ocorreu o acontecimento B ou não.

1.15.1 Probabilidade Condicional


A probabilidade do acontecimento A calculada com a condição de que teve lugar outro
acontecimento B, chama-se “Probabilidade condicional” do acontecimento A e é representada

𝑃(𝐴⁄𝐵 )

A condição de ocorrência de um acontecimento independente A do acontecimento B pode ser


escrito da seguinte forma:

𝑃(𝐴⁄𝐵 ) = 𝑃(𝐴)

A condição de ocorrência de um acontecimento dependente é:

𝑃(𝐴⁄𝐵 ) ≠ 𝑃(𝐴)

Chegamos a formulação do teorema de multiplicação das probabilidades.

O teorema de multiplicação de probabilidades formula-se da seguinte maneira:

A multiplicação de probabilidade de dois acontecimentos é igual a multiplicação das


probabilidades de um deles na probabilidade condicional do outro, calculado pela condição de que,
o primeiro teve lugar:

𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵⁄𝐴) (1.26)

Consequência nº 1: Se o acontecimento A não depende do acontecimento B, então e


acontecimento B não depende do acontecimento A.

Demonstração: É dado, que o acontecimento A não depende do acontecimento B. isto é

𝑃(𝐴) = 𝑃(𝐴⁄𝐵 ) (1.27)

Podemos demonstrar que a consequência nº 1, vem do teorema da multiplicação das


probabilidades.

Pode-se demonstrar, que o acontecimento B não depende de A

𝑃(𝐵) = 𝑃(𝐵⁄𝐴)

Ao demonstrar podemos supor que 𝑃(𝐴) ≠ 0. Escrevemos o teorema da multiplicação das


probabilidades em duas formas:
𝑃(𝐴𝐵)
𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵⁄𝐴) ou 𝑃(𝐵⁄𝐴) = 𝑃𝐴
𝑃(𝐴𝐵)
𝑃(𝐴𝐵) = 𝑃(𝐵)𝑃(𝐴⁄𝐵 ) ou 𝑃(𝐴⁄𝐵 ) = 𝑃𝐵

Daqui,

𝑃(𝐴)𝑃(𝐵⁄𝐴) = 𝑃(𝐵)𝑃(𝐴⁄𝐵 ) ou de acordo com a condição (1.27).

𝑃(𝐴)𝑃(𝐵⁄𝐴) = 𝑃(𝐵)𝑃(𝐴) (1.28)

Dividimos ambas as partes da igualdade (1.28) em P(A). Obtemos:

𝑃(𝐵⁄𝐴) = 𝑃(𝐵)

Da consequência nº 1, deriva que a dependência e independência dos acontecimentos é sempre


mútua. Na base disto pode dar-se a seguinte definição dos acontecimentos independentes.

Def: Dois acontecimentos são independentes, se a ocorrência de um deles não altera a


probabilidade de ocorrência do outro.

Consequência nº 2: A probabilidade da multiplicação de dois acontecimentos independentes é


igual a multiplicação destes acontecimentos.

A consequência deriva da determinação dos acontecimentos independentes.

O teorema da multiplicação dos acontecimentos pode ser generalizado no caso do número de


acontecimentos arbitrários ou espontâneo (aleatório).

Neste contexto a multiplicação de alguns acontecimentos é igual a multiplicação das


probabilidades destes acontecimentos, sendo a probabilidade de cada acontecimento é calculada
em função de que todos tiveram lugar.

𝑃(𝐴1 𝐴2 … 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 ⁄𝐴1 )𝑃(𝐴3 ⁄𝐴1 𝐴2 ) … 𝑃(𝐴𝑛 ⁄𝐴1 𝐴2 … 𝐴𝑛 ) (1.29)

𝑃(𝐴1 𝐴2 … 𝐴𝑛 ) = 𝑃(𝐴1 )𝑃(𝐴2 ) … 𝑃(𝐴𝑛 ) (1.30)

Portanto a multiplicação das probabilidades de acontecimentos independentes é igual a


multiplicação das probabilidades dos acontecimentos.

Usando o sinal de multiplicação, o teorema pode ser escrito em forma de:

(1.31)
𝑛 𝑛

𝑃 (∏ 𝐴𝑖 ) = ∏ 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1

Você também pode gostar