Escolar Documentos
Profissional Documentos
Cultura Documentos
1.1 Introdução
A crescente globalização dos mercados, o aumento dos padrões de exigência dos consumidores e
o forte incremento da concorrência, trouxeram novos problemas ás empresas. Neste ambiente
complexo, turbolento e em constante mutação, a informação surge como recurso vital á
sobrevivência das organizações, permitindo minimizar a incerteza associada á tomada de decisão.
A informação está altetrar inclusivamente a estrutura da própria concorrência e a competitividade
das organizações, sendo considerada uma arma estratégica para a obtenção de vantagens
competitivas. Neste contexto os sistemas SI/TI assumem um papel central, criando, memorizando,
tratando, e transmitindo informação em tempo oportuno, de modo a minimizar o erro na tomada
de decisão. A informação e os SI/TI, surgem intimamente relacionados com o desenvolvimento
quotidiano da actividade organizacional. A introdução de sistemas e tecnologias de informação nas
organizações, veio revolucionar o processo de desenvolvimento técnico e científico que é
acompanhado com o aumento intensivo do volume de informação para gerir as indústrias, os
transportes, a agricultura e outras áreas de economia nacional. A titulo de exemplo o aumento do
volume de informação estabelece uma ligação estreita com funcionamento da maioria das
empresas modernas.
O desenvolvimento com sucesso desta teoria deve-s alargamente ao trabalho de P. Hartley, Claud
Shannon e Nyguist, o qual forma parte de um campo mais vasto da teoria de comunicação. Embora
neste capítulo se pretende discutir apenas a base da teoria de informação, mas não é possível
qualquer discussão sem primeiro definir os termos Comunicação e Informação.
Do ponto de vista humano, a palavra comunicação esta associada a ideia de uma pessoa escrever
para outra pessoa, utilizando recursos a palavras. A informação é transmitida em forma de
mensagens. As mensagens são informações expressas em formas determinadas e servem para
transmitir a informação da fonte ao destinatário. Um exemplo concreto de informação serve (texto
de um telegrama, música, imagem televisiva, comando de controlo do tráfego aéreo, saída de dados
do PC etc., cujo Sinergia de Computadores e Telecomunicações
Multimédia
Computadores
Telecomunicações
A teoria por ele criada ou inventada abriu caminho para o progresso do desenvolvimento dos
métodos de cálculos de engenharia e projecção dos objectos concretos da técnica de informação,
nos cursos especiais das instituições do ensino superior e outras aréas do saber.
6. Sistemas de Investigação.
Para que a comunicação fosse eficiente e pudesse servir ao interesse das tribos e grupos étnicos, o
homem utilizava sinais para as suas comunicações. A evolução continuava e a cada etapa, foram
surgindo novos elementos.
COMUNICAÇÃO
1. Geração de um sinal de mensagem: Voz, musica ou dados de computador conforme foi dit.
anteriormente.
2. Descrição desse sinal de mensagem com alguma precisão, por meio de um conjunto de de
simbolos electricos, auditivos ou vocais.
3. Codificação desses simbolos em uma forma apropriada á transmissão por um meio fisico de
interesse.
6. Recriação do sinal de mensagem original, com uma degradação de qualidade provocada por
inprefecções do sistema (condições de propagação).
Actualmente, a comunicação entrou em nossa vida cotidiana de tantas formas diferentes que é
muito fácil a diversidade de suas aplicações passar desprecibida. Os telefones em nossas mãos, os
rádios e televisores em nossas salas, os terminais de computador com acesso à Internet em nossos
escritórios e lares e nossos jornais são capazes de fornecer comunicações rápidas de qualquer parte
do mundo. A comunicação fornece a orientação para navios em alvo no mar, aeronaves em vôos e
fogetes e satélites no espaço. Realmente a lista de aplicações que envolvem a utilização de
comunicações é quase infinita.
É importante recordar, que há muitas outras formas de comunicações que não envolvem
directamente a mente humana em tempo real. Por exemplo, em uma rede de computadores, que
envolve comunicações entre dois ou mais computadores, as decisões humanas podem entrar
somente na definição dos programas e dos comandos para o computador ou na monitorização dos
resultados.
Independemente do processo de comunicação que estiver ser analisado, há três elementos básicos
em cada sistema de comunicação: Transmissor, Suporte de Transmissão e Receptor, conforme
iremos ver na Figura 1.1 .
De todo este processo, para comunicar é necessário transferir informação de um ponto para outro
ou mais objectivamente com a participação de homens e máquinas.
Uma vez que a cadeira se destina ao estudo dos sistemas de telecomunicações, interesse saber por
que forma se liga a teoria de informação com as telecomunicações. De uma forma geral, um
sistema de comunicação tem como objectivo ou finalidade a transmissão de mensagens com
determinado conteúdo informativo, por esta razão, vamos antes de tudo, dispor de um sistema
capaz de transmitir essas mensagens através de um meio qualquer, o que gastará determinado
tempo.
Uma vez que a mensagem contém em si, um certo tempo a ser transmitida, permite-nos definir a
velocidade de transmissão - como sendo a quantidade de informação transmitida em uma unidade
de tempo.
_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
: :
: Fonte de Ruido, :
: Destorção e :
:
Interferência :
: canal de comunicação :
: _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _:
Esquema Estrutural
Para melhor análise e descrição dos métodos da teoria de informação e transmissão de sinais,
vamos dispor de operadores generalizados de controlo e tratamento de sinais no sistema de
comunicação de um sinal simples.
Entretanto à medida que o sinal vai sendo transmitido se propaga ao longo do canal, ele é
distorcido devido a imperfeição do canal. Além disso, ruído e sinais interferentes ( que se originam
de outras fontes ) são acrescentados à saida do canal, o resultado do sinal recebido, corresponde a
uma versão corrompida diferente da original. O receptor tem a tarefa de operar sobre o sinal
recebido a fim de reconstruir uma forma reconhecivel do sinal original para o destinatário ou
usuário. Ele é constituido por auscultador. O suporte de comunicação ou meio de transmissão é
constituido por uma linha telefónica ( Telegrafia, Telex, Fax, Radio Difusão, Teledifusão, HDTV,
Videoconferência Teletex,Videotex, e-mail, Multimedia, comunicação por satelite e Internet ).
No terminal receptor, recebidos os sinais do meio de transmissão, os sinais eléctricos Z(t) são
transformados ou decodificados e chegam ao destinatário em forma de mensagem B(t). Duma ou
outra maneira corresponde a mensagem original A(t).
A perturbação da mensagem em certo ponto é originada pela interferência ξ(t). Por interferência
entende-se toda a influência negativa, que interfere nos sinais recebidos Z (t) e diferem das
transmitidas S(t). O Conjunto transmissor (emissor), receptor, suporte de transmissão e fonte de
ruído, distorção e interferência formam - o canal de comunicação. Enquanto que, a fonte de
informação, o destinatário de informação e canal de comunicação formam - o chamado Sistema
de Comunicação de um Canal Simples (SCCS).
A mensagem A(t) em forma de uma mensagem telegráfica ou telefónica entra no emissor, o qual
desempenha a função do operador de codificação sequencial de letras e símbolos que são
transformados em impulsos eléctricos sequencias S(t). O carácter de ξ(t) determina a forma do
código. Consequentemente como resultado do processo codificação, obtemos o sinal eléctrico,
S(t) = K[A(t), s k ]
No suporte de transmissão (linha de transmissão) os sinais são distorcidos pela influência dos
efeitos indesejaveis a comunicação, tais como: ruído, interferência e distorção, que podem ser
representados como,
Conforme podemos observar, para análise e sintese do SCCS é necesssario saber descrever
matematicamente as mensagens, os sinais, a distorção e as diversas operações de transformações
de sinais.
A2(t) B2t)
Fonte Nº 2 Emissor Nº2
S(t) Z(t) Z2(t)
DM2 D2
A3(t)Z8t)
U L U-1
Z3(t) B3(t)
Fonte Nº 3 Emissor Nº3
DM3 D3
Fonte Nº n Zn(t)
Emissor Nº n DMn Dn
Fig. 1.4 Esquema estrutural de um sistema de comunicação de multicanal
Os sinais dos canais 𝑆𝑖 (𝑡) chegam no dispositivo de compactação da linha de comunicação, onde
de acordo com o operador de compactação U(Multiplexador) e portadora “x” formam o Sistema
de Comunicação Multicanal (SCMC)
Na linha de transmissão S(t) há uma acção recíproca com o ruído ou interferência 𝜉(𝑡).
Como resultado o sinal de saída no meio de transmissão Z(𝑡) = 𝐿[𝑆(𝑡), 𝜉(𝑡)]. Do sinal Z(t) o
dispositivo divisor de sinais de canais em concordância com o operador divisor U-1
(Demultiplexador) separa os sinais dos canais obtidos 𝑍𝑖 (𝑡).
Na demodulação DMi e decodificação Dki do sinal Zi(t) do receptor permite receber a copia do sinal
Bi(t).
𝐵𝑖 (𝑡) = {𝐷𝑥𝑖 [𝐷𝑀𝑖 [𝑈 −1 [𝐿[𝑈][𝑀𝑖 [𝐾𝑖 [𝐴𝑖 (𝑡), 𝑆𝑥𝑖 ], 𝑥𝑖], 𝑥], 𝜉(𝑡)]]]} (1.5)
Entretanto a teoria de comunicação digital se esforça para encontrar um conjunto finito de formas
de onda que seja estreitamente coincidente com as caracteristicas do canal e que , portanto, seja
mais tolerante com as insuficiências. Com isto estabelecem –se comunicações confiáveis pelo
canal. Na seleccção de boas formas de comunicação digital através de um canal ruidoso, o projecto
é influenciado unicamente pelas caracteristicas de canal.
No entanto, assim que o conjunto apropriado de formas de ondas para transmissão pelo canal for
seleccionado, a informação –fonte poderá ser codificada nas formas de onda do canal, e a
transmissão eficiente de informação da fonte até destinatário, será então garantida. Em suma, o
uso de comunicações digitais proporciona a capacidade para que a transmissão seja tanto eficiente
quanto confiável.
Tx
Fonte- Saida que pode ser analógica ou digital (caracteres, sinal continuo, dados binários
etc);
RX
A partir dessa descrição, podemos concluir que o sistema de comunicação digital apresenta
maiores vantagens tais como é:
1.Fala
2. Música,
3. Imagens
4. Dados de computador
Uma fonte de informação pode ser caracterizada em termos de sinal que carrega a informação.
Um sinal é definido como uma função do tempo de valor único na qual o tempo desempenha o
papel da variável independente; em cada instante de tempo, a função tem único valor.
O ponto mais importante a ser observado aqui é que o espectro de potência (distribuição da
potência média ao longo da frequência) da fala se aproxima de zero para uma frequência zero e
atinge um pico nas proximidades de algumas centenas hertz. Para colocarmos as coisas em uma
forma perspectiva, entretanto, temos que considerar que o mecanismo de audição é muito
sensível à frequência. Além disso, o tipo de sistema de comunicação que está em consideração
tem uma importante participação na banda de frequências consideradas "essenciais" para o
processo de comunicação. Por exemplo, como mencionamos anteriormente, uma largura de
banda, de 300 a 3100Hz é considerada adequada para comunicações telefónicas comerciais.
Assim como um sinal de fala, um sinal musical é bipolar. Entretanto, um sinal musical difere do
sinal de fala, porque o seu espectro ocupa uma largura de banda muito mais ampla que pode se
estender até cerca de 15KHz. Consequentemente os sinais musicais demandam uma largura de
banda do canal muito mais ampla do que os sinais de fala para a sua transmissão.
3. Imagem - A terceira fonte de informação, imagens, depende do sistema visual humano para
sua percepção. A imagem pode ser dinâmica como na televisão, ou estática, como em um fax.
2. Entropia
3. Capacidade de um canal
5. Rendimento da fonte
m - Volume da letra A .
Então ao escolhermos a forma como vamos medir a quantidade de informação, é necessário ter
em consideração os seguintes aspectos.
1) A mensagem com maior comprimento como lei contém maior quantidade de informação;
2) Maior quantidade de informação contém naquelas mensagens que estão formadas por simbolos
do alfabeto e possuem maior volume ;
3) A formação de uma mensagem tem caracter aleatório ou casual ( os simbolos aparecem com
distintas probabilidades de ocorrência).
O numéro total das distintas mensagens com comprimento ´´n `` tem a seguinte expressão :
N0 = mn (1.7)
Este numéro poderia ser utilizado como uma das caracteristicas fonte de mensagens, mas ele não
é comodo devido ao grau de dependência do N0 ao ´n `.
Conforme podemos verificar a expressão do Hartley não reflecte nenhum carácter aleatório ou
casual da informação.
1 1
A probabilidade de ocorrência dos simbolos p = , consequentemente, m= .
m p
A base mais usada é n = 2, chamada base binária podendo desta forma descrever -se
n =2
0
Obtemos assim, uma expressão ou uma relação que já estabelece a ligação entre a quantidade de
informação que leva um símbolo com a probabilidade de ocorrência deste símbolo.
Nas mensagens reais os símbolos aparecem com distintas probabilidades, por exemplo o símbolo
´´ a i `´ aparece com a probabilidade P( a i ), a ϵ A.
I i = - log 2 pai
Conclusões importantes:
O conceito da Entropia foi desenvolvido pelo engenheiro e pesquisador francês Nicholas Sadi
Carnot. A pesquisa consistia sobre a transformação da energia mecânica em térmica e vice-versa.
O Rudolf Clausius foi o primeiro a usar o termo Entropia em 1865. Ele propos uma ideia de que
uma reacção química somente seria considerada espontânea se nela houvesse um aumento na
desordem do sistema racional ou seja, quanto maior a desordem dos átomos presentes em uma
reação, mais espontânea ela é.
A desordem não pode ser entendida com anarquia (bugunça), mas sim como forma de organização
das moléculas. Uma forma de entender a desordem das moléculas num sistema é o gelo que derrete.
As moléculas no estado sólido estão próximas e têm menor possibilidade de movimentação,
portanto elas estão mais organizadas. No entanto, na mudança para o estado líquido, as moleculas
irão ganhar cada vez mais liberdade para se movimentar e com isso se tornarão cada mais
desorganizadas. Essas mudanças de estado físico estão relacionadas com a energia na forma de
calor.
Portanto a quantidade de informação média (entropia), que leva um símbolo fonte de mensagens
será,
m m
H(A)= Pai I ai Pai log 2 Pai [bits/segundo], (1.9)
i 1 i 1
m
Sabemos que: Pa 1
i 1
i
0 pai 1
Hmax=-mp Log 2 p = - m
1 1
log 2 = Log 2 m (1.10)
m m
Para existência de uma ligação estatística entre os símbolos de uma mensagem, introduziu-se o
termo entropia condicional.
H1 H 2 H2
r= 1 (1.12)
H1 Log 2 m
Onde, H1 - quantidade de informação máxima, que pode ser transmitida ou transferida por um
símbolo; H 2 - quantidade de informação, que leva um símbolo nas mensagens reais.
A unidade de medida da quantidade de informação mais usada é bits ( Binary Digity ), abreviatura
em inglês, que não é mais que a quantidade de informação que transfere um símbolo fonte de
mensagens discretas.
A quantidade da informação promédia que produz a fonte por unidade de tempo chama-se
rendimento da fonte é dada pela seguinte expressão.
H
H ´ ( bits /s) (1.13)
t
1.6 A velociadade promédia com que uma fonte transfere a informação está pela
R=W H (bits/s) ou
Donde: W- quantidade de simbolos que produz a fonte por uma unidade de tempo;
Se uma imagem contiver mais símbolos do que necessário para transportar a informação, tal
mensagem diz-se ser redundante. Toda a mensagem que produz símbolos que dependem uns dos
outros tem redundância, visto que a escolha de um símbolo depende de outro.
A língua inglesa tem uma redundância considerável, pois a utilização de certas letras dependem da
escolha uma outra letra anterior; num telegrama, certas letras podem omitir – se sem destruir a
mensagem verdadeira. Noutros casos, tal como o código Hamming utiliza-se a redundância
controlada para corrigir erros.
Se a informação real da fonte (entropia) for H1 e H max representar o seu máximo valor possível,
e entropia relativa ou
H
Eficiência é e a redundância neste caso é definida:
H max
H
Redundância = 1 – , (1.15)
H max
Pode mostrar –se que H para grupos de oito letras para a língua inglesa é de cerca de 2
Bits/símbolos e que para 26 letras do alfabeto, mais um espaço se obterá.
Nyquist, provou que se um sinal arbitario é transmitido através de um canal de largura de banda
W (Hz), sendo o sinal resultante da filtragem pode ser completamente reconstruído pelo receptor
através de amostragem do sinal transmitido, o qual a frequência é de 2W por segundo. Nyquist
demostrou que esta é a frequência mínima de amostragem necessária e ao mesmo tempo amostrar
este sinal, a frequência maior que 2W é inútil, já que as frequências componentes a serem
recuperadas por tal amostragem, já não existem no sinal, devido a filtragem do canal.
Para sinais digitais, isto é correspondente a dizer que o nível de transmissão de amplitude para
outro sinal que duas (2) vezes por segundo.
A expressão de Nyguist é valida para canais sem ruído, o que na realidade não ocorre.
Vinte (20) anos depois de Nyquist, Shannon provou matematicamente que um canal tem uma
capacidade limitada máxima. A parte mais importante do seu trabalho, discute canais na presença
do ruído térmico. O principal resultado de Shannon, afirma que a capacidade de informação do
canal ``C`` de banda limitada cuja largura de banda B (Hz) é:
S
C max B log 2 (1 )
N (1.17)
S
Onde B = W - Largura de banda; Re lação Sinal / ruído
N
Vejamos um exemplo numérico importante, o caso das linhas telefónicas analógicas. Elas são
construídas para passar voz humana de frequência até 3400Hz, consequentemente ,
S
100
a) Para a relação N , teremos C maax 3400 log 2 (1 100) 3400 log 101 =
= 22600bits/seg
S
1000
b) Para relação N C maax 3400 log 2 (1 1000) 3400 log 1001 =
= 33900bits/seg.
η= R/C (1.18)
com uma medida da eficiência do sistema de comunicação digital em estudo. Quanto mais próximo
η estiver da unidade, mais eficiente será o sistema.
2. A equação 1.11 constitui como base para o comprimisso entre a largura de banda de canal B
e SNR(relação sinal/ruído) recebido. Em especial, para uma determindada taxa de
transmissão R, nós podemos reduzir a SNR recebida, aumentando a largura de banda do canal
B; dai a motivação para utilizarmos um esquema de modulação de banda larga ( Modulação
por Codificação de Pulsos (PCM)) para melhor desempenho sob ruído.
3. A equação 1.11 constitui uma estrutura ideal para compararmos o desempenho sob ruído de
um esquema de modulação em relação a outro.
Já vimos que o conceito da informação dada por um determinado acontecimento está dado (ligado)
intimamente com a probabilidade de ocorrência dos símbolos.
É verdade que se a informação fosse conhecida antes ou apriori, então não haveria necessidades
de transmiti-lá. Por isso, a informação ou mensagem tem valor importância, quando o seu estado
não é conhecido apriori. Entretanto este grau de incerteza de um estado casual ou aleatório na teoria
de informação é expressa através de uma característica conhecida por entropia.
A Teoria de Informação tem como função de traduzir em número um conceito subjectivo que nós
conhecemos. Na realidade a mesma informação pode tomar valores diferentes consoante a pessoa
a quem é transmitida, tornando-se por consequência difícil atribuir um valor absoluto.
Suponhamos então que nos é dada uma informação, dizendo que no dia 25 de Dezembro está a
chover em Luanda. Essa informação, pouco desperta a nossa atenção, uma vez que é natural que
em Luanda chova no dia 25 de Dezembro. Probabilisticamente, podemos então dizer que é grande
a probabilidade de isto acontecer (chova em Luanda no dia 25 de Dezembro).
Se por outro lado no dia 25 de Dezembro estão 55°C á sombra ou (-60°C), já a informação se
reveste de grande valor ( maior impacto) dado que é muito pequena a probabilidade de isto
acontecer , e portanto cria uma necessidade de explicar o motivo de tal afastamento do normal.
Ficamos assim, já com a ideia de que o conceito de informação associada a um eterminado
acontecimento está matematicamente ligado com o da probabilidade de ocorrência.
O cálculo das probabilidades tem por fim o estudo dos fenómenos aleatórios.
Fenómeno aleatório. Consideremos uma prova ou experiência P e sejam P1, P2, P3, …, Pn os
resultados possíveis da realização dessa prova. Como não é viável saber de antemão qual dos
resultados possíveis, se realiza, diz-se que a prova P tem um resultado que depende do acaso. Trata-
se assim de um fenómeno aleatório ou casual.
Resolução
1) Saia a face 4
𝑓 1
𝑃= =
𝑛 6
2) Saida das faces 2 e 3
𝑓 2 1
𝑃= = =
𝑛 6 3
3) Saida de uma face impar, isto é, saída de 1 ou 3
𝑓 3 1
𝑃= = =
𝑛 6 2
4) Saida de um múltiplo de 2 ou 5
Dentro dos seis casos possíveis, os múltiplos de 2, são (2, 4 ou 6) e o múltiplo de 5 é o próprio
5. Temos assim 4 casos favoráveis à realização do acontecimento (f = 4), logo
𝑓 4 2
𝑃= = =
𝑛 6 3
𝑃(𝐴) ≥ 0
2. A probabilidade de que se realize um determinado acontecimento, é um número real não
negativo, e igual ou menor do que a unidade:
0 ≤ 𝑃(𝐴) ≤ 1
3. A probabilidade de um acontecimento impossível é igual a zero. Como vimos no exemplo.
Isto é, o conjunto não possui qualquer elemento, como se sabe representa-se esse conjunto
por ∅ (Conjunto vazio):
𝑃(∅) = 0
Demonstremos o teorema soma das probabilidades para exames de situações. Suponhamos que os
possíveis resultados de uma experiência culmina em um conjunto de situações, que são
representados em forma de “n” pontos:
Suponhamos, que destas situações “m” são situações bem sucedidas de A, e k – de B. então
𝑚 𝑘
𝑃(𝐴) = 𝑛 ; 𝑃(𝐵) = 𝑛.
Como os acontecimentos A e B são incompatíveis, então nenhuma das situações é bem sucedida
e, A e B em conjunto. Consequentemente, os acontecimentos A + B são compatíveis 𝑚 + 𝑛 e
𝑚+𝑛
𝑃(𝐴 + 𝐵) =
𝑛
Estes resultados podem ser postos na fórmula (1) e o teorema é demonstrado.
Representemos
A1 + A2 + … + An = C.
Teremos:
Daqui, temos
𝑛 𝑛
(1.22)
𝑃 (∑ 𝐴𝑖 ) = ∑ 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1
Ou P(A1 + A2 + … + An) = 1.
Tal como A1, A2, …, An - São acontecimentos incompatíveis, então empregamos o teorema da das
probabilidades
𝑛
Def: Os acontecimentos opostos são 2 (dois) acontecimentos incompatíveis que formam grupo
completo.
Def1: O acontecimento é oposto ao acontecimento A, adminte-se representar por 𝐴̅.
𝑃(𝐴) + 𝑃(𝐴̅) = 1
Esta consequência é um caso especial da consequência nº 1. Ela está representada aqui devido da
sua importância e o seu uso nas questões práticas do cálculo de probabilidades.
Para três acontecimentos. A probabilidade soma destes três acontecimentos compatíveis calcula-
se pela seguinte expressão:
𝑃(𝐴⁄𝐵 )
𝑃(𝐴⁄𝐵 ) = 𝑃(𝐴)
𝑃(𝐴⁄𝐵 ) ≠ 𝑃(𝐴)
𝑃(𝐵) = 𝑃(𝐵⁄𝐴)
Daqui,
𝑃(𝐵⁄𝐴) = 𝑃(𝐵)
(1.31)
𝑛 𝑛
𝑃 (∏ 𝐴𝑖 ) = ∏ 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1