Você está na página 1de 14

Mauro Aldo Mathenguane Cuamba

1.Informação trocada durante cada uma das fases da


comunicação na comutação de circuitos, de datagramas e
de circuitos virtuais e como são trocadas
Comutação de circuitos
Estabelecimento de circuitos:
- antes que os terminais (telefones) comecem a se comunicar, há
a reserva de recurso necessário para essa comunicação, esse recurso é a largura
de banda.
Transferência de voz:
- ocorre depois do estabelecimento de circuito, com a troca de
informações entre a origem e o destino.
Desconexão do circuito: terminada a comunicação, a largura de banda é
liberada em todos os equipamentos de comutação.
Comutação de datagramas
Desta forma, os pacotes, devidamente numerados com número de
sequência pelo emissor, transportam sempre consigo informação relativa ao
endereço do destinatário e do remetente da mensagem. É necessário sempre o
endereço de origem. Ex: endereço IP
Comutação por circuitos virtuais
Antes de se iniciar a tranasmissão dos dados propriamente ditos, tem
lugar uma fase conhecida por “call setup”, em que é definida uma rota ou
caminho (circuito virtual) para os pacotes, ou seja, é estabelecido um caminho
virtual fixo (sem parâmetros fixos, como na comutação de circuitos) e todos os
pacotes seguirão por esse caminho, através de vários nós intermediários até o
destino final. Ex: ATM (comutação de células)
2.Funções da camada de enlace
- Enquadramento de Pacotes:
Ao receber um pacote a camada de enlace precisa adicionar essa
informação a esse pacote. Essa informação pode ser um cabeçalho e/ou trailer
(cabeçalho adicionado ao início do pacote; trailer adicionado ao fim do pacote).
Exemplos de campos adicionados ao pacote – FCS (Frame Check
Sequence); Endereço de Origem; Endereço de Destino.
Com adição aos campos temos o Quadro.

- Acesso ao enlace:
Conhecido como Medium Access Control Protocol (MAC). Define as
regras para escrita e leitura de dados no meio físico (cabo, fibra, ondas de rádio). Pode
ser muito simples para meio onde há apenas um transmissor e um receptor. No modelo
Ethernet todos os nós podem escrever e ler do meio ( Problema do aceso múltiplo; Único
enlace de Broadcast para todos os nós)

- Entrega confiável:
Camada de enlace pode garantir a entrega dos quadros entre nós
adjacentes. Exige que para cada pacote transmitido uma confirmação de recebimento
seja recebida. Exige que se numere os quadros de modo a detectar quadros fora de
sequência. Mais comum em maios pouco confiáveis ( Redes sem fio ).

- Controle de Fluxo:
Busca garantir que um nó transmissor não afogue um nó receptor.
Quando um nó consegue enviar mais pacotes que o destino consegue receber
acontecem perdas de pacote. O mecanismo mais comum é pedir autorização ao
transmissor para enviar quadros. O transmissor autoriza o envio de n quadros.

- Detecção de erros:
Usando os campos de FCS (Frame Check Sequence) a camada de enlace
pode detectar erros. O Campo FCS é calculado usando um algoritmo padrão (Ex.: CRC,
bit de paridade etc). Ao chegar no próximo nó a camada de enlace verifica o conteúdo
com o campo FCS. Algoritmos não detectam 100% dos erros!

- Correção de erros:
Ao detectar um erro a camada de enlace descartará o quadro ou tentará
corrigi-lo. É possível realizar a correção do erro se houver informação suficiente no
campo FCS. Para corrigir um quadro a atividade mais comum é solicitar a retransmissão
deste.
3.Protocolos e Primitivas
Protocolos:
Também conhecidos como Protocolos de Internet, os Protocolos de
Rede são regras que permitem a comunicação entre computadores conectados na
internet. Neste artigo, você aprender mais sobre os principais protocolos de rede, como
funcionam e os tipos de cada um.
É assim que qualquer usuário consegue enviar e receber mensagens
instantâneas, baixar e subir arquivos no seu site e acessar qualquer tipo de domínio na
web.
Tipos de Protocolos:
Os tipos de protocolos de rede são divididos de acordo com a sua
natureza do serviço disponibilizado. E também em qual camada de profundidade estão
localizados na rede de internet.
Essas camadas, junto com alguns exemplos de protocolos, são:

• Camada de Aplicação: WWW (navegação web), HTTP, SMPT (e-mails), FTP


(transferência de arquivos) e SSH. Usada pelos programas para enviar e receber
dados de outros programas pela própria internet.
• Camada de Transporte: TCP, UDP e SCTP. Para transporte de arquivos recebidos
da camada anterior. Aqui acontece a organização e a transformação deles em
pacotes menores, que serão enviados à rede.
• Camada de Rede: IP (IPv4 e IPv6). Os arquivos empacotados na camada anterior
são recebidos e anexados ao IP da máquina que envia e que recebe os dados.
Daqui, são enviados pela internet usando a próxima camada.
• Camada de Estrutura Física: Ethernet e Modem. É a camada que executa o
recebimento ou envio de arquivos na web.
Abaixo, estão os tipos de protocolos de internet explicados mais detalhadamente.

1. Protocolo TCP/IP
TCP/IP é o acrônimo de dois protocolos combinados: o TCP (Transmission
Control Protocol, que significa Protocolo de Controle de Transmissão) e IP (Internet
Protocol, que significa Protocolo de Internet).
Dentre todos os protocolos de rede, juntos, eles formam a base de envio e recebimento
de dados por toda a internet.
O protocolo TCP/IP surgiu em 1969 nos Estados Unidos durante uma série de pesquisas
militares da ARPANET.
Ele foi criado para permitir a comunicação entre sistemas de computadores de centros
de estudos e organizações militares espalhadas em vários pontos do planeta.
A ideia era oferecer uma troca rápida de mensagens entre computadores conectados a
uma rede inédita. E, nesse meio termo, identificar as melhores rotas entre dois locais,
mas também encontrar rotas alternativas, quando necessárias.
Ou seja, um protocolo que garantisse a conexão mesmo em caso de um cataclisma
nuclear.
O protocolo TCP/IP é, na verdade, um conjunto de protocolos que facilitam a
comunicação entre duas máquinas conectadas à rede.

2. Protocolo HTTP
HTTP é a sigla para Hypertext Transfer Protocol, que significa Protocolo de
Transferência de Hipertexto. Ele é o mais básico e usado para navegação em sites da
internet.
O protocolo HTTP funciona também como uma conexão entre o cliente e o
servidor. Neste caso, o cliente é o navegador que você usa para acessar a internet. E o
servidor é aquele em que um site ou domínio está hospedado na rede.
O navegador envia um pedido de acesso a uma página. Essa requisição acontece quando
colocamos o endereço de algum site no campo de buscas no navegador. É assim que se
acessa qualquer site na rede.

Enquanto isso, o servidor manda uma resposta de permissão de acesso. Com ela,
vêm os arquivos que formam a página que o usuário que acessar. Além, também, das
informações de hipertexto que fazem outras requisições para levar o leitor a outras
páginas através de links.

Se a solicitação vier com algum problema, como o Erro 500, o usuário não
consegue acessar o site.

3. Protocolo HTTPS
HTTPS é a sigla para Hyper Text Transfer Secure, que significa Protocolo de
Transferência de Hipertexto Seguro.
O protocolo HTTPS é e funciona de forma exatamente igual ao HTTP. A diferença
da letra “S” na sigla é uma camada extra de proteção, indicando que sites e domínios
que possuem esse protocolo são seguros para o usuário acessar.
O protocolo HTTPS é muito usado por sites com sistemas de pagamentos que dependem
proteção para assegurar dados, informações de conta e cartão de créditos dos usuários.

Essa proteção é feita por certificação digital, que cria uma criptografia para
impedir que ameaças e ataques na internet tenham acesso indevido às informações dos
usuários.

O HTTPS aparece em um navegador quando o site acessado possui


um Certificado SSL instalado. O SSL cria um canal de proteção entre o cliente e o
servidor, adicionando a letra “S” ao HTTP e reforçando uma camada extra de segurança.

4. Protocolo DHCP
DHCP é o acrônimo para Dynamic Host Configuration Protocol, que significa, em
português adaptado, Protocolo de Configuração Dinâmica de Endereços de Rede. Ele
permite que os computadores consigam um endereço de IP automaticamente.
Por meio de um servidor, o protocolo DHCP é capaz de obter, sem a necessidade de
configuração manual, endereços de IP’s para cada um dos computadores (ou
dispositivos móveis) ligados a uma rede de internet.
Uma vez que uma máquina obtém um endereço de IP, ele fica indisponível para uso
naquele momento. Quando ela é desligada ou desconectada da internet, o endereço de
IP, antes volta a ficar disponível para ser usado por qualquer nova máquina ligada na
conexão.
O protocolo DHCP funciona de três maneiras diferentes. São elas:
• Automática. Um IP é definido automaticamente para uma máquina que se
conecta na. Neste caso, uma quantidade de IP’s é delimitada para ser usada
dentro de uma rede de internet. Qualquer computador que se ligar a ela recebe,
automaticamente, um, destes IP’s definidos.
• Dinâmica. Como o termo sugere, uma máquina que se conecta à rede de internet
recebe um IP dinâmico pelo período em que continuar conectado. Se a máquina
for desligada ou se desconectar da rede, ela perde este IP usado e usa um novo
assim que a conexão for restabelecida.
• Manual. O protocolo DHCP define um IP para uma máquina de acordo com o
valor de MAC (Medium Access Control) da placa de rede em que ela está
conectada. Este IP é único e estático, sendo que este recurso é usado quando é
preciso que um computador tenha um IP fixo.
5. Protocolo FTP
FTP é a sigla para File Transfer Protocol, que significa Protocolo de Transferência de
Arquivos. Ele surgiu antes mesmo do padrão TCP/IP, que é a base das conexões de
internet. E é o modo mais simples de transferir dados entre duas máquinas pela rede.
O protocolo FTP funciona com dois tipos de conexão:
• Cliente. É o computador que faz o pedido de conexão com o servidor para pegar
algum arquivo ou documento dele.
• Servidor. É o computador que recebe o pedido de conexão com o cliente para
fornecer um arquivo ou documento dele.
A conexão do cliente com servidor feita pelo cliente na porta 21 do servidor. Essa
conexão fica aberta durante toda a sessão para permitir os comandos necessários, como
identificação de contas e senhas.
Na transferência de arquivos, a conexão é ativada pela porta 20 do servidor a alguma
porta do cliente previamente estabelecida ou comunicada pelo próprio servidor.
O FTP é muito útil caso o usuário perca o acesso ao painel de controle do seu site
WordPress, por exemplo. Nesta situação, pode usar uma ferramenta de FTP para ajustar
códigos de página, colocar ou apagar arquivos ou resolver qualquer outro problema no
seu site.
DICA: conheça quais ferramentas de FTP você pode usar para transferir arquivos pela
internet com segurança.

6. Protocolo SFTP
SFTP é a sigla para Simples File Transfer Protocol, que significa Protocolo de
Transferência Simples de Arquivos. Ele é, basicamente, o protocolo FTP com uma
camada de proteção a mais aos arquivos transferidos.
O que diferencia o protocolo SFTP do protocolo FTP é que o primeiro utiliza a
tecnologia SSH (Secure Shell) para autenticar e proteger a conexão entre cliente e
servidor.
No protocolo SFTP, a troca de informações não é feita por um canal livre direto, mas por
pacotes SSH. Assim, o usuário define a quantidade de arquivos que quer transferir ao
mesmo tempo em que cria um sistema de senhas para reforçar a segurança do processo.

7. Protocolo SSH
SSH é a sigla para Secure Shell que, em português adaptado, significa Bloqueio
de Segurança. É um dos protocolos específicos de segurança de troca de arquivos entre
cliente e servidor.
O protocolo SSH funciona a partir de uma chave pública, que verifica e autentica a
legitimidade do servidor que o cliente quer acessar (ou vice-versa). Esse acesso é feito
por um login e senha, tornando a conexão entre computadores mais protegida.
Com o SSH, o usuário de internet consegue definir um sistema de proteção para seu site
sem comprometer o desempenho dele. Ele fortifica a segurança do seu projeto ao
mesmo tempo em que trabalha na transferência de arquivos de uma maneira confiável
e estável.
DICA: Sabia que o SSH é o protocolo que permite a conexão criptografada em
uma Hospedagem VPS?
8. Protocolo POP3
POP3 é o acrônimo para Post Office Protocol 3, que significa, excluindo o
número, Protocolo de Correios. Ele é usado para mensagens eletrônicas, ou seja, os
populares e-mails.
O protocolo POP3 funciona como se fosse uma caixa-postal dos Correios. Um servidor
de e-mail recebe e armazena diversas mensagens. Então, o cliente se conecta e se
autentica ao servidor da caixa de correio para poder acessar e ler essas mensagens lá
guardadas.
Com isso, as mensagens armazenadas no servidor são transferidas em sequência para a
máquina do cliente. No final, a conexão é terminada e o cliente pode ler suas mensagens
até mesmo quando estiver offline. Esta é uma das suas grandes características, inclusive.

9. Protocolo SMTP
SMTP é a sigla para Simple Mail Transfer Protocol, que significa Protocolo de
Transferência de Correio Simples. Diferente do POP3, o protocolo SMTP é voltado para
o envio de mensagens eletrônicas (e-mails).
A mensagem sai da máquina do cliente e, depois de ter um ou mais destinatários
determinados, é autenticada e enviada para o servidor. Lá, os destinatários recebem as
mensagens enviadas para o servidor, que são codificadas e recebidas pelo protocolo
POP3.
O protocolo SMTP é eficiente por sua simplicidade, mas também é um pouco limitado.
Ele se baseia somente em texto. Ou seja, para envio de arquivos, pastas ou mídias, é
preciso extensões que convertem esses arquivos no formato de texto.
10. Protocolo IMAP
IMAP é o acrônimo para Internet Message Access Protocol, que
significa Protocolo de Acesso à Mensagem de Internet. Assim como os dois anteriores,
o protocolo IMAP também é voltado para envio e recebimento de e-mails.
Mas, diferentemente deles, o protocolo IMAP permite que o usuário acesse e gerencie
seus arquivos e mensagens diretamente no próprio servidor. Ou seja, não é preciso
esperar que as mensagens enviadas ao servidor cheguem até a máquina do cliente para
mexer nelas.
Essa é uma vantagem bastante útil, pois o usuário não perde tempo e pode adiantar
seus trabalhos diretamente pela internet. Em contrapartida, é preciso estar sempre
conectado à rede e o limite de armazenamento
Alguns dos serviços de e-mail mais populares e que usam o protocolo IMAP como base
são o Gmail, do Google e o Hotmail, da Microsoft.

Primitivas de Serviço
Um serviço é especificado formalmente por um conjunto de
primitivas (operações) disponíveis para que um processo do usuário acesse o serviço.
Essas primitivas informam ao serviço que ele deve executar alguma ação ou relatar uma
ação executada por uma entidade par. Se a pilha de protocolos estiver localizada
no sistema operacional, como ocorre com frequência, as primitivas serão
normalmente chamadas do sistema. Essas chamadas geram uma armadilha para o
modo de núcleo que então devolve o controle da máquina ao sistema operacional para
enviar os pacotes necessários.
O conjunto de primitivas disponíveis depende da natureza do
serviço que está sendo fornecido. As primitivas para um serviço orientado a
conexões são diferentes das que são oferecidas em um serviço sem conexões. Como
um exemplo mínimo das primitivas de serviço que poderiam ser fornecidas para
implementar um fluxo de bytes confiável em um sistema cliente/servidor, considere as
primitivas listadas na Figura 1.17.

FIG 1.17:

Essas primitivas poderiam ser usadas como a seguir. Primeiro, o servidor


executa LISTEN para indicar que está preparado para aceitar conexões de
entrada. Um caminho comum para implementar LISTEN é torná-la uma chamada
de sistema de bloqueio do sistema. Depois de executar a primitiva, o processo
servidor fica bloqueado até surgir uma solicitação de conexão. Em seguida, o
processo cliente executa CONNECT para estabelecer uma conexão com o
servidor. A chamada de CONNECT precisa especificar a quem se conectar; assim,
ela poderia ter um parâmetro fornecendo o endereço do servidor. Em geral, o
sistema operacional envia então um pacote ao par solicitando que ele se
conecte, como mostra o item (1) na Figura 1.18. O processo cliente é suspenso
até haver uma resposta. Quando o pacote chega ao servidor, ele é processado
pelo sistema operacional do servidor. Quando o sistema observa que o pacote
está solicitando uma conexão, ele verifica se existe um ouvinte. Nesse caso, ele
realiza duas ações: desbloqueia o ouvinte e envia de volta uma confirmação (2).
A chegada dessa confirmação libera o cliente. Nesse momento, o cliente e o
servidor estão em execução e têm uma conexão estabelecida entre eles. É
importante notar que a confirmação (2) é gerada pelo próprio código do
protocolo, e não em resposta a uma primitiva no nível do usuário. Se chegar uma
solicitação de conexão e não houver nenhum ouvinte, o resultado será
indefinido. Em alguns sistemas, o pacote pode ser enfileirado por curto período
antes de uma LISTEN.
A analogia óbvia entre esse protocolo e a vida real ocorre quando um
consumidor (cliente) liga para o gerente do serviço de atendimento ao
consumidor de uma empresa. O gerente de serviço inicia a sequência ficando
próximo ao telefone para atendê-lo, caso ele toque. Então, o cliente efetua a
chamada. Quando o gerente levanta o fone do gancho, a conexão é estabelecida.

FIG 1.18:

A próxima etapa é a execução de RECEIVE pelo servidor, a fim de se


preparar para aceitar a primeira solicitação. Normalmente, o servidor faz isso
imediatamente após ser liberado de LISTEN, antes da co nfirmação poder retorn
ar ao cliente. A chamada de RECEIVE bloqueia o servidor.
Depois, o cliente executa SEND para transmitir sua solicitação (3), seguida
pela execução de RECEIVE para receber a resposta. A chegada do pacote de
solicitação à máquina servidora desbloqueia o processo servidor, para que ele
possa processar a solicitação. Depois de terminar o trabalho, ele utiliza SEND
para enviar a resposta ao cliente (4). A chegada desse pacote desbloqueia o
cliente, que pode agora examinar a resposta. Se tiver solicitações adicionais, o
cliente poderá fazê-las nesse momento. Ao terminar, ele utilizará DISCONNECT
para encerrar a conexão. Em geral, uma DISCONNECT inicial é uma chamada de
bloqueio, suspendendo o cliente e enviando um pacote ao servidor para
informar que a conexão não é mais necessária (5). Quando o servidor recebe o
pacote, ele próprio também emite uma DISCONNECT, confirmando o pacote do
cliente e liberando a conexão. Quando o pacote do servidor (6) volta à máquina
cliente, o processo cliente é liberado e a conexão é interrompida. Em resumo, é
assim que funciona a comunicação orientada a conexões.
É claro que a vida não é tão simples assim. Muitos detalhes podem sair
errados. O sincronismo pode estar incorreto (por exemplo, CONNECT ser
executada antes de LISTEN), os pacotes podem ser perdidos e muito mais.
Examinaremos todas essas questões com muitos detalhes mais adiante; porém,
por enquanto, a Figura 1.18 resume o funcionamento possível de uma
comunicação cliente/servidor em uma rede orientada a conexões.
Considerando-se que são necessários seis pacotes para completar esse
protocolo, alguém poderia perguntar por que não é utilizado um protocolo sem
conexões. A resposta é que, em um mundo perfeito, esse tipo de protocolo
poderia ser usado e, nesse caso, seriam necessários apenas dois pacotes: um
para a solicitação e outro para a resposta. Entretanto, em face de mensagens
extensas em qualquer sentido (por exemplo, um arquivo com vários megabytes),
erros de transmissão e perda de pacotes, a situação se altera. Se a resposta
consistisse em centenas de pacotes, alguns dos quais pudessem se perder
durante a transmissão, como o cliente saberia que alguns fragmentos se
perderam? Como o cliente saberia que o pacote último realmente recebido foi
de fato o último pacote enviado? Suponha que o cliente quisesse um segundo
arquivo. Como ele poderia distinguir o pacote 1 do segundo arquivo de um
pacote perdido do primeiro arquivo que repentinamente tivesse encontrado o
caminho até o cliente?
Em resumo, no mundo real, um simples protocolo de
solicitação/resposta sobre uma rede não confiável frequentemente é
inadequado. No Capítulo 3, estudaremos em detalhes uma variedade de
protocolos que superam esses e outros problemas. Por enquanto, basta dizer
que às vezes é muito conveniente ter um fluxo de bytes confiável e ordenado
entre processos.

5.Espalhamento Espectral
È uma técnica de modulação em que a largura de banda usada para transmissão
é muito maior que a banda mínima necessária para transmitir a informação. Dessa
forma, a energia do sinal transmitido passa a ocupar uma banda muito maior do que a
da informação.
A demodulação é obtida fazendo a correlação entre o sinal recebido e uma
réplica do sinal usado para espalhar a informação

Um sinal de comunicações digitais é considerado um sistema SS se,


cumulativamente:
1. o sinal transmitido ocupar uma largura de banda maior que a largura
de banda mínima necessária para transmitir a informação;
2. a expansão de largura de banda for obtida com um código
independente da informação.
A segunda condição exclui os sistemas de FM porque aí a expansão de
largura de banda (recordar a regra de Carson!) depende do sinal a transmitir.
Tipos básicos de sistemas de espalhamento espectral
Há três tipos básicos de sistemas SS: • DS (“Direct Sequence”) —
Sequência Directa
• FH (“Frequency Hopping”) — Saltos em frequência
• TH (“Time Hopping”) — Saltos no tempo
Também pode haver sistemas híbridos.
DS: O espalhamento espectral é obtido multiplicando a fonte por um
sinal pseudo-aleatório.
FH: O espalhamento espectral é obtido fazendo saltitar a frequência da
portadora de forma pseudo-aleatória entre valores de um conjunto grande de
frequências.
TH: Blocos de bits são transmitidos intermitentemente em um ou mais
intervalos de tempo (“time slots”) dentro de uma trama com um número
elevado de intervalos. A escolha dos intervalos de tempo usados em cada trama
é pseudo-aleatória.
Por que é usado ?
Inicialmente e durante muito tempo as técnicas de espalhamento
espectral tiveram uma utilização estritamente militar e por isso evoluiram a
partir de ideias relacionadas com radar, comunicações secretas e sistemas de
telecomando de torpedos e mísseis. Hoje em dia há inúmeras aplicações civis.
Eis algumas:
• GPS (“Global Positioning System”)
• Redes celulares móveis de 2ª geração (IS-95, EUA)
• Redes celulares móveis de 3ª geração (IMT-2000)
• Redes de satélites para comunicações pessoais (ex.: Globalstar)
• “Wireless LANs” (ex.: IEEE802.11 (EUA) e BRAN (Europa))
• Sistemas de alarmes em edifícios

O principal interesse actual dirige-se às aplicações que envolvem acesso


múltiplo (CDMA):
• Em DS/SS
Todos os utilizadores partilham a mesma banda de frequências e
transmitem os sinais simultaneamente; no receptor o sinal pseudo-aleatório
“desespalha” e extrai o sinal desejado; pelo contrário, os sinais indesejados são
espalhados visto não terem sofrido previamente a operação de espalhamento
no emissor.

• Em FH/SS e TH/SS
Cada utilizador usa um código PN diferente, de tal modo que não há dois
emissores a usar a mesma frequência ou o mesmo “time slot” ao mesmo tempo.

6.MIMO no aumento de taxa de Transmissão e diminuição de


taxa de Erros
A utilização de MIMO é uma das opções mais viáveis quando se deseja obter
melhor transmissão e recepção de sinal em um meio com grande concentração
de usuários se comunicando e trocando dados. Essa tecnologia surgiu para
promover a otimização do meio de transmissão, com um maior aproveitamento
do sinal.

Para aumento de taxa de transmissão:


O MIMO usa pelo menos 2 - às vezes várias - antenas no lado de
transmissão (Tx) e no lado de recepção (Rx) para transmitir um único canal. Essa
abordagem aumenta as taxas de dados e a eficiência espectral. Por exemplo, adicionar
6 antenas em cada lado oferece a mesma capacidade que adicionar 100 vezes mais
potência a um canal de entrada única de saída única (SISO). As técnicas utilizadas em
MIMO aumentam a capacidade linearmente com o número de antenas. Em contraste,
as abordagens usadas nos sistemas SISO, Single Input Multiple Output (SIMO) e Multiple
Input Multiple Output (MISO) aumentam a capacidade logaritmicamente. Os aumentos
de capacidade linear fornecem um caminho muito mais eficiente para aumentos
maiores do que logarítmicos. O transmissor e o receptor usados em MIMO são mais
complexos do que em transmissões SISO, SIMO e MISO, mas não usam mais energia. A
vantagem do MIMO é tão clara que muitos padrões já incorporaram a tecnologia.
Para reduzir taxa de erro:
Taxa de erro de bit: A medida de desempenho de qualquer sistema
de comunicação é geralmente a taxa de erro de bit (BER). A taxa de erro de bit é dado
como segue BER = erros / número total de bits. Com um sinal forte e um caminho de
sinal não perturbado, esse número é tão pequeno que chega a ser insignificante. Se
torna significativo quando queremos manter uma relação sinal-ruído adequada na
presença debtransmissão por meio de circuitos eletrônicos e o meio de propagação.

A interferência entre símbolos causada por canais MIMO de


caminhos múltiplos distorce o sinal transmitido por MIMO que causa erros de bit no
receptor. Para minimizar este ISI, a equalização é necessária. O equalizador minimiza o
erro entre saída real e saída desejada pela atualização contínua de seus coeficientes de
filtro . A equalização pode ser feita em domínio do tempo e da frequência. A equalização
no domínio da frequência é mais simples de usar em comparação com o tempo domínio.
Equalizadores basicamente usam qualquer algoritmo adaptativo para reduzir os efeitos
de fades profundos, bem como interferência intersimbólica.

Você também pode gostar