Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumo
O modelo OSI (Open Systems Interconnect) tem sete camadas. Este artigo as
descreve e explica, começando pela camada "inferior" na hierarquia (a camada
física) e avançando até a "superior" (a camada de aplicativo). As camadas estão
empilhadas desta forma:
Aplicativo
Apresentação
Sessão
Transporte
Rede
Física
CAMADA FÍSICA
CAMADA DE REDE
Sub-rede de Comunicações
Na camada de rede e nas camadas abaixo dela, existem protocolos de par entre um
nó e seu vizinho imediato, mas o vizinho pode ser um nó através do qual os dados
são roteados, e não a estação de destino. As estações de origem e de destino
podem ser separadas por vários sistemas intermediários.
CAMADA DE TRANSPORTE
Ao contrário das camadas inferiores de "sub-rede", cujo protocolo está entre nós
imediatamente adjacentes, a camada de transporte e as camadas acima dela são
verdadeiras camadas de "origem até o destino", ou ponta a ponta, e desconsideram
os detalhes dos recursos de comunicações subjacentes. Os softwares da camada de
transporte (e os softwares acima deles) na estação de origem realizam uma
conversa com softwares semelhantes na estação de destino, usando cabeçalhos de
mensagens e mensagens de controle.
CAMADA DE SESSÃO
CAMADA DE APRESENTAÇÃO
Gerenciamento de rede
Serviços de diretório
Modelo OSI
Camada Protocolo
7.Aplicação HTTP, RTP, SMTP, FTP, SSH, Telnet, SIP, RDP, IRC, SNMP, NNTP, POP3, IMAP, Bi
tTorrent, DNS ...
6.Apresentação XDR, TLS ...
5.Sessão NetBIOS ...
4.Transporte NetBEUI, TCP, UDP, SCTP, DCCP, RIP ...
3.Rede IP (IPv4, IPv6), IPsec, ICMP, ARP, RARP, NAT ...
2.Enlace
Subca
mada LLC Ethernet, IEEE 802.1Q, HDLC, Token ring, FDDI, PPP, Switch, Frame relay, ATM ...
Subca
mada
MAC
1.Física Modem, , 802.11 Wi-FiRDIS, RS-232, EIA-422, RS-449, Bluetooth, USB, 10BASE-
T, 100BASE-TX, ISDN, SONET, DSL...
- Ethernet (IEE 802.3): Tecnologia para a conexão entre hosts de uma rede LAN
baseada no envio de pacotes. Fornece especificações de cabeamento e sinais
elétricos para a camada 1 do modelo OSI.
E1: É um padrão de linha telefônica digital usado no Brasil e na Europa. Possui taxa
de transferência de 2Mbps e pode ser dividido em 32 canais de 64 Kbps cada.
Modelo OSI
Camada 1: Física
A Camada Física define as características mecânicas, elétricas, funcionais e os
procedimentos para ativar, manter e desativar conexões físicas para a transmissão de bits.
As características mecânicas dizem respeito ao tamanho e forma de conectores, pinos,
cabos, etc. que compõem um circuito de transmissão. As características elétricas
especificam os valores dos sinais elétricos (nível de tensão e corrente) usados. As
características funcionais definem o significado dado aos sinais transmitidos na camada
física (por exemplo, transmissão, recepção, terra, etc.).
Os procedimentos especificam as funções e protocolos necessários para a transmissão de
bits. O bit é considerado, na transmissão serial, como a unidade de dados básica da
Camada Física.
Os protocolos da Camada Física devem ser independentes do meio de transmissão de
modo que um dado terminal possa ser utilizado em diversos meios, como pares metálicos,
fibra óptica ou rádio, por exemplo.
A Figura abaixo ilustra a situação de retransmissores com diferentes meios físicos.
Figura 13: Meio Físico com retransmissores
Os padrões de Camada Física que provavelmente se tornaram mais populares são
aqueles correspondentes às interfaces RS232C e RS449 (EIA) e suas adaptações, para
redes de telecomunicações, feita pelo ITU -T (CCITT, na época), a saber as
Recomendações V.24 e X.21.
Estas Recomendações são freqüentemente vistas como especificações da Camada
Física, mas de fato contém elementos das Camadas 1, 2 e 3. Nestas Recomendações, as
descrições dos procedimentos das diversas camadas parecem, por vezes, se misturar. Isto
se deve ao fato que o Modelo OSI não havia sido ainda desenvolvido suficientemente para
permitir uma visão clara das fronteiras entre camadas.
A Recomendação V.24 foi publicada pela primeira vez em 1964 e especifica a operação de
39 circuitos que podem ser usados por um terminal (designado genericamente como Data
Terminal Equipment - DTE ) para controlar um modem (designado genericamente Data
Communication/ Terminating Citcuit Equipment - DCE ) e para permitir que o modem envie
ao terminal informações a respeito do seu estado. O aspecto essencial da V.24 é que os
sinais são transportados como tensões simples referidos a um terra presente no pino 107.
De acordo com o conceito atual de Camada Física apenas alguns circuitos seriam
considerados.
Dynamic Host Configuration Protocol
O DHCP, Dynamic Host Configuration Protocol (protocolo de configuração dinâmica
de host), é um protocolo de serviço TCP/IP que oferece configuração dinâmica de
terminais, com concessão de endereços IP de host, máscara de sub-rede, default
gateway (gateway padrão), número IP de um ou mais servidores DNS, sufixos de
pesquisa do DNS e número IP de um ou mais servidores WINS. Este protocolo é o
sucessor do BOOTP que, embora mais simples, tornou-se limitado para as exigências
atuais. O DHCP surgiu como padrão em outubro de 1993. O RFC 2131 (1997) contém
as especificações mais atuais. O último standard para a especificação do DHCP sobre
IPv6 (DHCPv6) foi publicado como RFC 3315 (2003).
Índice
1 Funcionamento Básico
2 Termos Utilizados no DHCP
3 Critérios de atribuição de IPs
4 Detalhes técnicos
o 4.1 DHCPDISCOVERY (descoberta)
o 4.2 DHCPOFFER (oferta)
o 4.3 DHCPREQUEST (pedido)
o 4.4 DHCPACK (confirmação)
o 4.5 Informações DHCP
o 4.6 Liberando DHCP
5 Parâmetros de configuração de cliente no DHCP
6 Opções do DHCP
7 Retransmissão DHCP
8 Confiabilidade
9 Segurança
10 Rede sem DHCP - APIPA
11 Ver também
12 Referências
Funcionamento Básico
Reserva: Usa-se uma reserva para criar uma concessão de endereço permanente pelo
servidor DHCP. As reservas asseguram que um dispositivo de hardware especificado na
sub-rede sempre pode usar o mesmo endereço IP. A reserva é criada associada ao
endereço de hardware da placa de rede, conhecido como endereço MAC (ou MAC
address). No servidor DHCP cria-se uma reserva, associando um endereço IP com um
endereço MAC. Quando o computador (com o endereço MAC para o qual existe uma
reserva) é inicializado, ele entre em contato com o servidor DHCP. O servidor DHCP
verifica que existe uma reserva para aquele MAC address e configura o computador
com o endereço IP associado ao MAC address. Caso haja algum problema na placa de
rede do computador e a placa tenha que ser substituída, mudará o MAC address e a
reserva anterior terá que ser excluída e uma nova reserva terá que ser criada, utilizando,
agora, o novo MAC address.
Tipos de opção: Tipos de opção são outros parâmetros de configuração do cliente que
um servidor DHCP pode atribuir aos clientes. Por exemplo, algumas opções usadas com
frequência incluem endereços IP para gateways padrão (roteadores), servidores WINS
(Windows Internet Name System) e servidores DNS (Domain Name System).
Geralmente, esses tipos de opção são ativados e configurados para cada escopo. O
console de Administração do serviço DHCP também permite configurar tipos de opção
padrão que são usados por todos os escopos adicionados e configurados no servidor. A
maioria das opções é predefinida através da RFC 2132, mas pode-se usar o console
DHCP para definir e adicionar tipos de opção personalizados, se necessário.
Atribuição manual - Onde existe uma tabela de associação entre o endereço MAC do
cliente (que será comparado através do pacote broadcast recebido) e o endereço IP (e
dados restantes) a fornecer. Esta associação é feita manualmente pelo administrador
de rede; por conseguinte, apenas os clientes cujo MAC consta nesta lista poderão
receber configurações desse servidor;
Atribuição automática - Onde o cliente obtém um endereço de um espaço de
endereços possíveis, especificado pelo administrador. Geralmente não existe vínculo
entre os vários MAC habilitados a esse espaço de endereços;
Atribuição dinâmica - O único método que dispõe a reutilização dinâmica dos
endereços. O administrador disponibiliza um espaço de endereços possíveis, e cada
cliente terá o software TCP/IP da sua interface de rede configurados para requisitar
um endereço por DHCP assim que a máquina for ligada na rede. A alocação utiliza um
mecanismo de aluguel do endereço, caracterizado por um tempo de vida.
Zerado/expirado esse tempo de vida naturalmente, da próxima vez que o cliente se
conectar, o endereço provavelmente será outro.
1. discovery (descoberta)
2. offer (oferta)
3. request (pedido)
4. acknowledge (confirmação)
DHCPDISCOVERY (descoberta)
DHCPDISCOVERY
XID
0x3903F326
SECS FLAGS
0x0000 0x0000
0x00000000
0x00000000
0x00000000
0x00000000
0x00053C04
0x8D590000
0x00000000
0x00000000
Magic Cookie
0x63825363
DHCP Options
1: subnet mask
3: router
6: DNS servers
DHCPOFFER (oferta)
DHCPOFFER
XID
0x3903F326
SECS FLAGS
0x0000 0x0000
0x00000000
0xC0A80164 (192.168.1.100)
0xC0A80101 (192.168.1.1)
0x00000000
0x00053C04
0x8D590000
0x00000000
0x00000000
Magic Cookie
0x63825363
DHCP Options
3: 192.168.1.1 router
6: DNS servers:
9.7.10.15,
9.7.10.16,
9.7.10.18
DHCPREQUEST (pedido)
DHCPREQUEST
XID
0x3903F326
SECS FLAGS
0x0000 0x0000
0x00000000
0x00000000
0xC0A80101 (192.168.1.1)
0x000000080
0x00053C03
0x8D590002
0x00000001
0x00000009
Magic Cookie
0x63825363
DHCP Options
DHCPACK (confirmação)
DHCPACK
XID
0x3903F326
SECS FLAGS
0x0000 0x0000
0x00000000
0xC0A80164 (192.168.1.100)
0xC0A80101 (192.168.1.1)
0x00000000
0x00053C04
0x8D590000
0x00000000
0x00000000
Magic Cookie
0x63825363
DHCP Options
3: 192.168.1.1 router
6: DNS servers:
9.7.10.15,
9.7.10.16,
9.7.10.18
Informações DHCP
Um cliente DHCP pode solicitar mais informações do que o servidor enviou com o
DHCPOFFER original. O cliente também pode solicitar dados repetidos para uma
determinada aplicação. Por exemplo, os navegadores usam DHCPINFORM para obter
as configurações de proxy web via WPAD. Estas consultas com o servidor DHCP não
servem para atualizar o tempo de concessão do IP em seu banco de dados (para isso é
enviada a mensagem DHCPREQUEST).
Liberando DHCP
Opções do DHCP
multiples of 4
8 Cookie Server
octets
multiples of 4
9 LPR Server
octets
multiples of 4
10 Impress Server
octets
minimum of 1
12 Host Name
octet
13 Boot File Size 2 octets Length of the boot image in 4KiB blocks
minimum of 1
14 Merit Dump File Path where crash dumps should be stored
octet
minimum of 1
15 Domain Name
octet
minimum of 1
17 Root Path
octet
minimum of 1
18 Extensions Path
octet
255 End 0 octets Used to mark the end of the vendor option field
TCP Parameters[9]
DHCP Extensions[11]
Retransmissão DHCP
Em redes pequenas, onde apenas uma sub-rede IP está a ser gerido, os clientes DHCP se
comunicar diretamente com os servidores DHCP. No entanto, os servidores DHCP
também pode fornecer endereços IP para várias sub-redes. Neste caso, um cliente
DHCP que ainda não adquiriu um endereço IP não podem se comunicar diretamente
com o servidor DHCP usando o roteamento IP, porque não tem um endereço de IP, nem
ele sabe o endereço IP de um roteador. A fim de permitir que os clientes DHCP em sub-
redes não diretamente servidos por servidores DHCP para se comunicar com servidores
DHCP, os agentes de retransmissão DHCP pode ser instalado nesses sub-redes. As
transmissões do cliente DHCP no link local, o agente de retransmissão recebe a
transmissão e transmite para um ou mais servidores DHCP usando unicast. O agente de
retransmissão armazena seu próprio endereço IP no campo GIADDR do pacote DHCP.
O servidor DHCP usa o GIADDR para determinar a sub-rede na qual o agente de
retransmissão recebeu a transmissão, e atribui um endereço IP na sub-rede. Quando as
respostas do servidor DHCP para o cliente, ele envia a resposta para o endereço
GIADDR, novamente usando unicast. O agente de retransmissão então retransmite a
resposta na rede local.
Confiabilidade
A fim de religação para o trabalho, quando o cliente contatar com êxito um servidor
DHCP de backup, o servidor deve ter informações precisas sobre a ligação do cliente.
Manter informações vinculativas precisa entre dois servidores é um problema
complicado, se os dois servidores são capazes de atualizar o banco de dados mesma
locação, deve haver um mecanismo para evitar conflitos entre as atualizações nos
servidores independentes. Um padrão para implementação de servidores tolerantes a
falhas DHCP foi desenvolvido na Internet Engineering Task Force.
A base de protocolo DHCP não inclui nenhum mecanismo de autenticação. Por isso, é
vulnerável a uma variedade de ataques. Estes ataques se dividem em três categorias
principais:
Porque o cliente não tem como validar a identidade de um servidor DHCP, servidores
DHCP não autorizados podem ser operados em redes, prestação de informações
incorretas aos clientes DHCP. Isso pode servir tanto como um ataque de negação de
serviço, impedindo o cliente de ter acesso à conectividade de rede. Porque o servidor
DHCP fornece o cliente DHCP com endereços IP do servidor, como o endereço IP de
um ou mais servidores DNS, um atacante pode convencer um cliente DHCP para fazer
pesquisas através de seu DNS seu próprio servidor DNS, e pode, portanto, fornecer suas
próprias respostas a consultas DNS do cliente. Por sua vez, permite que o atacante para
redirecionar o tráfego de rede através de si, permitindo-lhe escutar as conexões entre os
servidores de rede do cliente e ele entra em contato, ou simplesmente para substituir os
servidores de rede com o seu próprio. Porque o servidor DHCP não tem nenhum
mecanismo seguro para autenticar o cliente, os clientes podem obter acesso não
autorizado aos endereços IP de apresentação de credenciais, tais como identificadores
do cliente, que pertencem a outros clientes DHCP. Isso também permite que os clientes
DHCP para esgotar o DHCP armazenamento de servidor de endereços IP, apresentando
novas credenciais cada vez que ele pede um endereço, o cliente pode consumir todos os
endereços IP disponíveis em um link de rede particular, impedindo outros clientes
DHCP da obtenção de serviços. DHCP fornece alguns mecanismos para mitigar esses
problemas.
O Relé de Agente de Informações extensão protocolo Option (RFC 3046) permite que
os operadores de rede para conectar marcas a mensagens DHCP uma vez que estas
mensagens chegam na rede de confiança do operador de rede. Esta tag é então usado
como um token de autorização para controlar o acesso do cliente aos recursos da rede.
Porque o cliente não tem acesso à rede a montante do agente de retransmissão, a falta de
autenticação não impede que o operador do servidor DHCP de confiar no token de
autorização.
Outro ramal, autenticação para DHCP mensagens (RFC 3118), fornece um mecanismo
para autenticação de mensagens DHCP. Infelizmente RFC 3118 não viu a adoção
generalizada por causa dos problemas de gerenciamento de chaves para um grande
número de clientes DHCP.
Nota: O recurso APIPA é especialmente útil para o caso de uma pequena rede, com 4 ou
5 computadores, onde não existe um servidor disponível. Neste caso pode-se configurar
todos os computadores para usarem o DHCP. Ao inicializar, os clientes não conseguirão
localizar um servidor DHCP (já que não existe nenhum servidor DHCP nesta rede do
nosso exemplo). Neste caso o recurso APIPA atribuirá endereços da rede
169.254.0.0/255.255.0.0 para todos os computadores da rede. O resultado final é que
todos ficam configurados com endereços IP da mesma rede e poderão se comunicar,
compartilhando recursos entre si. É uma boa solução para uma rede doméstica ou de
pequeno escritório.
Ver também
DHCPv6
DNS
Endereço IP
Redes de computadores
Protocolo
Referências
1.
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 3: RFC 1497 vendor extensions. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 3: RFC 1497 vendor extensions. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 3.1: Pad Option. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 3.3: Subnet Mask. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 3.4: Time Offset. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 4: IP Layer Parameters per Host. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 5: IP Layer Parameters per Interface. Consultado em 26 de julho de
2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 6: Link Layer Parameters per Interface. Consultado em 26 de julho de
2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 7: TCP Parameters. Consultado em 26 de julho de 2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP Vendor
Extensions». IETF. Section 8: Application and Service Parameters. Consultado em 26 de julho de
2012
Alexander, Steve; Droms, Ralph (1997). «RFC 2132: DHCP Options and BOOTP
2012
Num sistema livre, o serviço é comummente implementado pelo software BIND. Este
serviço geralmente se encontra localizado no servidor DNS primário. O servidor DNS
secundário é uma espécie de cópia de segurança do servidor DNS primário. Assim, ele
se torna parte necessária para quem quer usar a internet de uma forma mais fácil, evita
que hackers roubem os seus dados pessoais.[5]
Existem centenas de servidores-raiz DNS (root servers) no mundo todo, agrupados em
13 zonas DNS raiz,[6] das quais sem elas a Internet não funcionaria. Destes, dez estão
localizados nos Estados Unidos da América, dois na Europa e um na Ásia. Para
aumentar a base instalada destes servidores, foram criadas réplicas localizadas por todo
o mundo, inclusive no Brasil desde 2003.
Índice
1 História
2 Visão geral
3 Hierarquia
o 3.1 Servidores-raiz
o 3.2 Servidores de domínio de topo (top-level domain)
o 3.3 Servidores com autoridade
4 Métodos de resolução: iterativo e recursivo
5 Melhorias de performance
o 5.1 Cache
o 5.2 Servidor local
6 DNS reverso (reverse lookup)
7 Estrutura
8 Registro de nome de domínio
9 Referências
10 Ver também
11 Ligações externas
História
Visão geral
Um recurso da internet, por exemplo um site da Web, pode ser identificado de duas
maneiras: pelo seu nome de domínio[7], por exemplo, “www.wikipedia.org” ou pelo
endereço de IP[8] dos equipamentos que o hospedam (por exemplo, 208.80.152.130 é o
IP associado ao domínio www.wikipedia.org[9]). Endereços IP são usados pela camada
de rede para determinar a localização física e virtual do equipamento. Nomes de
domínio, porém, são mais mnemônicos para o usuário e empresas. É então necessário
um mecanismo para resolver um nome de domínio em um endereço IP. Esta é a
principal função do DNS.
Servidores-raiz;
Servidores de domínio de topo;
Servidores com autoridade.
Servidores-raiz
Ver artigo principal: Servidor-raiz
Cada domínio é formado por nomes separados por pontos. O nome mais à direita é
chamado de domínio de topo. Exemplos de domínios de topo são .com, .org, .net, .edu,
.inf, .gov.
Cada servidor de domínio de topo conhece os endereços dos servidores autoritativos que
pertencem àquele domínio de topo, ou o endereço de algum servidor DNS intermediário
que conhece um servidor autoritativo.
Com as três classes de servidores DNS, já é possível resolver qualquer requisição DNS.
Basta fazer uma requisição a um servidor raiz, e esse retornará o endereço do servidor
de topo responsável. Então repete-se a requisição para o servidor de topo, que retornará
o endereço do servidor autoritativo ou algum intermediário. Repete-se a requisição aos
servidores intermediários (se houver) até obter o endereço do servidor autoritativo, que
finalmente retornará o endereço IP do domínio desejado.
Melhorias de performance
Dois recursos são usados em conjunto para reduzir a quantidade de requisições que os
servidores raiz devem tratar e a quantidade de requisições feitas para resolver cada
consulta: cache e servidor local.
Cache
Toda vez que um servidor retorna o resultado de uma requisição para a qual ele não é
autoridade (método de resolução recursivo), ele armazena temporariamente aquele
registro. Se, dentro do tempo de vida do registro (TTL, Time to Live), alguma requisição
igual for feita, o servidor DNS pode retornar o resultado sem a necessidade de uma nova
consulta. Note que isso pode provocar inconsistência, já que se um domínio mudar de
endereço durante o tempo de vida do cache, o registro estará desatualizado. Apenas o
servidor autoritativo tem a garantia de ter a informação correta. É possível exigir, na
mensagem de requisição DNS, que a resposta seja dada pelo servidor autoritativo.
Servidor local
Esse tipo de servidor não pertence à hierarquia DNS, mas é fundamental para o seu bom
funcionamento. Em vez de fazer requisições a um servidor raiz, cada cliente faz sua
requisição a um servidor local, que geralmente localiza-se fisicamente muito próximo
do cliente, por exemplo um servidor proxy. Este se encarrega de resolver a requisição.
Com o uso de cache, o servidor local pode ter a resposta pronta, ou ao menos conhecer
algum servidor mais próximo ao autoritativo que o raiz (por exemplo, o servidor de
topo), reduzindo a carga dos servidores raiz.
Normalmente o DNS atua resolvendo o nome do domínio de um host qualquer para seu
endereço IP correspondente. O DNS Reverso resolve o endereço IP, buscando o nome
de domínio associado ao host. Ou seja, quando temos disponível o endereço IP de um
host e não sabemos o endereço do domínio (nome dado à máquina ou outro
equipamento que acesse uma rede), tentamos resolver o endereço IP através do DNS
reverso que procura qual nome de domínio está associado àquele endereço. Os
servidores que utilizam o DNS Reverso conseguem verificar a autenticidade de
endereços, verificando se o endereço IP atual corresponde ao endereço IP informado
pelo servidor DNS. Isto evita que alguém utilize um domínio que não lhe pertence para
enviar spam, por exemplo.
Estrutura
The hierarchical domain name system, organized into zones, each served by a name server
Referências
1.
«rfc2181»
2012
Pode referir-se tanto ao protocolo quanto ao programa que implementa este protocolo
(Servidor FTP, neste caso, tradicionalmente aparece em letras minúsculas, por
influência do programa de transferência de arquivos do Unix).
Índice
Um cliente realiza uma conexão TCP para a porta 21 do servidor. Essa conexão,
chamada de conexão de controle, permanece aberta ao longo da sessão enquanto uma
segunda conexão, chamada conexão de dados, é estabelecida na porta 20 do servidor e
em alguma porta do cliente (estabelecida no diálogo entre ambos) como requisitado para
a transferência de arquivo. A conexão de controle é utilizada para administração da
sessão (comandos, identificação, senhas)[2] entre cliente e servidor utilizando um
protocolo semelhante ao Telnet. Por exemplo, "RETR filename" iria transferir o arquivo
especificado de um servidor para um cliente. Devido a essa estrutura de duas portas,
FTP é considerado out-of-band, ao contrário de protocolos in-band, tal como HTTP.[2]
FTP pode ser executado em modo ativo ou passivo, os quais determinam como a
conexão de dados é estabelecida. No modo ativo, o cliente envia para o servidor o
endereço IP e o número da porta na qual ele irá ouvir e então o servidor inicia a conexão
TCP. Em situações onde o cliente está atrás de um firewall e inapto para aceitar entradas
de conexões TCP, o modo passivo pode ser utilizado. O cliente envia um comando
PASV para o servidor e recebe um endereço IP e um número de porta como resposta, os
quais o cliente utiliza para abrir a conexão de dados com o servidor.[1] Ambos os modos
foram atualizados em Setembro de 1998 para adicionar suporte ao IPv6 e feitas algumas
mudanças no modo passivo, tornando-o modo passivo estendido.[4]
Para arquivos texto, são fornecidas opções para diferentes controles de formato e
estrutura de registros. Esses recursos foram projetados para suporte à formatação Telnet
ou ASA.
A transferência de dados pode ser feita em qualquer um dos três modos a seguir:[3]
Modo fluxo: dado é enviado como um fluxo contínuo, liberando FTP de fazer algum
processamento. Ao invés disso, todo processamento é deixado para o TCP. Nenhum
indicador de fim de arquivo é necessário, a menos que o dado esteja dividido dentro
de registros.
Modo de bloqueio: FTP quebra o dado dentro de vários blocos( bloco de cabeçalho,
contagem de byte e campo de dado) e então passa-o para o TCP. [5]
Modo comprimido: dado é comprimido utilizando um algoritmo simples.
O acesso a servidores FTP pode ocorrer de dois modos: através de uma interface ou
através da linha de comando, tanto usuários LINUX como usuários Windows podem
acessar através dos dois modos. O modo linha de comando está presente em qualquer
distribuição LINUX-like e Windows, através do telnet.
ftp://[username]:[password]@[servidor]
ou
ftp://[username]:[password]@[servidor]:[porta]
Modos e interfaces
O protocolo subjacente ao FTP pode rodar nos modos interativo ou batch. O cliente
FTP fornece uma interface interativa, enquanto que o MIME e o HTTP usam-no
diretamente. O protocolo permite a gravação e obtenção de arquivos, a listagem da pasta
e a alteração da pasta de trabalho.
Os servidores de FTP raramente mudam, mas novos clientes FTP aparecem com
bastante regularidade. Estes clientes variam no número de comandos que implementam,
a maioria dos clientes FTP comerciais implementam apenas um pequeno subgrupo de
comandos FTP. Mesmo que o FTP seja um protocolo orientado a linha de comandos, a
nova geração dos clientes FTP esconde esta orientação num ambiente gráfico, muitas
vezes, muito desenvolvido.
A interface cliente do FTP do BSD UNIX é um padrão por si mesma, possuindo muitos
comandos arcaicos como tenex ou carriage control, que hoje não têm uso. Os
comandos mais usados são o cd, dir, ls,get e put.
O FTP tem particularidades que são hoje pouco comuns. Depois da ativação do ftp, é
estabelecida uma conexão ao host remoto. Esta conexão envolve o uso da conta do
usuário no host remoto, sendo que alguns servidores FTP disponibilizam anonymous
FTP.
Certos comandos são os que fazem a transferência bidirecional de arquivos, são eles:
get do servidor FTP para o host local ( mget para mais que um arquivo)
put para o servidor FTP a partir do host local (mput para mais que um arquivo)
Nota: alguns comandos podem não funcionar com o usuário sendo anonymous, pois tal
conta tem limitações de direitos a nível do sistema operacional.
A sintaxe dos nomes dos arquivos pode ser incompatível entre diferentes Sistemas
Operacionais. O UNIX usa 128 caracteres, maiúsculas e minúsculas, enquanto que o
DOS usa 8 + 3 caracteres e apenas maiúsculas. Certos nomes não podem ser usados em
alguns sistemas. Devido a isto tudo o BSD ftp define regras para a tradução de nomes.
Mensagens FTP
O FTP permite dois modos de transferência de mensagens FTP: texto (com traduções
apropriadas) ou binário (sem tradução). Cada mensagem do servidor inclui um
identificador decimal de 3 dígitos (exemplo: 226 Transfer complete). Estas
mensagens podem ser vistas ou não, usando para isso o modo verbose ou quiet,
respectivamente.
Modo cliente-servidor do FTP
O servidor remoto aceita uma conexão de controle do cliente local. O cliente envia
comandos para o servidor e a conexão persiste ao longo de toda a sessão (tratando-se
assim de um protocolo que usa o TCP).
O servidor cria uma conexão de dados para a transferência de dados, sendo criada uma
conexão para cada arquivo transferido. Estes dados são transferidos do servidor para o
cliente e vice e versa.
Os comandos estão separados dos dados e o cliente pode enviar comandos durante a
transferência de dados. O encerramento da conexão indica o fim do arquivo.
Servidores FTP
Ligações externas
Protocolo
Referências
1.
Postel, J., & Reynolds. J. (October 1985). RFC 959. In The Internet Engineering Task Force.
Retrieved from http://www.ietf.org/rfc/rfc0959.txt
Kurose, J.F. & Ross, K.W. (2010). Computer Networking. 5th ed. Boston, MA: Pearson
Education, Inc.
Forouzan, B.A. (2000). TCP/IP: Protocol Suite. 1st ed. New Delhi, India: Tata McGraw-Hill
Publishing Company Limited.
Allman, M. & Metz, C. & Ostermann, S. (September 1998). RFC 2428. In The Internet
Engineering Task Force. Retrieved from http://www.ietf.org/rfc/rfc2428.txt
Clark, M.P. (2003). Data Networks IP and the Internet. 1st ed. West Sussex, England: John
Wiley & Sons Ltd.
Hipertexto é o texto estruturado que utiliza ligações lógicas (hiperlinks) entre nós
contendo texto. O HTTP é o protocolo para a troca ou transferência de hipertexto.
Coordenado pela World Wide Web Consortium e a Internet Engineering Task Force,
culminou na publicação de uma série de Requests for Comments; mais notavelmente o
RFC 2616, de junho de 1999, que definiu o HTTP/1.1. Em Junho de 2014 foram
publicados 6 RFC's para maior clareza do protocolo HTTP/1.1.[2] Em Março de 2015,
foi divulgado o lançamento do HTTP/2. A atualização deixará o navegador com um
tempo de resposta melhor e mais seguro. Ele também melhorará a navegação em
smartphones. [3]
Índice
História
Este protocolo tem sido usado pela WWW desde 1990. A primeira versão de HTTP,
chamada HTTP/0.9, era um protocolo simples para a transferência de dados no formato
de texto ASCII pela Internet, através de um único método de requisição, chamado GET.
A versão HTTP/1.0 foi desenvolvida entre 1992 e 1996 para suprir a necessidade de
transferir não apenas texto. Com essa versão, o protocolo passou a transferir mensagens
do tipo MIME44 (Multipurpose Internet Mail Extension) e foram implementados novos
métodos de requisição, chamados POST e HEAD.
Sessão HTTP
Cookies
Ver artigo principal: Cookie HTTP
O termo cookie é derivado do inglês que significa biscoito. Recebeu esse nome de uma
antiga gíria usada pelos programadores que consistia em um programa chamava um
procedimento e recebia de volta algo que seria necessário apresentar novamente mais
tarde para realizar algum trabalho. Foi criado pela Netscape para solucionar o problema
do envio e solicitação de arquivos, que era esquecido pelo servidor e que poderia ser
usado por outros computadores com o mesmo IP conforme (TANEMBAUM, 2003), o
que causava problemas, pois não se sabia na realidade se era ou não aquele usuário
mesmo. Os cookies são arquivos ou strings e não são programas executáveis. Eles são
tratados como dados pelo navegador, não existe nenhuma maneira dele ser usado como
vírus, apesar de que podem ser explorados bugs no servidor e causar a ativação de um
cookie como vírus, por um hacker. Basicamente ele é um grupo de dados trocados entre
o servidor de páginas e o navegador colocado em um ficheiro criado no computador do
usuário. Serve para manter a persistência das sessões HTTP. Ele funciona da seguinte
forma: Um usuário solicita uma página da Web, nisso o servidor pode fornecer
informações adicionais acompanhando a página solicitada. Essas informações podem
incluir um cookie, um pequeno arquivo ou string (com quatro KB no máximo). Este
cookie pode ter até 5 campos (figura abaixo): Domain, Path, Content, Expires, Secure.
Domain informa de onde veio o cookie. O navegador confirma que os servidores estão
enviando dados fieis a respeito de seu domínio. Cada domínio pode armazenar no
máximo 20 cookies por cliente. O campo Path é um caminho na estrutura de diretórios
do servidor que identifica as partes da árvore de arquivos do servidor que podem usar o
cookie. Frequentemente, ele obtém o símbolo / (barra), que representa a árvore inteira.
O campo Content utiliza a forma nome = valor, podendo o servidor definir da maneira
que quiser tanto o valor quanto o nome, e é nele que fica armazenado o conteúdo do
cookie. Expires é o campo que faz o cookie persistir, nele contém a data e o horário, e
se ele estiver ausente o navegador descartara automaticamente após o termino da sessão.
O último campo define se ele é seguro ou não.
15 de outubro de 2002
toms-casino.com / CustomerlD=497793521 Yes
17:00
11 de outubro de 2002
joes-store.com / Cart=1-00501;1-07031;2-13721 No
14:22
Prefs=Stk:SUNW+ORCL;Spt:Jet 31 de dezembro de 2010
aportal.com / No
s 23:59
12-12
sneaky.com 31- / UserID=3627239101 No
23:59
O cookie é usado para identificar um usuário que configurou uma página web, para que
na próxima vez que ele entrar ela esteja configurada do modo em que ele deixou. Pode
ser usado também quando se faz a solicitação de armazenamento de senha, na vez
posterior em que entrar no site, a sua senha será lembrada. É usado também em sites de
compra, como e-commerce, armazenando os produtos que o cliente colocou no carrinho
para que no final da compra não necessite fazer todo o processo novamente.
Funcionamento
O servidor responde com uma linha de status (status line) incluindo sua versão de
protocolo e com os códigos de erro informando se a operação foi bem sucedida ou
fracasso, seguido pelas informações do servidor, metainformações da entidade e
possível conteúdo no corpo da mensagem. Após o envio da resposta pelo servidor,
encerra-se a conexão estabelecida.
Mensagem HTTP
Cabeçalho da mensagem
Esses cabeçalhos são utilizados para enviar informações adicionais sobre a mensagem
transmitida (general-header), a requisição e os clientes (request-header) que
comunicam suas configurações e os formatos de documentos desejados como resposta.
[9]
Além disso, são utilizados pelo servidor ao retornar o recurso no qual foi requisitado
pelo cliente, para transmitir informações que descrevem as configurações do servidor e
do recurso identificado pelo URI de requisição, e que não pertence à linha de status
(response-header). Na RFC 2616,[10] estão descritos todos os campos que pertencem a
esses cabeçalhos.
Exemplo Descrição
Corpo da mensagem
Uma mensagem HTTP pode conter um corpo de dados que são enviados abaixo das
linhas de cabeçalho. Em uma mensagem de resposta, o corpo da mensagem é o recurso
que foi requisitado pelo cliente, ou ainda uma mensagem de erro, caso este recurso não
seja possível. Já em uma mensagem de requisição, o corpo pode conter dados que serão
enviados diretamente pelo usuário ou um arquivo que será enviado para o servidor.
Quando uma mensagem HTTP tiver um corpo, poderão ser incluídos cabeçalhos de
entidades que descrevem suas características, como por exemplo, o Content-Type que
informa o tipo MIME dos dados no corpo da mensagem e o Content-Length que
informa a quantidade de bytes que o corpo da mensagem contém. A tabela ao lado
apresenta alguns tipos MIME.
Requisição
Métodos de solicitação
O protocolo HTTP define oito métodos (GET, HEAD, POST, PUT, DELETE, TRACE,
OPTIONS e CONNECT) que indicam a ação a ser realizada no recurso especificado.
Conforme Bastos e Ladeiras,[15] o método determina o que o servidor deve fazer com o
URL fornecido no momento da requisição de um recurso. Um servidor HTTP deve
implementar ao menos os métodos GET e HEAD.
Uma solicitação HTTP, ou HTTP Request é uma maneira do navegador mostrar uma
página da internet utilizando um dos oito métodos de solicitação do protocolo HTTP.[16]
GET
O pedido do cliente (seguido por uma linha em branco, de maneira que o pedido termina
com um newline duplo, cada um composto por um carriage return seguido de um Line
Feed):
O cabeçalho Host reconhece vários diferentes nomes DNS que tenham o mesmo IP.
HTTP/1.1 200 OK
Date: Mon, 23 May 2005 22:38:34 GMT
Server: Apache/1.3.27 (Unix) (Red-Hat/Linux)
Last-Modified: Wed, 08 Jan 2003 23:11:55 GMT
Etag: "3f80f-1b6-3e1cb03b"
Accept-Ranges: bytes
Content-Length: 438
Connection: close
Content-Type: text/html; charset=UTF-8
HEAD
Variação do GET em que o recurso não é retornado. É usado para obter metainformações
por meio do cabeçalho da resposta, sem ter que recuperar todo o conteúdo.
POST
Ver artigo principal: POST (HTTP)
Envia dados para serem processados (por exemplo, dados de um formulário HTML)
para o recurso especificado. Os dados são incluídos no corpo do comando. Sua
utilização em uma requisição ocorre quando é necessário enviar dados ao servidor para
serem processados, geralmente por um programa script identificado no Request-URI.
Uma requisição por meio desse método sempre requer que as informações submetidas
sejam incluídas no corpo da mensagem e formatadas como uma query string, além de
conter cabeçalhos adicionais especificando seu tamanho (Content-Length) e seu
formato (Content-Type). Por isso, esse método oferece uma maior segurança em
relação aos dados transferidos, ao contrário do método GET que os dados são anexados a
URL, ficando visíveis ao usuário.[17] Por exemplo:
PUT
DELETE
Exclui o recurso.
TRACE
Ecoa o pedido, de maneira que o cliente possa saber o que os servidores intermediários
estão mudando em seu pedido.
OPTIONS
CONNECT
Serve para uso com um proxy que possa se tornar um túnel SSL (um túnel pode ser
usado, por exemplo, para criar uma conexão segura).
Códigos de estado
Ver também: Anexo:Lista de códigos de status HTTP
Da mesma forma, as frases de razão padrões são apenas recomendações e podem ser
substituídas com "equivalentes locais" a critério do desenvolvedor web. Se o código de
estado indicou um problema, o agente de usuário pode mostrar a frase de razão para o
usuário, para que sejam fornecidas informações adicionais sobre a natureza do
problema. O padrão também permite que o agente de usuário tente interpretar a frase de
razão, apesar disto poder ser imprudente uma vez que o padrão especifica
explicitamente que os códigos de estado são legíveis por máquina e as frases de razão
são legíveis por homens.
Conexões persistentes
Ver artigo principal: Conexão persistente HTTP
O HTTP é um protocolo sem estado. Um protocolo sem estado não exige que o servidor
HTTP retenha informações ou estado sobre cada usuário para a duração de várias
solicitações. Entretanto, algumas aplicações web implementam estado ou sessões do
lado servidor usando um ou mais de um dos métodos a seguir:
Resposta
A linha inicial de uma resposta HTTP indica ao cliente se sua requisição foi bem
sucedida ou não.[19] Essa situação é fornecida através de um código de retorno (Status-
Code) e uma frase explicativa (Reason-Phrase). De acordo com Fielding,[20] o código de
status é formado por três dígitos e o primeiro dígito representa a classe que pertence
classificada em cinco tipos:
O protocolo HTTP define somente alguns códigos em cada classe descritos na RFC
2616, mas cada servidor pode definir seus próprios códigos.
Conexões
Na maioria das vezes, para se obter o resultado esperado, é necessário realizar mais de
uma solicitação de recursos através de várias conexões. Por exemplo, no caso de uma
página Web, que consiste de diversos arquivos (.html, .gif, .css, etc) é preciso que sejam
feitas várias requisições para compor a página, uma conexão não-persistente. O ideal
seria que apenas uma conexão fosse utilizada para os pedidos e as respostas HTTP,
diminuindo, assim, a sobrecarga ocasionada pelas conexões, uma conexão persistente.
Existem outros tipos de protocolos como o FTP (File Transfer Protocol, ou Protocolo de
Transferência de Arquivos), usado para envio de arquivos do computador para um
servidor na Web, o SMTP (Simple Mail Transfer Protocol, ou Protocolo de
Transferência de Correio Simples), protocolo usado para correio eletrônico, entre outros
protocolos.
Esquema de comunicação
Ver também
1.
Fielding et al 1999, p. 7
Herrmann, 1997
Hirata, 1999
Utiliza, por padrão, as portas TCP 143 ou 993 (conexão criptografada via SSL)[1]. O
mais interessante é que as mensagens ficam armazenadas no servidor e o utilizador pode
ter acesso a suas pastas e mensagens em qualquer computador, tanto por webmail como
por cliente de correio eletrônico (como o Mozilla Thunderbird, Outlook Express ou o
Evolution). Outra vantagem deste protocolo é o compartilhamento de caixas postais
entre usuários membros de um grupo de trabalho. Além disso, é possível efetuar
pesquisas por mensagens diretamente no servidor, utilizando palavras-chave.
Índice
1 Detalhes
2 Referências
3 Ver também
4 Ligações externas
Detalhes
Referências
1.
«Service Name and Transport Protocol Port Number Registry». www.iana.org. Consultado
em 8 de maio de 2017
LDAP
Lightweight Directory Access Protocol, ou LDAP, é um protocolo de aplicação
aberto, livre de fornecedor e padrão de indústria para acessar e manter serviços de
informação de diretório distribuído sobre uma rede de Protocolo da Internet (IP).
Serviços de diretório desempenham um papel importante no desenvolvimento de
aplicações intranet e Internet permitindo o compartilhamento de informações sobre
usuários, sistemas, redes, serviços e aplicações através da rede. Como exemplos,
serviços de diretório podem fornecer qualquer conjunto de registros organizado,
geralmente com uma estrutura hierárquica, como um diretório de e-mail corporativo. Da
mesma forma, uma lista telefônica (diretório de telefones) é uma lista de assinantes com
um endereço e um número de telefone. Um diretório LDAP geralmente segue o modelo
X.500, que é uma árvore de nós, cada um consistindo de um conjunto de atributos com
seus respectivos valores. O LDAP foi criado como uma alternativa ao Directory Access
Protocol (DAP).
Uma utilização comum do LDAP é fornecer um "logon único" onde uma senha para um
usuário é compartilhada entre muitos serviços, como a aplicação de um código de login
da companhia para páginas web (de forma que a equipe loga apenas uma vez aos
computadores da companhia e então são automaticamente logadas na intranet da
companhia).
Índice
1 História
2 Visão geral
3 Estrutura de diretório
4 Veja também
5 Livros
6 Ligações externas
História
A versão atual é LDAPv3, especificado em uma série de RFC como mostra o RFC
4510.
Os autores deste protocolo foram Tim Howes da Universidade de Michigan, Steve Kille
da ISODE (ISO Development Environment) e Wengyik Yeong da Performance
Systems International.
Visão geral
Nas diversas tecnologias que empresas de médio e grande porte utilizam hoje em dia,
uma área para autenticação é exigida por praticamente todos os sistemas, o que pode
muitas vezes ocasionar uma variada quantidade de cadastro de utilizadores replicados
entre os sistemas. Como exemplo daquele utilizador que tem muitos "logins" e "senhas"
para acesso aos sistemas da empresa e toda semana precisa lembrar ou alterar alguma
informação de seu cadastro. Ex: login e senha para acesso a máquina, a rede, ao e-mail,
ao sistema de gestão, sistema de documentos, etc. Desta forma o usuário fica confuso e
a equipe de TI simplesmente perde tempo com o serviço repetitivo e de suporte. Um
servidor de diretórios como o Open LDAP ou MS Active Directory recebe esta
autenticação dos muitos sistemas; o protocolo LDAP serve justamente para outras
aplicações quaisquer da empresa se conectarem e consultarem um servidor de diretórios.
Estrutura de diretório
O protocolo fornece uma interface com diretórios que segue a edição de 1993 do
modelo X.500:
Um DN pode ser alterado durante o tempo de vida da entrada, por exemplo, quando
entradas são movidas dentro de uma árvore. Para identificar entradas com segurança e
sem ambiguidade, um UUID pode ser fornecido no conjunto de atributos operacionais
da entrada.
Uma entrada pode parecer com isto quando representada no LDAP Data Interchange
Format (LDIF) (o LDAP propriamente dito é um protocolo binário):
"dn" é o nome distinto da entrada. Ele não é um atributo nem uma parte da entrada.
"cn=John Doe" é o RDN da entrada (Relative Distinguished Name) e
"dc=exemplo,dc=com" é o DN da entrada pai, onde "dc" significa 'Domain
Component'. As outras linhas mostram os atributos na entrada. Nomes de atributos são
normalmente cadeias de caractere mnemônicas, como "cn" para common name (nome
comum), "dc" para domain component (componente de domínio), "mail" para endereço
de e-mail e "sn" para sobrenome.
Veja também
OpenLDAP
Serviço de diretório
Active Directory
Livros
Ligações externas
MGCP
MGCP é um acrónimo para a expressão inglesa Media Gateway Control Protocol, um
protocolo proposto pelo grupo de trabalho IETF (Internet Engineer Task Force) para
integração da arquitetura SS#7 em redes VOIP. Embora o SS#7 se encontre presente na
telefonia tradicional, o MGCP especifica com redes IP, Frame Relay e ATM.
O sistema é composto por um Call Agent, pelo menos um media gateway (MG),
responsável pela conversão dos sinais entre circuitos e pacotes, e pelo menos um
signaling gateway (SG), quando conectado a um PSTN.
RFCs
RFC 3435 - Media Gateway Control Protocol (MGCP) Versão 1.0 (sobrepõe-se ao RFC
2705)
RFC 3660 - Basic Media Gateway Control Protocol (MGCP) Packages (informativol)
RFC 3661 - Media Gateway Control Protocol (MGCP) Return Code Usage
RFC 3064 - MGCP CAS Packages
RFC 3149 - MGCP Business Phone Packages
RFC 3515 - Session Initiation Protocol (SIP) Refer Method
RFC 3991 - Media Gateway Control Protocol (MGCP) Redirect and Reset Package
RFC 3992 - Media Gateway Control Protocol (MGCP) Lockstep State Reporting
Mechanism
(Redirecionado de NNTP)
Ligações externas
Índice
1 Importância do NTP
2 Os relógios de computador
3 Algumas propriedades importantes dos relógios
4 Funcionamento do NTP
o 4.1 A topologia do NTP
o 4.2 Os tipos de associação possíveis
o 4.3 A Troca de Mensagens e o cálculo do Deslocamento
o 4.4 O Algoritmo de Filtro de Relógio
o 4.5 O Algoritmo de Seleção dos Relógios
o 4.6 O Algoritmo de Agrupamento
o 4.7 O Algoritmo de Combinação de Relógios
o 4.8 Disciplina do Relógio Local
o 4.9 Segurança no NTP
5 Servidores de NTP públicos
6 Ligações externas
Importância do NTP
Uma característica básica e ao mesmo tempo importante do tempo é que ele sempre
avança. O tempo não para e não volta atrás. Vários programas de computador fazem uso
dessa característica e podem ter seu funcionamento comprometido se o relógio do
computador inesperadamente passar a indicar um horário errado, especialmente se for
um horário no passado. Isso se complica ainda mais na Internet, com vários
computadores trocando informações entre si!
Infelizmente os relógios dos computadores são imprecisos e se adiantam ou se atrasam
com o passar do tempo. É muito fácil também trocar seu horário para o passado ou para
o futuro, mesmo acidentalmente.
Para algumas aplicações exatidão da ordem de segundos pode ser suficiente. Para
outras, é necessário manter os relógios com diferenças na ordem dos milisegundos entre
si e em relação à hora certa.
Os relógios de computador
um oscilador;
um contador;
e um dispositivo de leitura ou visualização.
O oscilador é um dispositivo que gera eventos cíclicos a uma taxa constante, chamada
de freqüência. Normalmente os osciladores dos computadores são baseados em cristais
de quartzo. O contador acumula os ciclos gerados pelo oscilador, geralmente utilizando-
se de interrupções de hardware, convertendo-os em unidades de medida conhecidas,
como segundos, minutos, horas. Cada valor do contador é chamado de estampa de
tempo. A "visualização" ou leitura é feita através de rotinas de software.
Em alguns casos é possível utilizar outras fontes de freqüência (maiores), como por
exemplo o relógio da CPU, para interpolar os valores obtidos pelo relógio do sistema,
conseguindo assim uma resolução melhor. Isso geralmente é chamado de
granularidade do relógio. Com isso, resoluções de aproximadamente 1µs são possíveis.
Por precisão, entende-se geralmente o menor incremento de tempo que pode ser lido
pelo computador. Pode ser um valor maior do que a resolução, já que ler o relógio é
uma tarefa realizada por software e há um certo tempo e incerteza envolvidos nela.
Ou pode ser menor, quando o software consegue ler o relógio mais rápido do que esse
pode contar.
Dispersão: (Dispersion) É o desvio ou erro estimado nas leituras do relógio. Pode ser
causado por flutuações de curta duração na freqüência do oscilador, por erros de
medida ocasionados por excesso de utilização do processador, latência causada por
interrupções, latência na rede, etc. No NTP a dispersão (dispersion) é estimada
localmente e informada pelo servidor ao cliente na troca de mensagens.
Variação: (Jitter) É o desvio ou erro nas leituras de relógio. Pode ser causado por
flutuações de curta duração na freqüência do oscilador, por erros de medida
ocasionados por excesso de utilização do processador, latência causada por
interrupções, latência na rede, etc. No NTP a variação (jitter) é estimada pelo cliente, a
partir das diversas medidas de deslocamento (offset) para um determinado servidor. O
NTP também calcula uma variação (jitter) para o sistema como um todo, com base na
variação dos servidores utilizados.
Deslocamento: (Offset ou time offset) É a diferença de tempo entre dois relógios. No
NTP, o deslocamento representa o quanto o relógio local deve ser alterado para estar
com o valor igual ao da referência de tempo.
Funcionamento do NTP
A topologia do NTP
As setas amarelas indicam uma conexão direta, por um sinal de IRIG, por exemplo; setas
vermelhas indicam uma conexão de rede.
O estrato 0, ou relógio de referência, fornece o tempo correto para o estrato 1, que por
sua vez fornece o tempo para o estrato 2 e assim por diante. O NTP é então,
simultaneamente, servidor (fornece o tempo) e cliente (consulta o tempo), formando
uma topologia em árvore.
Modo simétrico: (symmetric mode) Dois ou mais dispositivos NTP podem ser
configurados como pares (peers), de forma que possam tanto buscar o tempo, quanto
fornecê-lo, garantindo redundância mútua. Essa configuração faz sentido para
dispositivos no mesmo estrato, configurados também como clientes de um ou mais
servidores. Caso um dos pares perca a referência de seus servidores, os demais pares
podem funcionar como referência de tempo. O modo simétrico pode ser:
o Ativo: O dispositivo A configura o dispositivo B como seu par (criando dessa
forma uma associação permanente). Por sua vez, o dispositivo B também
configura o dispositivo A como seu par (também cria uma associação
permanente).
o Passivo: O dispositivo A configura o dispositivo B como seu par (modo
simétrico ativo). Mas o dispositivo B não tem o dispositivo A na sua lista de
servidores ou pares. Ainda assim, ao receber um pacote de A, o dispositivo B
cria uma associação transitória, de forma a poder fornecer ou receber o tempo
de A.
Não é possível, então, calcular o tempo que a Mensagem 1 levou para ser transmitida
(T-ida), nem o tempo que a Mensagem 2 gastou na rede (T-volta). Contudo, o tempo
total de ida e volta, ou atraso (também conhecido por Round Trip Time ou RTT) que é a
soma T-ida + T-volta pode ser calculado como:
Os valores mais antigos são descartados, porque o valor de deslocamento pode não mais
corresponder à realidade, já que a exatidão do relógio local varia ao longo do tempo.
Após descartar as amostras antigas, resta uma lista com as amostras mais recentes e
ordenadas em função do atraso. Da primeira entrada dessa lista são retiradas as variáveis
atraso e deslocamento para o par cliente servidor (note-se que para cada par cliente -
servidor há uma variável de cada tipo).
Para a seleção dos relógios, o NTP considera como verdadeiro o deslocamento que se
encontra dentro de um determinado intervalo de confiança. Esse intervalo é calculado,
para cada associação com um servidor, como:
O Algoritmo de Agrupamento
estrato (stratum)
distância para a raiz
variação (jitter)
Para os demais casos, quando há mais do que um sobrevivente e nenhum deles foi
configurado com a palavra chave prefer, o algoritmo de Combinação de Relógios
calcula uma média ponderada dos deslocamentos dos relógios, com o objetivo de
aumentar a exatidão.
O NTP disciplina o relógio local de forma contínua, mesmo em períodos onde não é
possível consultar servidores de tempo. As características do relógio local são medidas e
se tornam conhecidas do NTP, o que torna possível que ele funcione dessa forma. O
arquivo indicado pela chave driftfile (geralmente /var/lib/ntp/ntp.drift) na configuração
armazena o erro esperado de freqüência para o relógio.
Saltos no tempo são evitados sempre que possível. O tempo é ajustado para mais ou
para menos gradualmente, variando-se a freqüência do relógio local.
Se uma diferença maior do que 128ms for detectada o NTP considera que o tempo
está muito errado, e que é necessário um salto para frente ou para trás para corrigi-lo.
Contudo isso só é feito se essa diferença maior que 128ms persistir por um período
maior que 900s (15min), para evitar que condições de congestionamento grave mas
temporário na rede, que podem levar a medições erradas de tempo, causem
inadvertidamente esse tipo de salto.
Se uma diferença maior que 1000s (~16,7min) for detectada o algoritmo aborta a
execução, considerando que algo muito errado aconteceu. Se houver diferenças dessa
ordem ou maiores elas devem ser corrigidas manualmente antes de se executar o
daemon NTP.
Segurança no NTP
Existem basicamente dois métodos no NTP para realizar a autenticação, chave simétrica
(symmetric key) e chave pública (autokey).
Ligações externas
Outros (inglês)
Este protocolo utiliza as portas TCP 110 (porta padrão) ou TCP 995 (conexão
criptografada via SSL). A porta TCP 109 foi utilizada na versão anterior do protocolo
(POP2).[2][3]
O funcionamento do protocolo POP3 diz-se off-line, uma vez que o processo suportado
se baseia nas seguintes etapas:
É estabelecida uma ligação TCP entre a aplicação cliente de e-mail (User Agent - UA) e
o servidor onde está a caixa de correio (Message Transfer Agent - MTA)
O utilizador autentica-se;
Todas as mensagens existentes na caixa de correio são transferidas sequencialmente
para o computador local;
As mensagens são apagadas da caixa de correio (opcionalmente, o protocolo pode ser
configurado para que as mensagens não sejam apagadas da caixa de correio; se esta
opção não for utilizada, deve-se utilizar sempre o mesmo computador para ler o
correio eletrônico, para poder manter um arquivo das mensagens);
A ligação com o servidor é terminada;
O utilizador pode agora ler e processar as suas mensagens (off-line).
Referências
1.
Ver também
Ligações externas
Referências
O RTP permite que seja atribuída a cada fonte (i.e, câmeras ou microfones) sua própria
corrente independente de pacotes RTP. Por exemplo, para uma videoconferência entre
dois participantes, quatro correntes RTP podem ser abertas — duas correntes para
transmitir o áudio (uma em cada direção) e duas para transmitir o vídeo (uma em cada
direção).
Os protocolos RTP/RTCP são definidos pela RFC 3550 do IETF (Internet Engineering
Task Force).
Bibliografia
Ligações externas
RTSP
O Real Time Streaming Protocol (RTSP) é um protocolo a nível de aplicação
desenvolvido pela IETF em 1998 com a RFC 2326 para controle na transferência de
dados com propriedades de tempo real. RTSP torna possível a transferência, sob
demanda, de dados em tempo real como áudio e vídeo. Ele serve para estabelecer e
controlar um único ou vários streams sincronizados de mídias contínuas pertencentes a
uma apresentação.Utiliza os protocolos TCP e UDP na porta 554.
Índice
1 Atualizações do roteamento
o 1.1 Operação
2 Métrica de roteamento
3 Características da estabilidade do RIP
4 Temporizadores do RIP
5 Formato do pacote do RIP
6 Formato do pacote do RIP 2
7 Tópicos relacionados
Atualizações do roteamento
Operação
Quando um roteador RIP fica online, envia uma mensagem de requisição (Request
Message) em broadcast para todas as interfaces RIP. Todos os roteadores vizinhos que
receberem essa mensagem a respondem de volta (Response Message) contendo suas
tabelas de roteamento. A mensagem de resposta é também gratuitamente enviada
quando o temporizador de atualização expira.
Assim que o roteador recebe a tabela de roteamento, processa cada entrada da tabela de
roteamento seguindo as regras:
Métrica de roteamento
O RIP usa um único roteamento métrico (contagem do hop) para medir a distância entre
a origem e o destino. Cada hop em um trajeto da fonte ao destino é atribuído um valor
de contagem, tipicamente 1. Quando um roteador recebe um atualização do roteamento
que contenha uma entrada nova ou mudada da rede de destino, o roteador adiciona 1 ao
valor métrico indicado na atualização e incorpora a rede à tabela de roteamento. O
endereço IP do remetente é usado como o hop seguinte.
Temporizadores do RIP
O RIP usa vários temporizadores para regular seu desempenho. Estes incluem:
Até 25 AFIs, endereços, e métricos são permitidos em um único pacote RIP. (até 25
destinos podem ser alistados em um único pacote do RIP).
A especificação do RIP 2 (descrita em RFC 1723) permite que mais informação seja
incluída em pacotes do RIP e fornece um mecanismo simples do autenticação que não
seja suportado pelo RIP.
Tópicos relacionados
BGP
OSPF
Traceroute
Ping
WHOIS
SIP teve origem em meados da década de 1990 (naquele tempo o H.323 estava a
começar a ser finalizado como um padrão) para que fosse possível adicionar ou remover
participantes dinamicamente numa sessão multicast. O desenvolvimento do SIP
concentrou-se em ter um impacto tão significativo quanto o protocolo HTTP, a
tecnologia por trás das páginas da web que permitem que uma página com links
clicáveis conecte com textos, áudio, vídeo e outras páginas da web. Enquanto o HTTP
efetua essa integração através de uma página web, o SIP integra diversos conteúdos a
sessões de administração. O SIP recebeu uma adoção rápida como padrão para
comunicações integradas e aplicações que usam presença. (Presença significa a
aplicação estar consciente da sua localização e disponibilidade).
SIP foi moldado, inspirado em outros protocolos de Internet baseados em texto como o
SMTP (email) e o HTTP (páginas da web) e foi desenvolvido para estabelecer, mudar e
terminar chamadas num ou mais utilizadores numa rede IP de uma maneira totalmente
independente do conteúdo de dados da chamada. Como o HTTP, o SIP leva os controles
da aplicação para o terminal, eliminando a necessidade de uma central de comutação.
Índice
1 Arquitetura do SIP
o 1.1 Agente do Utilizador
o 1.2 Servidor Proxy
1.2.1 Servidor Proxy SIP
1.2.2 Servidor de Redirecionamento SIP
o 1.3 Registrador
2 A Arquitectura SIP Suporta Novos Tipos de Serviços
3 O SIP no mercado atual
4 A relação do SIP e do H.323
5 Interoperabilidade com o H.323
6 Ver também
7 Ligações externas
Arquitetura do SIP
Agente do Utilizador
Isso faz URLs SIP fáceis de associar com o endereço de e-mail do usuário. O Agente do
Utilizador pode aceitar e receber chamadas de outro Agente do Utilizador sem requerer
nenhum componente adicional do SIP. Os componentes restantes fornecem
gerenciamento e funcionalidades adicionais.
Servidor Proxy
Registrador
A arquitectura do SIP faz uso do SDP (Session Description Protocol). O SDP foi uma
ferramenta de conferência multicast via IP desenvolvida para descrever sessões de
áudio, vídeo e multimídia. Na realidade, qualquer tipo de MIME (Multipurpose Internet
Mail Extension) pode ser descrita, similar à habilidade do e-mail de suportar todos os
tipos de anexos em mensagens. A descrição da sessão pode ser usada para negociar uma
aceitação de um conjunto de tipos de mídias compatíveis.
Um tipo de “transmissão de chamadas” permite aos usuários especificar onde eles estão
para que as chamadas possam ser passadas para lá ou escolher para passar as chamadas
para o “e-mail de voz” ou para qualquer outro serviço de atendimento automático.
Participantes de chamada podem gerenciar a chamada; isso permite que os participantes
decidam introduzir uma nova chamada participante ou cancelar uma conexão na
chamada. A habilidade de responder a uma chamada com um tipo diferente de mídia;
isso permite, por exemplo, que um stream de voz que está a chegar seja respondido por
uma página da web. Informação de “presença” – o Agente do Usuário pode ser usado
para indicar se o usuário está presente (disponível para atender a todas as chamadas
chamada) ou ausente (não disponível para atender a chamada).
O SIP e o H.323 são padrões para rota de chamada, sinal de chamada, troca de
capacidade, controle de mídia e serviços adicionais. A força do H.323 tem sido a sua
interoperabilidade com a rede telefónica pública comutada(PSTN) e disponibilidade de
sistemas/aplicações desktop e salas de videoconferência de preço acessível e confiável.
O SIP é um protocolo desenvolvido especificamente para Internet e promete grande
escalabilidade e flexibilidade. É provável que o H.323 fique como a tecnologia de
conferência para gerenciar serviços de conferência/colaboração pelos próximos 2 ou 3
anos, com o SIP se tornando mais usado quando o MCU SIP, gateways e servidores
passarem além do beta. O RADVISION, por exemplo, tem demonstrado um gateway
H.323/SIP em algumas exposições profissionais, mas ainda não é um produto.
Ver também
H.323
IAX-2
VoIP
O SMTP é um protocolo de envio apenas, o que significa que ele não permite que um
usuário descarregue as mensagens de um servidor. Para isso, é necessário um cliente de
e-mail com suporte ao protocolo POP3 ou IMAP, o que é o caso da maioria dos clientes
atuais.
A resolução DNS de um servidor SMTP de um dado domínio é possibilitada por sua
entrada MX (Mail eXchange).
Índice
1 História
2 Exemplo de uma sessão SMTP
3 Segurança e spamming
4 Ver também
5 Ligações externas
História
O Sendmail foi um dos primeiros (se não o primeiro) agente de transporte de email a
implementar SMTP. Em 2001, havia, pelo menos, cerca de 50 programas que
implementavam SMTP como cliente (emissor) ou servidor (receptor). Outros servidores
SMTP muito conhecidos são: exim, Postfix, Qmail, Microsoft Exchange Server e o
Mail da Apple, disponível apenas para usuários do Mac OS ou do iOS para dispositivos
móveis da Apple.
Dada a especificação inicial, que contemplava apenas texto ASCII, este protocolo não é
ideal para a transferência de arquivos (também chamados de ficheiros). Alguns
standards foram desenvolvidos para permitir a transferência de ficheiros em formato
binário através de texto simples, como o caso do MIME. Hoje em dia, quase todos os
servidores SMTP suportam a extensão 8BITMIME.
Para testar um servidor SMTP, com relativa facilidade, pode-se utilizar o protocolo
Telnet.
C: MAIL FROM:<Smith@Alpha.ARPA>
S: 250 OK
C: RCPT TO:<Jones@Beta.ARPA>
S: 250 OK
C: RCPT TO:<Green@Beta.ARPA>
C: RCPT TO:<Brown@Beta.ARPA>
S: 250 OK
C: DATA
C: <CRLF>.<CRLF>
S: 250 OK
Segurança e spamming
Uma das limitações da especificação SMTP inicial é que não existe método de
autenticação dos emissores. Como tal, foi-lhe adicionada a extensão SMTP-AUTH.
É por essa razão que existem várias propostas para protocolos alternativos que iriam
assistir a operação SMTP. O Grupo de Pesquisa Anti-Spam do Internet Research Task
Force encontra-se a estudar várias propostas para se suportar a autenticação do emissor
de uma forma flexível, leve e escalável. A proposta aparentemente mais sólida parece
ser o protocolo Sender Policy Framework.
Ver também
Ligações externas
RFC 2821 - The Simple Mail Transfer Protocol, que tornou obsoleto o RFC 821
RFC 2822 - Internet (i.e. e-mail) Message Format, que tornou obsoleto o RFC 821
RFC 1869 - Extensões do SMTP, originando o Extended SMTP
RFC 1891 - Extensão ao SMTP para suportar Delivery Status Notification (DSN)
NIC.br. «CGI.br - Comitê Gestor da Internet no Brasil». CGI.br - Comitê Gestor da Internet no
Brasil. Consultado em 30 de agosto de 2015
Índice
1 Gerência de redes
2 Componentes Básicos do SNMP
3 Arquitetura
o 3.1 Master Agent
o 3.2 Subagent
o 3.3 Management Station
4 O SNMP e o ASN.1
5 Comandos do SNMP
6 Nomes de objetos e MIB
7 Aspectos de segurança
8 SNMPv2 e SNMPv3
9 Ligações externas
Gerência de redes
A gerência de uma rede pode não ser simples, dada sua heterogeneidade em termos de
hardware e software, e de componentes da rede, por vezes incompatíveis. As falhas
intermitentes, se não forem detectadas, podem afetar o desempenho da rede. Um
software de gerência de redes permite ao gestor monitorar e controlar os componentes
da sua rede.
Uma rede gerida pelo protocolo SNMP é formada por três componentes chaves:
1. Dispositivos Geridos
2. Agentes
3. Sistema de Gerenciamento de Redes (NMS - Network-Management Systems)
O protocolo SNMP opera na porta 161 por padrão. A porta 162 é denominada
SNMPTRAP. Um trap SNMP é usado para reportar uma notificação ou para outros
eventos assíncronos sobre o subsistema gerido.
Arquitetura
Subagent
Management Station
O SNMP e o ASN.1
O SNMP é um protocolo padrão usado para gerência de redes, que define os formatos
dos pedidos que o Gerente envia para o Agente e os formatos das respostas que o agente
retorna, assim como o significado exato de cada pedido e resposta. Uma mensagem
SNMP é codificada com um padrão designado de ASN.1 (do inglês: Abstract Syntax
Notation.1).
Comandos do SNMP
O SNMP não define um grande número de comandos, no lugar disso define duas
operações básicas:
GET, para obter um valor de um dispositivo
SET, para colocar um valor num dispositivo
O comando que especifica uma operação de GET ou SET deve especificar o nome do
objeto, que é único.
Podemos definir objetos. No caso de um contador de erros de CRC e uma vez que o
SNMP não inclui comandos específicos para fazer reset do contador, uma forma
simples é colocar zero no contador. Neste caso, o Gerente faz o GET (leitura) do
parâmetro desejado para determinar o estado do dispositivo. As operações que
controlam o dispositivo são definidas como efeitos secundários de SET (alterar/gravar
valores) em objetos.
Todos os objetos acedidos pelo SNMP devem ter nomes únicos definidos e atribuídos.
Além disso, o Gerente e o Agente devem acordar os nomes e significados das operações
GET e SET. O conjunto de todos os objetos SNMP é coletivamente conhecido como
MIB (do inglês: Management Information Base). O standard SNMP não define o MIB,
mas apenas o formato e o tipo de codificação das mensagens. A especificação das
variáveis MIB, assim como o significado das operações GET e SET em cada variável,
são especificados por um padrão próprio.
A definição dos objetos do MIB é feita com o esquema de nomes do ASN.1, o qual
atribui a cada objeto um prefixo longo que garante a unicidade do nome, a cada nome é
atribuído um número inteiro. Também, o SNMP não especifica um conjunto de
variáveis, e como a definição de objetos é independente do protocolo de comunicação,
permite criar novos conjuntos de variáveis MIB, definidos como standards, para novos
dispositivos ou novos protocolos. Por isso, foram criados muitos conjuntos de variáveis
MIB que correspondem a protocolos como UDP, IP, ARP, assim como variáveis MIB
para hardware de rede como Ethernet ou FDDI, ou para dispositivos tais como bridges,
switches ou impressoras.
Aspectos de segurança
O SNMP, até a sua versão 2, não suportava qualquer tipo de autenticação, o que o
tornava vulnerável a uma série de ameaças de segurança. Tais ameaças incluíam o
acesso e modificação não autorizados de dados nas MIBs dos dispositivos gerenciados.
Essa vulnerabilidade do protocolo fez com que diversos fabricantes não
implementassem a operação Set, reduzindo o SNMP a uma ferramenta de monitoração
apenas.
SNMPv2 e SNMPv3
A versão 2 do SNMP é uma evolução do protocolo inicial. O SNMPv2 oferece uma boa
quantidade de melhoramentos em relação ao SNMPv1, incluindo operações adicionais
do protocolo, melhoria na performance, segurança, confidencialidade e comunicações
Gerente-para-Gerente. A SNMPV3 inclui implementação na segurança ao protocolo
como privacidade, autenticação e controle de acesso.
Ligações externas
Secure Shell
O SSH fornece um canal seguro sobre uma rede insegura em uma arquitetura cliente-
servidor, conectando uma aplicação cliente SSH com um servidor SSH.[2] Aplicações
comuns incluem login em linha de comando remoto e execução remota de comandos,
mas qualquer serviço de rede pode ser protegido com SSH. A especificação do
protocolo distingue entre duas versões maiores, referidas como SSH-1 e SSH-2.
O SSH foi projetado como um substituto para o Telnet e para protocolos de shell
remotos inseguros como os protocolos Berkeley rlogin, rsh e rexec. Estes protocolos
enviam informações, notavelmente senhas, em texto puro, tornando-os suscetíveis à
interceptação e divulgação usando análise de pacotes.[4] A criptografia usada pelo SSH
objetiva fornecer confidencialidade e integridade de dados sobre uma rede insegura,
como a Internet, apesar dos arquivos vazados por Edward Snowden indicarem que a
Agência de Segurança Nacional pode algumas vezes descriptografar o SSH, permitindo-
os ler o conteúdo de sessões SSH.[5]
Índice
1 Definição
2 Gerenciamento de chaves
3 Uso
4 Referências
5 Ver também
6 Ligações externas
Definição
Gerenciamento de chaves
A chave privada também pode ser procurada em locais padrões e seu caminho completo
pode ser especificado como uma definição de linha de comando (a opção -i para ssh). O
utilitário ssh-keygen produz as chaves pública e privada, sempre em pares.
O SSH também suporta autenticação baseada em senha que é criptografada por chaves
geradas automaticamente. Neste caso o atacante pode imitar o lado servidor legítimo,
solicitar a senha e obtê-la (ataque homem-no-meio). Entretanto, isto é possível apenas
se os dois lado nunca tiverem se autenticado antes, uma vez que o SSH lembra a chave
que o lado servidor usou anteriormente. O cliente SSH lança um aviso antes de aceitar a
chave de um novo servidor desconhecido previamente. A autenticação por senha pode
ser desabilitada.
Uso
A porta TCP padrão 22 tem sido usada para contatar servidores SSH.[7]
Referências
1.
Network Working Group of the IETF, January 2006, RFC 4251, The Secure Shell (SSH)
Protocol Architecture
Network Working Group of the IETF, January 2006, RFC 4252, The Secure Shell (SSH)
Authentication Protocol
Peter Bright (June 2, 2015). «Microsoft bringing SSH to Windows and PowerShell». Ars
Technica Verifique data em: |data= (ajuda)
«Prying Eyes: Inside the NSA's War on Internet Security». Spiegel Online. December 28,
2014 Verifique data em: |data= (ajuda)
Ver também
OpenSSH
Ligações externas
Telnet
Telnet é um protocolo de rede utilizado na Internet ou redes locais para proporcionar
uma facilidade de comunicação baseada em texto interativo bidirecional usando uma
conexão de terminal virtual. Os dados do usuário são intercalados em banda com
informações de controle Telnet em um byte de conexão 8-bit de dados orientado sobre o
Transmission Control Protocol (TCP).
O Telnet foi desenvolvido em 1969 com a chegada do RFC 15, prorrogado no RFC 854,
e padronizado como Internet Engineering Task Force (IETF) Internet STD Padrão 8,
um dos primeiros padrões da Internet.
Índice
1 Definição
2 Conceitos fundamentais
o 2.1 Terminal virtual
o 2.2 Opções negociadas
o 2.3 Regras de negociação
3 Especificações
4 Ligações externas
Definição
O Telnet existe há mais de 40 anos, muito antes de aparecer a Internet. Este sistema de
transmissão de dados foi inventado pelas Forças Armadas Americanas para transmissão
de dados entre bases militares. Foi disponibilizado ao público em 1977, tendo sido os
radioamadores os primeiros a aproveitá-lo.
Portanto, pode-se dizer que a Internet trabalha por cima do Telnet, servindo-se do seu
sistema para funcionar. A transmissão de dados pelo Telnet utiliza software específico
que os codifica, permitindo utilizar centenas de portas por nós definidas e reencaminha-
las, para o PC que pretendemos. Se tivermos uma rede interna com vários pc's
instalados, utilizando um router, abrimos uma porta para cada PC e, com o mesmo IP,
os dados fluem direccionados e reencaminhados simultaneamente, sem qualquer
problema. O utilizador que recebe dados combina com o seu correspondente a porta de
passagem para o sistema funcionar. A máquina que envia os dados fá-lo em pacotes.
Informa o correspondente que tem dados. Este, por sua vez, dá o OK para a transmissão.
O pacote é enviado com a informação do número de bits que este tem. Só depois do
correspondente ter informado que recebeu os bits todos, é que pede o segundo pacote.
Se por qualquer motivo informa que os bits não chegaram todos, o envio do pacote é
repetido. Muita coisa fica ainda por dizer sobre este sistema. O protocolo baseia-se
numa conexão TCP para enviar dados em formato ASCII codificado em 8 bits entre os
quais se intercalam sequências de controle para o Telnet. Fornece assim um sistema
orientado para a comunicação, bidireccional (half-duplex), codificado em 8 bits fácil de
aplicar. Com essa conexão é possível o acesso remoto para qualquer máquina ou
equipamento que esteja sendo executado em modo servidor.
Conceitos fundamentais
Terminal virtual
O Telnet consiste em criar abstrações no terminal, fazendo com que qualquer cliente ou
servidor se comunique com outro host sem conhecer as suas características.
Opções negociadas
Regras de negociação
Ligações externas
RFCs relacionadas:
RFC 854
TELNET protocol specification
RFC 855
RFC 856
RFC 857
RFC 858
RFC 859
TELNET status option
RFC 860
RFC 861
RFC 885
RFC 1041
RFC 1073
RFC 1079
RFC 1091
RFC 1096
RFC 1097
RFC 1116
RFC 1205
RFC 1372
RFC 2217
RFC 2942
RFC 2943
RFC 2944
RFC 2946
RFC 4248
RFC 4777
Existem algumas pequenas diferenças entre o SSL 3.0 e o TLS 1.0, mas o protocolo
permanece substancialmente o mesmo. O termo "SSL" aqui usado aplica-se a ambos os
protocolos, exceto se disposto em contrário. O protocolo SSL 3.0 também é conhecido
como SSL3 e o TLS 1.0 como TLS1 ou ainda SSL3.1.
Índice
1 Descrição
2 Funcionamento
3 História e desenvolvimento
4 Notas
5 Ver também
6 Referências
7 Ligações externas
Descrição
O protocolo SSL provê a privacidade e a integridade de dados entre duas aplicações que
comuniquem pela internet. Isso ocorre por intermédio da autenticação das partes
envolvidas e da cifragem dos dados transmitidos entre as partes. Ainda, esse protocolo
ajuda a prevenir que intermediários entre as duas extremidades das comunicações
obtenham acesso indevido ou falsifiquem os dados que estão sendo transmitidos.
Protocolo TLS
Funcionamento
O servidor do site que está sendo acessado envia uma chave pública ao browser, usada
por este para enviar uma chamada secreta, criada aleatoriamente. Desta forma, fica
estabelecida a troca de dados criptografados entre dois computadores.
História e desenvolvimento
A primeira versão foi desenvolvida pela Netscape em 1994. O SSL versão 3.0 foi
lançado em 1996, e serviu posteriormente de base para o desenvolvimento do TLS
versão 1.0, um protocolo padronizado da IETF originalmente definido pelo RFC 2246.
Grandes instituições financeiras como Visa, MasterCard, American Express, dentre
outras, aprovaram o SSL para comércio eletrônico seguro na Internet.
Notas
1.
Ver também
PGP
OpenPGP
GnuPG
Certificado EV SSL
Referências
1.
2. «RTFM inc»
Ligações externas
The TLS Protocol, Version 1.0 (em inglês). RFC 2246 (descrição do protocolo TLS 1.0).
Visitado em 15 de outubro de 2014.
TLS The Transport Layer Security (TLS) Protocol Version 1.2 (RFC)
The Transport Layer Security (TLS) Protocol Version 1.1 (RFC)
Especificação Original
Biblioteca aberta que implementa SSL
Transport Layer Security (TLS) e Secure Sockets Layer (SSL)
Índice
1 Introdução
2 Clientes XMPP
o 2.1 XMPP apenas
o 2.2 Multi-protocolo, com suporte XMPP
o 2.3 Servidor Multi-protocolo, com suporte XMPP
3 Exemplo de comunicação cliente-servidor usando o protocolo XMPP
4 Referências
5 Ligações externas
Introdução
Jeremie Miller iniciou o projecto Jabber em 1998; a principal versão pública ocorreu em
Maio de 2000. O produto principal do projecto é o jabberd, um servidor em que os
clientes XMPP se ligam para comunicar. Este servidor pode criar uma rede privada
XMPP (por detrás de um firewall, por exemplo) ou pode se juntar à rede XMPP global e
pública. o XMPP surgiu como alternativa aos protocolos fechados de comunicação
predominantemente utilizados em aplicações com ICQ, MSN Messenger, etc. Por ser
um protocolo aberto, o desenvolvimento de aplicações que fazem uso do mesmo pode
ser feito sem a necessidade de permissões especiais ou pagamento de royalties.
Em agosto de 2005, a empresa Google lançou o Google Talk, baseado em XMPP, o que
ajudou a popularizar o protocolo, em função da grande quantidade de usuários deste
produto. Mais tarde o protocolo continuou sendo usado nos outros serviços de
comunicação da empresa, mais precisamente, os serviços de comunicação instantânea
embutidos no Gmail e Orkut.
Clientes XMPP
XMPP apenas
Nome Plataforma Licença
Trillian ? Proprietária
kuusipuu:
<?xml version="1.0"?>
<stream:stream xmlns:stream="http://etherx.jabber.org/streams"
xmlns="jabber:client" to="amessage.de">
amessage.de:
<stream:stream xmlns='jabber:client'
xmlns:stream='http://etherx.jabber.org/streams' from='amessage.de'
id='1461777714'>
kuusipuu:
amessage.de:
kuusipuu:
amessage.de:
</stream:stream>
Referências
1.
Ligações externas
[Esconder]
v • e
Mensageiros instantâneos
Protocolos Abertos IMPP
IRC
MTProto
RetroShare
SIP
o MSRP
o SIMPLE
TextSecure
Tox
XMPP
o Jingle
o WFP
Zephyr
MSNP
OSCAR
Fechados o TOC_(protocolo)
Skype
YMSG
Clientes AIM
Baidu Hi
BlackBerry Messenger
CSipSimple
Facebook Messenger
FaceTime
Fetion
Gadu-Gadu
GroupMe
IBM Sametime
ICQ
IMVU
indoona
Protocolo Linphone
único MyPush
Palringo
Qnext
RetroShare
SFLphone
Signal
Skype
Telegram
QQ
TextSecure
Tox
WeChat
WhatsApp
Yahoo! Messenger
Multi- Adium
protocolo Ayttm
BitlBee
Centericq
eBuddy
Empathy
Fire
Gizmo5
Instantbird
Jitsi
Kopete
Messages/iChat
Microsoft Lync
Miranda IM
Nimbuzz
Pidgin
QIP 2010
Trillian
UOL Messenger
Upptalk
Xfire
Bombus
Facebook Chat
XMPP Gajim
(Jabber) Google Talk
Psi
Tkabber
aMSN
emesene
Windows Messenger
MSNP
Microsoft Messenger
MSN Messenger
Windows Live Messenger
Backchannel
Buddy profile
Chat log
Chatterbot
Contact list
Emoticon
Compartilhamento de arquivos
IM bot
Instant message service center
LAN messenger
Ver também Mobile instant messaging
Presence information
Shoutbox
SMS language
Status message
Videoconferência
Videofone
Voz sobre IP (VOIP)
Webcam
Web chat
Camada de transporte
Transmission Control Protocol
O TCP (acrônimo para o inglês Transmission Control Protocol, que significa
"Protocolo de Controle de Transmissão") é um dos protocolos sob os quais assenta a
Internet. Ele é complementado pelo Protocolo da Internet, sendo normalmente chamado
de TCP/IP. A versatilidade e robustez do TCP tornou-o adequado a redes globais, já que
este verifica se os dados são enviados de forma correta, na sequência apropriada e sem
erros, pela rede.
Índice
1 Origem histórica
2 Características técnicas
3 Funcionamento do protocolo
o 3.1 Estabelecimento da conexão
o 3.2 Transferência de dados (sessão)
o 3.3 Adequação de parâmetros
o 3.4 Término da ligação
4 Portas ou serviços
5 Utilização do IP para entrega de dados
6 Referências
7 Ver também
8 Ligações externas
Origem histórica
Características técnicas
+ Bits 0 - 3 4-9 10 - 15 16 - 31
32 Número de sequência
Reservado Janela
96 Offset Flags
s Window
224 Dados
+ 10 11 12 13 14 15
Funcionamento do protocolo
Fig. 1 - Neste exemplo considera-se o backlog preenchido para forçar o timeout no cliente para
que o pacote SYN seja reenviado. No entanto, o primeiro pacote podia ter-se perdido devido a
erros na rede.
O protocolo TCP especifica três fases durante uma conexão: estabelecimento da ligação,
transferência e término de ligação. O estabelecimento da ligação é feito em três passos,
enquanto que o término é feito em quatro. Durante a inicialização são inicializados
alguns parâmetros, como o Sequence Number (número de sequência) para garantir a
entrega ordenada e robustez durante a transferência.
Estabelecimento da conexão
Para estabelecer uma conexão, o TCP usa um handshake (aperto de mão) de três vias.
Antes que o cliente tente se conectar com o servidor, o servidor deve primeiro ligar e
escutar a sua própria porta, para só depois abri-la para conexões: isto é chamado de
abertura passiva. Uma vez que a abertura passiva esteja estabelecida, um cliente pode
iniciar uma abertura ativa. Para estabelecer uma conexão, o aperto de mão de três vias
(ou 3 etapas) é realizado:
1. SYN: A abertura ativa é realizada por meio do envio de um SYN pelo cliente ao
servidor. O cliente define o número de sequência de segmento como um valor
aleatório A.
2. SYN-ACK: Em resposta, o servidor responde com um SYN-ACK. O número de
reconhecimento (acknowledgment) é definido como sendo um a mais que o número
de sequência recebido, i.e. A+1, e o número de sequência que o servidor escolhe para
o pacote é outro número aleatório B.
3. ACK: Finalmente, o cliente envia um ACK de volta ao servidor. O número de sequência
é definido ao valor de reconhecimento recebido, i.e. A+1, e o número de
reconhecimento é definido como um a mais que o número de sequência recebido, i.e
B+1.
Neste ponto, o cliente e o servidor receberam um reconhecimento de conexão. As etapas
1 e 2 estabelecem o parâmetro (número de sequência) de conexão para uma direção e
ele é reconhecido. As etapas 2 e 3 estabelecem o parâmetro de conexão (número de
sequência) para a outra direção e ele é reconhecido. Com isto, uma comunicação full-
duplex é estabelecida.
Tipicamente, numa ligação TCP existe aquele designado de servidor (que abre um
socket e espera passivamente por ligações) num extremo, e o cliente no outro. O cliente
inicia a ligação enviando um pacote TCP com a flag SYN activa e espera-se que o
servidor aceite a ligação enviando um pacote SYN+ACK. Se, durante um determinado
espaço de tempo, esse pacote não for recebido ocorre um timeout e o pacote SYN é
reenviado. O estabelecimento da ligação é concluído por parte do cliente, confirmando a
aceitação do servidor respondendo-lhe com um pacote ACK.
Durante estas trocas, são trocados números de sequência iniciais (ISN) entre os
interlocutores que irão servir para identificar os dados ao longo do fluxo, bem como
servir de contador de bytes transmitidos durante a fase de transferência de dados
(sessão).
No final desta fase, o servidor inscreve o cliente como uma ligação estabelecida numa
tabela própria que contém um limite de conexões, o backlog. No caso do backlog ficar
completamente preenchido a ligação é rejeitada ignorando (silenciosamente) todos os
subsequentes pacotes SYN.
Durante a fase de transferência o TCP está equipado com vários mecanismos que
asseguram a confiabilidade e robustez: números de sequência que garantem a entrega
ordenada, código detector de erros (checksum) para detecção de falhas em segmentos
específicos, confirmação de recepção e temporizadores que permitem o ajuste e
contorno de eventuais atrasos e perdas de segmentos.
Esta técnica (checksum), embora muito inferior a outros métodos detectores, como o
CRC, é parcialmente compensada com a aplicação do CRC ou outros testes de
integridade melhores ao nível da camada 2, logo abaixo do TCP, como no caso do PPP
e Ethernet. Contudo, isto não torna este campo redundante: com efeito, estudos de
tráfego revelam que a introdução de erro é bastante frequente entre hops protegidos por
CRC e que este campo detecta a maioria desses erros.
Adequação de parâmetros
Neste simples exemplo só está a ser considerada a janela do servidor. O cliente tem a
percepção do estado da janela do servidor a cada ACK recebido.
O cabeçalho TCP possui um parâmetro que permite indicar o espaço livre atual do
receptor (emissor quando envia a indicação): a janela (ou window). Assim, o emissor
fica a saber que só poderá ter em trânsito aquela quantidade de informação até esperar
pela confirmação (ACK) de um dos pacotes - que por sua vez trará, com certeza, uma
atualização da janela. Curiosamente, a pilha TCP no Windows foi concebida para se
auto-ajustar na maioria dos ambientes e, nas versões atuais, o valor padrão é superior
em comparação com versões mais antigas.
Porém, devido ao tamanho do campo, que não pode ser expandido, os limites aparentes
da janela variam entre 2 e 65535, o que é bastante pouco em redes de alto débito e
hardware de alta performance. Para contornar essa limitação é usado uma Opção
especial que permite obter múltiplos do valor da janela, chamado de escala da janela,
ou TCP window scale; este valor indica quantas vezes o valor da janela, de 16 bit, deve
ser operado por deslocamento de bits (para a esquerda) para obter os múltiplos, podendo
variar entre 0 e 14. Assim, torna-se possível obter janelas de 1 gigabyte. O parâmetro de
escala é definido unicamente durante o estabelecimento da ligação.
Término da ligação
Término de conexão.
Pode ocorrer, no entanto, que um dos lados não encerre a sessão. Chama-se a este tipo
de evento de conexão semi-aberta. O lado que não encerrou a sessão poderá continuar a
enviar informação pela conexão, mas o outro lado não.
Portas ou serviços
O TCP, tal como o UDP, usa o IP para a entrega dos datagramas à rede, e os pontos de
acesso à aplicação são identificados por portas acessadas por multiplexação, tal como
acontece com o UDP, o que permite múltiplas ligações em cada host. As portas podem
ser associadas com uma aplicação (Processo).
O IP trata o pacote TCP como dados e não interpreta qualquer conteúdo da mensagem
do TCP, sendo que os dados TCP viajam pela rede em datagramas IP. Os roteadores que
interligam as redes apenas verificam o cabeçalho IP, quando fazem o envio dos
datagramas. O TCP no destino interpreta as mensagem do protocolo TCP.
Referências
1.
Ver também
bic-tcp
Lista de protocolos de redes
SCTP
Índice
1 História
2 Funcionamento
3 Cabeçalho UDP
4 Seleção do número de portas no UDP
5 Vantagens do uso do UDP
6 Notas e Referências
7 Ligações externas
História
O trabalho original de Vint Cerf e Bob Kahn sobre a Internet descreveu o protocolo
TCP, que provia todo o transporte e serviços de encaminhamento na Internet. Kahn
queria que o protocolo suportasse uma série de serviços de transporte, desde a entrega
sequenciada de dados totalmente confiável (modelo de circuito virtual) até o serviço de
datagrama, onde a aplicação fazia uso direto do serviço básico de rede, o que poderia
implicar em pacotes ocasionalmente perdidos, corrompidos ou reordenados.
Entretanto, o esforço inicial para implementar TCP resultou numa versão que somente
permitiu circuitos virtuais. O modelo funcionou bem para transferência de arquivos e
aplicações de logins remotos, mas alguns dos trabalhos em aplicações avançadas como
pacotes de voz mostraram que, em alguns casos, a perda de pacotes deveria ser corrigida
pela aplicação e não pelo protocolo TCP. Isso levou a uma reorganização do TCP
original em dois protocolos: o simples IP que provia apenas o endereçamento e o
roteamento dos pacotes individuais e o TCP em separado, que se preocupava com o
controle do fluxo e a recuperação de pacotes perdidos.
Para as aplicações que não queriam os serviços de TCP, uma alternativa chamada UDP
(User Datagram Protocol) foi adicionada para prover acesso direto ao serviço básico de
IP.
Funcionamento
O UDP, por sua vez, é feito para transmitir dados pouco sensíveis, como fluxos de
áudio e vídeo, ou para comunicação sem conexão como é o caso da negociação DHCP
ou tradução de endereços por DNS. Os dados são transmitidos apenas uma vez,
incluindo apenas um frágil, e opcional, sistema de CRC de 16 bits. Os pacotes que
chegam corrompidos são simplesmente descartados, sem que o emissor sequer saiba do
problema. Por outro lado, a ausência de estruturas de controle complexas garante ao
UDP alta eficiência, já que cada pacote é composto praticamente somente por dados.
Cabeçalho UDP
O UDP é uma escolha adequada para fluxos de dados em tempo real, especialmente
aqueles que admitem perda ou corrompimento de parte de seu conteúdo, tais como
vídeos ou voz (VoIP). Aplicações sensíveis a atrasos na rede, mas poucos sensíveis a
perdas de pacotes, como jogos de computadores, também podem se utilizar do UDP.
As garantias de TCP envolvem retransmissão e espera de dados, como consequência,
intensificam os efeitos de uma alta latência de rede.
O UDP também suporta broadcasting e multicasting. Caso esses recursos sejam
necessários, o UDP deverá necessariamente ser utilizado. Algum tratamento de erro
pode ser adicionado, mas geralmente aplicações multicast também admitem perda de
parte dos pacotes ou fazem retransmissões constantes (tal como o ocorre no
protocolo DHCP).
O UDP não perde tempo com criação ou destruição de conexões. Durante uma
conexão, o UDP troca apenas 2 pacotes, enquanto no TCP esse número é superior a
10. Por isso, aplicações que encaixam num modelo de pergunta-resposta também são
fortes candidatas a usar UDP. Entretanto, pode ser necessário implementar algoritmos
de timeouts, acks e, no mínimo, retransmissão. Nesse caso, vale lembrar que se a troca
de mensagens for muito intensa, o protocolo TCP pode voltar a ser vantajoso, já que
seu custo de conexão será amortizado.
Embora o processamento dos pacotes UDP seja realmente mais rápido, quando as
garantias de confiabilidade e ordenação são necessárias, é pouco provável que uma
implementação em UDP obterá resultados melhores do que o uso direto do TCP. Em
primeiro lugar, corre-se o risco de que uma implementação ingênua feita em UDP seja
menos eficiente do que os algoritmos já testados e otimizados presentes no TCP. Em
segundo lugar, boa parte do protocolo TCP, nos principais sistemas operacionais, opera
em modo núcleo, tendo portanto uma execução mais privilegiada do que um protocolo
de aplicação teria. Finalmente, é válido lembrar que muitas placas de rede já possuem o
TCP programado em seu firmware o que permite, por exemplo, o cálculo de checksum
por hardware. Por isso, o protocolo UDP não deveria ser utilizado para fluxos de bytes
confiáveis, tais como a transferência de arquivos. Como exemplo, podemos citar o
protocolo TFTP, exceção a essa regra, que foi feito para redes locais, de alta
confiabilidade. Na internet, seu desempenho é muito inferior ao sua versão confiável, o
protocolo FTP.
Notas e Referências
1.
E. Ferreira, Rubem. «23». In: Novatec. Linux:guia do adminitrador do sistema. Janeiro de 2013
2ª edição ed. São Paulo: [s.n.] ISBN 9788575221778
Recursos
- Orientado a conexão;
- Dados checksum;
- Parcial checksum;
- Path MTU;
- Controle de Congestionamento.
Características
- Mecanismos que verificam com alta confiabilidade o envio de pacotes de dados, até
chegar ao receptor, e se esses pacotes foram
marcados com ECN, corrompidos, ou caiu no buffer de recepção;
O DCCP é destinado para aplicações que usam grandes transferência de dados.O DCCP
também e destinado para aplicações que usam Streaming de Audio que podem se
beneficiar do controle sobre as tensões entre o atraso e a ordem de entrega.Já o TCP,
não é adequado para estas aplicações, no TCP a entrega e o controle de
congestionamento pode causar longos atrasos. Já o UDP evita atrasos, mas quem usam
UDP deve fazer o controle de congestionamento por conta própria. O DCCP fornece um
controle de congestionamento por conta própria. O DCCP fornece um controle de
congestionamento, ECN, incluindo suporte para fluxos nao confiável de datagramas, e
evita atrasos que acontecem no TCP. Ele também implementa a configuração da
conexão confiável, subdivisão, e apresenta handshakes.
Segurança
O DCCP prevê qualquer proteção contra ataques que possa bisbilhotar uma conexão em
andamento, ou quem pode adivinhar sequências de números válidos de outras maneiras.
Aplicações que desejarem segurança mais forte ainda devem usar o IP sec [RFC2401].
Stream Control Transmission Protocol
O protocolo SCTP (Stream Control Transmission Protocol) é um protocolo de
transporte confiável que opera sobre um serviço de pacotes não confiável e sem
conexão, como é o caso do IP. O SCTP oferece a transferência de datagramas
(mensagens) livre de erros e de duplicações através do reconhecimento de transmissões
(ACKs). A detecção de corrupção, perda e duplicação de dados é obtida através de
mecanismos de checksum e números sequenciais. Um mecanismo de retransmissão
seletiva é usado para corrigir a perda ou a corrupção de dados.
Este artigo sobre Internet é um esboço relacionado ao Projeto Internet. Você pode ajudar
a Wikipédia expandindo-o.
RSVP
Índice
1 Expressão
2 Protocolo de comunicação digital
o 2.1 Tipos de serviço
3 Domínio
Expressão
RSVP é a abreviatura de Répondez S'il Vous Plaît, expressão francesa que significa
"Responda por favor".
O RSVP é utilizado pela pessoa que deseja confirmar quem irá no evento que ela vai
realizar, desta maneira pede a confirmação para ter um melhor planejamento do evento
em geral.
Os provedores precisam:
Tipos de serviço
Domínio
Índice
1 Princípio de funcionamento
2 Principais características
3 Pacote OSPF
o 3.1 Cabeçalho do pacote OSPF
4 Tópicos relacionados
Princípio de funcionamento
Caso ocorra uma alteração num dos links de rede, os nós adjacentes avisam seus
vizinhos. Esses por sua vez, verificam o número da mensagem ou a hora no cabeçalho
do pacote OSPF para saberem se este aviso é novo ou velho. Se o aviso for novo, é feita
a verificação da existência da entrada. Caso ela não exista, é adicionada à tabela de
roteamento. Se a entrada já existir, são comparados os números da mensagem recebida
com a entrada existente na tabela de roteamento. Se o número da mensagem recebida
for maior que a entrada existente, a entrada é substituída, caso contrário, a entrada da
tabela é transmitida como uma nova mensagem. Se os números forem iguais, o nó não
executa nenhuma ação.
Principais características
OSPF é um protocolo de roteamento do tipo link-state, que envia avisos sobre o estado
da conexão (link-state advertisements, LSA) a todos os outros roteadores em uma
mesma área hierárquica. Informações sobre interfaces ligadas, métrica usada e outras
variáveis são incluídas nas LSAs. Ao mesmo tempo em que o roteador OSPF acumula
informações sobre o estado do link, ele usa o algoritmo SPF para calcular a melhor rota
para cada nó.
Por ser um protocolo do tipo link-state, o OSPF difere-se do RIP e do IGRP, que são
protocolos de roteamento baseados em vetores de distância. Os roteadores que
trabalham com algoritmos de vetor de distância, a cada atualização, enviam toda ou
parte de suas tabelas de roteamento para seus vizinhos.
Pacote OSPF
Há cinco tipos distintos de pacotes OSPF. Cada um dos cinco tipos iniciam com um
cabeçalho padrão de 24 bytes. E são eles:
Todo pacote OSPF inicia com um cabeçalho de 24 bytes. Esse cabeçalho contem todas
as informações necessárias para determinar se o pacote deve ser aceito para futuras
operações. O pacote tem a seguinte estrutura:
0 1 2
3
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7
8 9 0 1
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
| Version # | Type | Packet length
|
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
| Router ID
|
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
| Area ID
|
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
| Checksum | AuType
|
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
| Authentication
|
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
| Authentication
|
+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-
+-+-+-+-+
Tipo Descrição
________________________________
1 Hello
2 Database Description
3 Link State Request
4 Link State Update
5 Link State Acknowledgment
Tópicos relacionados
BGP
Intermediate System to Intermediate System
IEEE 802.1aq - Shortest Path Bridging (SPB)
Ping2
RIP
WHOIS
Traceroute
Protocolo de Internet
Protocolo de Internet (em inglês: Internet Protocol, ou o acrónimo IP) é um protocolo
de comunicação usado entre todas as máquinas em rede para encaminhamento dos
dados. Tanto no Modelo TCP/IP, quanto no Modelo OSI, o importante protocolo da
internet IP está na camada intitulada camada de rede.
Índice
1 Funcionamento
2 Formato do Cabeçalho do IPv4
3 Endereçamento IPv4 e encaminhamento
4 Ver também
5 Bibliografia
6 Referências
Funcionamento
Os dados numa rede IP que são enviados em blocos referidos como ficheiros (os termos
são basicamente sinónimos no IP, sendo usados para os dados em diferentes locais nas
camadas IP). Em particular, no IP nenhuma definição é necessária antes do nó tentar
enviar ficheiros para um nó com o qual não comunicou previamente.
+ 0-3 4-7 8 - 15 16 - 18 19 - 31
Tamanho do Tipo de Serviço (ToS) Comprimento
0 Versão
cabeçalho (agora DiffServ e ECN) (pacote)
96 Endereço origem
12
Endereço destino
8
16
Opções
0
19
Dados
2
Encapsulamento IP: O endereço de origem no cabeçalho IP indicará a quem deverá ser enviada
a resposta do protocolo encapsulado, neste caso o TCP.
A seguir, três exemplos de opções que são implementadas e aceitas na maioria dos
roteadores:
Na internet, e nas redes particulares que vemos hoje nas empresas ou mesmo nas
residências, o protocolo de comunicação usado pelos computadores chama-se IP - sigla
para Internet Protocol. Criado no fim dos anos 70, o protocolo IP tem como "missão"
não só fazer dois computadores "conversarem", mas também possibilitar a interligação
de duas ou mais redes separadas. Com raríssimas exceções, praticamente todas as redes
do mundo acabaram, de uma forma ou de outra, sendo conectadas entre si e foi essa
comunhão de redes que acabou formando o que conhecemos hoje por internet (nome
que, em português, pode ser traduzido por "inter-redes" ou "redes interligadas").
Para que um email da Alice saia de seu computador e chegue ao computador do Beto,
por exemplo, é preciso que os dados (no caso, o texto do email) sejam divididos em
pacotinhos pequenos (chamados de pacotes IP) que possuem marcados dentro de si o
endereço IP de origem (ou seja, o número único do computador da Alice) e o IP de
destino (o número único do computador do Beto). A internet "se vira" para encontrar o
caminho entre Alice e Beto, sem que nenhum dos dois precise se preocupar com isso.
No entanto, o protocolo IP em sua versão atual (a versão quatro, rotulada como IPv4) já
é bastante antiga e tem muitos problemas.[carece de fontes] Os mais graves são falhas de
segurança, que periodicamente são descobertas e não têm solução. [carece de fontes] A maioria
dos ataques contra computadores hoje na internet só é possível devido a falhas no
protocolo IP. [carece de fontes] A nova geração do protocolo IP, o IPv6, resolve grande parte
dos problemas de segurança da internet hoje, herdados justamente do projeto antiquado
do IPv4.[carece de fontes]
Mas o IPv4 tem um problema ainda mais premente do que sua inerente insegurança: já
esgotou sua capacidade de expansão. Cada computador ligado à internet - seja um
computador pessoal, uma estação de trabalho ou um servidor que hospeda um site -
precisa de um endereço único que o identifique na rede. O IPv4 define, entre outras
coisas importantes para a comunicação entre computadores, que o número IP tem uma
extensão de 32 bits. Com 32 bits, o IPv4 tem disponíveis em teoria cerca de quatro
bilhões de endereços IP mas, na prática, o que está realmente disponível é menos da
metade disso. Se contarmos que o planeta tem seis bilhões de habitantes e que cada
dispositivo ligado na internet (o que inclui smartphones, PCs, notebooks e afins) precisa
de um número só dele, é fácil perceber que a conta não fecha. Esse número, sendo
finito, um dia acaba.
O advento do IPv6, com 128 bits, resolveria todos esses problemas. Primeiro, porque dá
fim a praticamente todos os buracos de segurança conhecidos do IPv4, tornando as
comunicações muitíssimo mais seguras. O IPv6 provavelmente será uma dor de cabeça
sem tamanho para os hackers criminosos.
Em segundo lugar, o IPv6 define 128 bits para endereçamento, e portanto conta com
cerca de 3,4 × 10^38 endereços disponíveis (ou 340 seguido de 36 zeros). Para quem
não quiser fazer a conta, basta saber que são muitos bilhões de quatrilhões de endereços
disponíveis, garantindo que não vai faltar números IP para os humanos por milênios.
Pelo "draft" inicial de um documento proposto pelo IETF - Internet Engineering Task
Force, órgão responsável pelo desenvolvimento tecnológico da internet, a migração de
IPv4 para IPv6 deveria ter começado em algum momento entre 2009 e 2010, com
migração total até o fim de 2011. O cronograma ainda está atrasado devido aos vários
problemas da completa conversão. Google, Yahoo! e Facebook já começam a adotar o
IPv6.
Na Campus Party Brasil de 2011, em sua quarta edição brasileira, realizada em São
Paulo, a Telefônica ofereceu aos campuseiros a oportunidade de se conectar à internet
com IPv6. A companhia vem testando a tecnologia há dois anos e espera poder oferecê-
la aos seus clientes ainda em 2011.[3]
Ver também
Bibliografia
Referências
1.
IPv6
IPv6 é a versão mais atual do Protocolo de Internet. Originalmente oficializada em 6 de
junho de 2012, é fruto do esforço do IETF para criar a "nova geração do IP" (IPng:
Internet Protocol next generation), cujas linhas mestras foram descritas por Scott
Bradner e Allison Marken, em 1994, na RFC 1752.[1] Sua principal especificação
encontra-se na RFC 2460.[2]
O assunto é tão relevante que alguns governos têm apoiado essa implantação. O
governo dos Estados Unidos, por exemplo, em 2005, determinou que todas as suas
agências federais deveriam provar ser capazes de operar com o protocolo IPv6 até junho
de 2008. Em julho de 2008, foi liberada uma nova revisão[4] das recomendações para
adoção do IPv6 nas agências federais, estabelecendo a data de julho de 2010 para
garantia do suporte ao IPv6. O governo brasileiro recomenda a adoção do protocolo no
documento e-PING, dos Padrões de Interoperabilidade de Governo Eletrônico.
Índice
Para entender as razões desse esgotamento, é importante considerar que a Internet não
havia sido projetada para uso comercial. No início da década de 1980, ela era
considerada uma rede predominantemente acadêmica, com poucas centenas de
computadores interligados. Apesar disso, pode-se dizer que o espaço de endereçamento
do IP versão 4, de 32 bits, não é pequeno: 4 294 967 296 de endereços.
O CIDR (Classless Inter Domain Routing), ou roteamento sem uso de classes, que é
descrito pela RFC 1519. Com o CIDR foi abolido o esquema de classes, permitindo
atribuir blocos de endereços com tamanho arbitrário, conforme a necessidade,
trazendo um uso mais racional para o espaço.
O uso do NAT (Network Address Translation) e da RFC 1918, que especifica os
endereços privados, não válidos na Internet, nas redes corporativas. O NAT permite
que, com um endereço válido apenas, toda uma rede baseada em endereços privados,
tenha conexão, embora limitada, com a Internet.
O DHCP (Dynamic Host Configuration Protocol), descrito pela RFC 2131. Esse protocolo
trouxe a possibilidade aos provedores de reutilizarem endereços Internet fornecidos a
seus clientes para conexões não permanentes.
O conjunto dessas tecnologias reduziu a demanda por novos números IP, de forma que
o esgotamento previsto para a década de 1990, foi postergado para a década de 2010.
Porém, a adoção mundial do IPv6 é lenta: 2% em 2014, 5% em 2015, 8% em 2016,
14% em 2017 e 20% em 2018.[5]
Internet das Coisas: Imagina-se que, em um futuro onde a computação seja ubíqua, a
tecnologia estará presente em vários dispositivos atualmente ainda não inteligentes,
que serão capazes de interagir autonomamente entre si - computadores invisíveis
interligados à Internet, embutidos nos objetos usados no dia a dia - tornando a vida
ainda mais líquida. Pode-se imaginar eletrodomésticos conectados, automóveis,
edifícios inteligentes, equipamentos de monitoramento médico, etc. Dezenas, talvez
mesmo centenas ou milhares de equipamentos estarão conectados em cada
residência e escritório. O IPv6, com endereços abundantes, fixos, válidos, é necessário
para fazer desse futuro uma realidade.
Expansão das redes: Vários fatores motivam uma expansão cada vez mais acelerada da
Internet: a inclusão digital, as redes móveis (3G, 4G, 5G), etc. São necessários mais IPs.
Qualidade de serviço: A convergência das redes de telecomunicações futuras para a
camada de rede comum, o IPv6, favorecerá o amadurecimento de serviços hoje
incipientes, como VoIP, streaming de vídeo em tempo real, etc, e fará aparecerem
outros, novos. O IPv6 tem um suporte melhorado a classes de serviço diferenciadas,
em função das exigências e prioridades do serviço em causa.
Mobilidade: A mobilidade é um fator muito importante na sociedade de hoje em dia.
O IPv6 suporta a mobilidade dos utilizadores, estes poderão ser contactados em
qualquer rede através do seu endereço IPv6 de origem.
O processo de descoberta do MTU tem que ser dinâmico, porque o percurso pode ser
alterado durante a transmissão dos datagramas.
Múltiplos cabeçalhos
1. IPv6
2. Hop-By-Hop Options Header
3. Destination Option Header
4. Routing Header
5. Fragment Header
6. Authentication Security Payload Header
7. Destination Options Header
8. Upper-Layer Header
Endereçamento
Um endereço padrão IPv6 deve ser formado por um campo provider ID, subscribe ID,
subnet ID e node ID. O node ID (ou identificador de interface) deve ter 64 bits, e pode
ser formado a partir do endereço físico (MAC) no formato EUI 64.
2001:0db8:85a3:08d3:1319:8a2e:0370:7344
Se um grupo de vários dígitos seguidos for 0000, pode ser omitido. Por exemplo,
2001:0db8:85a3:0000:0000:0000:0000:7344
2001:0db8:85a3::7344
Com o IPv6 todas as redes locais devem ter prefixos /64. Isso é necessário para o
funcionamento da autoconfiguração e outras funcionalidades.
Usuários de qualquer tipo receberão de seus provedores redes /48, ou seja, terão a seu
dispor uma quantidade suficiente de IPs para configurar aproximadamente 65 mil redes,
cada uma com endereços (18 quintilhões). É preciso notar, no entanto, que alguns
provedores cogitam entregar aos usuários domésticos redes com tamanho /56,
permitindo sua divisão em apenas 256 redes /64.
Os endereços IPv6 podem ser mapeados para IPv4 e são concebidos para roteadores que
suportem os dois protocolos, permitindo que nos IPv4 façam um "túnel" através de uma
estrutura IPv6. Estes endereços são automaticamente construídos pelos roteadores que
suportam ambos os protocolos.
::FFFF:<endereço IPv4>
Referências
1.
«Request for Comments: 1752» (em inglês). Internet Engineering Task Force. Janeiro de
1995. Consultado em 18 de outubro de 2009
«Request for Comments: 2460» (em inglês). Internet Engineering Task Force. Dezembro de
1998. Consultado em 18 de outubro de 2009
VENTURA, Felipe (19 dde janeiro de 2012). «Novo sistema que permite 340 undecilhões de
endereços IP estreia em junho». Gizmodo. Consultado em 21 de julho de 2015 Verifique data
em: |data= (ajuda)
«NIST Special Publication 500-267 - A Profile for IPv6 in the U.S.Government – Version 1.0»
(PDF) (em inglês)
5. https://www.google.com/intl/en/ipv6/statistics.html
Ligações externas
Um pacote IP não consegue chegar ao seu destino (i.e. Tempo de vida do pacote
expirado)
O Gateway não consegue retransmitir os pacotes na frequência adequada (i.e.
Gateway congestionado)
O Roteador ou Encaminhador indica uma rota melhor para a máquina a enviar
pacotes.
Tipo de mensagem que é obtida quando não se consegue localizar o equipamento alvo;
(nem todos os datagramas perdidos são detectados)
Ligações externas
Este artigo sobre Informática é um esboço. Você pode ajudar a Wikipédia expandindo-o.
O protocolo define cinco tipos diferentes de pacotes ICMPv6 para realizar funções para
IPv6 similares para aos protocolos do IPv4 Address Resolution Protocol (ARP) e dos
recursos Router Discovery e Router Redirect de seu Internet Control Message Protocol,
ou ICMP. Além disso, ele oferece muitas outras melhorias em relação a seus similares
do IPv4, como se vê na seção 3.1 da RFC 4861. Por exemplo, ele inclui Neighbor
Unreachability Detection (NUD), ou detecção de vizinhos inalcançáveis. Por isso,
melhora a robustez da entrega de pacotes na presença de problemas em roteadores ou
links, ou de nós móveis.
Referências
1.
Network Working Group; Thomas Narten; Erik Nordmark; William Allen Simpson; Hesham
Soliman (1 de março de 2005). «Protocol Overview». ietf.org. The Internet Engineering Task
Force (IETF). p. 3. Consultado em 7 de junho de 2016. Cópia arquivada em 2 de setembro de
2007
2. RFC 4861, Neighbor Discovery for IP version 6 (IPv6), T. Narten et al. (September
2007)
O ARP é usado para mapear um endereço de rede (por exemplo, um endereço IPv4)
para um endereço físico como um endereço Ethernet (também chamado de endereço
MAC). ARP foi implementado com muitas combinações de tecnologias da camada de
rede e de enlace de dados, como IPv4, Chaosnet, DECnet e Xerox PARC Universal
Packet (PUP) usando padrões IEEE 802, FDDI, X.25, Frame Relay e Asynchronous
Transfer Mode (ATM). IPv4 sobre IEEE 802.3 e IEEE 802.11 é o caso mais comum.
Índice
1 Escopo de operação
2 Proxy ARP
3 Ver também
4 Ligações externas
5 Notas e Referências
Escopo de operação
Proxy ARP
O Proxy ARP é uma variação do ARP. Ele possibilita que uma organização possua
somente um endereço IP para suas diversas redes.
Nesse caso, todas as redes estão conectadas a um router. Quando um host quiser se
comunicar com um host de outra rede (sem saber seu endereço MAC), ele irá despejar
um pacote com o número IP do host destino. Mas nesse caso o pacote é interceptado
primeiramente pelo router, que retorna ao host destino seu próprio endereço MAC. A
informação subseqüente será então orientada para o router, que a redirecionará para o
host destino, de acordo com a sua própria tabela de endereços.
Ver também
Routing
Redes de computadores
Protocolo
MAC
Ligações externas
RFC 826
DHCP
Notas e Referências
1.
Este artigo sobre redes de computadores é um esboço. Você pode ajudar a Wikipédia
expandindo-o.
Protocolo de tunelamento
Redes de computadores utilizam um protocolo de tunelamento quando um protocolo
de rede (o protocolo de entrega) encapsula um protocolo de carga diferente. Por meio
da utilização de tunelamento pode-se, por exemplo, transportar uma carga (dados) sobre
uma rede de entrega incompatível, ou fornecer um caminho seguro através de uma rede
não confiável. Lembra a ideia de um túnel entre uma origem e um destino.
As duas portas essenciais são a 80, para HTTP e a 443, para HTTPS, as quais garantem
uma navegação em páginas da Web sem restrições. Para evitar conexões indesejadas ou
que comprometam a segurança da instituição as demais portas não são abertas pelo
administrador de rede. Contudo, isso compromete a dinamicidade de aplicações na
Internet. Um funcionário ou aluno que queira acessar painéis de controle de sites,
arquivos via FTP ou amigos via Instant Messengers, por exemplo, não terá a capacidade
de fazê-lo, uma vez que as respectivas portas para seus funcionamentos estão
bloqueadas.
Para quebrar essa imposição rígida, porém necessária, o SSH oferece o recurso do
Túnel. O processo se caracteriza por duas máquinas ligadas ao mesmo servidor SSH,
que faz apenas o redirecionamento das requisições do computador que está sob firewall.
O usuário envia para o servidor um pedido de acesso ao servidor pop.xxxxxxxx.com
pela porta 443 (HTTPS), por exemplo. Então, o servidor acessa o computador remoto e
requisita a ele o acesso ao protocolo, retornando um conjunto de pacotes referentes à
aquisição. O servidor codifica a informação e a retorna ao usuário via porta 443. Sendo
assim, o usuário tem acesso a toda a informação que necessita.
É importante salientar que a prática do Tunnelling não é ilegal caso o fluxo de conteúdo
esteja de acordo com as normas da instituição.
Índice
1 IP tunneling
2 Proxy tunnel
o 2.1 Recursos
3 Ligações externas
IP tunneling
Este processo é frequentemente usado com o protocolo IPsec para criar um meio de
conectar duas redes usando uma VPN. O meio para que essas duas redes se vejam é,
tipicamente, a Internet. Dessa forma o fator limitador que é a distância é praticamente
eliminado, permitindo a utilizadores de uma rede dispôr dos recursos de outra rede
remota como se fossem locais.
Proxy tunnel
Um proxy tunnel é uma conexão SSH criada por meio de um proxy até um host com um
servidor SSH. Através desse túnel podem ser trafegadas quaisquer informações sem
possibilidade de bloqueio do proxy por filtro de conteúdo, uma vez que todos os dados
estão criptografados.
O túnel proxy pode ser criado em cima de qualquer tipo de socket proxy ou http proxy
que permita conexões SSL (https).
Recursos
A conexão SSH permite a associação de portas em cada ponta, assim abrindo um novo
gateway TCP em uma porta específica e ainda permite o uso de portas dinâmicas em
uma das pontas, ou seja, através de uma porta estática pode-se sair em qualquer porta
solicitada na outra ponta.
Claro como parece, toda rede com um proxy com suporte a SSL é passível de bypass
em seu firewall.
Obviamente com uma conexão fechada de ponta a ponta o acesso também pode ser feito
de fora para dentro, e um serviço interno de rede pode ser exposto para fora da rede com
túnel proxy reverso.
A única forma de filtrar esse tipo de acesso é negar por padrão qualquer conexão SSL
via proxy e liberar sites com SSL sob demanda.
Ligações externas
História
Publicado em 1999 quando foi proposto o padrão RFC 2661, o L2TP tem sua origem
primeiramente em dois protocolos de tunelamento antigos para comunicação ponto a
ponto: Layer 2 Forwarding Protocol (L2F) da Cisco e o Point-to-Point Tunnelling
Protocol (PPTP) da Microsoft. Uma nova versão deste protocolo, o L2TPv3 surgiu
quando foi proposto o padrão RFC 3931 em 2005. O L2TPv3 fornece recursos de
segurança adicionais, encapsulamento melhorado e a capacidade de conduzir outros
enlaces de dados além do Protocolo Ponto a Ponto (PPP) sobre uma rede IP (por
exemplo: Frame Relay, Ethernet, ATM, etc.).
Referências
1.
[Esconder]
v • e
Cloudvpn
FreeS/WAN
Libreswan
n2n
OpenConnect
OpenIKED
Openswan
Software Livre OpenVPN
Social VPN
SoftEther VPN
strongSwan
tcpcrypt
tinc
VTun
Layer 2 Forwarding
Protocol
Protocolos implementados por fabricantes
DirectAccess
Avast SecureLine
Check Point VPN-1
Cisco Systems VPN
Client
Software Proprietário Hamachi
Microsoft
Forefront Unified
Access Gateway
Este artigo sobre redes de computadores é um esboço. Você pode ajudar a Wikipédia
expandindo-o.
Point-to-Point Protocol
Em redes de computadores, o Point-to-Point Protocol (PPP), em português Protocolo
ponto-a-ponto é um protocolo de enlace de dados (camada 2) usado para estabelecer
uma conexão direta entre dois nós. Ele pode fornecer autenticação de conexão,
criptografia de transmissão (usando ECP, RFC 1968) e compressão.
O PPP é usado sobre muitos tipos de redes físicas incluindo cabo serial, linha telefônica,
linha tronco, telefone celular, enlaces de rádio especializados e enlaces de fibra ótica
como SONET. O PPP também é usado sobre conexões de acesso à Internet. Provedores
de serviços de Internet têm usado o PPP para acesso discado à Internet pelos clientes,
uma vez que pacotes IP não podem ser transmitidos sobre uma linha de modem por si
próprios, sem algum protocolo de enlace de dados.
PPP Link Group: composto por uma tabela de status da conexão (Link Status Table) e
por uma tabela de configuração com parâmetros sugeridos (Link Configuration Table).
PPP Link Quality Report Group: composto por uma tabela de parâmetros e estatística
(número de: pacotes enviados e recebidos, pacotes com erros e descartados, e
pacotes válidos) e por uma tabela de configuração, que contém informações acerca da
qualidade da conexão.
PPP Security Table: composta por variáveis de configuração e controle relacionadas
com as funcionalidades de segurança do PPP.
PPP IP Group: composta por variáveis de configuração, status e controle relacionadas
com uso do protocolo IP sobre o PPP.
PPP Bridge Group: composta por variáveis de configuração, status e controle
relacionadas com uso de funcionalidade de Bridge sobre o PPP.
NCP – Network Control Protocol
O NCP é composto por uma família de protocolos de rede. Ele estabelece e configura os
diferentes protocolos na camada de rede que serão utilizados pelo PPP.
CHAP
Este artigo sobre Informática é um esboço. Você pode ajudar a Wikipédia expandindo-o.
Este artigo sobre redes de computadores é um esboço. Você pode ajudar a Wikipédia
expandindo-o.