Você está na página 1de 22

Machine Translated by Google

Uma Breve Linha do Tempo da Internet

Neste livro, falarei sobre vários eventos no surgimento da Internet,


e uma breve história de seu desenvolvimento pode servir para
contextualizar os eventos. Gosto de pensar na história da Internet
em décadas, com apenas uma pequena necessidade de
contornar alguns dos limites decadais.6
Machine Translated by Google

década de 1960
A década de 1960 foi a década da invenção e da visão. Três inventores
diferentes, com motivações diferentes, conceberam independentemente
a ideia da comutação de pacotes no início dos anos 1960. Paul Baran,
da RAND, queria construir uma rede robusta o suficiente para fornecer
controle de lançamento de mísseis nucleares mesmo após um ataque
nuclear, de modo a garantir a capacidade de segundo ataque. Ele viu
isso como um aspecto importante da destruição mútua garantida e um
contribuinte para a estabilidade global. (Seu ponto de vista era que,
uma vez que esse esquema estivesse funcionando, deveríamos
compartilhá-lo com os russos, em parte para evitar um lançamento
acidental.) Donald Davies, do Laboratório Nacional de Física da
Inglaterra, tinha o objetivo de revitalizar a indústria de computadores
do Reino Unido inventando aplicações comerciais amigáveis. Ele viu
o processamento remoto de dados, transações de ponto de venda,
consultas de banco de dados, controle remoto de máquinas e apostas
online como aplicações potenciais. Ele geralmente é creditado por
cunhar o termo pacote. Leonard Kleinrock concebeu independentemente
o poder da comutação de pacotes, mas estava menos preocupado
com aplicações específicas do que com a possibilidade de a ideia
funcionar na prática. O medo era que a intercalação refinada de
pacotes de muitas fontes levasse a um sistema instável com flutuações
intratáveis na carga de tráfego. A análise matemática inicial de Kleinrock
da comutação de pacotes deu confiança de que a ideia funcionaria na
prática, inspirando no processo um grande corpo de trabalho na teoria
das filas de rede.
No final da década de 1960, o potencial da comutação de pacotes
como meio de conectar computadores e, assim, conectar pessoas,
mediado pela computação, era uma visão poderosa. A Agência de
Projetos de Pesquisa Avançada do Departamento de Defesa dos
Estados Unidos (ARPA)7 estabeleceu um programa para construir
uma rede de comutação de pacotes de área ampla chamada ARPAnet.
JCR Licklider e Robert Taylor (1968) escreveram um artigo no qual
previam uma ampla gama de aplicações para uma rede de comutação
de pacotes conectando computadores e pessoas.8 Eles escreveram:
Machine Translated by Google

O que vai rolar lá dentro? Eventualmente, toda transação informativa de conseqüência


suficiente para justificar o custo. A máquina de escrever de cada secretária, cada instrumento
de coleta de dados, concebivelmente cada microfone de ditado, alimentará a rede.
Você não enviará uma carta ou um telegrama; você simplesmente identificará as pessoas
cujos arquivos devem ser vinculados aos seus e as partes às quais eles devem ser
vinculados - e talvez especifique um coeficiente de urgência. Você raramente fará uma
ligação telefônica; você pedirá à rede para vincular seus consoles.
Você raramente fará uma viagem puramente de negócios, porque conectar consoles
será muito mais eficiente. Quando você visita outra pessoa com o objetivo de comunicação
intelectual, você e ela se sentam em um console de dois lugares e interagem tanto através
dele quanto face a face.

Eles também viram a rede como uma base para o acesso generalizado à
informação. Eles escreveram:
Na rede estarão disponíveis funções e serviços que subscreve regularmente e outros que
pode solicitar quando necessitar. No primeiro grupo estarão as orientações de investimentos,
assessoria fiscal, divulgação seletiva de informações em sua área de especialização,
divulgação de eventos culturais, esportivos e de entretenimento que atendam aos seus
interesses, etc. No segundo grupo estarão os dicionários, enciclopédias, índices, catálogos,
programas de edição, programas de ensino, programas de teste, sistemas de programação,
bancos de dados e — o mais importante — programas de comunicação, exibição e
modelagem.

No geral, sua avaliação do impacto dos computadores em rede foi otimista.


Em sua conclusão, eles escreveram:
Quando as pessoas fizerem seu trabalho informativo “no console” e “através da rede”, a
telecomunicação será uma extensão tão natural do trabalho individual quanto a comunicação
face a face é agora. O impacto desse fato e da notável facilitação do processo comunicativo
será muito grande - tanto no indivíduo quanto na sociedade.

Primeiro, a vida será mais feliz para o indivíduo on-line porque as pessoas com quem ele
interage mais fortemente serão selecionadas mais pela semelhança de interesses e
objetivos do que por acidentes de proximidade. Em segundo lugar, a comunicação será
mais eficaz e produtiva e, portanto, mais agradável. Terceiro, muita comunicação e interação
serão com programas e modelos programados, que serão (a) altamente responsivos, (b)
suplementares às próprias capacidades, em vez de competitivos, e (c) capazes de
representar ideias progressivamente mais complexas sem necessariamente exibir todos os
níveis de sua estrutura ao mesmo tempo - e que, portanto, serão desafiadores e gratificantes.
E, quarto, haverá muitas oportunidades para todos (que puderem pagar por um console)
encontrarem sua vocação, pois todo o mundo da informação, com todos os seus campos e
disciplinas, estará aberto para ele – com programas prontos para guiá-lo. ou para ajudá-lo
a explorar.
Para a sociedade, o impacto será bom ou ruim, dependendo principalmente da questão:
“estar online” será um privilégio ou um direito? Se apenas um segmento privilegiado da
população tiver a chance de aproveitar a vantagem da “amplificação da inteligência”,
Machine Translated by Google

a rede pode exagerar a descontinuidade no espectro da oportunidade intelectual.

Por outro lado, se a ideia da rede provar fazer pela educação o que alguns
imaginaram na esperança, se não em um plano detalhado concreto, e se todas as
mentes se mostrarem receptivas, certamente o benefício para a humanidade será incalculável.
O desemprego desapareceria da face da terra para sempre, pois considerem a
magnitude da tarefa de adaptar o software da rede a todas as novas gerações de
computadores, cada vez mais próximas de seus antecessores, até que toda a
população do mundo seja apanhada em um crescendo infinito de depuração interativa
on-line.

Embora seu último parágrafo possa refletir uma compreensão


irônica da realidade de lidar com computadores, a visão geral era
positiva e voltada para o futuro. Eles anteciparam a possibilidade de
uma divisão digital e o movimento do trabalho para o local onde
poderia ser melhor feito, o que poderia prenunciar a terceirização. O
artigo observa que questões de segurança e privacidade eram uma
preocupação ativa e estavam começando a receber a atenção que
merecem, novamente uma resposta a um grau de otimismo talvez
injustificado.
Em 1969, um ano após esse relatório, os primeiros nós da
ARPAnet se tornaram operacionais, ligando a UCLA (laboratório de
Kleinrock) ao SRI. A comutação de pacotes foi demonstrada e uma
geração de técnicos se encarregou da tarefa de torná-la prática. Por
um momento, os visionários haviam feito seu trabalho e as agências
financiadoras deram aos engenheiros suas ordens de marcha para
a próxima década.
Machine Translated by Google

década de 1970

A década de 1970 foi a década da engenharia e da prova de conceito.


No início da década, várias redes de comutação de pacotes foram
construídas ou contempladas, incluindo a ARPAnet (a rede terrestre
de comutação de pacotes que conecta computadores em diferentes
universidades e laboratórios de pesquisa financiados pela ARPA),
uma rede internacional de satélites (SATnet ) e uma rede de rádio de
pacote de espectro espalhado móvel (PRnet). Diante do desafio de
conectar essas redes díspares, Vinton Cerf e Robert Kahn (1974)
propuseram a ideia central da Internet. Embora muitos detalhes sobre
a Internet tenham evoluído durante a década de 1970, a abordagem
básica do projeto naquele artigo foi uma base duradoura para o que
temos hoje. A ARPA reuniu um grupo de engenheiros de diversas
instituições, sob a liderança direta do Cerf; esse grupo desenvolveu
os padrões para IP e TCP e implementou os protocolos em vários
computadores. Eu fazia parte dessa equipe, implementando os
protocolos para um grande sistema de compartilhamento de tempo
chamado Multics que estava sendo desenvolvido no MIT. A Internet
tornou-se operacional no final da década e os padrões para IP e TCP
foram publicados em 1981.
No final da década, ficou claro para a equipe de design inicial que
havíamos estimado mal o tamanho final para o qual a Internet
cresceria. Observo com certa diversão que, em 1978, Danny Cohen
e eu (Clark e Cohen, 1978) escrevemos: “ Devemos nos preparar
para o dia em que houver mais de 256 redes na Internet”. Na década
de 1970; esperávamos juntar todos os computadores do mundo. Só
que não entendemos quantos computadores podem existir. A década
de 1970 foi a era do computador mainframe. Enquanto o Xerox PARC
estava demonstrando a ideia de um computador pessoal na década
de 1970, a importância dessa inovação não ficou realmente clara até
o advento do IBM PC no início dos anos 1980.
Machine Translated by Google

década de 1980
A década de 1980 foi a década que viu o primeiro uso substancial da Internet:
foi uma década de crescimento e de disputa entre padrões concorrentes para
definir uma internet. Com o surgimento do IBM PC no início da década e a
transformação da computação de compartilhamento de tempo de mainframe
em computação pessoal, a equipe de design da Internet percebeu que a
Internet deveria ser capaz de conectar milhões de computadores (um número
que agora vemos como bilhões, ou talvez um trilhão).

Como a equipe de projeto inicial contemplou a necessidade de dimensionar


a Internet para um tamanho muito maior do que havíamos contemplado
inicialmente, ela também enfrentou o desafio de seu próprio tamanho. À
medida que mais organizações se interessavam pela Internet, o número de
pessoas que compareciam às reuniões de projeto crescia e chegava um ponto
em que essas reuniões se tornavam ineficazes. A equipe de projeto original,
liderada por Cerf, percebeu que precisava criar um pequeno grupo de direção,
juntamente com grupos de trabalho para tratar de problemas específicos. Cerf
teve a ideia de criar um grupo menor sem que todos clamassem para entrar,
deveríamos dar a ele um nome desagradável.
Nós o chamamos de Internet Configuration Control Board (ICCB) para torná-
lo o mais chato possível. Esse grupo transformou-se no Internet Advisory
Board, depois no Internet Activities Board e, finalmente, no Internet Architecture
Board. (Todos esses grupos compartilham o acrônimo IAB.) Eu presidi esse
grupo durante a década de 1980.
O primeiro grupo de trabalho foi o Gateway Algorithms and Data Structures
Task Force (GADS), presidido por David Mills. O IAB o estabeleceu para
abordar a questão de como dimensionar os esquemas de roteamento da
Internet para o tamanho que agora contemplamos. A abordagem de
roteamento que a comunidade de pesquisa desenvolveu no início desta
década (Rosen, 1982) foi o esquema hierárquico de sistemas autônomos
conectados com um esquema de roteamento inter-AS (hoje é BGP) e um
esquema de roteamento separado dentro de cada região.

O grupo de trabalho GADS demonstrou a importância de ter diferentes


grupos focados em questões específicas de design, e o
Machine Translated by Google

O IAB viu que alguma estrutura de gerenciamento seria necessária


à medida que o número de grupos de trabalho aumentasse. Isso
levou à criação da Internet Engineering Task Force (IETF), com o
GADS como seu primeiro grupo de trabalho. Hoje, o IETF tem várias
áreas, com grupos de trabalho dentro de cada área. O IETF continua
como o corpo de definição de padrões da Internet hoje.
Um dos desenvolvimentos importantes da década de 1980 foi o
DNS, que descrevi na página 18. Inicialmente, as máquinas na
Internet tinham nomes simples como “MIT-1”. Jon Postel, do
Information Sciences Institute (ISI) da University of Southern
California, mantinha um arquivo que mapeava nomes para endereços
IP, que qualquer um podia baixar conforme necessário. Para registrar
um novo nome, enviou-se um e-mail para Jon. Essa abordagem não
seria dimensionada para milhões de máquinas. A ISI, sob a liderança
de Paul Mockapetris e Postel, desenvolveu uma proposta para o
DNS. Com a estrutura hierárquica do DNS, não era mais necessário
ir a Jon Postel para registrar um novo nome, mas sim ao registrador
do domínio relevante - para registrar um nome como xyz.mit.edu, por
exemplo, bastava entre em contato com uma pessoa no MIT. Esse
esquema poderia escalar com muito mais facilidade para um grande
número de nós finais e é o esquema usado na Internet hoje, embora
a estrutura de gerenciamento do DNS tenha se tornado muito mais
complexa.10
Há um padrão nessas histórias. Os cientistas da computação,
diante do desafio de escalar, tendem a recorrer a um esquema
hierárquico. Na década de 1980, a (agora maior) comunidade de
pesquisa projetou roteamento hierárquico, nomenclatura hierárquica
e um esquema de gerenciamento hierárquico para si.
Um evento importante na década de 1980 foi a transição do
suporte para a Internet implantada da DARPA para a National
Science Foundation (NSF). A DARPA considerou que a pesquisa
estava chegando a uma conclusão e decidiu desativar a ARPAnet,
que era cara de operar. A NSF estava interessada em conectar seus
centros de supercomputadores e fornecer acesso a esses centros
de outros locais de pesquisa, por isso apoiou o desenvolvimento e a
implantação da NSFnet, que
Machine Translated by Google

sites acadêmicos conectados nos Estados Unidos usando os protocolos da


Internet. À medida que a NSFnet evoluiu para acompanhar a demanda,
surgiram várias versões de tecnologia e links de comunicação; a versão final
utilizava links com capacidade de 45 mbps (que era rápido na época).

Outra característica da década de 1980 foi a competição entre conjuntos


de protocolos alternativos como base para uma internet. Houve propostas
corporativas, como o Xerox Network System (XNS), que se mostrou popular
em aplicativos de rede local (LAN), e talvez o mais significativo, o esforço da
Organização Internacional de Padronização (ISO) para desenvolver sua
Interconexão de Sistemas Abertos (OSI ) conjunto de protocolos. A ISO, como
órgão de padronização com representação formal de órgãos de padronização
nacionais, afirmou que tinha autoridade para definir um padrão global de
interligação de redes. Partes do governo dos EUA, como o Instituto Nacional
de Padrões e Tecnologia (NIST), sentiram a necessidade de apoiar os
esforços da OSI, que dividiu o governo entre as agências que apoiam a OSI
e as que apoiam a PI. Depois de um período controverso que durou além do
final da década de 1980, o mercado se moveu em direção aos padrões de IP,
impulsionado pela DARPA e pela NSF, e o esforço da OSI desapareceu.

Um concorrente mais significativo para o conjunto de protocolos da Internet


foi o Asynchronous Transfer Mode (ATM), um resultado da pesquisa feita no
Bell Labs, que refletiu uma preferência de design consistente com a história
do sistema telefônico, ao mesmo tempo em que explorava a ideia de
comutação pequenas unidades de dados (chamadas células) em vez de
configurar um circuito fixo como o sistema telefônico fazia anteriormente. A
ATM era uma concorrente séria por participação de mercado na década de
1990, mas acabou não tendo sucesso no mercado. Algumas de suas ideias
foram incorporadas a opções de tecnologia (como comutação de rótulos
multiprotocolo ou MPLS) que são usadas hoje para fornecer transporte para
pacotes IP.
Discuto ATM, MPLS e questões relacionadas no Apêndice.
O aplicativo da década de 1980 era o e-mail, e para os usuários dizerem
que estavam “na Internet” significava que tinham um e-mail
Machine Translated by Google

endereço. Para muitos usuários, a Internet era igual ao e-mail,


atitude que persistiu até o início da década seguinte.
Durante a maior parte da década de 1980, presidi o grupo que
começou como ICCB e acabou como IAB. Deixei o cargo de
presidente no final da década e me voltei para uma linha
específica de pesquisa motivada pelo surgimento do ATM e pela
percepção de que a Internet seria usada para transmitir fluxos de
voz e vídeo. Meus colaboradores e eu nos propusemos a propor
e desenvolver novos protocolos que aprimorassem o serviço
original de melhor esforço da Internet com novos modos de
entrega mais adequados às necessidades de aplicações mais
exigentes, como voz em tempo real (telefonia pela Internet ou
Voz pela Internet—VoIP) ou streaming de vídeo.
Machine Translated by Google

década de 1990
A década de 1990 foi a década da comercialização e da World Wide
Web. Foi também uma década em que se repetiram visões sobre o
futuro das comunicações e sobre o poder e a utilidade do acesso
mediado por computador à informação e entre as pessoas. Foi
também a década em que a fibra ótica surgiu para reduzir o custo
da transmissão de dados.
No início da década de 1990, a espinha dorsal da Internet — a
capacidade de longa distância que unia as regiões — era a NSFnet.
Em meados da década, ficou claro para os provedores de
comunicações comerciais que o fornecimento de conectividade à
Internet pelo setor privado era uma perspectiva de negócio viável, e
a NSF, impulsionada pela indústria, executou uma transição na qual
a NSFnet foi desativada, para ser substituída por redes de
provedores de redes comerciais. Essa transição teve o efeito, entre
outras coisas, de remover quaisquer limitações residuais sobre o
tipo de tráfego que poderia ser enviado pela Internet. A Política de
Uso Aceitável da NSF restringia nominalmente o uso da NSFnet à
comunidade acadêmica e de pesquisa, definida de forma ampla.
Embora essa limitação não tenha impedido, na prática, o uso de e-
mail e outros aplicativos por uma ampla gama de usuários, a
transição para o backbone comercial abriu a Internet para uma gama
muito maior de usos e propósitos, incluindo aqueles que eram
puramente comerciais e entretenimento. Nesta década, muitos
usuários experimentaram pela primeira vez o streaming de áudio,
tanto “rádio da Internet” quanto sites de música armazenada. Como
resultado, a década de 1990 viu a indústria da música ficar ansiosa
com a possível ruptura de seus modelos de negócios um tanto
estáveis, uma ansiedade que era totalmente justificada. A Amazon,
com sua visão de comércio eletrônico, foi fundada em 1994 e
também alarmou aqueles com visão no ramo de venda de livros no
varejo e outros. Assim, a própria Internet foi comercializada e o comércio mudou
A World Wide Web (ou apenas “a Web”) foi inventada em 1990
por Tim Berners-Lee, então no CERN (Organização Européia para
Pesquisa Nuclear), como uma ferramenta de colaboração e informação
Machine Translated by Google

compartilhamento entre a comunidade física. Na primeira parte da


década, a Web estava competindo com outros esquemas de
compartilhamento de informações, como o serviço de informações
de área ampla (WAIS), Gopher e Archie, que agora existem apenas
como memórias para alguns de nós. Em 1993 ou 1994, a Web havia
conquistado uma participação de mercado dominante (ou “mind
share”), com base em parte no desenvolvimento em 1993 do Mosaic,
o primeiro navegador da Web a permitir que as páginas da Web
incluíssem gráficos e texto. O Mosaic foi desenvolvido no NSF-
supported National Center for Supercomputing Applications (NCSA)
na University of Illinois, Urbana-Champaign, e se tornou o navegador
que definiu a experiência da Web para a maioria dos usuários na
década de 1990. Suas capacidades gráficas eram essenciais para
uma ampla gama de aplicações, incluindo a comercialização de produtos comerc
Em 1991, o então senador Al Gore propôs a infraestrutura nacional
de informação (NII), uma visão que às vezes era chamada de
superestrada da informação. Era uma rede ubíqua e de alta
velocidade que disponibilizava vastas quantidades de informação
tanto para o setor público quanto para o setor privado e fornecia uma
ampla gama de serviços aos cidadãos. Em parte motivado por essa
visão, o Conselho de Ciência da Computação e Telecomunicações
do Conselho Nacional de Pesquisa lançou dois relatórios na Internet:
Realizing the Information Future (National Research Council, 1994)
e The Unpredictable Certainty (National Research Council, 1996).
Tive o privilégio de ajudar a escrever esses dois relatórios, e eles
fornecem uma cápsula do tempo maravilhosa do pensamento da
época. Na primeira, os membros do comitê da indústria de
telecomunicações não permitiriam que o relatório usasse o termo
“Internet” para descrever a futura infra-estrutura de rede do país. A
visão deles era que um grupo solto de pesquisadores não estava
qualificado para projetar a rede que a nação realmente precisava e
que as companhias telefônicas com o tempo projetariam a coisa real.
Eles exigiram que o texto do relatório se referisse a essa futura rede
de maneira neutra como um “serviço de portador de pacotes”. Em
1996, era aceitável discutir a Internet pelo nome e, no final de
Machine Translated by Google

Na década, ficou claro que o que quer que fosse o NII, ele seria baseado na
Internet.
A fibra ótica surgiu como uma tecnologia de telecomunicações comercial
na década de 1980. A Sprint anunciou sua rede totalmente óptica em
meados da década de 1980, mas foi realmente na década de 1990 que o
potencial da fibra ótica para transportar grandes volumes de tráfego a custos
cada vez mais baixos em comparação com os fios de cobre foi percebido.
Os links da versão mais rápida do NSFnet tinham capacidade de 45 mbps.
Hoje, os links de fibra ótica chegam a 100 gbps, mais de duas mil vezes
mais rápidos. Foi a fibra ótica que permitiu que a Internet crescesse a um
custo razoável para transportar os dados facilitados pela Web, bem como o
streaming de conteúdo – primeiro áudio e, nas décadas posteriores, vídeo de alta qualida
A fibra ótica é “apenas” uma tecnologia de baixo nível, mas as implicações
econômicas de seu desenvolvimento e implantação são talvez o fator mais
importante no crescimento e sucesso da Internet.

Outra atividade na década de 1990 foi um esforço substancial do IETF e


da comunidade de pesquisa para aprimorar e aprimorar a estrutura de
endereçamento da Internet. Na década de 1980, cada nó final na Internet
tinha um endereço distinto. No entanto, já em meados da década de 1980,
ficou claro para os projetistas da Internet que, eventualmente, haveria mais
pontos finais na Internet do que poderiam ser numerados com um endereço
de apenas 32 bits.11 Para lidar com o problema problema de esgotamento
de endereços, o IETF realizou um retiro no qual discutiu os desafios do
futuro, e um grupo de nós escreveu um manifesto intitulado “Rumo à futura
arquitetura da Internet” (Clark et al., 1991). O documento discutiu a tensão
entre o IP e o esforço OSI, endereço de exaustão, segurança e uma série
de outras questões. Os autores foram ousados o suficiente para afirmar que
a Internet deve ser dimensionada para acomodar um bilhão de redes.12
Para lidar com o esgotamento de endereços, o grupo propôs dois planos.
Uma delas era converter para um novo formato de pacote para a Internet
com um campo de endereço muito maior. Essa proposta gerou um esforço
que resultou no que hoje é chamado de IPv6.13 O IPv6 está lentamente
entrando em uso na Internet, 25 anos depois. A outra abordagem foi
especificar um novo
Machine Translated by Google

elemento de rede chamado de dispositivo de conversão de endereço


de rede, ou NAT. Usando a conversão de endereço de rede, vários nós
finais podem ser agrupados atrás de um único link de acesso conectado
ao restante da Internet. Esses nós recebem endereços que têm apenas
significado local. O dispositivo NAT recebe um ou um pequeno número
de endereços de Internet roteáveis globalmente e reescreve os
endereços nos pacotes conforme eles saem do cluster. Dessa forma,
vários dispositivos finais podem compartilhar um único endereço.
Atualmente, a maioria das residências com Internet de banda larga
possui um roteador doméstico que é um firewall (para aumentar a
segurança) e um dispositivo NAT. Se cada computador na casa moderna
hoje tivesse seu próprio endereço global, a Internet teria ficado sem
endereços há muito tempo. Em partes do mundo onde menos endereços
foram alocados, os ISPs estão colocando grupos muito maiores de
usuários (talvez uma cidade inteira) atrás de um dispositivo NAT.
Outro aprimoramento do endereçamento da Internet proposto no
início da década de 1990 foi o conceito de multicast. No projeto original
da Internet, um endereço identificava o ponto de conexão específico
para um nó final para o qual um pacote deveria ser enviado. Steve
Deering, então estudante de pós-graduação na Universidade de
Stanford, propôs um novo tipo de endereço que identificava um conjunto
de destinos - se um pacote fosse enviado para aquele endereço, a
Internet encaminharia o pacote para todos esses destinos da melhor
maneira possível. (Cheriton e Deering, 1985; Deering e Cheriton, 1990).
Deering propôs o multicast para fornecer suporte eficiente para
teleconferências multidirecionais e a transmissão de conteúdo de
streaming (como áudio e vídeo) para públicos potencialmente grandes.
A comunidade de pesquisa dedicou muito esforço aos aspectos técnicos
do multicast, e ele foi usado para propósitos tão diversos quanto
teleconferências, participação remota em reuniões da IETF e um
multicast de um show dos Rolling Stones em 1994 (precedido por um
multicast de um banda menos conhecida chamada Severe Tire Damage
em 1993) (Strauss, 1994). O multicast é usado hoje em redes privadas
baseadas em IP para suportar streaming de vídeo, mas não foi um
sucesso na Internet pública, por razões econômicas, como discutirei no
capítulo 12.
Machine Translated by Google

No final da década de 1990, cerca de metade dos americanos


estava online (Horrigan, 2000). Destes, cerca de 85% usavam e-
mail, mas também houve uma explosão de serviços baseados na
Web, conforme documentado por Horrigan. O uso da Web estava
se expandindo e mudando, a ponto de seu relatório poder dizer: “O
usuário da Internet de hoje também é diferente do típico internauta
de alguns anos atrás”.
Machine Translated by Google

anos 2000
Esta foi a década da banda larga do consumidor, a explosão da
Internet globalmente e a expansão do acesso móvel à Internet. As
questões de segurança ocuparam o centro do palco e os governos
começaram a considerar a necessidade de regulamentar a Internet.
No início da década, a maioria dos usuários residenciais se
conectava à Internet por meio de modems dial-up, que melhoraram a
ponto de fornecer uma taxa de transferência de 56 kbps. Milhares de
grandes e pequenos ISPs ofereciam acesso discado. No final da
década, dois terços dos americanos tinham acesso de banda larga à
Internet (Smith, 2010), fornecido por um pequeno punhado de
provedores de telefone e TV a cabo que possuíam as conexões
físicas em casa (em vez de milhares de pequenas conexões dial-up).
provedores de internet). A banda larga, com suas velocidades
multimegabits, possibilitou uma nova explosão em aplicações como o
streaming de vídeo, cujo impacto só foi plenamente sentido na década seguinte.
Essa mudança na estrutura do mercado para um pequeno número
de provedores de banda larga (e concentração de poder de mercado
potencial) é talvez a transformação mais importante do ecossistema
da Internet desde a mudança para a comercialização em meados da
década de 1990. A Internet que temos hoje está sob o controle desse
pequeno conjunto de atores. As preocupações sobre o poder potencial
dessas empresas de controlar e distorcer como o tráfego da Internet
é entregue aos consumidores atraiu pela primeira vez a atenção
significativa de agências reguladoras, como a Comissão Federal de
Comunicações dos Estados Unidos (FCC). Em 2005, a FCC emitiu
uma declaração de política de seus “Quatro Princípios” (Federal
Communications Commission, 2005), que afirma que um usuário da
Internet deve ser capaz de usar aplicativos de sua escolha, acessar
conteúdo de sua escolha, conectar dispositivos de sua escolha e
selecionar entre provedores de serviços competitivos. Esta foi a
rodada inicial de uma luta contínua, sob o slogan de “neutralidade da
rede”, para determinar se o governo (em particular por meio da FCC)
deveria ter voz na definição do futuro da Internet ou
Machine Translated by Google

se o futuro da Internet seria definido pelas decisões do setor privado que a


estava construindo.
Embora a Internet tenha se expandido para fora dos Estados Unidos no
início de sua história, foi durante a primeira década do novo milênio que
ocorreu a maior penetração da Internet para os cidadãos em todo o mundo.
De acordo com a ITU (União Internacional de Telecomunicações, 2016), em
2010 havia mais de 2 bilhões de usuários da Internet, a maioria do mundo em
desenvolvimento.

É difícil dizer quando a questão da segurança na Internet, que discuto


detalhadamente mais adiante neste livro, recebeu grande atenção pela
primeira vez. Os projetistas originais entenderam desde o início que a Internet,
com seu alcance global e acesso aberto, levantaria questões de segurança.
No entanto, dois eventos próximos ao início do novo milênio trouxeram uma
conscientização muito maior sobre questões de segurança como resultado da
liberação de dois vírus de computador — programas que se propagaram de
computador para computador, causando danos ao atingirem cada máquina.
O vírus Melissa em 1999 e o vírus ILOVEYOU em 2000, que causaram o
desligamento de muitas partes do sistema de e-mail da Internet como uma
ação defensiva, foram avisos altamente visíveis sobre o potencial de agentes
mal-intencionados causarem danos na Internet.14

Também não tenho certeza em que década colocar outro fenômeno


transformador, o smartphone móvel. A DARPA financiou o desenvolvimento
de uma rede móvel de pacotes de rádio sem fio a partir de 1973, embora os
rádios (com menos recursos do que os smartphones de hoje) fossem do
tamanho de uma geladeira de cerveja e tivessem que ser transportados em
caminhões. No Japão, a NTT DoCoMo lançou um smartphone em 1999 que
alcançou penetração em massa. No entanto, este dispositivo foi concebido
não para dar acesso aberto à Internet, mas sim uma experiência mais curada
e murada. Vários assistentes digitais pessoais, como o Blackberry, surgiram
no início da década, mas novamente não eram um meio de obter acesso
aberto à Internet. Para mim, o lançamento do primeiro iPhone da Apple em
2007 e os primeiros telefones com o sistema operacional Android em 2008
marcam o ponto em que
Machine Translated by Google

é um dispositivo disponível para qualquer utilizador da Internet que


permite a utilização alargada de aplicações de Internet em contexto móvel.
O crescimento de novos aplicativos baseados na Web continuou
durante a década. O crescimento do comércio eletrônico é um aspecto
importante da década. O Facebook foi iniciado em 2004, mas seu foco
inicial em estudantes universitários mascarou sua escala e impacto. O
Twitter foi iniciado em 2006; novamente, seu impacto foi totalmente
sentido na década seguinte.
A primeira década do milênio foi também a década em que se
encontram as origens deste livro. A NSF, com o incentivo de vários
membros da comunidade de pesquisa, perguntou se o design específico
da Internet (o que estou chamando de arquitetura) contribuiu para alguns
dos problemas e desafios que se tornaram tão claros nesta década. Eles
perguntaram se talvez uma abordagem diferente de design pudesse
diminuir alguns dos problemas de segurança, diminuir os argumentos em
torno da neutralidade da rede ou lidar melhor com questões de
recuperação de informações ou mobilidade de dispositivos. Eles lançaram
um programa de três fases, com financiamento inicial de pequenos
projetos de pesquisa exploratória, seguidos de financiamento de quatro
grandes projetos para desenvolver concepções alternativas do que a
Internet poderia ser, talvez 15 anos no futuro. Os grupos foram
encorajados a pensar em uma nova abordagem de design, não limitada
pela Internet atual. A primeira reunião dos bolsistas foi em 2006, e o
programa (chamado Future Internet Architecture, ou FIA, programa)
acabou de terminar. Como parte desse programa, fui financiado pela NSF
para ser um coordenador da comunidade de pesquisa, com a tarefa de
analisar todos os projetos, ver quais lições gerais foram aprendidas e
fornecer uma visão integrada dos insights. Um dos resultados desse
trabalho é este livro.
Machine Translated by Google

anos 2010
Nesta década, o cenário de aplicativos está novamente sendo
transformado, desta vez por streaming de vídeo e mídia social.
O surgimento do streaming de vídeo na Internet, tipificado pelo
Netflix como fonte de conteúdo mais tradicional e pelo YouTube
como fonte de uma ampla gama de conteúdos alternativos, do
profissional ao muito amador, é um aspecto dominante desta
década. As funções de bloqueio na transição da Netflix do aluguel
de vídeo pelo envio de um DVD para o streaming pela Internet
foram a implantação profunda de acesso efetivo à banda larga do
consumidor e a queda no custo do transporte de dados on-line.15
Quando o custo para a Netflix de enviar um vídeo por a Internet
caiu abaixo da postagem para enviar e devolver um DVD, a
mudança para a entrega online foi quase inevitável. Hoje, o tráfego
apenas da Netflix e do YouTube representa mais da metade do
volume total da Internet na América do Norte, e todo o streaming
de áudio e vídeo soma mais de 70% do tráfego da Internet (Sandvine, 2016).
Para os usuários, sua concepção da Internet sempre esteve
ligada à experiência, não à tecnologia ou à arquitetura. Na década
de 1980, a Internet era o e-mail. Na década de 1990, a Internet era
a Web. Para uma geração de usuários de hoje, a Internet é
Facebook, Netflix, YouTube e outras mídias sociais e sites de
compartilhamento de conteúdo. Mais uma vez, essa realidade
desafia qualquer pessoa preocupada com o design da Internet a
equilibrar generalidade versus eficiência. Se o tráfego de vídeo
domina a Internet hoje, a Internet deve evoluir para se especializar
em transportar esse tipo de tráfego ou deve manter seu caráter
geral para facilitar o que vier a seguir? Essa é uma pergunta
recorrente, e voltarei a ela.
Já que mencionei o poder dos visionários para motivar e inspirar,
encerrarei esta discussão com elogios a alguns de meus visionários
favoritos, os contadores de histórias de ficção científica. Seus
futuros podem ser um tanto sombrios, ao contrário das visões
otimistas de Licklider e Taylor, mas, na melhor das hipóteses, eles
são notavelmente perspicazes. Obtemos o termo ciberespaço de um romance
Machine Translated by Google

por William Gibson, Neuromancer, escrito em 1984. Essa data,


que ressoou com algumas pessoas por outros motivos, é anterior
à Web e enquanto a equipe inicial de design da Internet estava
lutando com questões básicas de escala. O romance Shockwave
Rider de John Brunner, publicado em 1975, incluía o conceito de
“worm”, uma forma de vírus de computador que se movia pela
rede, coletando informações secretas e tornando-as públicas,
revelando práticas governamentais horríveis. No final, não há
segredos nem privacidade. A visão de Brunner antecede as
revelações de Edward Snowden em quase 30 anos. Sinta-se à
vontade para largar este livro e ler uma boa ficção científica, se
não se importar com uma visão distópica do futuro.
Machine Translated by Google

Avante

Com esse pano de fundo, é hora de prosseguir para o verdadeiro


foco do livro, que é um estudo dos princípios básicos de design
da Internet (o que chamo de “arquitetura”), como esses princípios
se relacionam com os requisitos que a Internet deve atender
(requisitos técnicos e sociais) e como concepções alternativas
de uma Internet podem atender melhor a esses requisitos ou
talvez se concentrar em diferentes requisitos que os designers
de hoje consideram mais importantes.
Machine Translated by Google

Notas

1. A palavra protocolo foi escolhida com base em seu uso na diplomacia, onde descreve modos de
interação formais e proscritos. No entanto, a etimologia da palavra conta outra história. A palavra
vem do grego prÿtokollon e significa “primeira página”, de prÿtos “primeiro” + kolla “cola”. Os gregos
colavam o sumário no início de um pergaminho depois de concluído; colocamos o cabeçalho (não
literalmente com cola) na frente de cada pacote. Quer os pesquisadores da Internet que primeiro
escolheram o termo protocolo tivessem ou não uma boa educação clássica, tenho certeza de que
eles pesquisaram a etimologia da palavra.

2. Os vários padrões da Internet (e outros materiais relacionados) são publicados em uma série de
documentos chamados “Requests for Comment” (RFCs), cujo título capta a ideia de que os autores
de RFCs devem estar abertos a sugestões e mudanças .
Os RFCs podem ser encontrados em https://tools.ietf.org/html/. A especificação para IP é RFC 791.

3. Datagrama soa mais como uma analogia de telegrama do que uma analogia de serviço postal.
Acho que a analogia postal é melhor, mas não escolhi o termo.
4. Mencionei anteriormente, ao introduzir o conceito de estado e variáveis de estado, que os
roteadores não possuem variáveis de estado para acompanhar os diferentes pacotes que eles encaminham.
No entanto, a tabela de encaminhamento é claramente um exemplo de estado em um roteador.

5. Os protocolos que especificam a World Wide Web são desenvolvidos principalmente pelo World
Wide Web Consortium (o W3C) hospedado no Laboratório de Ciência da Computação e Inteligência
Artificial do MIT. O W3C pretende ser um órgão neutro que incentiva diferentes partes interessadas
a contribuir com seus pontos de vista sobre o futuro da Web.

6. Esta história é breve e, portanto, necessariamente seletiva, e reflete meu ponto de vista pessoal.
Existem inúmeros livros documentando os vários estágios do desenvolvimento da Internet. Para o
início da história, dois lugares para começar são Abbate (2000) e Hafner (1998).

7. A ARPA agora se chama DARPA, adicionando o “D” para Defesa à sigla.


8. Tanto “Lick” quanto Taylor foram instrumentais no desenvolvimento da comutação de pacotes
inicial, trabalhando na ARPA em diferentes funções para apoiar o desenvolvimento da ARPAnet.
Talyor dirigiu o laboratório de pesquisa Xerox PARC, que desenvolveu talvez o primeiro computador
pessoal real (o Alto) e a primeira rede local (Ethernet).
9. O esquema inicial de endereçamento da Internet limitava o número de redes a 256. Neste
documento, exigimos o reconhecimento de que a Internet seria composta de regiões, com múltiplas
redes dentro delas.
10. As funções que Jon Postel desempenhou inicialmente foram transferidas para uma organização
chamada Internet Corporation for Assigned Names and Numbers (ICANN) em 1998. A ICANN criou
registradores concorrentes para vários domínios e um grande número de nomes de domínio de
primeiro nível, e há disputa sobre questões que vão desde o uso de diferentes conjuntos de
caracteres até marcas registradas. Não estou deliberadamente me alongando sobre essas questões
neste livro, pois elas se relacionam com a governança da Internet e não com a Internet.
Machine Translated by Google

arquitetura. Existem vários bons livros sobre as tensões atuais sobre a governança da
Internet, como DeNardis (2015).
11. Um número de 32 bits pode identificar apenas cerca de 4 bilhões de pontos finais e,
como os endereços são alocados em blocos para facilitar o roteamento e permitir
expansão futura, não é prático usar todos os números. Atualmente, existem cerca de 1,5
bilhão de endereços em uso ativo, e a maior parte do restante foi alocada em regiões da
Internet para expansão.
12. Um bilhão de redes, não um bilhão de hosts. Estávamos cansados de subestimar o
eventual desafio.
13. O formato atual é na verdade IPv4 – os anteriores eram experimentais, assim como o
IPv5.
14. Os vírus de computador recebem seus nomes fofos de várias maneiras. O nome
geralmente é inventado pelo descobridor do vírus, mas geralmente deriva do conteúdo do
próprio vírus. O vírus ILOVEYOU foi nomeado para o anexo de e-mail pelo qual se
propagou, chamado Love-letter-for-you.txt. Muitas pessoas abriram o anexo, para seu
pesar.
15. Também havia questões sobre como o conteúdo era licenciado para a Netflix. Os
direitos que a Netflix tinha para enviar um DVD não lhes concedia o direito de transmitir o
conteúdo pela Internet, o que era uma questão comercial crítica, mas removida da
arquitetura de rede.

Você também pode gostar