Você está na página 1de 15

Centro Universitário Presidente Antônio Carlos

André Luís de Oliveira Lopes, Guilherme Augusto Vale da Silva, Matheus Felipe
Bomtempo de Albuquerque, Paulo Henrique Ferreira dos Santos, Rafael Bertolini
Viol Ferreira

Evolução dos Computadores: 1971 – 1980

BARBACENA
2023
André Luís de Oliveira Lopes, Guilherme Augusto Vale da Silva, Matheus Felipe
Bomtempo de Albuquerque, Paulo Henrique Ferreira dos Santos, Rafael Bertolini
Viol Ferreira

Evolução dos Computadores: 1971 – 1980

Trabalho da Primeira Etapa apresentado ao Centro Universitário Presidente Antônio


Carlos, como parte dos requisitos para o progresso na disciplina do curso.
ORIENTADOR: Prof. Felipe Rocalli de Paula Carneiro

BARBACENA
2023
SUMÁRIO

1 INTRODUÇÃO .................................................................................................... 3

2 A QUARTA GERAÇÃO DE COMPUTADORES .................................................. 4

2.1 KENBAK-1 O PRIMEIRO COMPUTADOR PESSOAL (1971) ...................... 4


2.2 INTEL INTRODUZ O PRIMEIRO MICROPROCESSADOR (1971)............... 5
2.3 MICRAL N (1973) ......................................................................................... 5
2.4 CDC STAR-100 (1974) ................................................................................. 6
2.5 PDP-11 (1975) .............................................................................................. 7
2.6 CRAY-1 (1976) .............................................................................................. 7
2.7 ATARI 2600 E ROM CHIPS (1977) ............................................................. 11
2.8 TI-99/4A (1979) ........................................................................................... 12
3 CONCLUSÃO ................................................................................................... 13

4 REFERÊNCIAS ................................................................................................. 14
3

1 INTRODUÇÃO

Com a Quarta Geração de computadores em 1971, o mundo testemunhou um


grande avanço na computação, primeiramente com o maior domínio sobre a física de
sólidos, juntamente com o desenvolvimento dos Circuitos Integrados e o domínio do
Laser, deram início a computação moderna. Em 1971 o primeiro microprocessador, o
Intel 4004, foi lançado e no mesmo ano o primeiro computador pessoal foi lançado. A
linguagem de programação C foi desenvolvida no início da década e o sistema
operacional Unix foi reescrito em 1973 por Dennis Ritchie e sua equipe. Com a " Very
Large Scale Integrated (VLSI)" circuitos integrados (microchips), computadores
pessoais rudimentares começaram a ser produzidos juntamente com calculadoras de
bolso.
4

2 A QUARTA GERAÇÃO DE COMPUTADORES


A Quarta Geração de computadores ocorreu entre 1971 e 1980. Esses
computadores usavam tecnologia de circuitos chamada de “Very Large Scale
Integrated (VLSI)”, sendo ela, uma tecnologia microeletrônica que integra uma grande
quantidade de transistores em um chip, para a criação de um circuito integrado. O
primeiro “computador pessoal” ou PC desenvolvido pela IBM, pertenceu a esta
geração. Os circuitos VLSI tinham quase 5.000 transistores em um chip muito
pequeno, e eram capazes de realizar muitas tarefas e cálculos de alto nível. Esses
computadores eram, portanto, muito compactos e, portanto, exigiam uma pequena
quantidade de eletricidade para funcionar.
São exemplos o CDC STAR-100, PDP 11, Cray-1. Essa geração de
computadores teve seus primeiros “supercomputadores” que podiam realizar muitos
cálculos com precisão. Eram usadas linguagens mais sofisticadas e complicadas
como entradas. As linguagens de computador como linguagens como C, C+, C++,
DBASE etc. foram a entrada para esses computadores.
Até a terceira geração de computadores o tempo de resposta das máquinas
era medido em ciclos, ou seja, o número de ações em curtos períodos para ver a
fração de segundo utilizada por cada. Com a velocidade dos microprocessadores isso
não era viável. Por isso surgiram as medições por clock, que calcula o número de
ciclos que podem ser realizados por segundo.

2.1 KENBAK-1 O PRIMEIRO COMPUTADOR PESSOAL (1971)


Projetado em 1971, antes da invenção dos microprocessadores, o Kenbak-1
tinha 256 bytes de memória e apresentava circuitos integrados de pequeno e médio
porte em uma única placa de circuito.
Como o Kenbak-1 foi inventado antes do primeiro microprocessador, a máquina
não tinha uma unidade central de processamento de um chip, logo, foi usada uma
lógica difundida dos circuitos integrados (CI), a Lógica transistor-transistor. Lógica
transistor-transistor ocorre quando circuitos digitais são montados a partir de
transistores de junção bipolar e resistores. Esta é chamada de lógica transistor-
5

transistor pois ambas as suas funções de porta lógica (primeiro transistor) e de


amplificação (segundo transistor; um transistor atua como um amplificador ao
aumentar a intensidade de um sinal fraco.) são realizadas por um mesmo transistor.
(Wikipedia, 2018)
Manufaturadores de TTL ofereceram uma ampla gama de portas lógicas,
contadores, entre outros circuitos. Diversas variações do conceito bipolar TTL original
foram desenvolvidas, rendendo circuitos com maior velocidade ou menor dissipação
de potência para permitir a otimização de um design. (kenbakkit, 2007)
Kenbak-1, é considerado o primeiro computador de uso pessoal além disso foi
o primeiro computador a usar TTL para sua CPU em vez de um chip microprocessador.

2.2 INTEL INTRODUZ O PRIMEIRO MICROPROCESSADOR (1971)


Intel 4004 é uma Unidade Central de Processamento com 4-bits contendo
2,300 transistores. Fabricado pela Intel Corporation em 1971, foi o primeiro
microprocessador comercialmente disponível pela Intel em um chip simples, assim
como o primeiro disponível comercialmente. Embora projetado originalmente para ser
um componente de calculadoras, o 4004 logo encontrou muitos usos. A Intel iniciou
um processo que logo fez alguns outros fabricantes de chips a embarcar em projetos
para desenvolverem firmemente os microprocessadores mais capazes, o que gerou a
tendência que criou as indústrias multibilionárias dos microprocessadores e dos
microcomputadores atuais.
Os microprocessadores em 1970 mudaram a forma como eram projetados
sistemas, mudando do uso de hardware para software. Mas a velocidade com que os
microprocessadores se desenvolveram ao longo do tempo e foram adotados pela
indústria foi realmente surpreendente (FAGGIN 2022).
Antes do microprocessador 4004 do tamanho de uma unha, a única maneira
de obter o poder de processamento equivalente era com computadores que enchiam
salas inteiras.

2.3 MICRAL N (1973)


O Micral N foi o primeiro computador que fez utilidade de um microprocessador,
sendo ele baseado no Intel 8008 com o clock de 500 kHz, o computador usava
memória semicondutora MOS (metal-óxido-semicondutor) em vez de memória de
6

núcleo magnético, que possui uma propriedade de acesso aleatório, ou seja, o tempo
gasto para acessar qualquer canto da memória, será o mesmo para que os dados
possam ser acessados com eficiência em qualquer ordem aleatória.
Micral N foi feito com o intuito de substituir microcomputadores que não
possuíam alto desempenho em situações em que deveriam, como controle de
processos e cobrança de pedágio em rodovias.

2.4 CDC STAR-100 (1974)


Em 1970, a Control Data Corporation anunciou o STAR-100 (STring ARray), um
computador de grande escala com uma nova arquitetura vetorial (SCHNECK, 1987),
que consiste em uma unidade escalar pipeline típica e de uma unidade vetorial. Todas
as unidades funcionais da unidade vetorial possuem latência de vários ciclos,
permitindo que o tempo de ciclo de clock fosse menor.
O STAR-100 foi projetado para solucionar grandes problemas computacionais
em ciência e engenharia, possuindo uma poderosa unidade computacional focada em
operações aritméticas e logicas. (SCHNECK, 1987)
A memória principal tinha capacidade para 65.536 palavras de 512 bits,
chamadas de superpalavras (SWORDs). A memória principal foi intercalada em 32
vias para acessar a memória do pipeline. Foi construído a partir da memória do núcleo
com um tempo de acesso de 1,28 μs (Siemens). A memória principal era acessada
por meio de um barramento de 512 bits, controlado pelo Controlador de Acesso de
Armazenamento (SAC), que tratava das solicitações da unidade de fluxo. (KOGGE,
1981).
Por serem máquinas vetoriais memory-to-memory (memória para memória),
elas foram construídas com sistemas de memória muito avançados e de alta largura
de banda. Um pipeline que se estendia da memória, através do processador e de volta
à memória, era muito longo e levava muitos ciclos de clock para ser preenchido, mas,
uma vez preenchido, o rendimento era tremendo (ESPASA)
O STAR-100 foi uma decepção para todos os envolvidos. Uma versão
atualizada da arquitetura básica foi lançada posteriormente em 1979 como o Cyber
203, seguido pelo Cyber 205 em 1980, mas neste ponto os sistemas da Cray
Research com desempenho consideravelmente superior estavam no mercado.
(HOCKNEY, 1988)
7

2.5 PDP-11 (1975)


O PDP-11 é um microcomputador produzido pela Digital Equipment Corporation
(DEC) que foi lançado em 1970. O PDP-11 foi um grande sucesso e se tornou uma
das plataformas de computação mais populares dos anos 70 e 80. (SUPNIK, 2001)
O PDP-11 apresentava uma arquitetura de processador de 16 bits e suportava
uma variedade de sistemas operacionais, incluindo o famoso UNIX. O sistema de
armazenamento primário era baseado em memória de núcleo magnético, que era uma
tecnologia comum na época. O PDP-11 também tinha a capacidade de suportar
dispositivos de entrada e saída, como discos rígidos, fitas e impressoras.
O primeiro PDP-11 custa US$ 20.000, com apenas 4 KB de RAM. Fazia uso de
fita de papel para armazenamento e tinha um controlador de impressora de teletipo
ASR-33 que imprime 10 caracteres por segundo. Possuia uma impressionante
arquitetura ortogonal de 16 bits, oito registradores, 65 KB de espaço de
endereçamento, um tempo de ciclo de 1,25 MHz e um barramento de hardware
UNIBUS (O Unibus foi o primeiro de vários projetos de barramento, foi usado tanto
como um barramento do sistema, permitindo que a unidade central de processamento
se comunique com a memória principal, quanto como um barramento periférico,
permitindo que os periféricos enviem e recebam dados, UNIBUS era fisicamente muito
largo). (BAKYO)
O PDP-11 foi usado em uma ampla gama de aplicações, incluindo controle de
processos industriais, laboratórios de pesquisa, sistemas de comunicação, sistemas
de controle de tráfego aéreo e sistemas de defesa militar. Também foi usado em
muitos projetos acadêmicos e de pesquisa, especialmente na área de sistemas
operacionais e programação. (SUPNIK, 2001)

2.6 CRAY-1 (1976)


O CRAY-I foi o início de uma “Era Dourada” de supercomputadores vetoriais e
supercomputação em geral. Esta Era abrange aproximadamente 15 anos desde 1976
até 1991. Esse período pode ser caracterizado como uma época quando um
supercomputador vetorial tinha uma grande e inquestionável vantagem de
desempenho sobre microprocessadores em todos os aspectos: ciclos de clock mais
8

rápidos, mais operações por ciclo, maior largura de banda de memória e muito mais
capacidade de E/S.
2.6.1 APRENDENDO COM SEUS ANTEPAÇADOS
Os dois primeiros Supercomputadores Vetoriais apareceram no início dos anos
1970. Ambas as duas primeiras máquinas eram similares em diversos aspectos. Uma
foi desenvolvida pela Texas Instruments, o TI- ASC. O outro foi o STAR - 100, que foi
desenvolvido pela Control Data Corporation (CDC).
Tanto o ASC e o STAR-100 foram centrados em torno de uma unidade vetorial
de alta potência que recebia fluxos de operandos de memória, operava neles e
enviava os fluxos de resultados de volta à memória, tudo em uma única instrução. O
trabalho primário da unidade escalar era servir a unidade vetorial (para fazer cálculos
contábeis e fazer qualquer código escalar que não poderia ser feito com vetores). Por
serem máquinas vetoriais memory-to-memory (memória para memória), elas foram
construídas com sistemas de memória muito avançados e de alta largura de banda.
Um pipeline que se estendia da memória, através do processador e de volta à
memória, era muito longo e levava muitos ciclos de clock para ser preenchido, mas,
uma vez preenchido, o rendimento era tremendo.
Embora sejam lembrados principalmente por suas arquiteturas de memória
para memória malsucedidas, o ASC e o STAR-100 também continham várias
inovações que sobreviveram até hoje. Um exemplo é o método que eles usaram para
implementar operações condicionais, ou seja, máscaras de bits para controle. As
operações de movimentação de dados implementadas com acessos de memória
stride e collect/scatter ainda são usadas hoje. Eles poderiam dividir seus pipelines
para dobrar o desempenho em dados de 32 bits. O ASC pode ser atualizado
adicionando pipelines de vetores adicionais, até um total de quatro. E o STAR-100
também suportava vários tubos vetoriais, embora suas funções não fossem idênticas.
(ESPASA) Ambas as máquinas tinham desempenho escalar relativamente ruim, e a
lei de Amdahl (usada para encontrar a máxima melhora esperada para um sistema
em geral quando apenas uma única parte dele é melhorada, é a relação entre o tempo
gasto para executar uma tarefa com um único processador e o tempo gasto com N
processadores) cobrou seu preço. O CDC 7600 uma máquina unicamente escalar,
contemporânea ao STAR-100 , era no geral muito mais rápida que o STAR-100,
menos em problemas vetoriais de alto nível.
9

O CRAY-1 foi projetado com uma filosofia diferente do STAR-100 e ASC. Em


certo sentido, estava centrado no processamento escalar. A unidade escalar era
similar ao CDC 7600, uma máquina anterior projetada por Seymour Cray, e era capaz
de um desempenho escalar muito maior do que qualquer um de seus
contemporâneos. O memory path era capaz de apenas uma carga ou armazenamento
por ciclo (tudo o que era necessário para operação escalar), e registradores vetoriais
foram adicionados para maximizar o uso dessa largura de banda de memória bastante
limitada. As grandes unidades funcionais de ponto flutuante escalar foram
compartilhadas pelas instruções vetoriais com latências ligeiramente mais longas para
processamento vetorial. (ESPASA)
A abordagem do CDC no STAR, usou o que hoje é conhecido como arquitetura
de memória-memória. Isso se referia à maneira como a máquina coletava dados. Ele
configurou seu pipeline para ler e gravar diretamente na memória. Isso permitiu que o
STAR usasse vetores de comprimento não limitado pelo comprimento dos
registradores, tornando-o altamente flexível. Infelizmente, o pipeline tinha que ser
muito longo para permitir que ele tivesse instruções suficientes para compensar a
memória lenta. Isso significava que a máquina incorria em um alto custo ao alternar
do processamento de vetores para a execução de operações em operandos não
vetoriais. Além disso, o baixo desempenho escalar da máquina significava que, após
a troca ter ocorrido e a máquina estar executando instruções escalares, o
desempenho era bastante ruim. O resultado foi um desempenho bastante
decepcionante no mundo real. (ESPASA)
Cray estudou o fracasso do STAR e aprendeu com ele. Foi decidido que, além
do processamento vetorial rápido, seu projeto também exigiria excelente desempenho
escalar geral. Dessa forma, quando a máquina mudasse de modo, ela ainda
forneceria um desempenho superior. Além disso, ele notou que as cargas de trabalho
poderiam ser drasticamente melhoradas na maioria dos casos por meio do uso de
registradores.
Assim como as máquinas anteriores haviam ignorado o fato de que a maioria
das operações estava sendo aplicada a muitos pontos de dados, o STAR ignorou o
fato de que esses mesmos pontos de dados seriam operados repetidamente.
Considerando que o STAR leria e processaria a mesma memória cinco vezes para
aplicar cinco operações vetoriais em um conjunto de dados, seria muito mais rápido
10

ler os dados nos registradores da CPU uma vez e então aplicar as cinco operações.
No entanto, houve limitações com esta abordagem. Os registradores eram
significativamente mais caros em termos de circuitos, portanto, apenas um número
limitado poderia ser fornecido. Isso implicava que o projeto de Cray teria menos
flexibilidade em termos de tamanhos vetoriais. Em vez de ler qualquer vetor de
tamanho várias vezes como no STAR, o Cray-1 teria que ler apenas uma parte do
vetor de cada vez, mas poderia executar várias operações nesses dados antes de
gravar os resultados de volta na memória. Dadas as cargas de trabalho típicas, Cray
sentiu que o pequeno custo incorrido pela necessidade de dividir grandes acessos à
memória sequencial em segmentos era um custo que valia a pena pagar.
Como a operação vetorial típica envolveria o carregamento de um pequeno
conjunto de dados nos registradores vetoriais e a execução de várias operações nele,
o sistema vetorial do novo projeto tinha seu próprio pipeline separado. Por exemplo,
as unidades de multiplicação e adição foram implementadas como hardware
separado, de modo que os resultados de uma pudessem ser canalizados
internamente para a próxima, já que a decodificação da instrução já havia sido tratada
na linha principal da máquina. Cray referiu-se a esse conceito como encadeamento,
pois permitia aos programadores "encadear" várias instruções e extrair maior
desempenho.
Cray-1 é o primeiro de uma família de máquinas com processadores vetoriais
para uso geral, fabricado pela Cray Research Inc. Cray-1 e seus sucessores, Cray-
XMP e o Cray-2, são otimizados para resolver problemas em larga escala tanto na
ciência quanto na engenharia. Além de circuitos de alta velocidade e grande memória,
os sistemas apresentam uma arquitetura de processamento vetorial e 12 unidades de
pipelines funcionais. (SCHNECK, 1987)
A economia real não é tão óbvia. Internamente, a CPU do computador é
construída a partir de várias partes separadas dedicadas a uma única tarefa, por
exemplo, adicionar um número ou buscar na memória. Normalmente, à medida que a
instrução flui pela máquina, apenas uma parte fica ativa a qualquer momento. Isso
significa que cada etapa sequencial de todo o processo deve ser concluída antes que
um resultado possa ser salvo. A adição de um pipeline de instrução muda isso. Em
tais máquinas, a CPU "olhará adiante" e começará a buscar instruções sucessivas
enquanto a instrução atual ainda está sendo processada. Nesse estilo de linha de
11

montagem, qualquer instrução ainda leva o mesmo tempo para ser concluída, mas
assim que termina a execução, a próxima instrução está logo atrás dela, com a maioria
das etapas necessárias para sua execução já concluídas.
Os processadores vetoriais usam essa técnica com um truque adicional. Como
o layout de dados está em um formato conhecido (um conjunto de números
organizados sequencialmente na memória) os pipelines podem ser ajustados para
melhorar o desempenho das buscas. Ao receber uma instrução vetorial, um hardware
especial configura o acesso à memória para os arrays e insere os dados no
processador o mais rápido possível.
Os supercomputadores são usados em vários campos, como previsão e análise
de padrões climáticos globais, mecânica quântica no estudo de sistemas físicos em
nível atômico, e por uso militar como por exemplo, determinar o impacto da detonação
de uma bomba nuclear em uma determinada região.
As configurações básicas dos supercomputadores Cray-1 consistem em CPU,
um ou mais consoles de minicomputadores, equipamentos de energia, refrigeração e
subsistema de disco de armazenamento em massa. A CPU contém a seção de E/S
(Entrada e Saída), computação e memória do computador. Um minicomputador usado
como estação de entrada de trabalho ou como unidade de controle e manutenção.
Como a máquina foi projetada para operar em grandes conjuntos de dados, o
projeto também dedicou circuitos consideráveis para E/S. Os projetos anteriores do
Cray no CDC incluíam computadores separados dedicados a essa tarefa, mas isso
não era mais necessário. Em vez disso, o Cray-1 incluía quatro controladores de seis
canais, cada um com acesso à memória principal uma vez a cada quatro ciclos. Os
canais tinham 16 bits de largura e incluíam três bits de controle e quatro bits para
correção de erros, de modo que a velocidade máxima de transferência era de uma
palavra por 100 ns, ou 500 mil palavras por segundo para toda a máquina.

2.7 ATARI 2600 E ROM CHIPS (1977)


O Atari VCS é um console de videogame lançado em outubro de 1977. Ele
popularizou o uso de hardware baseado em microprocessador com cartuchos
separados contendo o código do jogo, em vez de ter hardware dedicado sem
microprocessador com todos os jogos integrados.
12

O VCS logo ganhou enorme popularidade quando as pessoas perceberam que


poderiam jogar jogos variados ao invés de variantes de Pong. O jogo 'Adventure'
mudou os jogos para sempre, pois demonstrou que um jogo com um mundo virtual
poderia ir muito além do que somente uma tela.
Uma conversão do sucesso de fliperama “Space Invaders” elevou o console e
o Atari a alturas no início dos anos 1980 e, apesar de uma grande queda no mercado
de videogames nos Estados Unidos, o Atari continuava a ser vendido, o console teve
uma vida útil muito longa, cerca de 14 anos e meio. Algumas empresas de software
muito importantes, como a Activision, surgiram do VCS.

2.8 TI-99/4A (1979)


Ao final da década de 70 computadores de uso pessoal começaram a se tornar
mais populares, com muitas opções de uma variedade de empresas diferentes. O
Altair 8800 foi um dos primeiros a se popularizar, principalmente dentre usuários e
desenvolvedores técnicos. Hoje Altair é reconhecido como a fagulha que levou à
revolução dos computadores pessoais nos anos seguintes: os barramentos de
computador desenhados para o Altair se tornariam um padrão na forma de barramento
S-100 (Uma especificação do barramento de cem pinos usado no projeto de
computadores baseados nos microprocessadores Intel 8080) e a primeira linguagem
de programação para a máquina foi o Altair BASIC, que conduziu à fundação da
Microsoft. Já o Apple I e II e o Commodore PET, vendidos para um conjunto mais
comum de clientes.
Entusiastas da área de TI esperavam um grande impacto no mercado,
principalmente após o lançamento do Atari 2600 que levou um mundo de
entretenimento para as residências com jogos armazenados em cartuchos ROM. As
fronteiras entre videogames e computadores domésticos começaram a convergir,
assim dando surgimento ao TI 99/4.
Baseado no microprocessador Texas Instruments TMS 9900 rodando a 3 MHz,
o TI 99/4 possui uma das CPUs mais rápidas disponíveis em um computador
doméstico, sendo ele o primeiro computador doméstico de 16 -bit, proporcionando um
maior desempenho em comparação aos seus concorrentes. O TI 99/4 tinha uma
ampla variedade de placas de expansão, com um sistema de fala especialmente
13

popular que também podia ser usado com o jogo educacional Speak & Spell da TI,
possuindo uma entrada para cartuchos ROM.

3 CONCLUSÃO
Em conclusão, a quarta geração de computadores representou um grande
avanço tecnológico na história da computação, marcando o início da era dos
computadores pessoais. Com a miniaturização dos componentes eletrônicos, o
surgimento dos microprocessadores e a utilização de linguagens de programação
mais avançadas, a quarta geração tornou possível a criação de computadores mais
potentes, acessíveis e versáteis.
A capacidade de processamento e armazenamento de dados dos
computadores da quarta geração possibilitou o desenvolvimento de novas aplicações
e soluções tecnológicas, que tiveram grande impacto em diversas áreas, desde a
indústria até a educação e o entretenimento.
Além disso, a quarta geração de computadores foi marcada pela popularização
da informática, com a disponibilização de computadores pessoais para uso doméstico
e profissional. Isso contribuiu para a disseminação da cultura digital e a
democratização do acesso à informação, o que teve um impacto significativo na forma
como vivemos e nos relacionamos.
Em resumo, a quarta geração de computadores foi um marco importante na
história da computação, possibilitando o desenvolvimento de tecnologias e soluções
que transformaram a forma como nos comunicamos, trabalhamos e nos divertimos.
14

REFERÊNCIAS
BAKYO, J. "DEC PDP-11, benchmark for the first 16/32 bit generation. (1970)".
ESPASA, R. Vector Architectures: Past, Present and Future.
HOCKNEY, R. W. Parallel Computers 2: Architecture, Programming and Algorithms.
1ª. ed. [S.l.]: CRC Press, 1988.
KENBAKKIT. kenbakkit, 2007. Disponivel em:
<http://www.kenbakkit.com/index.html>. Acesso em: 09 Abril 2023.
KOGGE, P. M. The Architecture of Pipelined Computers. [S.l.]: [s.n.], 1981.
SCHNECK, P. B. Supercomputer Architecture. 31. ed. [S.l.]: [s.n.], 1987.
SUPNIK, B. "Simulators: Virtual Machines of the Past (and Future)", 31 Agosto 2001.
52 - 58.
WIKIPEDIA. wikipedia, 2018. Disponivel em: <https://pt.wikipedia.org/wiki/Kenbak-
1>. Acesso em: 08 Abril 2023.

Você também pode gostar