Você está na página 1de 262

Tecnologia FUNDAMENTOS DA INFORMÁTICA Faculdade Educacional da Lapa (Org.

Faculdade Educacional da Lapa (Org.)


INFORMÁTICA
FUNDAMENTOS DA
Fundamentos da
Informática

Faculdade Educacional da Lapa (Org.)


Alexandre Tadeu Rossini da Silva
Eleusa Maria Leão
Evanderson S. de Almeida
Evandro Alberto Zatti
Marcelo Ribeiro de Oliveira
Leonel Rocha

Curitiba
2018
Ficha Catalográfica elaborada pela Fael.

Fundamentos da informática / Alexandre Tadeu Rossini da Silva,


F981 et al. – organização de Faculdade Educacional da Lapa. – Curitiba: Fael,
2018.
260 p.: il.
ISBN 978-85-5337-029-0

1. Computação – estudo e ensino. I. Silva, Alexandre Tadeu Rossini


da II. Leão, Eleusa Maria III. Almeida, Evanderson S. de IV. Zatti,
Evandro Alberto V. Oliveira, Marcelo Ribeiro de VI. Leonel Rocha
VII. Faculdade Educacional da Lapa
CDD 004.07

Direitos desta edição reservados à Fael.


É proibida a reprodução total ou parcial desta obra sem autorização expressa da Fael.

FAEL
Direção Acadêmica Francisco Carlos Sardo
Coodernação Editorial Raquel Andrade Lorenz
Revisão Diógenes Cogo Furlan
Projeto Gráfico Sandro Niemicz
Capa Evelyn Caroline dos Santos Betim
Imagem da Capa Shutterstock.com/Vladystock
Arte-Final Evelyn Caroline dos Santos Betim
Sumário

Apresentação | 5

1. História dos computadores | 7

2. Microcomputador | 27

3. Componentes básicos do computador  | 33

4. Hardware interno do computador  | 41

5. Dispositivos de Entrada e Saída  | 87

6. Placa mãe e integração dos componentes de Hardware  | 137

7. Sistemas de numeração | 177

8. A informática e o software  | 195

9. Classificação de software | 205

10. Sistemas operacionais, redes de


computadores e banco de dados  | 213

11. Sistemas de informação: conceito,


componentes e tipologia  | 239

Referências | 255
Apresentação

A evolução do ser humano foi marcada, ao longo das


eras, por sua vontade crescente de se comunicar e de registrar
os fatos da vida. Desde as primeiras pinturas rupestres nas
cavernas, a linguagem do homem foi ganhando contornos mais
sofisticados, na medida em que servia também como ferramenta
para o seu desenvolvimento mental, intelectual, social e cultural,
diferenciando-o dos demais animais.
No século XXI, a necessidade de comunicação ampliou
sua abrangência. Informação, armazenamento de dados,
compartilhamento à distância, entretenimento e educação são
algumas das novas demandas que passaram a exigir duas coisas:
pessoas mais preparadas para lidar com um cenário que muda
rapidamente e tecnologias capazes de oferecer soluções rápidas,
eficientes e viáveis para essas demandas.
Fundamentos da Informática

As chamadas Tecnologias da Informação e Comunicação (TICs) refletem


a realidade do século XXI, servindo a propósitos corporativos, educacionais
e sociais. Em um mundo digital como é o nosso hoje, em que o acesso à
informação se dá em tempo real e a popularização da tecnologia é crescente,
estará mais bem preparado o profissional que souber compreender como
surgiu e para onde deve nos conduzir esse fenômeno.
Esta coletânea Fundamentos da Informática é o passo inicial para esse
entendimento. Com textos de fácil compreensão, os autores traçam a evolução
histórica da informática, sempre associando-a aos grandes momentos da
história da humanidade que alteraram de forma marcante a maneira como
trabalhamos, nos relacionamos e pensamos o mundo ao redor. Assim, o
livro explora a ligação entre a informática e a sociologia, mostrando como as
Tecnologias da Informação e Comunicação influenciam o comportamento,
a cultura, as tarefas cotidianas e o modo de ser, pensar e agir das pessoas ao
longo dos séculos.
E por que associar sociologia e informática? Porque é esse saber – a
combinação do conhecimento técnico/tecnológico com a clareza sobre o
quanto a nova organização do trabalho e do dia a dia das pessoas é afetada pelas
TICs a que elas têm acesso – que hoje é exigido do profissional de informática.
Este livro traz os fundamentos teóricos da informática e da computação,
explicando as diferenças entre software e hardware, apresentando os princípios
de programação, os detalhes do hardware e ampliando a visão do leitor sobre
o funcionamento de redes de computadores e banco de dados. Tudo isso para
que o leitor possa entender a lógica por trás de qualquer computador – noção
fundamental para quem deseja trabalhar na área.
A obra também convida a refletir sobre o impacto do uso da tecnologia
na sociedade, sobre questões éticas e sobre inclusão digital, ajudando a
pensar em alternativas para beneficiar pessoas que hoje não têm acesso a
esses recursos tecnológicos.
Boa leitura!

– 6 –
1
História dos
computadores

O ser humano sempre processou dados – o homem pré-his-


tórico desenhava nas paredes das cavernas, o pastor de ovelhas da
antiga Mesopotâmia coletava pedras para representar a quantidade
de animais de seu rebanho no ano 4000 a.C., o artesão europeu
do ano 1673 utilizava cartões perfurados para controlar o posicio-
namento e o movimento de agulhas do tear. E hoje, quando um
consumidor na Índia compra um produto alemão pela internet e
recebe pelo correio, ou quando duas empresas multinacionais em
continentes distintos realizam transações comerciais e financeiras
entre si, estamos vendo a manipulação de dados.
Fundamentos da Informática

1.1 Qual é a diferença entre dado e informação?


Dados são fruto da observação de um fato ou objeto e possuem um
ou mais significados, mas isoladamente não são capazes de transmitir
uma mensagem ou conduzir à compreensão de algo. Normalmente são
mensuráveis. Um exemplo é um conjunto de condições climáticas. Podemos
saber a pressão atmosférica, intensidade do vento, umidade do ar e tempera-
tura, mas isoladamente esses dados não traduzem um conhecimento, não nos
permitem fazer a previsão do tempo. Outro exemplo: os símbolos “R”, “$” e
“1,50” também não significam muito, como dados separados.
A informação é um conjunto de dados tratados, analisados, compa-
rados, reunidos a outros e trabalhados, que adquirem um significado mais
amplo, levam ao entendimento e à tomada de decisões. Ao analisar as con-
dições atmosféricas todas juntas, por exemplo, podemos concluir a pro-
babilidade de chover, em que intensidade etc. Ao reunir os três símbolos
(dados) citados acima, temos a informação “R$ 1,50”, com um significado
(o preço de algo).
Informações, portanto, são dados que foram processados, seja por meio
eletrônico, mecânico ou manual, gerando um resultado com significado.

1.1.1 Escrita é armazenamento de dados


A necessidade de registrar, guardar e transferir informações por meio de
símbolos é notada desde os primeiros registros que a arqueologia pode nos
fornecer sobre a humanidade.
Atribui-se aos sumérios, por volta de 3500 a.C., o mais antigo tipo
conhecido de escrita, a cuneiforme (que tem esse nome por ser executada
com auxílio de objetos pontiagudos em forma de cunha, sobre placas de
argila). Ao longo das eras de evolução da humanidade, o armazenamento e
o processamento de dados sempre foi uma maneira encontrada pelo homem
para controlar o meio à sua volta.
As primeiras inscrições – as pinturas rupestres pré-históricas – eram
desenhos que reproduziam, de forma simplificada, conceitos ou cenas
vividas. O ábaco, instrumento composto por bolinhas que deslizam em
arames paralelos, servia para fazer cálculos rudimentares e é tão antigo

– 8 –
História dos computadores

que há muita divergência sobre sua origem: Babilônia ou Mesopotâmia


mais ou menos 3.000 anos antes de Cristo, Egito em 500 a.C. ou China
no século II, já em uma versão mais próxima do que conhecemos hoje,
popularizado pelo soroban japonês, até hoje utilizado. A história é fértil
em exemplos de ferramentas que foram desenvolvidas para registrar e
lidar com dados, até chegar à sofisticação da tecnologia de ponta dos
computadores atuais.

1.1.2 Dados analógicos e digitais


Analógico vem de “análogo”: é a representação mais parecida possível da
realidade usando algum meio. Um exemplo de instrumento analógico é o ter-
mômetro de mercúrio, com graduações de temperatura que variam de 32oC a
50oC, passando por todos os valores entre eles. É uma medição contínua. Se
houvesse graduações suficientes no termômetro e se nosso olhar tivesse uma
precisão imensa, poderíamos verificar que a temperatura passou, por exem-
plo, de 37,6324 para 37,6325.
É o que acontece também com um relógio analógico. Embora nosso
olhar não alcance, os ponteiros medem o intervalo inteiro entre os segundos,
“correndo” continuamente entre um segundo e outro e não “saltando” de
um segundo para o outro como nos relógios digitais. Então, o analógico é
contínuo e pode ser medido em infinitas partes. É, portanto, bastante exato e
reproduz a realidade como ela é.
No entanto, essa representação exata sofre perdas com o tempo. Um sinal
de rádio analógico, por exemplo, sofre interferência e ruído quanto maior for
a distância de transmissão. Uma música gravada em fita cassete ou LP tende
a perder qualidade com o tempo, por causa do desgaste do meio mecânico
em que foi gravada.
Já o digital representa alguma coisa em intervalos pré-definidos, através de
uma escala (dígitos). Um termômetro digital também varia de 32ºC a 50ºC,
mas exibindo apenas os valores da graduação pré-definida. Se a graduação
for de 1ºC, por exemplo, o termômetro mostraria que a temperatura subiu
de 36ºC para 37ºC. Ou seja, a temperatura “salta” de um grau para o outro,
como se não houvesse nenhum valor intermediário. No termômetro analógico
vemos a temperatura ir subindo continuamente de um grau para outro.

– 9 –
Fundamentos da Informática

O sinal digital é a representação aproximada de algo, mas não se modi-


fica com o tempo nem com a distância. Por exemplo, você pode passar para
o seu computador as músicas que baixou de um CD, depois copiá-las em um
pen drive, colocar em outro computador e transmitir pela internet para um
amigo que mora do outro lado do mundo, que a qualidade não vai se perder.
Ele vai ter a música exatamente igual à sua.
O sinal analógico é um sinal que varia no tempo, o digital não. O
analógico pode assumir qualquer valor entre dois limites, o digital apenas
dois, 0 ou 1 (zero ou um) – que é a linguagem dos computadores.

1.1.3 O que concluir sobre dados analógicos e digitais?


A informação analógica é infinitamente mais rica e detalhada do que
a digital. Porém, um dado ou informação digital, embora limitado, tem a
precisão necessária para alcançar um objetivo. Em outras palavras, mesmo
que não tenha tantas possibilidades, variações e subdivisões quanto o
analógico, o dado digital é suficiente para atender as nossas necessidades.
Por exemplo, fotos, vídeos, músicas e textos armazenados em formato digital
nos computadores modernos são perfeitamente aceitáveis, porque qualquer
imprecisão ou falha torna-se imperceptível para os usuários.

1.2 A evolução da tecnologia – como


nasceram os computadores
Facilitar a execução de tarefas complexas ou repetitivas. Essa foi a
principal motivação de inventores e estudiosos, ao longo dos séculos, para
criar máquinas que permitissem armazenar dados e fazer cálculos. A linha do
tempo dessas invenções acompanha o desenvolvimento científico, cultural e
tecnológico da humanidade.
Um dos primeiros instrumentos de cálculo de que se tem notícia é o
ábaco, inventado pelos babilônios 3.000 anos antes de Cristo. No entanto,
embora os homens já soubessem, naquela época, escrever números e símbolos,
os cálculos matemáticos dificilmente eram registrados. Assim, não se poderia
guardar uma equação do segundo grau, por exemplo, nem se discretizar
alguma teoria, ou seja, dividir um todo em partes individuais de menor

– 10 –
História dos computadores

complexidade e, assim, facilitar os cálculos. Mas, com a ajuda dos hindus,


que criaram o zero escrito, isso se tornou possível.

1.2.1 História da computação – uma linha do tempo


1.2.1.1 A era mecânica
22 2000 a.C. – O ábaco chinês é a primeira ferramenta de cálculo
de que se tem notícia. É uma calculadora primitiva, composta
por varetas e anéis de madeira, representando unidades, dezenas
e centenas. Os chineses não sabiam que estavam fornecendo uma
grande ajuda teórica na organização dos computadores. O ábaco
é muito popular e até hoje ainda é usado, principalmente em
países orientais.
22 1614 – O matemático e teólogo escocês John Napier define os loga-
ritmos e populariza o uso do ponto decimal, trazendo grande auxí-
lio para a execução de operações aritméticas como multiplicações e
divisões longas.
22 1622 – Por causa da dificuldade de multiplicar números grandes,
o padre inglês William Oughtred desenvolveu a régua de cál-
culo, a partir da sobreposição de escalas logarítmicas de Napier.
Largamente utilizada até a década de 70 do século XX, a régua
de cálculo é considerada precursora das calculadoras eletrônicas,
pois se baseia também em logaritmos. No entanto, não fornece
resultados precisos, embora suficientes para os cálculos a que
se destinava.
22 1623 – O astrônomo e matemático alemão Wilhelm Schickard
cria a primeira máquina de calcular, capaz de fazer as quatro
operações básicas com seis dígitos. Ela servia para fazer cálculos
de tábuas astronômicas, com uma estrutura mecânica baseada
em rodas dentadas. Um protótipo desenvolvido por ele se per-
deu durante a Guerra dos Trinta Anos (que ocorreu entre 1618 e
1648) e os esboços dos desenhos só foram encontrados no século
XIX, por isso atribuía-se a Blaise Pascal a construção da primeira
máquina calculadora.

– 11 –
Fundamentos da Informática

Saiba mais
Pascal é o nome de uma popular linguagem de programação,
batizada assim em homenagem ao físico e matemático.

22 1644 – O francês Blaise Pascal (1623-1662) entrou para a história


como o inventor da primeira calculadora mecânica, batizada por
ele de La Pascaline. Ele a criou quando tinha apenas 19 anos, para
ajudar seu pai no cálculo de impostos. A máquina também usava
uma roda dentada contendo dez dentes, um para cada algarismo
decimal, e realizava apenas adições e subtrações.
22 1673 – Gottfried Wilhelm Leibnitz (1646-1716), matemático e
filósofo, melhorou o projeto da Pascaline, construindo, assim, uma
máquina capaz de dividir, multiplicar, subtrair, somar e calcular a
raiz quadrada. Os historiadores confirmam seu pensamento: “Ele
sonhava que um dia todo o raciocínio pudesse ser substituído pelo
girar de uma alavanca”.
22 1801 – Joseph Marie Jacquard (1752-1834) foi um mecânico
nascido na França que criou uma máquina mecânica de tear (a
primeira máquina programável, controlada por cartões perfurados)
capaz de criar bonitos desenhos enredados no próprio tecido. Sua
invenção fez muito sucesso na França e, em sete anos, milhares de
teares já estavam em operação no país.

1.2.1.2 A era dos dígitos


Com a Revolução Industrial (1760-1840), surgem novas necessidades
de realizar tarefas repetitivas e rotineiras de modo mais rápido e eficiente,
trocando os processos de produção artesanais pela produção por máquinas-
ferramentas. Naqueles anos, muitos estudiosos estavam se dedicando a
construir máquinas para automação de processos e cálculos complexos.
22 1820 – Charles Babbage (1792-1871), matemático nascido na
Inglaterra, projeta a máquina analítica, uma máquina diferencial
para calcular polinômios. A máquina tinha a capacidade de rece-

– 12 –
História dos computadores

ber dados, processá-los, armazená-los e exibi-los, com princípios


parecidos com os dos computadores modernos, e por isso Babbage
ficou conhecido como o pai do computador. A calculadora que ele
desenvolveu fazia, além de somas, subtrações e outros cálculos
básicos, a conversão automática de números de uma base para
outra (da base binária para a decimal, por exemplo).
A máquina, cujo desenvolvimento foi financiado por algum tempo
pelo governo britânico, era puramente mecânica, sendo composta
por um engenho ou “moinho” central (o equivalente a uma CPU
moderna), uma memória, engrenagens e alavancas. Utilizava cartões
perfurados e possuía dispositivos de entrada e saída de dados.
Seu invento, porém, exigia técnicas bastante caras e, dizem alguns
historiadores, avançadas demais para a época, o que inviabilizou
sua construção. O governo britânico acabou por suspender o finan-
ciamento a Babbage e, com isso, a calculadora analítica nunca foi
construída. Vale a pena ressaltar que as máquinas, até o século XIX,
funcionavam na base decimal (e hoje funcionam na base binária).
No final da década de 1980, a máquina de Babbage finalmente foi
construída pelo Museu de Ciência de Londres, utilizando a tecno-
logia disponível na época do cientista.

Saiba mais
CPU (Unidade Central de Processamento, na sigla em inglês)
é o componente do computador que processa os dados. É
considerado o “cérebro” do computador.

22 1842 – Ada Byron ou Ada Lovelace (1815-1852), condessa de


Lovelace, filha do poeta Lord Byron, foi considerada a primeira
programadora da história, antes mesmo do computador ter sido
inventado. Ela escreveu várias instruções para serem interpretadas
pela máquina analítica de Babbage. O Conceito de Subrotina par-

– 13 –
Fundamentos da Informática

tiu dela, que também aprendeu a valorizar os laços de repetições


(“loop”). Bastava, em algum lugar de um cartão, inserir informações
para que a leitora de cartões retornasse para outro cartão anterior,
concretizandos e, assim, o efeito de repetição de uma sequência de
instruções. Ada também imaginava as vantagens, caso pudesse tra-
balhar com os desvios condicionais (“if ”). Hoje, existe até uma lin-
guagem batizada de Ada, em sua homenagem.
22 1854 – George Boole (1815-1864) publicou as bases da lógica boo-
leana (em referência a seu próprio nome). Tais bases determinam
que equações matemáticas algébricas podem expressar os conceitos
da lógica, em que variáveis (unidades de memória que armazenam
valores) podem assumir os valores 0 ou 1 (ex: verdadeiro ou falso).
Graças a essa contribuição de George Boole, os cientistas puderam
pensar em um computador que fosse utilizável para qualquer fim.

1.2.1.3 Máquinas de computar


Computar é calcular, processar dados para buscar uma solução para
algum problema, ampliando a noção inicial de apenas fazer contas da
aritmética básica. Com a necessidade crescente de tratar informações de
maneira automática, proporcionando resultados mais rápidos, as pesquisas e
invenções na área de informática prosseguiram a passos largos.
22 1889 – As ideias de Charles Babbage são mescladas às práticas com
cartões perfurados (criadas por Jacquard para os teares, em 1801)
por um estatístico americano preocupado com a demora na conta-
gem da população. Até então, o censo da população norte ameri-
cana levava sete anos para ser concluído. Com sua invenção, Her-
man Hollerith (sim, seu nome é sinônimo dos contracheques para
pagamento de funcionários) conseguiu reduzir pela metade o tempo
necessário para tabular os dados da população.
22 1896 – Com o sucesso de seu invento, Hollerith funda a Tabulating
Machine Company (companhia de máquinas de tabular).
22 1904 – A válvula é criada por John A. Fleming. Tal componente é
composto por um envoltório de vidro que contém dois eletrodos.
A válvula interrompe ou permite a passagem de corrente elétrica,

– 14 –
História dos computadores

dependendo de como a energia passa por dentro dela. Com corrente


elétrica, podemos dizer que o valor dessa válvula é “um”; sem cor-
rente elétrica, podemos assumir que seu valor é “zero”.
22 1911 – A empresa de Hollerith se funde a outras três companhias,
dando origem à Computing Tabulating Recording Co. (CTR).
22 1924 – A CTR, então com apenas 1.400 funcionários, muda seu
nome para International Business Machine, hoje mundialmente
reconhecida pela sigla IBM e com cerca de 400 mil funcionários em
todo o mundo.
22 1937 – Allan M. Turing, utilizando-se da álgebra de Boole, da
tecnologia de entrada e saída via cartões perfurados e da válvula,
expõe minuciosamente uma máquina computacional de propósito
múltiplo. Foi uma iniciativa pioneira no sentido de permitir que
o próprio usuário (e não o fabricante) definisse que cálculos ou
operações a máquina iria realizar – o que tem tudo a ver com o
conceito de programação que temos hoje.

1.3 Gerações de computadores


Quatro marcos na evolução dos computadores permitem agrupar os
principais acontecimentos nessa história e entender os eventos que represen-
taram um salto tecnológico.

1.3.1 Primeira geração: válvula (1945-1955)


22 1943-1946 – John Presper Eckert (1919-1995) e John Mauchly
(1907-1980), ambos engenheiros, projetaram o ENIAC – Eletronic
Numerical Integrator And Computer (computador integrador
numérico eletrônico). Foi o primeiro computador eletrônico de uso
geral, capaz de ser reprogramado para diferentes tarefas. Com 18
mil válvulas e 1.500 relés, pesava 30 toneladas, consumia 150Kw de
energia e ocupava 167m2. Por seu poder computacional – conseguia
realizar cerca de 5.000 operações de soma ou subtração por
segundo – e pela possibilidade de reprogramação, atiçou cientistas e
industriais. O ENIAC foi projetado para fazer cálculos de balística

– 15 –
Fundamentos da Informática

durante a Segunda Guerra Mundial, mas só foi anunciado ao


mercado em 1946, após o término do conflito.
Para programar o ENIAC, era preciso ajustar manualmente 6
mil interruptores e conectar uma imensa quantidade de soquetes.
Andrew Tanenbaum (Tanenbaum, 2007) compara-o a “uma ver-
dadeira floresta de cabos e jumpers.” Jumper é uma ligação móvel
entre dois pontos de um circuito eletrônico, que serve para ligar ou
desligar o fluxo elétrico. Programar em painéis elétricos realmente
era difícil, lento, tedioso e mecânico.
22 1945 - A partir dessas dificuldades, o matemático John Von Neu-
mann, que também participara da concepção do ENIAC, propôs
um modelo conhecido como Máquina de Von Neumann. Até hoje,
os computadores ainda usam como base a arquitetura de funciona-
mento proposta por ele. Esse modelo divide um computador em
cinco componentes principais: a memória, a unidade de controle,
a unidade de lógica e aritmética e dispositivos para entrada e saída
de dados.
A memória armazena dados e instruções de programas. A unidade
de lógica e aritmética e a unidade de controle formavam, juntas, o
“cérebro” do computador – hoje combinadas em um único chip
chamado CPU (Central Processing Unit, ou Unidade de Proces-
samento Central). A CPU busca instruções e dados na memória,
executa as instruções e então armazena os resultados de volta na
memória. Os dispositivos de entrada (teclado, mouse, microfone) e
dispositivos de saída (monitor, altofalantes, impressora) permitem
que o usuário interaja com a máquina, fornecendo dados e visuali-
zando facilmente os resultados.

1.3.2 Segunda geração: transistores (1955 - 1965)


Os transistores, inventados em 1948 por Willian Shockley, Walter Brattain
e John Bardeen, substituíram as válvulas e renderam a seus criadores o Prêmio
Nobel de Física de 1956. A válvula sempre foi uma grande consumidora de
energia elétrica. O transistor é muito mais rápido e barato que a válvula,
além de consumir bem menos energia elétrica e ser mais durável. Os Estados

– 16 –
História dos computadores

Unidos conseguiram, por exemplo, com o uso de transistor, sair à frente da


antiga União Soviética na corrida espacial.
22 1963 – O teclado aparece comercialmente como um dispositivo
para entrada de dados no equipamento de telex ASR-33, que arma-
zenava os dados em cartões perfurados.
22 1963 – O monitor de vídeo, o mais relevante periférico de saída,
começa a ser usado. Antes dele, os resultados do processamento de
dados podiam ser visualizados somente se impressos em papel.
22 1964 – Surge o mouse, apresentado por Douglas Engelbart como um
periférico para inserção de dados. Antes dele, a entrada só poderia ser
feita por meio do teclado e dos tradicionais cartões perfurados.
Ainda em 1964, John Kemeny cria a linguagem BASIC que, naquele
momento, servia como um software que intermediava a relação entre
a linguagem de programação e o hardware. Esse papel muito se asse-
melha ao desempenhado hoje pelo sistema operacional (popular-
mente representado pelo Microsoft Windows ou GNU/Linux).

1.3.3 Terceira geração: circuitos


integrados (1965-1980)
O circuito integrado foi inventado em 1958 pelo físico norte americano
Robert Noyce, depois co-fundador da Intel. Ele não substitui os transistores,
porém – ele os reúne e compacta. O circuito integrado é um conglomerado
de dezenas ou centenas de transistores, em um diminuto dispositivo de silí-
cio, o chip.
Nessa fase, verifica-se o fenômeno da miniaturização dos computa-
dores. Com o CI (circuito integrado), tornou-se possível a construção de
computadores menores, mais rápidos e mais baratos do que os da gera-
ção anterior (já com transistores). A mudança foi drástica: computadores
que tinham o tamanho de salas foram reduzidos ao tamanho de geladeiras.
Ainda eram grandes, se comparados com os de hoje, mas já provocaram
impacto significativo na época.
22 1967 – A primeira calculadora digital, precursora das calculadoras

– 17 –
Fundamentos da Informática

de bolso de hoje, é apresentada pela empresa Texas Instruments.


A máquina realizava as quatro operações básicas: soma, subtração,
multiplicação e divisão.
22 1968 – A empresa Intel (hoje, a maior fabricante de microprocessa-
dores do mundo) é criada por Robert Noyce, Andy Groove e Gor-
don Moore.
22 1969 – Nasce a rede Arpanet, por meio da interligação de quatro
universidades, pelo Departamento de Defesa dos Estados Unidos. A
Arpanet é a precursora da World Wide Web (WWW) – rede mun-
dial de computadores ou, simplesmente, a internet.
22 1970 – O sistema operacional (SO) UNIX é desenvolvido por Ken
Thompson e Dennis Ritchie. O UNIX foi o primeiro SO portável,
podendo funcionar em diferentes tipos de computadores. O sistema
operacional GNU/Linux de hoje é um UNIX.

1.3.4 Quarta geração: integração em escala


muito grande (1973-[1980-?])
Na terceira geração, centenas de transistores foram agrupados em um
único chip. Agora, na quarta geração, o princípio do circuito integrado é o
mesmo, mas o que muda é a escala. Centenas de milhares e até milhões de
transistores são agora compactados em um chip ainda menor (batizado de
microchip). Esse nível altíssimo de miniaturização é conhecido como VLSI
(Very Large Scale Integration, ou integração em escala muito grande).
O microchip permite a construção dos microcomputadores, que passam
a ter o tamanho de cadernos (notebooks) e ainda menores.
22 1973 – O termo PC (personal computer, ou computador pessoal) é
utilizado pela primeira vez quando a Xerox lança um computador
batizado de Alto, para uso pessoal. Esse PC já exibia características
dos computadores do século XXI: o conceito de “desktop” (mesa de
trabalho), uso de mouse e interface gráfica, ainda que simples.
22 1975 – Chega ao mercado o Altair 8800, cujos diferenciais eram caber
sobre uma mesa e ser muito mais rápido que os anteriores. Ainda

– 18 –
História dos computadores

adolescente, o jovem programador Bill Gates adapta a linguagem


BASIC para rodar no Altair e em outros microcomputadores.
22 1975 – Bill Gates, com apenas 20 anos, e Paul Allen, com 22,
fundam a Microsoft.
22 1976 – Steve Jobs e Stephen Wozniak fundam a Apple. Conhecido
pelo lado artístico apurado, Jobs achava que um computador
precisava representar de maneira gráfica o que a máquina estava
fazendo, ao invés de apenas uma sequência de botões e luzes que
acendiam e apagavam. Ele então lança o Apple 1, considerado o
primeiro computador a vir já montado, ao qual bastava acrescentar
um monitor no qual era possível acompanhar as ações.
22 1977 – O Apple 2, o Atari 500 e o Commodore 64 são lançados
respectivamente pelas empresas Apple, Atari e Commodore. O
Apple 2 foi consagrado como o primeiro sucesso de mercado
na área de computação pessoal, pois já incluía monitor, teclado,
placa de som e capacidade de ler dados a partir de um disquete
de 5” ¼ .
22 1980 – A arquitetura RISC (Reduced Instruction Set Computing, ou
conjunto reduzido de instruções) passa a ser adotada em substituição
a instruções complexas e difíceis, conhecidas como CISC. (Os
detalhes e diferenças entres esses dois tipos de arquitetura serão
abordados no capítulo 3).
22 1981 – É lançado o primeiro computador portátil comercialmente
bem-sucedido, o Osborne1, com 11 quilos.
22 1981 – O IBMPC é lançado pela IBM, com processador Intel
8088 e sistema operacional MSDOS, feito pela Microsoft. Esse PC
surge com desempenho (velocidade e memória) muito superior ao
dos concorrentes e até hoje é um sucesso de vendas, com número
expressivo de usuários em todo o mundo.
A arquitetura de seu funcionamento foi aberta pela própria
IBM, o que resultou em perda de mercado para a empresa mas,
ao mesmo tempo, uma massiva popularização do padrão IBM.
A consequência é que há no mundo um número muito maior

– 19 –
Fundamentos da Informática

de computadores padrão IBM-PC (aberto) do que padrão Apple


(fechado).
A Microsoft foi extremamente beneficiada com essa popularidade do
IBM-PC, uma vez que, para cada computador em funcionamento,
era preciso uma licença do sistema operacional MS-DOS ou, mais
tarde, do Windows, que surgiu em 1985 mas só começou a ser
tecnicamente considerado como um sistema operacional a partir da
versão Windows NT, lançada em julho de 1993.
22 1982 – A Compaq surge no mercado e apresenta seu primeiro
produto: um computador portátil totalmente compatível com o
sistema operacional de seu principal concorrente na época, o IBM-PC.
22 1984 – A Apple lança o Macintosh, primeiro a usar o mouse
e possuir a interface (meios pelos quais um computador e seus
programas se comunicam com o usuário) gráfica como nós
conhecemos hoje, com pastas, menus e área de trabalho.
22 1985 – A Microsoft lança o Windows, interface com o usuário
cujo design e princípios foram inspirados (segundo outras
opiniões, copiados mesmo) na Apple, depois que Gates e Jobs
foram parceiros por alguns anos. A partir daí, o sistema operacional
do Macintosh e o Windows se tornam fortes concorrentes.
22 1992 – O computador Alpha, revolucionário, de 64 bits, é lançado
pela Digital Equipment Corporation (DEC), empresa líder nos
Estados Unidos na fabricação de computadores e softwares entre os
anos 1960 e 1990. Utilizando arquitetura RISC, tinha uma velocidade
de processamento muito superior a qualquer outro computador
pessoal da época. No entanto, esses computadores RISC de 64 bits
só começaram a fazer sucesso no mercado dez anos depois, atuando
principalmente como servidores de alto desempenho.

1.4 O século XXI: Novos conceitos para


novos cenários
Depois de duas ondas tecnológicas (chamadas de plataformas no mundo

– 20 –
História dos computadores

da tecnologia) – a primeira quando a computação migrou dos centros de


pesquisa acadêmica para o mundo corporativo e grandes corporações passa-
ram a ter mais frames (servidores centrais, computadores que centralizavam
serviços a uma rede) para gerenciar seus processos de automação; a segunda
quando houve a popularização do computador pessoal e o uso corriqueiro
da internet – vivemos, a partir da segunda década do século XXI, a chamada
Terceira Plataforma.
Quatro elementos marcam a Terceira Plataforma: mobile, cloud, big data
e social. Juntos, eles provocaram, e a cada dia ainda provocam, uma revolução
na maneira como interagimos com o mundo e buscamos informação, lazer,
educação e entretenimento; estabelecemos relacionamentos pessoais e pro-
fissionais; criamos hábitos de consumo; gerenciamos processos de trabalho;
vivemos nosso dia a dia. E por que cada um dos quatro aspectos é relevante?
22 Mobile – O que se chama de mobile são os dispositivos móveis
pessoais que permitem acesso à internet, como smartphones
(celulares inteligentes) e tablets (computador portátil de tela sensível
ao toque). Dados compilados pela Teleco em 2013 revelam que
existem cerca de 7 bilhões de celulares em uso no mundo.
O segundo trimestre de 2013 foi um marcante ponto de virada:
pela primeira vez, foram vendidos mais smartphones do que celulares
comuns em todo o mundo, uma prova de que as pessoas estão cada
vez mais interessadas em estar conectadas via internet. As vendas de
smartphones entre abril e junho de 2013 foram 46% maiores do
que no mesmo período do ano anterior, chegando a 225 milhões
de unidades, e representaram 52% do total de celulares vendidos no
período, segundo a Gartner. No Brasil, de acordo com o International
Data Corporation (IDC), o fenômeno se repetiu na mesma época.
Essa “virada” não tem volta e a adoção dos smartphones só tende a
crescer, dada a variedade de modelos e a redução dos custos. O ano
de 2013 se encerrou com a expressiva venda de 1,004 bilhão de smar-
tphones em todo o mundo,o equivalente a 55% de todos os celulares
vendidos naquele ano, diz o IDC.
Isso teve grande efeito no mercado de aplicativos para dispositivos
móveis. Aplicativos são programas específicos para atender

– 21 –
Fundamentos da Informática

determinadas demandas em computadores, e tornaram-se mais


populares em plataformas mobile como smartphones e tablets.
São úteis para diferentes propósitos – de um site de banco a um
jogo para crianças, de busca de táxi a tratamento de fotografias,
de geolocalização a receitas gastronômicas. A consultoria Gartner
avalia que houve, em 2013, cerca de 102 bilhões de downloads
de aplicativos nas quatro maiores lojas virtuais (as chamadas
appstores) – AppStore da Apple, Google Play, Windows Phone
Store e BlackBerry World, que juntas oferecem cerca de 1 milhão
de aplicativos gratuitos e pagos.
Celulares inteligentes permitem às pessoas pagar contas, pesquisar
preços e comprar produtos, enviar e receber e-mails, e compartilhar
conteúdos em redes sociais, tudo em tempo real, onde quer que
estejam. Com a expansão das redes de dados das empresas de telefonia
móvel e a disponibilidade de redes sem fio (wi-fi) em locais públicos,
o acesso a esses serviços tem sido mais amplo.
22 Cloud computing – Com a quantidade crescente de dados gerados
por empresas e pessoas, tem sido cada vez mais complicado
gerenciar computadores pessoais e servidores corporativos para
guardar um volume tão grande de dados. Além disso, a necessidade
de acessar esses dados a partir de qualquer equipamento e em
qualquer lugar (exigências da mobilidade e de novos modelos
de trabalho, inclusive trabalhar de casa – home office) fez com
que fosse adotada uma alternativa mais vantajosa do ponto de
pista operacional e financeiro: o armazenamento de dados “na
nuvem”, conhecido como cloud computing. A “nuvem” é um
lugar virtual que “paira sobre nossas cabeças” onde quer que
estejamos, e que podemos acessar com um clique do mouse,
desde que tenhamos acesso à internet. Na verdade, são robustos
computadores/servidores conectados em rede (pela internet) e
espalhados em vários locais do mundo. Os investimentos das
empresas nesse tipo de solução tem sido crescente, segundo
levantamento do International Data Corporation (IDC).
22 Big data – De que serve uma quantidade imensa de dados se o
aproveitamento deles é deficiente? O conceito de big data pressupõe

– 22 –
História dos computadores

uma interpretação detalhada de dados a fim de, por exemplo,


personalizar a oferta de produtos e serviços de acordo com o perfil
do usuário, visando à satisfação do cliente e ao aumento das vendas.
Nessa esteira surgiram, por exemplo, a gigante Amazon (venda
online de livros, eletrônicos e outros produtos) e o portal de reservas
de hotéis Booking.com, capazes de sugerir opções com base em
pesquisas prévias feitas pelo usuário. A rede LinkedIn, que promove
relações profissionais (networking), também usa big data para, com
base nos dados que o usuário forneceu, identificar pessoas afins para
compor sua rede profissional.
Como base comum a todas essas empresas, estão novas soluções
para o processamento de grandes volumes de dados em alta velo-
cidade e arquiteturas que privilegiam agilidade e padronização no
acesso aos dados.
Essa detecção de padrões, conhecida como mineração de dados
(data mining), permite, por exemplo, traçar hábitos de compra dos
clientes e prever tendências de consumo, subsidiando a tomada de
decisões estratégicas para o negócio. Parte importante desse processo
é a aprendizagem de máquina, ou seja, programar o computador
para que ele seja capaz de identificar quais dados se transformam em
um padrão de comportamento.
22 Social – O ser humano é um ser social. “Estar conectado” é palavra
de ordem no século XXI e as novas tecnologias estão muito voltadas
a essa demanda. Não à toa, cursos na área de informática passaram
a incluir o tema Computação Social, uma mescla de comunicação,
sociologia, tecnologia da informação, economia e inteligência artifi-
cial, entre outras, a fim de estudar o novo cenário.
As mídias sociais mudaram a maneira como as pessoas interagem,
compartilham, cooperam no trabalho, buscam entretenimento e
definem seus hábitos de consumo. As empresas entenderam que os
consumidores desejam muito mais do que apenas comprar; a busca
pela “experiência do usuário” e por uma relação mais humanizada
entre marcas e pessoas alterou o posicionamento mercadológico
de empresas de diversos segmentos, mesmo no B2B (business-to-

– 23 –
Fundamentos da Informática

business, empresa para empresa).


Outro ponto que marca o chamado social business é a ligação das
empresas com questões mais humanas e menos comerciais, tais
como participação em questões sociais, proteção ao meio ambiente,
produtos sustentáveis e uma postura não-poluente de modo geral,
mais preocupada com o bem estar do ser humano.
Dois fenômenos comprovam a nova realidade. No ambiente de
trabalho, há uma valorização da cooperação para desenvolvimento
de soluções e novos produtos, principalmente por meio do open
source – a busca por ideias colaborativas para resolver problemas que
afetam muitas pessoas, sem altos custos para apenas uma empresa
ou indivíduo.
A explosão das redes sociais é o outro fator que impactou
enormemente as relações. Inicialmente voltadas ao entretenimento
e à conexão entre as pessoas, as redes passaram a ter um papel
importante também para estreitar o relacionamento entre marcas
e consumidores, entre empresas e parceiros ou fornecedores, entre
artistas e escritores e seu público. Ou seja, passaram a ter um viés
também de marketing. Em comum, todas trouxeram nova dimensão
ao conceito de “estar conectado”.
As redes que experimentaram maior popularidade ao redor do
mundo são Facebook (compartilhamento de conteúdos e fotos
para uma rede de amigos reais ou virtuais), Twitter (microblogging
com notícias e mensagens de até 140 caracteres), Instagram (fotos),
Google+ (semelhante ao Facebook, com conteúdos variados), You
Tube (vídeos) e Pinterest (fotos e imagens sobre temas específicos),
todas elas com centenas de milhões de usuários, com exceção do
Facebook, que em janeiro de 2014 contava com 1,2 bilhão de
usuários. Essas e outras centenas de redes se alternam nos rankings de
“rede que mais cresce” e sempre há espaço para mais uma novidade,
uma nova rede social que atrai a atenção em dado momento. É
importante ressaltar que não bastam dados quantitativos – ao longo
do tempo, essas redes veem o perfil de seus usuários se alterar,
especialmente pela faixa etária.

– 24 –
História dos computadores

Por fim, um elemento importante na Terceira Plataforma é a conver-


gência de dados, com a possibilidade de acessar dados, voz e vídeo em um
só dispositivo, seja ele um celular, tablet, notebook ou desktop (computador
de mesa). Para isso, os programadores desenvolveram o chamado design res-
ponsivo – com isso, é possível identificar de qual tipo de aparelho o usuário
está se conectando e automaticamente adaptar o visual de um site para as
dimensões da tela.
O maior impacto da Terceira Plataforma na humanidade vai muito além
de uma renovação tecnológica, provocando uma significativa mudança cultu-
ral. Fazer coisas antigas de um jeito novo, fazer novas coisas, e agregar veloci-
dade e conteúdo estão por trás dessa mudança.

Conclusão
A história da computação remonta a 3.000 anos antes de Cristo, quando
os babilônios criaram o ábaco para fazer contas, passa pela invenção da
primeira calculadora, em 1623, e recebe uma longa lista de contribuições
de astrônomos, físicos, matemáticos e engenheiros ao longo dos séculos, até
chegar ao microchip, base da tecnologia implantada nos computadores do
século XXI.
Ao conhecer a história dos computadores, nos damos conta de como
tantos cientistas, culturas e indústrias diferentes trabalharam com afinco para
se livrar da tediosa tarefa de fazer cálculos e operações repetitivas manualmente,
mudando completamente o modo de ser e pensar da humanidade.
As quatro gerações de computadores – válvula, transistor, circuitos
integrados e integração em larga escala com microchips – foram marcadas por
grandes invenções que revolucionaram a tecnologia então em uso e ampliaram
o conhecimento sobre como as coisas funcionam. Por exemplo, um dos
conceitos mais importantes para os profissionais da área de informática é
entender a diferença entre dados analógicos e digitais.
A partir do momento em que a tecnologia migrou dos centros acadêmi-
cos para o mundo corporativo, o cenário mudou de forma acelerada. De lá
para cá, três grandes ondas tecnológicas, chamadas de plataformas, marcam a
história. A primeira plataforma é quando os mainframes, volumosos e pesados

– 25 –
Fundamentos da Informática

servidores, passaram a ser adotados por grandes corporações na automatiza-


ção de seus processos. A segunda plataforma aparece com a popularização dos
computadores pessoais e a disseminação da internet. E a terceira plataforma
é a revolução na maneira como interagimos com o mundo (educação, entre-
tenimento, consumo, informação, relacionamentos pessoais e profissionais,
processos de trabalho, lazer), por causa de tecnologias apoiadas em quatro
elementos: mobile, cloudcomputing, big data e redes sociais.
Compreender a evolução da computação, até chegar aos incríveis
avanços conceituais, técnicos e científicos que tornam possível a existência
de sofisticados computadores hoje, nos ajuda a pensar em novos usos e
buscar novas tecnologias que possam contribuir para facilitar o trabalho e
a vida das pessoas.

– 26 –
2
Microcomputador

Desde sua concepção e para cálculos balísticos e transmissões


de dados sigilosos de estratégias bélicas, ainda em suas primeiras
gerações, o computador chegou à esfera civil, sendo empregado ini-
cialmente nos diversos controles administrativos das empresas e, com
a popularização e consequente redução de preço de revenda, atin-
giu, também, os lares das pessoas. Sendo “computador” um termo
atrelado aos colossais equipamentos da computação, as máquinas
menores em tamanho e capacidade sugeriam novos termos, como
minicomputador e, posteriormente, microcomputador, ou simples-
mente micro. No Brasil, durante décadas, o termo “micro” foi larga-
mente utilizado, porém aos poucos foi abrindo espaço para o mais
globalizado PC (Personal Computer – Computador Pessoal), que é
o principal objeto de estudo desta obra.
Fundamentos da Informática

2.1 Computador pessoal


Já conhecemos a sigla CPU, oriunda das gerações iniciais dos compu-
tadores para designar somente o chip responsável pela tomada de decisões
e cálculos da máquina. Com o passar do tempo, o uso do termo foi sendo
ampliado e, há alguns anos, é utilizado para se fazer referência ao conjunto de
peças que compõem o gabinete de um computador pessoal. Ainda que inade-
quado, chamar esse conjunto de peças de unidade central de processamento
não é totalmente errado, uma vez que as tarefas que são realizadas com o
auxílio do microcomputador acontecem ali, de fato, mediante entrada e saída
de dados pelo usuário, por meio de componentes externos de interação, como
teclado, mouse e monitor.
Sob uma abordagem contemporânea, um computador pessoal típico
pode ser dividido em dois grandes grupos: CPU (conjunto de componentes
e placas internos) e periféricos (componentes externos à CPU, de interação
direta com o usuário).

2.1.1 Componentes internos


Entre os diversos componentes que integram a parte interna de um PC,
destacam-se:
22 processador – responsável pelo cálculo, processamento, tomada de
decisões e manipulação dos dados em geral;
22 memória – responsável pelo armazenamento dos dados, sendo
para uso imediato pelo processador ou para arquivamento;
22 placa mãe – integra os componentes internos do computador e as
placas controladoras;
22 placas controladoras – responsáveis pela comunicação dos
componentes básicos do computador com o exterior – vídeo, som,
rede e tantos outros periféricos.

2.1.2 Componentes externos


Os componentes externos, denominados periféricos, são responsáveis
pela interação direta com o humano. A diversidade desses componentes está

– 28 –
Microcomputador

diretamente relacionada à evolução do uso do equipamento. Se, no princípio,


os computadores eram utilizados para cálculos e dados textuais, ao chegar
ao cotidiano do consumidor final, o leque de possibilidades aumentou
significativamente. Dos processadores de texto aos editores gráficos, ainda
nos antigos monitores de fósforo verde, às emissões dos alertas sonoros, tudo
se resumia a: gabinete, monitor e teclado. O potencial gráfico aumentou e
popularizou a impressora e o scanner; produzir elementos gráficos com o
teclado ficou difícil, então, surgiu o mouse. O som passou a ser polifônico e
as aplicações multimídia exigiram placas com caixas de som. A revolução da
internet e o aumento da velocidade de conexão permitiram uma comunicação
que extrapolava as teclas: webcam e microfone passaram a permitir conversas
por vídeo. Milhares de equipamentos surgindo não um após o outro, mas
vários paralelamente, para ampliar o uso da máquina. Em cada situação,
para cada uso específico do computador, haverá um hardware periférico
para atender à necessidade. Cada um desses componentes será detalhado em
capítulos posteriores desta obra, a fim de consolidar o entendimento daqueles
que são os principais responsáveis pela realização de tarefas tão diversas. A
figura 1 a seguir apresenta um computador pessoal em configuração típica
com alguns desses elementos.
Figura 1 – Computador pessoal contemporâneo
Shutterstock.com/Pokomeda

– 29 –
Fundamentos da Informática

2.1.3 Software
Ao se estudar hardware é comum surgir uma analogia direta com a
palavra “software”, que é empregada para se fazer referência aos programas
que são executados pelo computador. Essa analogia é mais do que justa,
pois um computador só é útil se for utilizado para realizar uma determinada
tarefa, e isso só é possível por meio das instruções de software. Em
contrapartida, um aplicativo é desenvolvido exclusivamente para comandar
o funcionamento do hardware. Simples assim: um não existe sem o outro. O
software que garante o funcionamento básico de um computador é o sistema
operacional, e para se realizar uma tarefa específica, como a edição de um
texto, utiliza-se um aplicativo.

Da teoria pra a prática


Pesquise as tendências de computadores pessoais, nos últimos
cinco a dez anos, e elabore um texto com a proposta de prever
como será o PC dos próximos dez anos, em termos de compo-
nentes, periféricos e software.

Conclusão
Na área da computação, assim como em diversas outras disciplinas das
ciências exatas, a descoberta de novos componentes e o desenvolvimento
de novos métodos abrem possibilidades que vão além de uma simples
evolução. No caso específico dos computadores, houve uma evolução (ou
revolução) de antigas máquinas de calcular. As gerações estão intimamente
ligadas às descobertas ou ao desenvolvimento de novos componentes, e a
obsolescência é algo espantoso: o que ontem era inovador e caro, hoje não
passa de lixo tecnológico.
Saindo dos laboratórios acadêmicos e do universo bélico para os lares
do cidadão comum, os computadores passaram por diversas adequações.
A grande variedade de atividades que fazem parte da rotina de uma pessoa
carece de equipamentos que vão além de um teclado e de um monitor. A

– 30 –
Microcomputador

criação de novos periféricos, pensando em possibilidades de uso, e a supressão


de outros, que deixam de ter importância por mudanças de comportamento e
cultura, são elementos constantes no universo dos microcomputadores.

– 31 –
3
Componentes básicos
do computador

A história dos computadores nos mostra que muitas das coi-


sas criadas no passado continuam tendo sua importância nos dias
atuais. Um dos maiores exemplos é a arquitetura dos computadores
do século XXI, que até hoje tomam por base a Máquina de Von
Neumann, criada pelo matemático John von Neumann em 1945.
Esse modelo inclui uma Unidade Central de Processamento/CPU
(formada por uma unidade lógica aritmética e uma unidade de con-
trole), memória e dispositivos de entrada e saída de dados.
Os computadores atuais seguem o mesmo princípio de com-
posição. A única diferença em relação ao modelo de von Neumann
é que hoje o processador (a CPU) reúne em um único microchip as
unidades de controle e de lógica e aritmética.
Andrew Tanenbaum (Tanenbaum, 2007) afirma que “um
computador digital consiste em um sistema interconectado de pro-
cessadores, memórias e dispositivos de entrada/saída.
Fundamentos da Informática

A CPU, a memória e a placa-mãe são os componentes principais. Em


poucas palavras, a memória tem a função de armazenar os dados. A CPU,
conectada à memória por slots, é responsável por buscar os dados, processá-
los e depois enviá-los de volta à memória. E a placa-mãe é o canal de
comunicação que interliga todos os componentes do computador e permite
que eles “conversem” entre si.

3.1 Periféricos (dispositivos de entrada/saída)


Periféricos “são os dispositivos usados para fazer a entrada e a saída dos
dados que serão processados”, segundo Cruz (Cruz, 1997). Em outras palavras,
os periféricos são os componentes que permitem ao usuário interagir com a
máquina, fornecendo-lhe instruções para a execução de determinada tarefa e
permitindo a visualização e compreensão do resultado dessas tarefas. Assim,
por exemplo, o teclado e o mouse servem para inserir dados (periféricos de
entrada), que são processados pelo computador e “traduzidos” para que o
usuário veja o resultado, por exemplo na tela do monitor ou no papel que sai
da impressora (periféricos de saída).
Pode-se considerar, portanto, que o termo “periférico” pode ser aplicado
a qualquer equipamento acessório que seja conectado ao computador, com
uma função definida.

3.1.1 Tipos de periféricos


Existem três tipos de periféricos, que variam conforme sua função e
forma de utilização. São eles: os periféricos de entrada, os de saída e os de entrada
e saída.
a. Periféricos de entrada (input): é responsável pela tradução dos
códigos utilizados pelos equipamentos em códigos compreensíveis
pelo computador. Ou seja, tudo o que alguém utiliza para
fornecer informações ao computador para que este execute
alguma tarefa. Entre esses periféricos, estão teclado, mouse,
microfone, leitor de código de barras, webcam, identificador
digital, scanner de mão, leitor de CD/DVD, mesa digitalizadora,
joystick e gamepad, entre outros.

– 34 –
Componentes básicos do computador

b. Periféricos de saída (output): é responsável pela “tradução” dos


códigos e dados processados pelo computador para que o operador
consiga visualizá-los e compreendêlos. Monitor de vídeo, impressora
e caixas de som são alguns exemplos.
c. Periféricos de entrada e saída (input/output): servem tanto para
fornecer dados ao computador quanto para recebê-los. Entre esses
periféricos, estão modem, multifuncionais (scanner, copiadora),
monitor touchscreen e dispositivos de imagem.

3.2 Memória principal – RAM


O termo RAM, do inglês Random Access Memory (Memória de Acesso
Aleatório), referese à memória de trabalho com a qual o processador se comu-
nica. O termo aleatório quer dizer que a memória poderá ser acessada para
operações de gravação e leitura, em qualquer posição. Existem milhares de
posições de memória que dependem da capacidade do pente de memória
instalado em sua placa-mãe.
Para facilitar a compreensão, podemos comparar uma posição de memória
em um pente a um apartamento em um prédio. Cada apartamento pode ter
apenas um morador (em termos técnicos, um caractere, por exemplo, a letra “A”).
O processador poderá, então, dependendo do programa que está
executando, inserir um caractere em uma posição de memória (colocar
um morador em um apartamento), retirar um caractere de uma posição,
substituir um caractere por outro na mesma posição, copiar um caractere de
uma posição de memória para outra. Tudo isso tem que ser feito de maneira
muito rápida, uma vez que os computadores realizam milhões de acessos à
memória enquanto estão executando alguma operação.
Um exemplo didático do que a memória do computador é capaz de fazer
seria a sequência abaixo:
1. O processador insere o número 1 na posição de memória 002.
2. O processador insere o número 2 na posição de memória 003.
3. O processador lê o número contido na posição de memória 002.

– 35 –
Fundamentos da Informática

4. O processador lê o número contido na posição de memória 003.


5. O processador soma os números lidos e armazena o resultado na
posição de memória 101.
6. O processador insere o número 3 na posição de memória 003.
Qual o resultado da soma armazenado na posição de memória 101?
Se você respondeu três, acertou. Uma possível resposta, porém errada, seria
quatro. Acontece que, embora o conteúdo da posição 003 tenha sido alterado
posteriormente, isso em nada alterou o conteúdo armazenado na posição
101, que era o resultado da operação (soma) executada.
A memória principal (RAM) não processa. Ela é um repositório de dados,
acessada pelo processador. Ela também é volátil, ou seja, se você desligar
o computador, todos os dados contidos nela irão se perder. A propósito, há
memória que não se perde. Os documentos que digitamos, por exemplo, e ficam
armazenados, são de outra natureza. Textos e planilhas, sistema operacional e
outros dados persistentes ficam armazenados em dispositivos de memória de
massa, como os discos rígidos, conhecidos também como memória secundária.
A memória RAM se comunica com o processador (CPU) por meio da
placa-mãe, e é a CPU que pode ser considerada o “cérebro” da máquina, sem
o qual nada seria possível.

3.3 Unidade Central de


Processamento - UCP ou CPU
A Unidade Central de Processamento é o principal componente do
computador. Ela é mais conhecida por sua sigla em inglês – CPU (Central
Processing Unit) – ou simplesmente pelo termo “processador” .
Um computador poderá até sobreviver, conceitualmente, sem memória
ou mesmo sem uma placa mãe, mas, se não possuir um processador, não
pode ser considerado como um computador propriamente dito. Talvez seja
outro equipamento como um pendrive, mas nunca um computador. O termo
computador nos remete ao verbo computar, que quer dizer calcular ou, mais
especificamente, executar cálculos e operações próprias de um computador.

– 36 –
Componentes básicos do computador

Ora, se um computador é aquilo que realiza cálculos, logo presumimos que


ele precisará ter uma espécie de cérebro eletrônico, ou uma cabeça eletrônica,
que possa pensar ao menos o suficiente para resolver os cálculos para os quais
foi designado a realizar.
A CPU age, então, como o cérebro do computador. Ela tem a função de
obter dados ou instruções de algum lugar que, no caso de um computador, é a
memória de trabalho (memória RAM); de verificar essas instruções; e depois
executá-las, uma após a outra.
Mas é bom que se desmistifique o processador – ele não é um elemento
mágico que busca as informações e as processa de forma desconhecida.
No parágrafo anterior, utilizamos verbos de ação, como obter, verificar
e executar. Para cada um desses verbos, existem barramentos e circuitos
elétricos e eletrônicos que desempenham e possibilitam a comunicação entre
os componentes internos ao próprio processador. Projetar processadores,
bem como circuitos eletrônicos e componentes para computadores, como
interfaces de vídeo tridimensionais ou modems para acesso a internet,etc.,
são objetivos de cursos específicos como Engenharia Eletrônica e Engenharia
da Computação.
Diferentes partes compõem a UCP: Unidade de Controle (UC), Unidade
Lógica Aritmética (ULA) e registradores, que são pequenas memórias de
alta velocidade.

3.3.1 Unidade de Controle – UC


A Unidade de Controle tem a função de obter dados e instruções na
memória principal, determinando sua tipologia. Ela é a porta de entrada e saída
que o processador usa para comunicar-se, via sinais elétricos, com a memória
principal. Por exemplo, se a ULA precisar armazenar o número binário 0012
na posição de memória 0002, ela solicitará à UC que realize tal procedimento.

3.3.2 Unidade Lógica Aritmética – ULA


A Unidade Lógica Aritmética efetua diversas operações matemáticas,
como adição e subtração, multiplicação e divisão, e de lógica booleana, como
o OR (“ou”) booleano. George Boole foi um matemático que definiu, em

– 37 –
Fundamentos da Informática

1854, os princípios da lógica binária (0 ou 1) seguindo a ideia de que equações


matemáticas podem expressar os conceitos da lógica (ex: verdadeiro ou falso).

3.3.3 Registradores
Os registradores são pequenas memórias internas dentro do
processador, que servem para auxiliá-lo durante as operações, armazenando
temporariamente dados que estão sendo utilizados. Se não fossem os
registradores, o processador teria muito mais trabalho, pois precisaria
acessar a memória principal, que está fora dele.
Existem registradores de uso genérico e outros com funções específicas,
mas ambos são maneiras mais rápidas para acessar informações que estão
sendo processadas, embora tenham menor capacidade de armazenamento
que a memória principal.
Exemplos de registradores genéricos são AX e BX, usados para armazenar
números binários. Um exemplo de registrador específico é o IP (Instruction
Pointer), que indica o ponto de referência na memória principal (RAM) que
contém a próxima instrução a ser executada.

3.3.4 Executando uma instrução


A memória principal armazena dados que serão buscados pela UC (unidade
de controle) da CPU e adicionados nos registradores. Em seguida, a ULA realiza
operações sobre os dados que estão nos registradores, também armazenando o
resultado das operações neles. Por fim, UC copia o valor dos registradores para
dentro de um endereço (posição) de memória principal.
A enumeração a seguir, denominada comumente de ciclo buscar
decodificar executar, representa uma sequência de pequenas fases que são
reproduzidas para cada instrução executada pela CPU.
1. Transportar a próxima instrução da memória principal para o registrador.
2. Modificar o ponteiro de instrução (IP), indicando a instrução seguinte.
3. Estabelecer qual é o tipo da instrução transportada.
4. Estabelecer onde a sequência de dados se encontra, caso a instrução

– 38 –
Componentes básicos do computador

utilize uma sequência de dados na memória principal.


5. Transportar a sequência de dados, se necessário, para algum registra-
dor da CPU.
6. Executar a instrução.
7. Retornar à fase 1 (isso fará com que se execute a próxima instrução,
contida no registrador IP, alterado pela etapa 2).
Os processadores não são todos iguais. Alguns são capazes de executar
um conjunto maior de instruções do que outros, como veremos a seguir.

3.3.5 RISC versus CISC


Ao longo da história, a Apple e a Intel sempre disputaram mercado
com os processadores que projetaram. A Intel, de forma geral, lidera essa
concorrência, especialmente no que diz respeito aos computadores pessoais,
tendo tornado seus processadores Pentium e Celeron muito populares.
Existe uma diferença básica entre os dois processadores dessas duas
companhias: a quantidade de instruções que eles são capazes de realizar. A
Apple utiliza um conjunto reduzido de instruções (RISC), enquanto a Intel
utiliza um conjunto complexo de instruções (CISC).
Um processador RISC segue a regra de que, internamente, deverá possuir
o menor número de microinstruções possível. Por exemplo, ao invés de conter
uma instrução para multiplicar (x), basta possuir a instrução de somar (+) e deixar
que o programador que queira multiplicar 5x2 realize a operação 2+2+2+2+2.
Isso torna a vida do programador mais difícil, pois terá de codificar instruções
complexas para alcançar seu objetivo. O programa resultante, porém, ao ser
executado, será feito em alta velocidade pelo processador RISC.
Um processador CISC segue a regra de que, internamente, deverá possuir
vários conjuntos de instruções para realizar diversas operações. Isso significa
que ele possuirá tanto a operação de soma (+), quanto a de multiplicação (x).
Isso facilita a vida do programador, que terá à sua disposição um leque de
instruções prontas de fábrica a fim de alcançar seus objetivos.
Não há como definir qual o melhor dos processadores. Alguns autores

– 39 –
Fundamentos da Informática

defendem o RISC como sendo o mais performático e “puro” dos processa-


dores; outros defendem que a complexidade trazida pelo CISC facilita a vida
dos desenvolvedores. De fato os processadores RISC costumam ser mais rápi-
dos que os processadores CISC. Mais rápido nem sempre significa melhor. Os
computadores da Apple (Power PC, Imac) não são tão populares no Brasil, mas
sim nos EUA. São preferidos quando o assunto é, por exemplo, processamento
de vídeo, som e gráfico, realizado por empresas de jogos eletrônicos, maquetes
virtuais, etc.
Mesmo assim, o processador Intel é o mais popular por seguir uma regra de
retrocompatibilidade com programas construídos para outros processadores da
mesma marca, mesmo que ultrapassados. Isso significa que um programa feito
para um processador Intel 4x86 (antigo) terá grandes chances de ser executado
em um Pentium IV (novo). Ter a vantagem de retrocompatibilidade coloca a Intel
em posição comercial privilegiada, uma vez que os programadores de sistemas e
aplicativos terão menos trabalho, codificarão uma só vez e verão o seu programa
funcionar em várias versões futuras da Intel.

Conclusão
O computador digital consiste em um sistema interconectado de proces-
sadores, memórias e dispositivos de entrada/saída, e esse modelo é baseado na
arquitetura concebida pelo matemático John von Neumann em 1945.
O processador (CPU) é considerado o cérebro do computador, respon-
sável por todos os cálculos e operações matemáticas solicitadas pelo usuário
e seus programas. Existem diferentes arquiteturas de processamento (RISC e
CISC), que permitem a execução de um número menor ou maior de instru-
ções, mas cada qual com vantagens e desvantagens.
A memória é um componente que tem como função o armazenamento
temporário de dados, funcionando como um repositório para programas do
usuário e para o próprio processador.
Os dispositivos que permitem inserir dados (entrada) e visualizar resulta-
dos processados (saída) são chamados de periféricos e possibilitam ao usuário
interagir com o computador.

– 40 –
4
Hardware interno
do computador

O processador é o que se pode considerar como “o cérebro


do computador”. Ele é o responsável pela realização dos cálculos
e tomada de decisões. Atualmente comercializada na forma de
um microchip envolto por silício, é essa peça que define o poder
computacional de um microcomputador e, consequentemente, seu
custo ao consumidor.
Fundamentos da Informática

4.1 Processadores
Para melhor entender o funcionamento de um processador, é importante
resgatar o conceito de processamento de dados, que consiste em: trabalhar
um dado de entrada (input) para gerar uma saída (output). O processador
recebe dados de entrada e, para criar uma saída, norteia-se por dois princípios
básicos: tomada de decisão e manipulação/armazenamento desses dados.
Assim, o processador é o principal responsável pelas ações realizadas pelo
microcomputador.
Em sua forma física, trata-se de um circuito integrado (microchip), ou
seja, uma série de componentes eletrônicos interconectados. Esse microchip
recebe os dados de entrada através de pulsos elétricos enviados aos seus pinos
de conexão e, por meio de milhares de transistores, realiza as operações que
lhe são programadas. Veja na figura 1 um processador.
Figura 1: Processador.

Shutterstock.com/Pokomeda

Os pulsos elétricos consistem nos dados representados por meio do


sistema binário de numeração e o resultado das operações a eles atribuídas
depende do fluxo percorrido pela corrente elétrica através das chamadas
portas lógicas. Cada porta lógica requer, no mínimo, um transistor e,
combinada a outras, oferece inúmeras possibilidades de manipulação dos
dados para geração da saída. Três são as portas lógicas básicas: E, OU e NÃO.
Elas formam a base da tomada de decisões em microcomputadores, por meio
da álgebra booleana (explicada na seção 4.1.1 deste capítulo).
– 42 –
Hardware interno do computador

4.1.1 Álgebra Booleana


Como já mencionado, a Álgebra Booleana é a base para a tomada de
decisões em microcomputadores. Proposta pelo matemático inglês George
Boole, em 1847, ela consiste na redução de proposições a símbolos e opera-
dores formais que obedecem a regras matemáticas.
Uma proposição é uma declarativa afirmativa, da qual tenha sentido
afirmar que seja verdadeira ou falsa. Considere a proposição: “A porta é
vermelha”. A partir desta declarativa, pode-se afirmar que ela seja verdadeira
ou falsa, pois ou a porta é de fato vermelha, ou não é.
Novamente, a representação nos computadores digitais é feita por meio
de pulsos elétricos: verdadeiro = 1 = presença; falso = 0 = ausência.
Proposições simples são chamadas de átomos que, na álgebra booleana,
são representados por uma letra do alfabeto latino. A combinação de mais de
uma proposição é feita através de conectivos lógicos que, no processador, são
resolvidos através das já mencionadas portas lógicas.

Sugestão de Leitura
BISPO, C. A. F.; CASTANHEIRA, L. B.; SOUZA FILHO,
O. M. Introdução à lógica matemática. São Paulo: Cengage
Learning, 2012.

4.2 Elementos básicos de um


microprocessador
Como mencionado no início deste capítulo, um microprocessador é
um circuito que integra vários componentes. Esta seção tem como objetivo
apresentar esses componentes e suas funções específicas.

4.2.1 Instruções
Se, inicialmente, os computadores eram programados por meio da
combinação livre de portas lógicas e entrada de dados, processadores mais
– 43 –
Fundamentos da Informática

modernos vêm pré-programados com conjuntos de instruções conhecidas, ou


seja, sequências binárias específicas para realização de determinada operação.
Estas sequências são chamadas de instruções e devem ser respeitadas na criação
de programas, o que faz com que programas escritos para um determinado
processador funcionem somente naquele modelo de processador (ou em
modelos que possuam o mesmo conjunto de instruções).

4.2.2 Microcódigo, RISC e CISC


Com o intuito de fazer o processador realizar tarefas específicas por
meio de um conjunto conhecido de instruções, a IBM trouxe para os
microprocessadores o conceito de microcódigo, que consistia em blocos pré-
programados de conjuntos de instruções para realização destas tarefas.
Em 1974, incentivado pelo grande número de ataques de pesquisadores
ao uso de microcódigos em processadores, John Cocke fez um estudo e detectou
que, de um número grande de instruções dadas a um microprocessador,
dois terços delas eram realizadas utilizando apenas 5% das instruções pré-
programadas. Com base nos resultados, projetou um computador baseado
neste conjunto reduzido de instruções, conhecido como RISC (Reduced
Instruction Set Computer – Computador com Conjunto Reduzido de
Instruções). Diante disso, os computadores que utilizavam microprocessadores
com microcódigos baseados em conjuntos grandes de instruções passaram a
ser denominados CISC (Complex Instruction Set Computer – Computador
com Conjunto Complexo de Instruções).

4.2.3 Memória e registradores


As portas lógicas podem ser combinadas de forma que o processador
consiga persistir, ou seja, armazenar dados temporariamente. E, para trabalhar
com esses dados, na realização de uma operação de cálculo, por exemplo, é
necessário que se saiba onde, e de que forma estão organizados esses dados.
Esta é a função dos registradores: manipulação de dados.
A quantidade de registradores varia entre processadores, assim
como seu tamanho. Quando se diz que um processador trabalha com
64 bits de dados, essa medida refere-se justamente ao tamanho dos seus

– 44 –
Hardware interno do computador

registradores. Quanto maior o tamanho dos registradores, mais rápido


será o processador.

4.2.4 Pipelining
Arquiteturas de processamento antigas realizavam operações de uma
forma simplificada: leitura da instrução da memória, tratamento passo
a passo e então leitura da próxima instrução. Já o conceito de pipelining
permite que o microprocessador leia uma instrução e, antes mesmo de
terminar o seu tratamento passo a passo, realize a leitura da próxima
instrução. Arquiteturas de microprocessadores atuais aplicam esse conceito,
aumentando significativamente a velocidade, porém tornando o processo
complexo e difícil de ser controlado.

4.2.5 Clock
Um processador não realiza qualquer tarefa no momento em que recebe
estímulo elétrico por meio de seus conectores. Se assim fosse, o processamento
seria desordenado, gerando resultados inesperados. Aqui entra o conceito de
clock (relógio): envio de pulsos elétricos regulares ao processador, indicando
que está na hora do processador realizar a próxima operação. Esses pulsos
acontecem de acordo com uma frequência específica, medida em hertz, a
qual define a velocidade de realização das operações. Lembrando: 1 hertz =
1 ciclo por segundo e, assim como as outras unidades de medida, também
possui seus múltiplos (kilo, mega, giga, ...). Em analogia, um processador
que possui clock de 500 MHz (quinhentos mega-hertz) trabalha a uma
velocidade de quinhentos milhões de ciclos por segundo. Uma operação
pode demandar mais de um ciclo, o que significa que a frequência não é o
único fator que define a velocidade de um processador, ainda que seja um
dos principais fatores.

4.2.6 Unidade de I/O, Unidade de Controle


e Unidade Lógica/Aritmética
Por se tratar de um componente delicado, mas que trabalha em velocidades
altíssimas, os sinais elétricos trabalhados internamente no processador possuem

– 45 –
Fundamentos da Informática

corrente diferente dos componentes externos. Como função mais básica, a


Unidade de I/O (Input/Output – Entrada/Saída) é responsável pela adequação
desses sinais, porém as arquiteturas atuais englobam funções de memória cache
(veja seção 4.5) e outras funções mais complexas.
A conexão do processador com o restante do circuito, através da Uni-
dade de I/O, envolve dois conceitos importantes: barramento de endereços
e barramento de dados. A quantidade de bits reservada ao barramento de
endereços define a quantidade de memória que o processador poderá geren-
ciar, enquanto a largura do barramento de dados está relacionada diretamente
com a quantidade de dados que poderão ser trafegados entre processador e
memória. Maiores detalhes do funcionamento de barramentos são apresen-
tados na seção 4.4.
A Unidade de Controle (UC) recebe os dados oriundos da Unidade de
I/O, formata e os entrega à Unidade Lógica/Aritmética (ULA), respeitando os
ciclos de clock. Em arquiteturas mais modernas, pela existência de várias ULAs,
é também a UC que faz o roteamento dos sinais para as outras unidades.
A Unidade Lógica/Aritmética é responsável pela realização dos cálculos
e tomadas de decisões. Ela recebe os dados através da UC e realiza as operações,
se necessário modificando os dados dos registradores, para então devolver o
dado processado/calculado para a Unidade de I/O. É importante destacar
que existem ULAs diferenciadas para tratamento de cálculos com números
inteiros e ponto-flutuante. Este último tipo, responsável diretamente por
cálculos matemáticos mais elaborados (como funções trigonométricas), em
arquiteturas mais antigas aparecia em um circuito separado, conhecido como
coprocessador matemático.
Pela terceira vez, a sigla CPU é adequada: neste contexto, o conjunto das
Unidades de Controle e Lógicas/Aritméticas também é chamado de CPU.

4.3 Histórico e evolução


Uma leitura mais atenciosa sobre a evolução dos computadores permite
concluir que os processadores são uma evolução e integração de componentes:
desde a válvula, passando pelos transístores e chegando ao circuito integrado.
Quando se fala em microprocessador, sua origem é unânime: foi inventado

– 46 –
Hardware interno do computador

por Ted Hoff. Ainda quando os computadores pessoais não eram uma
realidade, em 1971, Hoff criou um microprocessador de 4 bits para a Intel,
que serviria como base para a construção do que estaria por vir: gerações e
gerações de microprocessadores.

4.3.1 Primeira geração


Com a padronização do byte como sendo a unidade básica de medida
de dados digitais, a Intel rapidamente deixou de lado a comercialização do
Intel 4004 (4 bits) e, em 1972, apresentou ao mercado o Intel 8008, que
operava com registradores de 8 bits. Com a evolução de componentes e
aperfeiçoamento de projeto, em 1974 surge o Intel 8080, também com 8
bits, mas com um conjunto maior de instruções.
Uma estratégia da Intel na época deu início a um comportamento
padrão: todo novo processador que fosse projetado deveria agregar novo
conjunto de instruções sempre mantendo (e nunca substituindo) o conjunto
de instruções de seu antecessor, para fins de retro compatibilidade, permitindo
assim a execução de programas desenvolvidos anteriormente. Somente em
1978, com o lançamento do Intel 8086 (este com 16 bits), é que se pode
entender como sendo o início das gerações de microprocessadores, pois foi
o primeiro a integrar computadores pessoais. Um ano depois a Intel lançou
o Intel 8088, com barramento de dados de 8 bits (isto contribuiu para que
o processador ficasse mais barato e fosse o mais vendido da geração), porém
mantendo registradores de 16 bits.
Os processadores Intel 8088 trabalhavam com velocidades de clock de
8 e 16 MHz. Com algumas melhorias, ainda operando com 16 bits, foram
lançados o Intel 80186 e 80188, que integravam alguns circuitos a mais e que
facilitariam a montagem de computadores pessoais.

4.3.2 Segunda geração


Criado em 1982, porém somente levado ao mercado em 1984, o Intel
80286 marca o início da segunda geração. Com capacidade para endereçar
até 16 MB de RAM (Random Access Memory – Memória de Acesso Aleatório,
a qual será abordada na seção 4.5) e velocidades que variavam entre 6 e 24

– 47 –
Fundamentos da Informática

MHz, o processador em si foi um fracasso: o sistema operacional da época


(DOS) não conseguia gerenciar mais do que 1 MB de memória, criando um
gargalo para as possibilidades que essa nova geração de microprocessadores
oferecia. Ainda que frustrante nas possibilidades, os computadores equipados
com microprocessadores 286 eram conhecidos como PC-AT (Advanced
Technology – Tecnologia Avançada).

4.3.3 Terceira geração


Dentre as inovações que marcam a terceira geração de microproces-
sadores, uma merece destaque: tanto endereçamento quanto barramento
de dados de 32 bits. Com esta capacidade, era possível o gerenciamento de até
4 GB de RAM (232 = 4.294.967.296), e o mais importante: desta vez haviam
sistemas operacionais preparados para fazer uso deste potencial.
O processador mais vendido desta geração foi o Intel 80386,
posteriormente batizado de 386DX, com o lançamento de uma versão mais
econômica que trabalhava com 16 bits de barramento de dados. S denotando
o uso de single words e D para double words (medidas vistas no início deste
capítulo). Outra grande vantagem desta arquitetura era a possibilidade de
execução de vários programas simultâneos, através do uso do modo Virtual
8086, recurso bastante aproveitado pelos sistemas operacionais da época e
que a geração anterior não permitia. Nesta geração, emergem as fabricantes
de processadores com os mesmos conjuntos de instruções, alguns obtidos
através de engenharia reversa com os 386 da Intel, representando grande
concorrência. Dentre elas a AMD e a Cyrix.

4.3.4 Quarta geração


As melhorias técnicas que marcam a quarta geração de microproces-
sadores não foram tão substanciais. As três principais visavam aumento de
velocidade: a inclusão de memória cache nível 1 (isto será melhor detalhado
na seção 4.5), reduzindo o gargalo proveniente de sistemas lentos de memória;
implementação de pipelining para aumentar a eficiência com baixas velocidades
de clock; e a adoção de unidades de ponto-flutuante. As terminologias SX e DX
da geração anterior também eram utilizadas, ainda que não tivessem mais nada
a ver com a capacidade do barramento. Os microprocessadores 486-SX não
implementavam unidade de ponto-flutuante (presentes nos DX).

– 48 –
Hardware interno do computador

Com estas melhorias, testes comparativos evidenciavam que os


processadores 486 eram, em geral, duas vezes mais rápidos do que os 386.
Por exemplo: um 486-DX de 20 MHz operava com a mesma velocidade de
um 386-DX 40 MHz.
O sucesso da Intel na comercialização de microprocessadores era tão
grande que a concorrência a levava junto com suas concorrentes aos tribunais.
E a briga por circuitos melhores e mais rápidos apresentou ao mercado
microprocessadores 486 de até 120 MHz.

4.3.5 Quinta geração


O que difere a quinta geração das quatro anteriores é o uso de arquitetura
superescalar: uso de múltiplos pipelines e adoção híbrida de instruções
RISC e CISC. Por questões de registro e projeção da marca, todos os
microprocessadores Intel a partir da quinta geração trazem de alguma forma o
nome Pentium em seus modelos. Enquanto isso, as concorrentes apresentam
o número 5 na formação de nomes como AM5x86. Ainda nesta geração
a Intel lança processador com instruções específicas para processamento
de funções multimídia: Intel Pentium MMX (MultiMedia eXtensions –
Extensões Multimídia). Estas instruções só viriam na sexta geração de alguns
processadores das concorrentes, como o AMD K6 e o Cyrix M II.

4.3.6 Sexta geração


O microprocessador que estreou a sexta geração, e a arquitetura
conhecida como Intel P6, foi o Intel Pentium Pro, com maior integração de
instruções RISC, implementação de cache de nível 2, endereçamento direto
de até 64 GB de RAM, e operando na frequência de 200 MHz. Depois disso,
vieram ainda os microprocessadores Intel Pentium II, III e os AMD K6, K6-2
e K6-III, todos baseados na mesma arquitetura do Pentium Pro, com clocks
que ultrapassaram os 500 MHz.

4.3.7 Última geração


“Equipamentos de última geração”. Esta frase traduz da melhor forma
o quão difícil é classificar um componente em gerações, dada a dificuldade
de identificar o que é revolucionário ou merece ser tratado como um marco.

– 49 –
Fundamentos da Informática

Estabelecer o que seria a sétima geração de microprocessadores ainda é uma


tarefa polêmica, uma vez que as opiniões se dividem, apresentando por vezes
até uma suposta oitava geração. Esta seção será utilizada, portanto, para
apresentar os microprocessadores e as inovações desde a sexta geração.
O lançamento do Intel Pentium IV, no ano 2000, apresentou ao
mercado a microarquitetura Intel NetBurst, com duas grandes características:
Hyper Pipelined Technology (que permitia um número maior de estágios de
instruções de pipelining) e Rapid Execution Engine (permitindo às duas ULAs
dobrarem o clock do processador). Outro diferencial também é o aumento do
barramento de dados para 64 bits.
Em 2006, a microarquitetura NetBurst dá lugar à sua substituta: a
microarquitetura Intel Core. Com base na arquitetura do Pentium III e
algumas características do Pentium IV, visando a diminuição de consumo
de energia e temperatura para criação de processadores para notebooks, um
grande diferencial dessa arquitetura é a criação de processadores com múltiplos
núcleos. Sendo o Pentium M (Mobile – Móvel), seu primeiro produto, surgem
também os microprocessadores Core Solo e Core Duo. Igualmente baseados
na arquitetura Core, são comercializados os processadores Core 2 Solo, Core
2 Duo e Core 2 Quad, e os mais recentes (até a produção desta obra): Core
i3, Core i5, Core i7 e os Core-based Xeon para servidores e workstations. Da
principal concorrente AMD com arquitetura similar, destacam-se: Semprom,
Athlon, Turion, Phenom, e a linha Opteron para servidores. A figura 6
apresenta os principais microprocessadores Intel entre gerações.
Figura 2 – Gerações de microprocessadores Intel.

– 50 –
Hardware interno do computador

4.4 Barramentos
Para que as partes internas e externas de um microcomputador interajam,
ou seja, para que se tenha emissão e recepção de dados, é necessário estabelecer
comunicação entre elas. A comunicação é feita por meio dos barramentos.
Diante disso, pode-se afirmar que um barramento é uma via de comunicação.

4.4.1 Conceito e fundamentos


Uma via de comunicação não tem outra finalidade senão permitir a
conexão entre dois pontos. Assim como acontece com vias de trânsito de
veículos, cuja função é permitir o tráfego de veículos de um ponto a outro,
a função de um barramento é permitir o tráfego de dados entre as partes do
microcomputador.
Seguindo a mesma analogia das vias de trânsito, tome-se como exemplo
o trajeto entre Curitiba e Florianópolis pela BR-101: qual a velocidade
máxima permitida pela via? Quantos veículos trafegam por hora no local
em dias úteis? E em feriados? E quantos veículos podem trafegar lado a lado,
aproveitando melhor o uso da via? Quanto tempo levará o percurso? Fatores
como os que acabaram de ser mencionados trazem alguma relação com os
barramentos de microcomputadores.
Agora para os microcomputadores, a pergunta final é: de onde, para
onde, e com que velocidade os dados serão transmitidos? A resposta reside nas
especificações do barramento.
Para que a comunicação ocorra, o barramento é composto basicamente
por três elementos: linha de dados, linha de endereços e controle de fluxo.

– 51 –
Fundamentos da Informática

4.4.1.1 Linhas de dados


São responsáveis justamente por carregar os dados, ou seja, comportar
os dados que estão sendo transmitidos. Quanto maior esta parte for, mais
dados poderão ser transmitidos em um único ciclo, o que consequentemente
influenciará na velocidade geral de funcionamento do sistema. Entra aqui
a necessidade de transmissão de dados em paralelo, uma vez que os atuais
processadores assim o permitem, o que juntamente com o desempenho,
aumenta a complexidade de funcionamento.

4.4.1.2 Linhas de endereços


Contêm a informação exata da origem e do destino dos dados a serem
trafegados. Quando se fala em endereços de origem e destino, não é apenas
uma referência ao par processador-memória, mas também envolvem outras
portas e conexões.

4.4.1.3 Controle de fluxo


Uma vez que se saiba quais são os dados e para onde eles vão, é necessário
que haja controles: se é escrita ou leitura, qual componente vai trabalhar
o dado, etc. Também é necessário controlar as diferenças de velocidade: a
memória RAM, por exemplo, tem ciclos de atualização bem mais lentos
do que o processador. Definido pelas microarquiteturas, existem diferenças
entre os ciclos para transmissão dos dados e os ciclos para transmissão dos
endereços, e isto também precisa ser controlado.

4.4.1.4 Barramento local


A comunicação mais elementar existente entre as partes de um
computador acontece entre o processador e a memória principal. Por se
tratarem de componentes que demandam velocidade, o barramento local é
o responsável por esta comunicação. A memória cache também utiliza este
barramento para comunicação.
A seção 4.3 apresentou uma série de microprocessadores, mencionando
bits e frequência. Esses dados estão diretamente relacionados ao barramento
local. Veja o exemplo a seguir.

– 52 –
Hardware interno do computador

Exemplo
Tome-se como base um microprocessador Pentium III de 500
MHz. Sabendo-se que a arquitetura deste processador é de
64 bits, então significa que ele tem capacidade para acessar
a memória com 64 bits por vez (ciclo). Se seu clock é de
500 MHz, então significa que poderá realizar 500 milhões de
ciclos por segundo. Desta maneira pode-se calcular a taxa de
transferência de dados entre este processador e a memória RAM:
64 ∙ 500.000.000 = 32.000.000.000 bits por segundo =
32 Gbps (trinta e dois gigabits por segundo) = 4 GB/s (quatro
gigabytes por segundo)

4.4.1.5 Barramentos de expansão


A lista de possibilidades de uso de um microcomputador é vasta. O
capítulo 3 abordou essa questão estabelecendo uma relação entre seu uso e os
equipamentos periféricos que permitem a realização das tarefas. A conexão
desses periféricos é possível graças aos barramentos de expansão, e fisicamente
isso acontece por meio de encaixes chamados slots para acoplamento de placas
ou por meio de portas.
O mais importante em um barramento de expansão é a possibilidade de
comunicação que ele fornece entre o processador e os periféricos.

4.4.1.6 Bridges
Diante da diferença de velocidade e arquitetura entre o barramento
local e os diversos barramentos de expansão, surge uma dificuldade: como
fazer a integração desses elementos? Com a evolução dos barramentos de
expansão (abordados posteriormente neste capítulo), emerge também uma
solução para esta integração: a bridge (do inglês, ponte). Seu funcionamento
completo será explicado no capítulo 6, que trata da atividade da placa mãe e
dos chipsets.

– 53 –
Fundamentos da Informática

4.4.1.7 Interrupções
Outra questão também relacionada à comunicação da CPU com os
periféricos é o momento em que ocorre esta comunicação. O processador e a
memória trabalham continuamente para processar os dados. Mas e quando esses
dados chegam do meio externo? Por exemplo: a CPU sabe que deve trabalhar
com um dado enviado via teclado, ou seja, uma tecla que foi pressionada, mas
como ela sabe de fato quando vai ocorrer esse pressionamento?
A forma mais simples de tratar essa questão seria fazer com que a CPU ficasse
o tempo todo em ação cíclica, verificando se houve alguma alteração de estado no
teclado. E o mesmo deveria ser feito para todos os outros periféricos. Essa ideia é
simples, existe, e é conhecida como polling loops (repetições de pesquisa), porém
impraticável: compromete o desempenho do sistema como um todo.
Para que o processador possa realizar suas tarefas de forma contínua, sem
esperar por eventos de dispositivos externos, trabalha-se com o conceito de
interrupção, ou ainda melhor: requisições de interrupção. As IRQs (Interrupt
Requests) são sinais enviados do periférico ao processador, solicitando que ele
pare o que esteja fazendo para tratar o dado recebido. É evidente que existem
circuitos específicos para tratamento de interrupções, ordenados, para que
todos os periféricos conectados ao PC sejam atendidos pelo processador.

4.4.2 Padrões de barramentos e interfaces de expansão


O uso de barramentos de expansão não iniciou com os computadores de
uso pessoal. Partindo dos grandes mainframes (computadores de grande porte)
aos minicomputadores, o conceito de barramento, ainda que de arquiteturas
proprietárias, já aparecia antes mesmo da redução de custo e popularização
dos PCs. E os primeiros barramentos em microcomputadores também não
passavam de meras extensões dos conectores do já comentado processador
Intel 8088, com adequações na corrente elétrica para permitir conexões com
componentes externos e um agravante: esses componentes precisavam operar
na mesma velocidade de clock do próprio processador.

– 54 –
Hardware interno do computador

4.4.3 Barramentos de conexão externa


Além dos barramentos para encaixes de controladoras, ainda há os
barramentos que são utilizados em conexões diretas com periféricos externos,
através de cabos ou adaptadores.
Criado em meados da década de 90 do século XX, com o intuito de
padronizar a comunicação entre o microcomputador e periféricos, o padrão
USB (Universal Serial Bus – Barramento Serial Universal) é, sem dúvida,
atualmente o mais utilizado para conexão de diversos tipos de periféricos,
desde os equipamentos mais elementares, como teclado e mouse, até
equipamentos de armazenamento em massa de alta velocidade.
O padrão USB foi um marco na conexão de periféricos. Primeiro porque
o padrão prevê uma interface direta com o equipamento externo que está
sendo conectado, sem a necessidade de acoplar placas de controle internas ao
computador para fazer a comunicação. Vale lembrar que os barramentos até
então citados preveem slots específicos para encaixes de placas controladoras,
que fazem a comunicação com o periférico. Além disso, a interface prevê
que o equipamento periférico seja conectado ao computador com ele
ligado (energizado), ao que imediatamente se estabelece a comunicação e
o equipamento passa a funcionar, mediante o que se conhece na indústria
como Plug & Play (algo como: conecte e use).
As conexões de USB 1.0, 1.1
e 2.0 são diretamente compatíveis
entre si, inclusive é impossível
identificar fisicamente uma
porta USB dessas versões, não há
diferença. Uma porta USB 3.0
trabalha com elementos físicos
diferenciados e, portanto, é
identificada com cor diferente: seu
interior é azul (tanto cabo quanto
porta). Veja cabo e porta padrão
USB na figura 3 ao lado. Fonte: Evandro Zatti

– 55 –
Fundamentos da Informática

4.4.3.1 Padrão FireWire (IEEE 1394)


Criado para substituir o padrão SCSI (maiores detalhes na seção 4.5.6.4),
permite conectar até 63 dispositivos diferentes. Durante muito tempo foi
amplamente utilizado para conectar equipamentos de áudio e vídeo digital.
Opera em duas modalidades de taxa de transferência: 400 Mbps (50 MB/s) e
800 Mpbs (100 MB/s). Veja a porta na figura 4.
Figura – 4 Porta FireWire

Fonte: Evandro Zatti

4.4.3.2 Outros padrões


É grande a lista de padrões de barramentos anteriores ao USB. Criados
com diversas expectativas, nem todos obtiveram o sucesso esperado, e
outros tiveram o seu
Figura 5 – Porta Thunderbolt tempo. Especialistas estão
sempre em busca de novas
soluções, com os mesmos
objetivos de sempre:
aumento da taxa de
Shutterstock.com/Ldprod

transferência, flexibilidade
e redução de custo.
Tão importante
quanto o projeto de
um novo barramento
é o aprimoramento do

– 56 –
Hardware interno do computador

existente. Um exemplo é o recente lançamento em computadores da Apple


Computers (em co-criação pela Intel), o Thunderbolt. Ele não é um novo
barramento, mas sim uma interface de conexão que une o barramento PCIe
com o Display Port (Apple). A interface opera com taxas de até 10 Gbps (o
dobro da velocidade do USB 3.0). Se o padrão vai ser adotado pelos PCs só
o tempo irá dizer, mas é importante lembrar que nenhum outro barramento
teve tantos adeptos quanto o USB, o que dificulta a migração para outras
tecnologias. Veja a porta Thunderbolt na figura 5.

Da teoria para a prática


Faça uma pesquisa sobre a relação existente entre os barramen-
tos USB e SATA, identificando quais características são iguais
ou similares e outras que os diferem.

4.5 Armazenamento de dados


Um microcomputador armazena dados para diversas finalidades: desde os
registradores de um microprocessador, que guardam temporariamente dados
para realização dos cálculos e tomadas de decisão, passando pela instalação de
aplicativos para execução e chegando ao armazenamento permanente dos dados
produzidos por estes programas: documentos, gráficos, planilhas, etc. Nos
primeiros computadores eletromecânicos, sua programação acontecia por meio
do acionamento direto de interruptores ou da leitura de cartões perfurados. Os
anos passam e, em tempos de aplicações multimídia e das diversas possibilidades,
em que o aumento do uso do computador exige aplicativos melhores e maiores,
fica impossível executar programas por meio de interruptores ou cartões. É
necessário armazenar dados. Os dispositivos de armazenamento de um sistema
de computador são chamados de memória e serão abordados neste capítulo,
segundo sua classificação.

– 57 –
Fundamentos da Informática

4.5.1 Conceitos e classificações


O capítulo 4, quando apresentou o funcionamento dos processadores,
esclareceu que o computador trabalha com dados no sistema binário,
detalhando o funcionamento desse sistema. O armazenamento de dados
ocorre da mesma forma: é necessário guardar o estado de ausente/presente ou
ligado/desligado para sua posterior leitura pelo sistema.
Desde o cartão perfurado, utilizado nas primeiras máquinas de Jacquard,
os sistemas de armazenamento (temporário ou permanente) sofreram
evolução, acompanhando os avanços tecnológicos do próprio computador: a
válvula, o relé, o transístor.

4.5.1.1 Tamanho e velocidade


Uma vez que os dados são armazenados de forma binária, a quantidade
que pode ser armazenada depende diretamente de meio físico: é necessário um
lugar físico (por menor que seja) para persistir o estado ausente/presente, ou
algum componente que represente o estado ligado/desligado. Independente
dos meios de armazenamento e da tecnologia empregada, necessariamente os
bits deverão estar ali. Dessa maneira, a unidade base utilizada para medição
da quantidade (tamanho) de memória é o byte e seus múltiplos, que já foram
abordados na seção 4.1.1.
A velocidade também é uma medida que deve ser considerada em
dispositivos de armazenamento digital. Um sistema de computador segue
constantemente realizando operações de gravação e leitura de dados. A
velocidade com que isso acontece depende da tecnologia empregada
no dispositivo/mídia de armazenamento, e pode ser medida sob duas
formas. A mais elementar é a quantidade de ciclos por segundo com
a qual o dispositivo pode ser lido ou atualizado com novo dado. Este
conceito é chamado refresh (atualização), e sua medida é em hertz ou
frequência de clock (na seção 4.2.5 esta unidade de medida de ciclos por
segundo foi explicada).
Pelos diferentes componentes, barramentos e arquiteturas empregados,
a medição de velocidade por ciclo não garante um entendimento completo
da velocidade de operação do dispositivo, sugerindo uma unidade de medida
mais efetiva: bytes por segundo (B/s). Devido à alta taxa de transferência

– 58 –
Hardware interno do computador

com que os atuais equipamentos trabalham, é comum aparecerem valores


múltiplos, na faixa de MB/s (megabytes por segundo), GB/s (gigabytes por
segundo) ou até TB/s (terabytes por segundo).
Ainda nesse mesmo conceito, uma unidade que vem sendo cada
vez mais utilizada para designar taxas de transferência é o transfer per
second (transferências por segundo), na forma mais comum de MT/s
(megatransfer por segundo) ou GT/s (gigatransfer por segundo). O termo
transfer sozinho não traduz a taxa de transferência, que vai depender da
largura do canal/barramento: um transfer é equivalente à quantidade de
bits de dados do barramento.

Exemplo
Por exemplo: um equipamento com largura de 8 bytes, ao qual
se diz ter uma taxa de transferência de 2 MT/s, irá transmitir
16 MB/s (2 ∙ 8 = 16), enquanto um equipamento de mesma
velocidade em transfer (2 MT/s), se tiver largura 16 bytes no
canal, terá efetivamente uma taxa de transferência de 32 MB/s
(2 ∙ 16 = 32).

4.5.1.2 Armazenamento primário e secundário


A primeira classificação para as memórias se dá pela sua proximidade
física e acesso pelo microprocessador: armazenamento primário e
armazenamento secundário. No armazenamento primário enquadram-se
os dispositivos que são acessíveis diretamente pelo processador (RAM,
ROM, registradores, cache), enquanto os dispositivos que dependem de um
circuito integrado qualquer para serem acessados são conhecidos como de
armazenamento secundário (disquetes, HDs, CDs, ...). No decorrer deste
capítulo esses dispositivos e suas siglas são melhores especificados. Alguns
autores trazem uma terceira classificação com relação a mídias removíveis
(CDs, por exemplo): armazenamento terciário, mas esta denominação não é
consenso entre os pesquisadores.

– 59 –
Fundamentos da Informática

4.5.1.3 Memórias voláteis e não voláteis


Outra classificação que se dá às memórias refere-se a sua volatilidade.
As memórias voláteis mantêm os dados armazenados durante o período que
estiverem recebendo energia. Uma vez que a energia é interrompida, todo o
conteúdo deixa de existir. A memória principal de qualquer microcomputa-
dor moderno é volátil.
Já as memórias não voláteis utilizam tecnologia que permite o arma-
zenamento dos dados por tempo indeterminado, ou seja, até que o sistema
ou o usuário resolva modificá-los ou apagá-los. No grupo das memórias não
voláteis estão as mídias de armazenamento magnético (discos e fitas), óptico
(discos) e outras formas de chips (memória flash).

4.5.1.4 Tipo de acesso


O acesso à sequência binária que contém os dados que se quer manipular
pode ser feito de duas formas: sequencial ou aleatória. Pense em um livro: se o
conteúdo que se deseja ler não estiver relatado em um índice ou sumário, será
necessário percorrer página por página até que se tenha acesso a esse conteúdo.
Este é o processo da memória sequencial: o sistema percorre o dispositivo desde
seu primeiro bit até chegar ao dado desejado. Já o acesso aleatório funciona
em analogia ao índice: assim como um livro, que possui páginas enumeradas e
a referência no índice, a memória também é enumerada (no caso endereçada)
pelo sistema para que dados armazenados em qualquer posição do dispositivo
sejam acessados.

4.5.1.5 O bit em seu estado físico


A corrente elétrica é a forma mais elementar de se representar fisica-
mente um bit, ou seja, de armazenar dados. Dispositivos de armazena-
mento eletrônico utilizam o conceito de células para este armazenamento:
cada célula representa um único bit, representando a existência (passagem)
de corrente elétrica ou não para armazenamento do dado. Como se pode
perceber, esse tipo de armazenamento é volátil. É utilizado na fabricação dos
dispositivos de armazenamento primários.
Com o intuito de armazenar dados de forma permanente, depois dos
cartões perfurados de Jacquard, o armazenamento magnético foi a primeira

– 60 –
Hardware interno do computador

forma de armazenamento permanente empregada em computadores. Nesse


tipo de tecnologia, trabalha-se uma superfície magnética de forma que
o alinhamento ou não dos elétrons representem o bit. Esta conversão de
eletricidade em magnetismo demanda tempo e energia. É a forma empregada
em parte dos dispositivos de armazenamento secundários, que serão vistos
ainda neste capítulo.
Seguindo o mesmo princípio dos cartões e do armazenamento magnético,
a diferença do armazenamento óptico é que esses dispositivos utilizam a luz
como meio de transmissão do dado. Não que eles sejam fonte emissora de
luz, mas possuem em sua superfície elementos de reflexão/refração da luz que
indicam o estado do dado armazenado.

4.5.2 Armazenamento em chips


A maioria dos PCs utiliza a forma eletrônica para armazenamento de
dados de acesso direto pelo processador, uma vez que o próprio sistema
funciona com eletricidade e esse é o meio natural de tráfego dos dados,
dispensando qualquer tipo de conversão.

4.5.2.1 Armazenamento dinâmico e estático


Ao permitir o acesso aleatório aos dados por parte do processador, a
memória principal de um microcomputador é chamada de RAM (Random
Acess Memory – Memória de Acesso Aleatório). Na prática, o termo não é
corretamente empregado, pois a grande maioria das pessoas utiliza este termo
RAM, que é genérico, para designar a DRAM de um microcomputador,
explicada a seguir.
Existem basicamente dois tipos de RAM em microcomputadores. O
primeiro deles funciona da seguinte maneira: a célula armazena a informação
através do uso de um capacitor. Porém, capacitores não armazenam energia,
eles apenas a mantém por alguns milissegundos. Dessa maneira, a célula precisa
receber energia novamente em ciclos contínuos de atualização (refresh). Por
essa propriedade de perder gradativamente o dado e necessitar de nova carga
elétrica, esse primeiro tipo de RAM é chamado DRAM (Dynamic RAM –
RAM Dinâmica), sendo, portanto, de armazenamento dinâmico. Esse tipo
de memória, por ser de baixo custo, é utilizado como memória principal

– 61 –
Fundamentos da Informática

dos microcomputadores, sendo que aquela informação que se ouve muito


ao se adquirir um microcomputador (“Meu PC tem 16 GB de RAM”), faz
referência à DRAM.
O outro tipo de memória RAM também muito comum, é a de
armazenamento estático. Também é composta por células, porém ao invés
de utilizar capacitores, as células são formadas por transístores. Ainda que
funcionem por meio de energização constante, não necessitam de refresh,
e por isso são denominadas SRAM (Static RAM – RAM estática). São mais
caras em sua fabricação, porém muito mais rápidas do que as DRAM, sendo
então utilizadas na composição de memória cache secundária.

4.5.2.2 Memória cache


O conceito de memória cache é a digitalização da pró-atividade. Sabe-se
que o microprocessador trabalha em velocidades muito superiores à memória
DRAM. Para diminuir o gargalo de velocidade de tráfego dos dados entre a
memória e o processador, os microprocessadores modernos utilizam memória
cache, cuja função é antecipar dados da memória DRAM que serão utilizados
pelo processador em suas próximas operações. Fazendo uso de chips SRAM, o
processo se torna muito mais rápido. Quanto maior for a memória cache, mais
rápido será o acesso como um todo, pois mais dados poderão ser antecipados.
Evidentemente isso incorre diretamente em aumento do custo, uma vez
que SRAMs são bem mais caras. Presentes nos microcomputadores desde a
quarta geração de microprocessadores, inicialmente eram implementadas em
apenas um nível, ou seja: um único módulo SRAM entre o microprocessador
e a DRAM, embutido no próprio microprocessador. Este módulo é conhecido
como cache primário, também chamado de cache L1 (Level 1 – Nível 1).
Desde a sexta geração de microprocessadores há também o conceito
de cache secundário (L2). De início construído ainda internamente como o
primário, posteriormente foi dividido em módulos complementares também
ocupando região fora do microprocessador. Os módulos de cache terciário
(L3), inicialmente presentes externamente em processadores de servidores,
hoje incorporam (internamente) microprocessadores de PCs, como é o caso

– 62 –
Hardware interno do computador

do Intel Core i7, que possui 8 MB de cache L3 (além de 32KB cache L1 por
núcleo e 1 MB de cache L2).

4.5.2.3 Módulos de DRAM


Os microcomputadores da década de 80 do século XX (PCs de primeira
geração) eram fabricados com os módulos de memória DRAM incorporados
(soldados) na mesma placa de circuitos do processador. Com a possibilidade
de expansão, a partir
da segunda geração, Figura 6 – Módulos SIMM
criou-se o conceito de
módulos de memória,
ou seja, pequenas
placas fabricadas

Fonte: Evandro Zatti


separadamente, com
pinos de contato
expostos, para encaixes
na placa mãe.
Os primeiros
módulos de memória separados apresentavam problemas de encaixe, grande
parte pela disposição dos pinos, até que a criação do padrão SIMM (Single
Inline Memory Module – Módulo de Memória em Linha Simples) resolveu
os problemas de encaixe e popularizou o conceito. Inicialmente o módulo
foi lançado com 30 pinos (também chamados de vias), em tamanhos padrão
de 256 KB, 1 MB, 2 MB, 4 MB e 16 MB, tendo uma segunda versão com
72 pinos, com módulos de 1 MB até 128 MB. Apesar de patenteado, alguns
fabricantes chegaram a lançar módulos SIMM proprietários para uso em
suas linhas de PCs. A figura 6 apresenta módulos SIMM com 30 e 72
pinos, respectivamente.
Desde o lançamento dos processadores Pentium, os módulos SIMM
deram espaço aos DIMM (Dual Inline Memory Module – Módulo de
Memória em Linha Duplo). Sendo fabricado inicialmente com 72 pinos e
atualmente com um máximo de 244 pinos, é o padrão ainda hoje adotado em
PCs. A figura 7 apresenta um módulo DIMM atual de 244 pinos.

– 63 –
Fundamentos da Informática

Figura 7 – DIMM de 244 pinos.

Shutterstock.com
De acordo com a velocidade, os módulos DIMM são classificados em
dois grupos: SDR (Single Data Rate – Taxa de Dados Única) e DDR (Double
Data Rate – Taxa de Dados Dupla). Fabricado com diversas variações,
os módulos DIMM SDR equipavam os primeiros computadores com
processadores Intel Pentium 100 MHz, com taxa de transferência de dados de
800 MB/s enquanto os Intel Pentium 200 MHz trabalhavam com módulos
DDR de 1600 MB/s (daí o uso do termo double – duplo). Atendendo às
necessidades dos microprocessadores, o padrão DDR sofreu alterações,
evoluindo para DDR-2, DDR-3 e o recém lançado DDR-4.
O quadro 1 apresenta um comparativo entre os módulos SDR e DDR.
Quadro 1 – Comparativo entre módulos SDR e DDR.

Pinos Clock (MHz) Velocidade Velocidade


Nome do padrão/módulo
(vias) barramento (GB/s) (MT/s)
SDR PC-100 168 100 MHz 0.8 GB/s -
SDR PC-133 168 133 MHz 1.1 GB/s -
DDR-200 ou PC-1600 184 200 MHz 1.6 GB/s 200 MT/s
DDR-266 ou PC-2100 184 266 MHz 2.1 GB/s 266 MT/s
DDR-333 ou PC-2700 184 333 MHz 2.7 GB/s 333 MT/s
DDR-400 ou PC-3200 184 400 MHz 3.2 GB/s 400 MT/s
DDR2-400 240 400 MHz 3.2 GB/s 400 MT/s

– 64 –
Hardware interno do computador

Pinos Clock (MHz) Velocidade Velocidade


Nome do padrão/módulo
(vias) barramento (GB/s) (MT/s)
DDR2-533 240 533 MHz 4.3 GB/s 533 MT/s
DDR2-667 240 667 MHz 5.3 GB/s 667 MT/s
DDR2-800 240 800 MHz 6.4 GB/s 800 MT/s
DDR2-1066 240 1066 MHz 8.5 GB/s 1066 MT/s
DDR3-800 240 800 MHz 6.4 GB/s 800 MT/s
DDR3-1066 240 1066 MHz 8.5 GB/s 1066 MT/s
DDR3-1333 240 1333 MHz 10.7 GB/s 1333 MT/s
DDR3-1600 240 1600 MHz 12.8 GB/s 1600 MT/s
DDR3-1866 240 1866 MHz 14.9 GB/s 1866 MT/s
DDR3-2133 240 2133 MHz 17.1 GB/s 2133 MT/s
DDR4-2133 284 2133 MHz 17.1 GB/s 2133 MT/s
DDR4-4266 284 4266 MHz 34.2 GB/s 4266 MT/s
Fonte: o próprio autor.

4.5.2.4 Somente leitura


Dinâmicas ou estáticas, as RAMs necessitam de corrente elétrica
constante para funcionamento e, por isso, são chamadas voláteis. Em
contrapartida, permitem alterar ou apagar seu conteúdo a qualquer momento
durante o uso.
Nem todo dado precisa ser apagado ou modificado. Existem situações
em que, uma vez armazenado, basta que esteja disponível eternamente para
leitura. E essas situações não são raras, tanto que há no mercado diversos
tipos de memória para essa finalidade, conhecidas como ROM (Read Only
Memory – Memória Somente de Leitura).
Alguns termos empregados erroneamente são difíceis de serem revertidos:
a memória principal do computador não é o único tipo de RAM, mas assim é

– 65 –
Fundamentos da Informática

chamada. Por outro lado, memórias ROM também permitem acesso aleatório,
mas jamais são chamadas de RAM.
Os módulos de memória são de somente leitura por parte do computador,
mas em algum momento eles precisam ser gravados. Um módulo que sai com
dados previamente gravados de fábrica, ou seja, quando os bits são definidos
no momento da criação do próprio chip do módulo, é chamado ROM de
Máscara. O nome deriva do processo de fabricação, onde é criado um fotolito
(máscara) que define onde os bits serão gravados.
Esses módulos são utilizados primordialmente em micro controladores
e para armazenamento de firmware de equipamentos em geral (veja a seção
6.3.1.1). Além das ROMs de máscara, existem outros tipos de memória
que serão somente lidas pelo microcomputador durante seu funcionamento
normal, mas que precisam ser gravadas ou terem seus dados atualizados fora
da fábrica. Para atender essas necessidades, foram criados alguns tipos de
memórias chamadas programáveis.

4.5.2.5 Memórias programáveis


O tipo mais simples de memória programável é a PROM (Programmable
ROM – ROM Programável), fabricada de forma que cada célula seja
composta de um fusível que irá conduzir ou não a corrente elétrica para
manter os dados. A programação ocorre a partir da fundição (rompimento)
dos fusíveis por meio de cargas elétricas altas, mediante uso de um gravador
de PROMs. Uma vez derretido o filamento do fusível, não é mais possível
reverter a situação, portanto, uma vez gravada, uma PROM não pode ter
seu conteúdo alterado.
Como alternativa ao processo irreversível quando da gravação das
PROMs, a tecnologia trouxe a EPROM (Erasable PROM – PROM
Apagável). Ao invés de fusíveis, alguns semicondutores especiais que
mudam seu estado pela incidência de luz ultravioleta. Sua gravação é feita
por meio de corrente elétrica enviada pelos pinos e, para apagar os dados,
o módulo possui em sua superfície uma lente que permite que feixes de luz
ultravioleta incidam sobre as células, apagando seu conteúdo. Para apagar
uma EPROM, basta colocá-la dentro de uma câmara com luz ultravioleta
por alguns minutos.

– 66 –
Hardware interno do computador

Outra opção de módulo apagável é a EEPROM (Electrically Erasable


PROM – PROM Eletricamente Apagável), que permite que os dados sejam
apagados por meio do envio de uma corrente elétrica com voltagem superior
à utilizada para sua gravação, pelos mesmos pinos utilizados para gravação e
leitura dos dados. O número de vezes que uma EEPROM pode ser gravada é
finito e depende do semicondutor utilizado nas células.
É importante saber que as EEPROM não permitem alteração do estado
de uma célula específica: para reprogramá-la é necessário apagar todo seu
conteúdo e reescrevê-lo em novo processo de gravação. Veja na figura 8 os
módulos de memória programáveis aqui citados.
Figura 8 – Módulos de memória programáveis

Shutterstock.com/Chris Hellyar

4.5.3 Armazenamento magnético


O armazenamento magnético está entre as primeiras formas de
armazenamento em computadores. Minicomputadores e mainframes
armazenavam dados em tambores e fitas magnéticas: os tambores para acesso
aleatório, e as fitas para armazenamento em massa, de forma sequencial.

4.5.3.1 Fita magnética


A fita magnética é uma fita fabricada em polímero de superfície
magnetizável. Disponíveis em rolos que podem estar alojados em cartuchos
plásticos, elas armazenam os dados de forma analógica ou digital, por
meio do alinhamento de elétrons sobre sua superfície, por uma cabeça
de gravação. A gravação pode acontecer de forma longitudinal, na qual

– 67 –
Fundamentos da Informática

a trilha de dados é gravada no sentido de rolamento da fita, por meio de


uma cabeça de gravação estática, ou de forma helicoidal, em que as trilhas
são gravadas diagonalmente em relação ao sentido de deslocamento da
fita, por meio de cabeças rotativas, acopladas a um tambor. Esta última
permite mais densidade de gravação, porém com um desgaste maior da fita
e do tambor.
Sendo uma das primeiras formas de armazenamento de dados em
computadores, tende a se pensar que as fitas magnéticas estejam em
extinção. Pelo contrário: são amplamente utilizadas principalmente para
gravação de backups (cópias de segurança), pelo seu baixo custo em
relação à alta capacidade de armazenamento.
Atualmente os principais tipos de fitas magnéticas comercializados para
uso com computadores são o DDS (Digital Data Storage – Armazenamento
de Dados Digitais) e o DAT (Digital Audio Tape – Fita de Áudio Digital),
sendo que esta última foi precursora da DDS e, apesar do nome, algumas
versões são utilizadas para armazenamento de dados não musicais. O
quadro 2 apresenta os principais tipos de fitas magnéticas utilizadas em
computadores.
Quadro 2 – Fitas magnéticas.

Nome /
Ano Comprimento da fita Capacidade
Tipo
60 metros 1,3 GB (2,6 GB comprimidos)
DDS-1 1989
90 metros 2 GB (4GB comprimidos)
DDS-2 1993 120 metros 4 GB (8 GB comprimidos)
DDS-3 1996 125 metros 12 GB (24 GB comprimidos)
DDS-4 /
1999 150 metros 20 GB (40 GB comprimidos)
DAT 40
DAT 72 2003 170 metros 36 GB (72 GB comprimidos)
DAT 160 2007 154 metros 80 GB (160 GB comprimidos)
DAT 320 2009 153 metros 160 GB (320 GB comprimidos)
Fonte: o próprio autor.

– 68 –
Hardware interno do computador

4.5.3.2 Hard Disk Drive


Com a popularização dos microcomputadores, o armazenamento
aleatório precisava ser transportado dos grandes computadores, sendo que
a solução dos tambores magnéticos, de custo elevado, precisava dar espaço
a algo mais prático e barato. Pesquisadores da IBM criaram então o que até
hoje é o mais utilizado meio de armazenamento em massa de um computador
pessoal: o HDD (Hard Disk Drive – Drive de Disco Rígido). O termo
armazenamento em massa está ligado à alta quantidade de dados que é
armazenada, em relação ao armazenamento primário, que é bem menor.
A primeira versão de um HDD consistia de um gabinete que alojava dois
discos metálicos rígidos, cada um com capacidade de armazenamento de até 30
MB, em que agulhas (com cabeças de leitura na ponta) faziam a leitura/gravação
dos dados. As cabeças eram suspensas (chamadas flutuantes), operando sem
estabelecer contato com a superfície: apenas alinhando seus elétrons através de
eletromagnetismo para gravação dos dados. Um destes discos era fixo, enquanto
o outro era removível. Importante ressaltar que o termo fixo se refere ao fato do
disco não poder ser removido da unidade, mas certamente ele girava para que
os dados pudessem ser acessados pela cabeça. A esse par de discos rígidos (fixo/
removível) os pesquisadores chamavam de 30/30, referindo-se à capacidade de
armazenamento de cada um. Sendo este mesmo par numérico (30-30) o código
do até então mais famoso rifle da fabricante de armas Remington, o Winchester,
eis que os drives de disco rígido passaram a ser chamados de winchesters, apelido
que perdurou por décadas. Além dessa nomenclatura, os drives também foram
chamados de fixed disks (discos fixos), mas a sigla pelo qual é mundialmente
conhecido hoje é HD (Hard Disk – Disco Rígido).
O princípio de funcionamento de um HD atual é o mesmo de seu
progenitor: cabeças suspensas por agulhas, que realizam leitura/gravação
através de ação eletromagnética na superfície metálica do disco. Porém, já há
muito tempo o equipamento é composto apenas por discos fixos (também
chamados de pratos – platters) alojados em uma câmara, não existindo mais
a possibilidade de remoção, sendo que, de modelo para modelo, muda-se
a quantidade de discos e agulhas. Ainda há a placa de circuitos necessários
para conversão dos pulsos eletromagnéticos captados pela agulha em
sinais eletrônicos, que serão enviados à interface de comunicação como o
microcomputador. Veja estes elementos na figura 9.

– 69 –
Fundamentos da Informática

Figura 9 – Componentes de um HD.

Fonte: Evandro Zatti


A velocidade de rotação dos discos é medida em RPM (Revolutions Per
Minute – Revoluções Por Minuto) e pode obedecer a dois padrões: velocidade
angular e velocidade linear, sendo que a maioria dos discos possui rotação
constante, de velocidade angular. Os drives mais comercializados atualmente
envolvem discos que trabalham em velocidades de rotação angular de 5400
e 7200 RPM. São velocidades tão altas que justificam o alojamento dos
discos em câmaras fechadas, pois qualquer partícula de poeira ou até mesmo
um mínimo contato da cabeça com a superfície do disco pode danificá-lo,
comprometendo sua integridade e dos dados ali armazenados.
Para que as cabeças possam realizar a leitura/gravação dos dados, a superfície
do disco precisa passar por um processo conhecido como formatação física
(ou low level – baixo nível). A formatação física é a distribuição ordenada dos
elétrons na superfície do disco, obedecendo a padrões de subdivisões, conhecidos
como trilhas e setores, que estão relacionados diretamente ao tipo de velocidade
adotada pelo equipamento. A figura 10 apresenta um esquema contemplando
estes elementos.

– 70 –
Hardware interno do computador

Figura 10 – Superfície de um disco rígido

Organização física e lógica do drive

Empilhamento
das cabeças
16 1
15 2
14 3 Cabeça 0

13 4

12 5
Cabeça 1
11 6
10 7 Cabeça 2
9 8

Cabeça 3

Cabeça 4

Trilha
Cabeça 5

Setor

Independente da quantidade de discos internos (e consequentemente de


cabeças de leitura) de um HD, a rotação dos discos e movimentação das cabeças
é sempre dependente, ou seja: os discos giram todos juntos, enquanto as
cabeças se movimentam na mesma cadência. Por conta deste comportamento,
a sequência vertical que se forma com as trilhas que estão alinhadas com as
cabeças é chamada de cilindro.
Os HDs são vendidos em tamanhos físicos padronizados, cuja medida
corresponde ao diâmetro dos discos internos, medida em polegadas, sendo
as medidas mais comumente encontradas: 3,5” (para computadores de mesa
– desktops) e 2,5” (para computadores portáteis – notebooks). Além dessas,
outras medidas especiais ainda são e/ou foram comercializadas.
A quantidade de discos e a condensação dos setores define a capacidade
de armazenamento de dados de um HD. Já para se determinar a taxa de
transferência (velocidade), vários fatores estão envolvidos: velocidade de
rotação dos discos; velocidade das cabeças; placa lógica (incluindo padrão
de conexão e barramento e quantidade de memória cache, nesse contexto
chamada de buffer). Ainda há que ser considerado tempo de acesso ao dado,
que é o tempo que a cabeça leva para chegar ao setor desejado.

– 71 –
Fundamentos da Informática

HDs de uso doméstico, encontrados atualmente no mercado, armazenam


na faixa dos terabytes (TB) de dados. As taxas de transferência do disco para
o buffer variam em torno de 125 MB/s, enquanto a transferência do buffer
para o computador, através de uma interface SATA 3.0 pode ser feita a uma
taxa de 300 MB/s, sendo mais do que suficiente para os HDs mecanicamente
mais rápidos.

4.5.3.3 Floppy disk


Criados na década de 60 do século XX e lançados no mercado na
década de 70 do século XX, os floppy disks (discos flexíveis), conhecidos
popularmente no Brasil como disquetes, foram durante muito tempo o
principal meio de transporte de dados entre computadores. Consistiam de
discos de material magnético flexível, envoltos por uma capa plástica. Com
capacidade reduzida, mas suficiente para levar documentos, planilhas e até
gráficos de um PC para outro, hoje estão em desuso, tendo sido substituídos
por unidades de memória flash, principalmente os pen-drives.
Para que um disquete possa ser lido/gravado, é necessário inseri-lo em
um Floppy Disk Drive (Drive de disquete), simplesmente chamado de drive,
dispositivo presente em praticamente todos os PCs comercializados entre os
anos de 1980 e 2010. Os primeiro modelo de disquete, lançado em 1971,
tinha diâmetro de 8” e capacidade de armazenamento próximo de 160 KB, e
o último modelo de disquete lançado em 1993 tinha 3½” de diâmetro com
capacidade de 5,76 MB. O mais popular deles, e que perdurou por décadas
no mercado, foi o disquete de 3½” HD, ou seja, com 1,44 MB de capacidade
de armazenamento. O quadro 9 apresenta um histórico evolutivo com os
principais modelos de disquetes.
Quadro 3 – Evolução dos disquetes.

Tamanho Modelo Ano Capacidade


1971 80 KB
Single Sided – Face Simples 1973 256 KB
8”
1974 800 KB
Dual Sided – Face Dupla 1975 1 MB

– 72 –
Hardware interno do computador

Tamanho Modelo Ano Capacidade


Single Density – Densidade Simples 1976 160 KB
DD (Double Density – Densidade Dupla) 1978 360 KB
5¼” QD (Quad Density – Den-
1980 720 KB
sidade Quádrupla)
HD (High Density – Alta Densidade) 1984 1,2 MB
DD (Double Density – Den-
1984 720 KB
sidade Dupla)
HD (High Density – Alta Densidade) 1987 1,44 MB
3½”
ED (Extra Density – Densidade Extra) 1991 2,88 MB
EDS (Extra Density Super –
1993 5,76 MB
Densidade Extra Super)
Fonte: o próprio autor.

A figura 11 apresenta os disquetes e drives em seus três tamanhos, nos


quais foram comercializados.
Figura 11 – Disquetes e Drives
Fonte: Evandro Zatti

3.5"

5.25"

8"

4.5.3.4 Zip Disk


Os avanços tecnológicos sobre discos magnéticos flexíveis, impulsiona-
dos pela necessidade de se transportar arquivos cada vez maiores, permitiram
a concepção do zip disk, em 1994. Lançado pela Iomega juntamente com o
leitor (zip drive), o disco era uma espécie de disquete aumentado: um disco
magnético flexível envolto por uma capa plástica protetora, porém de tama-

– 73 –
Fundamentos da Informática

nho físico maior que os disquetes de 3½”. Sua capacidade de armazenamento


era muito superior: a primeira e mais popular versão do zip disk suportava
100 MB de dados.
Com isto, o disco virou vedete dos bureaus e gráficas, por permitir o
transporte de arquivos gerados por softwares gráficos, que antes tinham que
ser transportados divididos entre dezenas de disquetes. Porém, era altamente
suscetível a erros e rapidamente perdeu espaço para os CDs regraváveis que
buscavam mercado na época. Ainda assim, posteriormente foram lançados zip
disks de capacidades de 250 MB e 750 MB. Também similar ao zip, a Iomega
lançou posteriormente os Jaz drives e disks, que chegavam à capacidade de
2GB de armazenamento. Veja na figura acima um zip disk com seu modelo
de leitor.

4.5.4 Armazenamento óptico


Como já comentado no início deste capítulo, as mídias ópticas são aquelas
que fazem uso da luz para armazenamento/leitura dos dados. No caso, estamos
falando da gravação e leitura através do uso do laser. Ao invés da informação
binária ser armazenada com alinhamento de elétrons, como nas mídias
magnéticas, aqui a informação é gravada mediante reflexão (ou não) da luz em
uma superfície. Simplificando: quase como nos cartões perfurados, são feitas
perfurações microscópicas em uma camada metálica, para que a luz não seja
refletida e lida pelo canhão de laser. Veja o princípio de funcionamento de
gravação/leitura na primeira e mais popular mídia óptica: o CD.

4.5.4.1 Compact Disc


O CD (Compact Disc – Disco Compacto) começou a ser desenvol-
vido em meados da década de 70 do século XX, com objetivo de substituir
o disco de vinil, meio analógico que na época era utilizado para grava-
ções fonográficas. Pesquisadores de duas empresas, a holandesa Philips e a
japonesa Sony, trabalhavam em projetos paralelos no desenvolvimento de
uma mídia que pudesse armazenar música de forma digital. Ambas apre-
sentaram seus protótipos em março de 1979 e a partir daí uniram esforços
para padronização e especificação da versão final do CD que ainda hoje é
comercializado (veja quadro 4).

– 74 –
Hardware interno do computador

Quadro 4 – Comparativo entre protótipos e versão comercial do CD.

Característica Protótipo da Philips Protótipo da Sony Versão Comercial


Sampling rate* 44 a 44,5 KHz 44,1 KHz 44,1 KHz
Quantization* 14 bits 16 bits 16 bits
Tempo 60 minutos 60 minutos 74 minutos
Diâmetro 11,5 cm 10 cm 12 cm
Espessura - - 1,2 mm
* Sampling rate e Quantization são características de áudio digital, abordadas no capítulo 5.
Fonte: o próprio autor.

Depois de muitas brigas e discussões entre as duas empresas, os primeiros


CDs musicais, conhecidos como CD-DA (Compact Disc Digital Audio –
Disco Compacto de Áudio Digital), começaram a ser fabricados a partir de
1981, sendo que os primeiros players chegaram ao mercado japonês somente
no final de 1982 e ao mercado mundial em meados de 1983.
O sucesso da nova mídia atingiu o mundo da informática, e em 1985
foi lançado o primeiro CD-ROM (Compact Disc ROM – ROM em Disco
Compacto), a primeira versão de uso do disco para armazenamento de
dados, com capacidade de armazenamento de 650 MB. Em 1990 foi lançada
no mercado a versão para gravação doméstica, o CD-R (Compact Disc
Recordable – Disco Compacto Gravável), que permitia uma única gravação,
com capacidade inicial de 680 MB em versão posterior permitindo gravação
de até 700 MB. A versão regravável foi apresentada ao mercado em 1997, o
CD-RW (Compact Disc ReWritable – Disco Compacto Regravável), com
capacidade de armazenamento de 700 MB.
O disco, com 1,2 mm de espessura é um “sanduíche” composto de
algumas camadas:
22 camada de etiqueta (pré-impressa ou adesiva, opcional);
22 camada de verniz (previne oxidação da camada reflexiva);
22 camada reflexiva (substâncias metálicas reflexivas);
22 camada de dados (substâncias metálicas, onde são feitos os sulcos
que representam o dado/bit)

– 75 –
Fundamentos da Informática

22 camada de policarbonato (material resistente transparente que dá


suporte às outras camadas).
O funcionamento do CD é simples: um canhão laser projeta um feixe
de luz sobre a superfície do disco, que, de acordo com sua incidência nas
camadas que o compõem, vai refletir (ou não) essa emissão de luz até um
receptor. Assim os bits são armazenados: na forma de sulcos microscópicos
na camada de dados. Para gravação dos dados em CD-R ou CD-RW,
o que muda basicamente é o material empregado na camada de dados.
No caso do CD-R, são materiais que, ao receberem um feixe de laser de
determinada potência, se fundem, formando os sulcos. O CD-RW possui
uma liga especial que, conforme a potência do laser que lhe é incidida, se
deforma (formando os sulcos) ou relaxa (voltando ao estado original). Esses
diferentes materiais empregados na camada de dados é que são responsáveis
pelas diferentes cores encontradas nas superfícies dos CDs.

Veja na figura 12 o processo de leitura/gravação de dados em um CD.


Figura 12 – Gravação/ Leitura em discos ópticos (CD, DVD, BD).
CD DVD BD
disco
face da etiqueta

lentes
0.6 mm
1.2 mm 1.1 mm
0.6 mm

espelho
Fonte: Evandro Zatti
polarizador
1.6 micron

0.74 micron

0.32 micron

detector
canhão laser distância entre orifícios (track pitch)
fotoelétrico

gravação / leitura detalhe da superfície de dados

A comercialização de aplicativos (veja capítulo 9) também ganhou muito


com a adoção do CD em PCs: o que antes chegava a exigir várias caixas de
disquete para distribuição dos pacotes de instalação foi substituído em sua
maioria por um único CD.

– 76 –
Hardware interno do computador

Assim como os compactos de vinil, o CD também recebeu posteriormente


uma versão de tamanho físico menor: o mini CD. Com diâmetro de 8 cm, sua
capacidade de armazenamento é de 180 MB e 23:30 minutos de áudio.

4.5.4.2 Digital Versatile Disc


Apresentado ao público em 1995, o DVD (Digital Versatile Disc – Disco
Versátil Digital) foi concebido com o intuito de ser uma mídia digital de alta
capacidade, sobretudo para armazenamento de filmes de alta qualidade em
formato digital, algo que o CD, com seus 700 MB de capacidade não comportava.
A comercialização inicial comportando filmes gerou uma confusão no uso da
sigla: as pessoas começaram a chamá-lo de Digital Video Disc (Disco de Vídeo
Digital). A verdade é que, apesar de pouco observada, há sempre uma palavra ou
sigla atrelada à sigla DVD, que identifica a que se destina seu conteúdo:
22 DVD-Video: é o tipo mais comum, comercializado com filmes.
22 DVD-Audio: não muito popular no Brasil, apresenta somente
áudio multicanal para ser ouvido em equipamentos específicos.
22 DVD-RAM: apresenta conteúdo de dados e permite regravação.
22 DVD-ROM: apresenta conteúdo de dados previamente gravados
em fábrica.
22 DVD-R (+R): permite gravação de dados ou vídeo de uma única
vez, sem possibilidade de apagar ou regravar.
22 DVD-RW (+RW): permite gravação, apagamento e regravação de
dados ou vídeo.
Todas estas possibilidades apenas reforçam o significado da letra V na
sigla: versátil, e não somente vídeo.
Com diâmetro igual ao do CD (12 cm), o DVD possui maior capacidade
de armazenamento devido à densidade com que os sulcos são gravados
(menores e mais próximos) e também à quantidade de camadas de gravação.
O quadro 5 apresenta as versões de DVD com suas respectivas características.

– 77 –
Fundamentos da Informática

Quadro 5 – Tipos de DVDs.

Especificação Faces Camadas Diâmetro Capacidade


DVD-1 SS SL 1 1 8 cm 1,46 GB
DVD-2 SS DL 1 2 8 cm 2,66 GB
DVD-3 DS SL 2 2 8 cm 2,92 GB
DVD-4 DS DL 2 4 8 cm 5,32 GB
DVD-5 SS SL 1 1 12 cm 4,70 GB
DVD-9 SS DL 1 2 12 cm 8,54 GB
DVD-10 DS SL 2 2 12 cm 9,40 GB
DVD-14 DS DL/SL 2 3 12 cm 13,24 GB
DVD-18 DS DL 2 4 12 cm 17,08 GB
Legenda: SS = Single Sided (face simples) / DS = Double Sided (face dupla).
SL = Single Layer (camada simples) / DL = Dual Layer (camada dupla).
Fonte: o próprio autor.

Melhores e com maior número de funcionalidades, os aplicativos


mais uma vez exigiam uma mídia maior para distribuição de seus pacotes
de instalação. Quando a indústria de PCs adotou o DVD como mídia de
armazenamento, os instaladores de aplicativos eram tão grandes que chegavam
a ser distribuídos em cases com vários CDs.

Saiba Mais
Por questões de controle de distribuição de conteúdo, a indústria
cinematográfica exigiu que os discos de DVD-Video fossem fabricados
com um código indicando em qual área poderiam ser reproduzidos.
Da mesma forma, os aparelhos de DVD deveriam respeitar esta
regionalização. Os códigos de região variam entre 0 e 8, sendo que no
Brasil os filmes são distribuídos como região 4 (México, América Central
e do Sul; Caribe; Austrália; Nova Zelândia; Oceania). DVDs de vídeo
distribuídos com região 0 ou ALL podem ser vistos em qualquer aparelho.

– 78 –
Hardware interno do computador

4.5.4.3 HD-DVD e Blu-Ray Disc


Quanto maior a qualidade de imagem e som digitais (o capítulo 5
aborda este tema), maior a quantidade de bytes necessária para armazená-
los. O aumento da resolução de vídeo e da quantidade de canais de som
multicanal trouxe a necessidade de um meio com maior capacidade. Apesar
de a transmissão de conteúdo de alta definição já estar presente desde
meados dos anos 90 do século XX, somente em 2008 foram apresentados
ao mercado aparelhos e discos com capacidade de armazenamento para
estes conteúdos.
Na época, duas grandes rivais disputavam o mercado com dois padrões
distintos. A Toshiba trazia o HD-DVD (High Density DVD – DVD de Alta
Densidade), uma evolução do DVD, que permitia armazenamento de até 15
GB por camada do disco. A Sony, por sua vez, apresentava um novo conceito:
um laser de comprimento de onda diferente, azul, que permitia a leitura de
discos com maior densidade na gravação das informações: o BD (Blu-ray Disc
– Disco de Raio azul, sendo que blu é grafado sem a letra E ao final, porém em
uma analogia ao laser de cor azul), popularmente chamado de blu-ray. Depois
de algum tempo e de vários títulos lançados no mercado em ambos os formatos,
a Toshiba abandonou o suporte ao HD-DVD, permanecendo no mercado o
BD, tornando-se então a mídia padrão para armazenamento de vídeo de alta
definição. Veja no quadro 6 os tipos de BDs disponíveis para comercialização.
Quadro 6 – Tipos de BDs.

Capacidade
Tipo Tamanho
Camada Simples Camada Dupla
Standard 12 cm 25 GB 50 GB
Mini 8 cm 7,8 GB 15,6 GB
Fonte: o próprio autor.

4.5.5 Outras formas de armazenamento


Seguindo a mesma tendência dos CDs e DVDs, que se popularizaram
no consumo multimídia (filmes e música), o BD tornou-se bastante popular
para o consumo de filmes em alta definição. Porém, como seus antecessores,
essa popularidade não se refletiu em microcomputadores, ainda que existam

– 79 –
Fundamentos da Informática

vários modelos de gravadores e mídias BD no mercado. Por questões culturais


e de comportamento, as pessoas estão deixando de lado esse tipo de mídia.
Destacam-se aqui alguns fatores que indicam uma possível extinção desse
tipo de mídia:
22 Consumo de conteúdo multimídia on-line: ouve-se música e
assistem-se filmes diretamente via internet;
22 Popularização e redução de custo de mídias removíveis: HDs
externos e memórias flash estão cada vez mais práticos, rápidos,
confiáveis e baratos;
22 Armazenamento de dados em nuvem: os serviços de cloud
computing (computação em nuvem) têm se popularizado,
dispensando o armazenamento local.
As soluções citadas têm se tornado cada vez mais populares entre usuários
de PC, atendendo necessidades tanto de consumo imediato (transporte de
dados) quanto para backups (cópias de segurança).
Vale lembrar também que a estratégia de alguns fabricantes está alinhada
com esse tipo de comportamento: a Apple Computers nunca chegou a incluir
leitores/gravadores de BD em seus PCs e seus modelos mais recentes também
dispensam os leitores/gravadores de DVD.

4.5.5.1 Cartões de Memória


Os cartões de memória, também conhecidos como flash cards, come-
çaram a surgir no início dos anos 90 do século XX, atingindo rapidamente
grande popularidade com o uso em câmeras digitais, celulares e PDAs (Per-
sonal Digital Assistants – Assistentes Pessoais Digitais), por serem pequenos e
armazenarem quantidade considerável de dados.
Utilizando o mesmo conceito de EEPROM, existem no mercado diver-
sos tipos de cartões de memória com diferentes características que envolvem
principalmente capacidade e velocidade. Dentre os principais cartões, estão o
SD (Secure Digital), o Memory Stick (Sony) e o Compact Flash (SanDisk).
Para que um cartão possa ser lido/gravado em um PC, é necessário se ter
um módulo específico de leitura/gravação para o modelo de cartão em uso.
Existem disponíveis vários leitores/gravadores de cartão multi, ou seja, que

– 80 –
Hardware interno do computador

apresentam diferentes slots para inserção dos padrões mais comuns de cartões
de memória.
Figura 13 – Cartões de memória flash e leitor multi

Shutterstock.com/Serg64
4.5.5.2 Pen-drives
Os USB flash drives, chamados popularmente de pen-drives, são também
variações de módulos de memória EEPROM, que trazem consigo interface USB
integrada, ou seja, não é necessário um leitor específico. Basta conectar o pen-
drive em uma porta USB do PC para que ele possa ser lido/gravado. A velocidade
de operação (taxa de transferência) de um pen-drive varia tanto pelo tipo de
módulo de memória empregado em sua fabricação quanto pelo padrão de versão
USB que ele utiliza em sua interface: USB 1.1, USB 2.0 ou USB 3.0.

4.5.5.3 Solid State Drive


O SSD (Solid State Drive – Drive de Estado Sólido) é o provável
substituto do HD. No lugar dos delicados mecanismos eletromecânicos e
discos magnéticos de um HD, o SSD é composto de módulos de memórias.
Por não ter partes móveis, daí vem o nome estado sólido.
É comercializado sob a mesma forma física dos HDs, com o mesmo tipo de
interface (SATA é a mais comum), porém com capacidades de armazenamento
ainda reduzidas (máximo de 256 GB) e preços altos, se comparado aos HDs.
Quanto ao tipo de armazenamento (memória), apresentam-se em dois
grupos: memória flash e DRAM. Os SSDs baseados em memória flash são
mais baratos, porém mais lentos e ainda podem ser divididos em dois tipos:

– 81 –
Fundamentos da Informática

MLC (Multi Level Cell – Célula de Vários Níveis), mais lentos e similares à
tecnologia empregada nos pen-drives; ou SLC (Single Level Cell – Célula de
Único Nível), muito mais rápidos. Os do outro grupo (baseados em DRAM)
utilizam os mesmos módulos de memória DRAM de PCs para armazena-
mento. Uma vez que esse tipo de memória é volátil, os SSDs baseados em
DRAM possuem fontes extras de alimentação (bateria) para garantir a persis-
tência dos dados no caso de serem desligados.
A grande vantagem dos SSDs é a velocidade com que operam, partindo
de 100 MB/s chegando a atingir até 600 MB/s dependendo do modelo,
enquanto um HD trabalha na velocidade média de 150 MB/s.

4.5.6 Interfaces de armazenamento


Como já foi comentado, todos os aplicativos que são executados
por um PC residem em uma unidade de armazenamento em massa. E
é também nessas unidades que são gravados os trabalhos (documentos,
planilhas, etc.) durante o seu desenvolvimento. Para que os dados sejam
transportados do armazenamento secundário para o armazenamento
primário, eles passam pelas interfaces de armazenamento, que são
responsáveis por estabelecer a comunicação entre esses dois segmentos de
armazenamento de dados.
As interfaces de armazenamento, portanto, influenciam diretamente
no desempenho geral do PC, então sua velocidade de operação deve
sempre ser igual ou superior à unidade de armazenamento com a qual ela
estabelece comunicação.

4.5.6.1 Disquetes
As interfaces de floppy são as de funcionamento mais simples. Presentes
desde os primeiros drives de disquete, elas têm a missão de converter os
dados que recebem em informações de localização (setores) de uma única
cabeça de leitura/gravação. Esta função é realizada basicamente por um
único microprocessador.

– 82 –
Hardware interno do computador

4.5.6.2 Padrão ATA/IDE


As unidades de armazenamento e interfaces mencionadas nesta seção
referem-se a ATAs paralelas, hoje chamadas de PATA (Parallel ATA). Em
paralelo ao barramento USB, surge então a sua versão serial: o SATA. A
figura 14 ilustra um cabo com conector PATA.
Figura 14 - Intarface Parallel ATA

4.5.6.3 Padrão SATA Shutterstock.com/Laura Gangi Pond

A segunda versão do padrão, o


SATA 3.0 Gbps, também chamada de
Conector de
Interface SATA

SATA-2 ou SATA-II trouxe a correção


de alguns problemas de requisições
encontrados na primeira versão, além
de aumentar a taxa efetiva para 300
MB/s. Veja na figura 15 ao lado um Conector de
Alimentação SATA

conector SATA.

4.5.6.4 Padrão SCSI


O padrão SCSI (pronuncia-se /’skãzi/) vai muito além de uma interface:
é uma solução completa de barramento. É uma interface de comunicação

– 83 –
Fundamentos da Informática

paralela que permite a interligação de vários dispositivos que se comunicam


diretamente entre si. Portanto, uma solução ideal para armazenamento de
dados em servidores, que atendem a várias requisições simultâneas, ou para
soluções de áudio e vídeo profissional.
O padrão SCSI, assim como o ATA, também possui versões seriais: o
SSA (Serial Storage Architecture – Arquitetura de Armazenamento Serial),
com taxas de transferência de 40 MB/s e o SAS (Serial Attached SCSI – SCSI
Ligada em Serial), com taxas de até 300 MB/s.

Da teoria para a prática


Pesquise sobre como é feita a divisão de setores e trilhas nos dispositivos
de armazenamento que trabalham com discos e explique qual a principal
diferença das trilhas de um CD e o motivo técnico para a sua concepção
dessa forma diferente.

Conclusão
O processador é considerado o cérebro do computador. Ele é responsável
por executar as instruções que garantem o funcionamento da máquina,
que vão desde cálculos à transferência de dados. Tudo acontece através de
pulsos elétricos transmitidos para seu interior através dos pinos de encaixe.
Operando através da presença e ausência de eletricidade, o sistema binário de
numeração é a base de seu funcionamento.
Os barramentos são as vias que possibilitam o tráfego de dados dentro do
computador e para fora dele. A velocidade desse tráfego depende da largura do
barramento e da sua frequência de operação. O barramento local, responsável
pela comunicação entre o processador e a memória, trabalha em alta velocidade,
enquanto os barramentos de expansão, que permitem a comunicação com
equipamentos externos, trabalham em velocidades bem menores.

– 84 –
Hardware interno do computador

É natural que se queira guardar o trabalho que é desenvolvido em um


computador. Do cartão perfurado ao laser, o armazenamento de dados é
parte integrante de um sistema computacional. Os meios de armazenamento
magnético (disquetes e HDs) e óptico (CDs, DVDs) tendem a dar espaço
para o armazenamento em chips, mais rápido e confiável, como é o caso dos
cartões de memória e pen-drives. E, para cada tipo de dispositivo, haverá uma
interface correspondente.

– 85 –
5
Dispositivos de
Entrada e Saída

São dispositivos de entrada os responsáveis por enviar


informações do meio externo para o computador: teclado, mouse,
câmera, microfone, scanner, etc. Este capítulo aborda os dispositi-
vos imprescindíveis à realização de qualquer tarefa básica utilizando
um PC: o teclado e os dispositivos apontadores, dentre os quais está
incluso o mouse.

5.1 Teclado
Atualmente o teclado é o dispositivo mais comum de entrada
de dados para o computador, quando se trata da manipulação de
informação textual ou de números. Um teclado de computador
possui teclas que representam letras, números, símbolos especiais e
outras funções, sendo que a disposição física é baseada em antigas
máquinas de escrever.
O funcionamento básico do mecanismo de um teclado é
sempre o mesmo: o pressionamento da tecla aciona um comutador
que irá alterar o fluxo da corrente elétrica, naquele ponto,
Fundamentos da Informática

identificando para um circuito qual tecla foi pressionada. O circuito, por sua
vez, irá converter esse simples dado do tipo liga/desliga em uma sequência
binária que informe ao computador qual símbolo foi digitado. Esta sequência
é então enviada ao computador, por meio de uma porta ou barramento
específico, fazendo ou não uso de cabos.
A primeira forma de se classificar um teclado é, então, pelo tipo de
comutador utilizado nas teclas, os quais são apresentados a seguir.

5.1.1 Teclados de comutador mecânico


Esse tipo de teclado era o mais comercializado acompanhando os primeiros
PCs. O chamado comutador mecânico consistia em duas chapinhas de metal
que se conectavam para controlar o fluxo da corrente elétrica. O retorno
mecânico das teclas podia ser realizado pelas próprias chapinhas, porém para
que elas não se desgastassem, cada tecla era montada com pequenas alavancas e
molas que equilibravam o pressionamento e retorno das teclas.

5.1.2 Teclados rubber dome


Nesse tipo de teclado o comutador da tecla é formado por uma
pequena cúpula de borracha (daí o nome rubber dome) que se achata com o
pressionamento da tecla e volta a seu estado original quando a tecla é solta.

5.1.3 Teclados de membrana


Os teclados de membrana são similares aos rubber dome, com a diferença
que, ao invés da borracha, utilizam plástico fino (membrana) na composição
dos comutadores.

5.1.4 Teclados capacitivos


Eles fazem uso de eletricidade estática armazenada em um material
(capacitância) para seu funcionamento. Por não haver peças de contato, sua
durabilidade é muito maior do que as outras tecnologias, porém o processo
de fabricação é mais caro. É uma tecnologia em desuso para teclados de PCs
porque o custo de fabricação não justifica a durabilidade.

– 88 –
Dispositivos de Entrada e Saída

5.1.5 Layouts de teclados


A disposição das teclas (layouts) da maioria dos teclados de computador
segue o mesmo padrão das antigas máquinas de datilografia (máquinas de
escrever). Nesta disposição, as primeiras seis letras da primeira linha do
teclado são QWERTY, sendo este o nome atribuído ao layout.
Propostas alternativas ao layout QWERTY surgiram ao longo dos
anos, sendo que uma em específico merece destaque: é a sugerida por
August Dvorak e William Dealey. A proposta apresenta algumas ideias
com objetivo de aumentar a velocidade de datilografia. Dentre elas, a
principal é que as teclas mais utilizadas residissem na linha de repouso,
evitando assim movimentos desnecessários dos dedos e aumentando a
eficiência ao datilografar.
A linha de repouso é aquela onde os dedos (com exceção do polegar)
descansam enquanto não estão pressionando teclas. Batizado com o nome
de seus criadores, este layout é conhecido como Dvorak-Dealey, comumente
chamado simplesmente de layout Dvorak. Há layouts Dvorak distintos
para mão esquerda, mão direita e ambas as mãos.

Saiba Mais

Para comparar a eficácia do teclado Dvorak, acesse o site


<http://www.chimoosoft.com/articles/dvoraktest.php> e
faça o teste com o seguinte texto:
“Este é um teste para saber se na Língua Portuguesa o layout
Dvorak também seria mais eficiente, seguindo a ideia do uso
mais frequente das letras da linha de repouso (home row).”
Resultado: No layout Dvorak, 48% das letras do texto sugerido
estão na linha de repouso, contra 24% do layout QWERTY.

A figura 1 apresenta os layouts QWERTY e Dvorak, respectivamente.

– 89 –
Fundamentos da Informática

Figura 1 – Layouts de teclados

LAYOUT QWERTY ABNT

LAYOUT DVORAK SIMPLIFICADO

5.1.6 Teclas especiais


Apesar da semelhança com o teclado de uma máquina de datilografia,
o teclado de computador vai além da digitação de textos. A primeira
configuração padronizada pela IBM em 1981 considerava um total de 83
teclas. Reclamações e ajustes fizeram com que a configuração fosse atualizada
para 101 teclas (figura 2), incluindo as teclas especiais e o teclado numérico.
As teclas especiais comuns a todos os teclados padrão IBM-PC foram
criadas para desempenhar funções especiais de acordo com o aplicativo
utilizado. Algumas exercem ação quando pressionadas sozinhas (teclas de
função F1 a F12), outras precisam ser acionadas conjuntamente com outras
para terem algum efeito, como é o caso da tecla CTRL (Control – Controle)
e ALT (Alternate – Alternar).
Dependendo da plataforma de PC utilizada, alguns teclados mais
recentes trazem outras teclas de funções específicas, que mesmo com uso
extensivo não estão previstas no padrão internacional. É o caso, por exemplo,

– 90 –
Dispositivos de Entrada e Saída

da tecla Windows® e da tecla Option. A primeira, presente em PCs que rodam


o sistema operacional Windows®, vem com o logotipo do sistema impresso
em sua superfície e desempenha funções específicas apenas naquele sistema. A
segunda está presente em teclados de computadores Apple e também só tem
utilidade naquele sistema.
Figura 2 – Teclado avançado padrão IBM.

Fonte: Evandro Zatti


5.1.7 Conexões
Os primeiros teclados padrão IBM Figura 3 – Conexões DIN
e mini-DIN.
utilizavam o padrão DIN (Deutsches Institut für
Normung – Instituto Alemão de Normalização)
para conexão. O conector DIN é um conector
circular, que pode ser apresentado com diversas
configurações de pinos, com especificação pelo
ângulo da disposição e a quantidade de pinos.
Os conectores de teclado padrão IBM utilizavam
Shutterstock

a configuração DIN 5/180º, posteriormente


passando a utilizar o padrão mini-DIN de 6
pinos (figura 3).

5.2 Dispositivos apontadores


Tarefas realizadas com os primeiros PCs envolviam diretamente o uso
do teclado. Desde a simples digitação de textos na editoração, ou de números
em uma operação de cálculo, até mesmo os comandos que controlavam os

– 91 –
Fundamentos da Informática

aplicativos tinham que ser informados ao sistema mediante pressionamento


de uma ou várias teclas em sequência.

5.2.1 Mouse
O mouse foi um dispositivo revolucionário no mundo dos computadores
pessoais, bem como os sistemas de interface gráfica. Com o surgimento das
interfaces gráficas e do mouse, a interação entre humano e computador ficou
consideravelmente mais amigável e prática: tudo ao alcance de um clique.
Bastaria movimentar o aparelho sobre uma superfície que o movimento era
reproduzido por um ponteiro na tela, e então escolher a opção desejada. A
ideia surgiu nos laboratórios da Xerox no final da década de 70 do século XX,
mas a empresa desdenhou o aparelho, que começou a se popularizar no início
dos anos 80 desse século, em sistemas de computadores da Apple e em IBM-
PCs com sistema operacional Microsoft Windows®.
A primeira versão comercial do mouse, conhecido como mecânico,
utilizava uma esfera de borracha em sua parte inferior e rolamentos internos
para seu funcionamento. Ao se deslizar o aparelho sobre uma superfície
plana, a esfera girava, fazendo girar também os rolamentos a ela conectados,
cujos movimentos eram lidos por LEDs (Light Emitting Diodes – Diodos
Emissores de Luz) infravermelhos e então enviados ao computador por meio
de circuitos eletrônicos. A figura 4 esclarece esse funcionamento.
Figura 4 – Interior de um mouse mecânico.

1
2

4
5

1 - Ao se empurrar o mouse a esfera gira


2 - As roldanas empurradas pela esfera transferem o movimento nos eixos X e Y
3 - Os discos presos às roldanas possuem orifícios para controlar a passagem de luz
4 - LEDs infravermelhos iluminam através dos discos
5 - Sensores captam os pulsos de luz emitidos pelos LEDs e os convertem em movimento

– 92 –
Dispositivos de Entrada e Saída

Uma esfera de borracha rolando constantemente sobre a mesa só


poderia resultar em uma coisa: acúmulo de sujeira nos mecanismos. Quem
utilizou mouse mecânico sabe quantas vezes foi necessário efetuar limpeza dos
rolamentos. Para resolver este problema, surgiu o mouse óptico. Utilizando-se
de pelo menos um led, um feixe de luz é projetado para a superfície sobre a qual
o equipamento é movimentado, que então é percebida por fotodiodos, assim
como o movimento do aparelho. Esta solução não funciona em superfícies
de alguns materiais, como é o caso do vidro. Como alternativa ao uso de
leds, alguns equipamentos empregam o laser, em frequência adequada, que
proporciona resultados mais precisos de percepção das superfícies.
Observe na Figura 5 o funcionamento de um mouse óptico e as diferentes
percepções utilizando led e laser.
Figura 5 – Mouse Óptico
1) o led/laser emite um feixe de luz
2) o feixe reflete nos espelhos para chegar à superfície;
3) o feixe ilumina a superfície;
4) a superfície é captada (percebida)
pela câmera ccd.
lho

feixe de luz
pe

camera
es

ccd led / laser


o
elh
esp

mouse
superfície

percepção da superfície percepção da superfície


pelo ccd com iluminação por led: pelo ccd com iluminação por laser:
menor detalhe = menor precisão maior detalhe = maior precisão

Além dos componentes para percepção do movimento, ainda há os botões


de ação na parte superior do mouse, utilizados para interagir com elementos
da interface gráfica. Os primeiros computadores Apple utilizavam apenas um
único botão, suficiente para operar o sistema. Os sistemas Windows, desde suas
primeiras versões, utilizavam mouse de pelo menos dois botões. Outros botões
são até hoje incorporados livremente pelos fabricantes para atender necessida-
des específicas, como é o caso de alguns jogos de computador.
Para facilitar a navegação entre textos longos e páginas da web, o
equipamento recebeu, na mesma região dos botões, a roda de rolagem:
uma roda que gira apenas no eixo longitudinal, para que se possa percorrer
rapidamente o texto no sentido vertical (acima/abaixo). Esta mesma roda é
utilizada em alguns aplicativos para aproximação (zoom) do conteúdo.

– 93 –
Fundamentos da Informática

5.2.2 Trackball
Uma espécie de variação de mouse mecânico é o trackball, em
que, ao invés de se movimentar o mouse sobre uma superfície plana,
movimenta-se diretamente a esfera, agora
na parte superior do equipamento, que
permanece fixo à superfície. O trackball
é bastante utilizado em equipamentos
médicos que envolvem imagens,
como aparelhos de ultrassonografia.
Shutterstock.com/Olga

5.2.3 TouchPads
Marca registrada da
Synaptics Corporation, os
touchpads são equipamentos
com superfícies que detectam

Shutterstock.com/goldyg
a capacitância elétrica dos
dedos, dessa forma, detec-
tando seu posicionamento.
São amplamente utilizados em
computadores portáteis, onde
a característica do uso nem
sempre permite uma superfície
plana próxima para uso de um mouse.

5.2.4 TrackPoint
Dentre as várias tenta-
tivas de oferecer dispositivos
Shutterstock.com/David

apontadores para computa-


dores portáteis, desde minia-
turas de trackballs até chegar
aos tão aceitos touchpads, a
IBM desenvolveu e paten-
teou uma solução no mínimo

– 94 –
Dispositivos de Entrada e Saída

interessante: o TrackPoint (figura 8 na página anterior). Uma espécie de


miniatura de manche, posicionado entre as teclas da região central do
teclado, para ser manipulado com a ponta do dedo indicador. Quanto
maior a pressão exercida sobre o manche, mais rápida é a movimentação
do cursor pela tela.

5.2.5 Joysticks e Paddles


O uso do microcomputador para jogo digital trouxe consigo alguns
acessórios utilizados nos consoles de videogame. Ainda quando os sistemas
operacionais não possuíam interface gráfica, já existiam alguns jogos que
funcionavam com o uso do teclado. O desenvolvimento de jogos para os
sistemas operacionais gráficos aproveitaram o uso do mouse, porém esse
nem sempre é o dispositivo apontador mais indicado para essa finalidade,
ainda que jogos de tiro em primeira pessoa se beneficiem da facilidade de
posicionamento do mouse diretamente para a mira das armas virtuais.

Da teoria para a prática


Pesquise sobre dispositivos de superfícies de toque resistiva
e capacitiva, estabelecendo um comparativo entre as duas,
citando as vantagens e desvantagens de cada uma.

5.3 Placas de vídeo e monitores


Enquanto o teclado é o principal dispositivo de entrada de textos, e o
mouse é o principal equipamento para manipulação de interfaces gráficas, o
monitor é o principal dispositivo de saída. Quando os primeiros computado-
res começaram a ser utilizados, a saída de dados era feita em papel, utilizando
aparelhos conhecidos como teletipos. Atualmente, para que um texto ou uma
imagem gráfica seja apresentado ao usuário do sistema, é necessária a con-
versão do dado digital em sinais, pela placa ou interface de vídeo, que serão
enviados para serem exibidos pelo monitor.

– 95 –
Fundamentos da Informática

5.3.1 Conceitos de texto e imagem digital


Se o computador só trabalha com sequência de bits, que são
representações numéricas, como ele trabalha com textos? Como representar
uma letra ou um determinado símbolo utilizando sistema de numeração?
Dentre tantos equipamentos de modelos e fabricantes diferentes, como
garantir que a sequência binária que representa uma determinada letra
em um equipamento transmissor seja apresentada adequadamente no
equipamento receptor?

5.3.1.1 O padrão ASCII


Para permitir a transmissão adequada entre sistemas diferentes, surgiu
a necessidade de se representar caracteres através de sequências conhecidas
de pulsos para representações de códigos numéricos, ou seja, era necessário
se estabelecer um padrão. Em 1960 foi criado o padrão ASCII (American
Standard Code for Information Interchange – Código Padrão Americano
para Intercâmbio de Informações), baseado no sistema de telégrafo, em
que cada caractere (letra do alfabeto, dígito numérico, ou símbolo especial)
possuiria um código correspondente em binário.
A primeira versão desse padrão utilizava uma sequência de 7 bits, o que
permitia representar uma variação de até 128 caracteres. Esta padronização
foi mandatária nos EUA a partir de março de 1968. Com a popularização do
armazenamento e transmissão de dados, sendo o padrão ASCII adotado por
diversos países, surgiu então a necessidade de acrescentar caracteres especiais
acentuados. Sendo assim foi criada uma versão estendida do padrão ASCII
com 8 bits, permitindo, além dos 128 caracteres americanos, um acréscimo
de 128 caracteres especiais e acentuados.
Existem diferentes variações da versão estendida do ASCII que atendem
às necessidades de cada país e são documentadas pela ISO (International
Organization for Standardization – Organização Internacional para
Padronização). Essas variações eram apresentadas nos diferentes sistemas
com um termo conhecido: “código de página”. De acordo com o código de
página sendo utilizado, o sistema operacional faria a apresentação correta dos
caracteres para cada país.

– 96 –
Dispositivos de Entrada e Saída

Não é difícil perceber que, com o advento da internet, isso se tornaria


um problema, uma vez que existe a possibilidade de um computador estar
acessando conteúdo de outro país, dessa forma dificultando a visualização do
texto exibido, pois não haveria um código de página específico. Diante desta
necessidade, foram criados novos padrões e codificações para manipulação de
texto, sendo que os mais conhecidos são os padrões Unicode UTF-8 e UTF-16.

5.3.1.2 Imagens digitais


Uma imagem digital pode ser apresentada de duas formas: em duas ou
três dimensões. Os dispositivos computacionais mais comuns apresentam
imagem em duas dimensões (2D). É o caso do monitor e da impressora,
por exemplo.
Mesmo os monitores chamados comercialmente de 3D, na verdade, não
apresentam conteúdo em três dimensões. Se assim fosse, no momento em
que a frente de um objeto fosse exibida no monitor, seria possível ver as costas
deste mesmo objeto simplesmente olhando-se o verso do monitor. O que
ocorre é que os monitores “3D” apresentam imagens 2D em estereoscopia,
ou seja: uma imagem 2D para cada olho (através do uso de óculos especiais),
causando dessa forma a sensação de profundidade ao observador.
É fato que os computadores podem armazenar e manipular imagens
em três dimensões, porém apresentá-las em três dimensões somente através
de impressoras de plástico ABS ou tornos, ou através de alguns dispositivos
experimentais de holografia com laser.

5.3.1.3 Tamanho X resolução


A imagem digital é representada (armazenada, processada e exibida)
sob a forma de uma matriz de pontos. O tamanho da imagem é dado pela
quantidade de pontos com os quais essa imagem é apresentada (formada). Os
pontos são chamados de pixels (Picture Elements – elementos de imagem). É
comum fazer referência a imagens digitais citando-se a quantidade de pixels
que compõem o eixo horizontal da matriz (eixo X) versus seu eixo vertical
(eixo Y). A figura 9 apresenta uma imagem e sua digitalização com tamanho
de 17 x 17 pixels.

– 97 –
Fundamentos da Informática

Figura 9 – Comparativo entre imagem original e


versão digitalizada com 17 x 17 pixels.

A resolução de uma imagem é dada pela quantidade de pontos por


unidade de medida de espaço (centímetro, por exemplo). Quanto maior
a quantidade de pontos por unidade de espaço, maior é a resolução. Duas
imagens com mesmo tamanho físico podem ser digitalizadas com resoluções
diferentes. Observe a figura 10. Ela apresenta uma imagem em duas versões,
ambas com o mesmo tamanho físico, porém com resoluções diferentes. A
versão da esquerda utiliza 4 pontos para preencher 1 centímetro, enquanto a
imagem da direita o faz com 8 pontos. Assim, pode-se observar que a imagem
com mais pontos por centímetros possui uma maior (e consequentemente
melhor) resolução.
Figura 10 – Imagens com resoluções
de 4 pontos/cm e 8 pontos/cm respectivamente.

Apesar de o exemplo ter utilizado o centímetro como unidade de


medida, não é esta a medida com a qual se representa a resolução de uma

– 98 –
Dispositivos de Entrada e Saída

imagem. Como a maioria das situações computacionais, nesse caso também é


utilizada a unidade de medida comumente utilizada pelos norte-americanos:
a polegada. Portanto, para expressar a resolução de uma imagem, utiliza-se a
unidade/expressão dots per inch (pontos por polegada) ou na forma abreviada:
dpi. De forma análoga, fica evidente que uma imagem que possui resolução
de 200 dpi é uma imagem que, para cada polegada, foi “fatiada” 200 vezes
para ter sua representação digital. Quanto maior a resolução de uma imagem,
ou seja, quanto mais “fatiada” ela for, mais definida será.

5.3.1.4 Profundidade de cor


Sabendo-se que uma imagem é formada por uma matriz de pontos, é
necessário entender como as cores são representadas nessa matriz. As imagens
digitais possuem padrões específicos de colorização que estão relacionados
diretamente com a quantidade de bits que são utilizados para representar
um pixel. A esse conceito denomina-se profundidade de cor. O padrão mais
elementar de colorização utiliza 1 bit por pixel. Apesar de ser referenciado
como black & white (preto-e-branco), a realidade é que um ponto pode
estar ligado ou desligado (0 ou 1). Cabe ao software ou ao equipamento
de apresentação “escolher” qual cor será utilizada para apresentar quando a
informação for 0 e quando for 1.
O segundo padrão utiliza 8 bits (1 byte) por pixel, e portanto é possível
representar 256 tons diferentes de luminosidade. Uma vez que ainda não há
uma cor específica, o número binário representa diretamente a luminosidade
do pixel: do 0 (zero), totalmente preto, até o 255 que é o branco. Este padrão
é comumente chamado de grayscale (escala de cinzas).
Ainda trabalhando com 1 byte por pixel, há o padrão paletted (palheta
de cores). Com ele é possível representar 256 cores diferentes. Para saber qual
a cor representada por cada código (dentre 0 e 255), é informada ao sistema
uma palheta com as 256 cores possíveis.
Para representação de cores em monitores coloridos (que serão vistos
ainda neste capítulo) utiliza-se o padrão RGB (Red Green Blue – Vermelho
Verde Azul). Este padrão utiliza 24 bits (3 Bytes) por pixel. Isso acontece
porque cada pixel é exibido pela tríade: Red-Green-Blue (veja a figura 11).
Sendo assim, para cada cor da tríade existe a possibilidade de variação de

– 99 –
Fundamentos da Informática

nível luminoso partindo do 0 (totalmente apagado) até o 255 (totalmente


aceso). A combinação das três cores em diferentes níveis forma a cor do pixel,
permitindo um total de aproximadamente 16 milhões de cores diferentes.
Figura 11 – Esquema do padrão RGB.

Yellow
Red Green

RGB White

Magenta Cyan

Blue

5.3.1.5 Bitmap X vetorial


De acordo com o que foi apresentado até aqui, a representação de
uma imagem 2D é dada por uma matriz de pontos. Porém, as imagens
podem ser armazenadas sob duas formas: bitmap e vetorial. A imagem
bitmap é a representação e armazenamento direto pixel a pixel da imagem,
ou seja, a gravação sequencial da informação binária de um pixel após o
outro em arquivo.
Imagens bitmaps são utilizadas para armazenar fotos ou imagens com
variações complexas de cores e sombras. A imagem vetorial é composta por
pontos alternados (vértices) perfazendo figuras geométricas (polígonos) através
de linhas (retas ou curvas). Em baixa resolução a diferença entre os formatos
vetorial e bitmap não é tão significativa. Porém, quando multiplicamos a
resolução, o que é muito comum, a diferença entre os dois formatos segue
uma proporção exponencial. Por esse motivo, normalmente o arquivo com
imagem vetorial é consideravelmente menor do que o bitmap.
Uma imagem vetorial não apresenta apenas traçados de linhas. Quando
as linhas são fechadas, formam-se polígonos, sendo então possível preencher
suas superfícies com cores específicas. Com a combinação de linhas e
polígonos é possível representar uma grande variedade de elementos gráficos.

– 100 –
Dispositivos de Entrada e Saída

Porém, o uso de cores fica limitado à aplicação na superfície e no contorno


desses polígonos. Para se representar uma foto utilizando-se desta técnica,
seria necessário praticamente um polígono para cada pixel, o que torna o
formato inviável para esta aplicação. Conclui-se assim que o formato vetorial
é adequado para utilização em desenhos técnicos, diagramas, enfim: imagens
que necessitam de alta definição, porém com baixa complexidade de cores
e tons.
Uma imagem vetorial, para ser apresentada, é renderizada como uma
matriz de pontos de acordo com a capacidade gráfica (resolução) do hardware
que a está apresentando: monitor, impressora, etc.

5.3.2 Interfaces e placas 2D


Agora que já foram explicados os fundamentos de formação de texto e
imagem digital, fica mais claro o entendimento da evolução das interfaces e
placas de vídeo. Cabe a um adaptador (interface ou placa) de vídeo converter o
dado digital em informação que possa ser exibida pelo monitor de vídeo. Este
processo pode ser tanto digital-analógico quanto digital-digital, dependendo
da tecnologia empregada no adaptador e no monitor de vídeo.

5.3.2.1 Interface MDA


A primeira interface de vídeo foi criada em 1981 pela IBM, para
exibição de texto, e se chamava MDA (Monochrome Display Adapter –
Adaptador de Vídeo Monocromático). Ela apresentava os textos em uma
matriz de 80 colunas e 25 linhas de boxes (caixas) contendo os caracteres.
Para exibição do caractere, cada box era formado por uma matriz de 9 x 14
pontos. Além da informação dos pontos que formavam o caractere, ainda
era possível exibi-lo com um pequeno conjunto de efeitos especiais: normal,
sublinhado, brilhante ou invertido. Portanto, a interface utilizava 2 bytes
(um para a imagem + um para o efeito) para cada caractere exibido. Sendo
25 linhas, cada uma com 80 caracteres ocupando 2 bytes, uma tela texto
padrão MDA requer um total de 4.000 bytes (25 x 80 x 2) para exibição,
implicando portanto na necessidade de um módulo de memória de 4 KB
para utilização pela interface.

– 101 –
Fundamentos da Informática

5.3.2.2 Padrão CGA


Com a necessidade de apresentação de imagens gráficas, a IBM
criou então o padrão CGA (Color Graphics Adapter – Adaptador Gráfico
Colorido). Esse adaptador traz uma única matriz de 640 x 200 pontos. Ela
ainda permite a exibição de textos no padrão 25 linhas com 80 caracteres,
porém cada caractere aqui era formado por blocos de 8 x 8 pontos (ao invés
dos 9 x 14 da anterior). A partir desse padrão é que surge o conceito de pixel,
em que cada pixel é formado pela tríade RGB.
Por restrições de memória, porém, essa interface não permitia a
exibição simultânea de todas as 16 milhões de combinações inerentes
ao RGB. Em resolução máxima (640 x 200), sua memória de 16 KB só
permitia exibição de 2 cores simultâneas. Para exibição de mais cores, era
necessário reduzir a resolução, exibindo a imagem com menos pontos.
Como exemplo: uma resolução de 320 x 200 permitia exibir até 4
cores simultâneas.

5.3.2.3 Outros padrões intermediários


Resgatando a qualidade superior para exibição de caracteres com 9 x
14 pontos e apresentando imagens no modo gráfico, a Interface Hércules
permitia uma resolução total de 720 x 350, porém necessitava de controlador
específico. Com ROM própria para controle de resolução e cores, surge
também a Interface EGA, com resolução de 640 x 350 pixels e caracteres no
formato 8 x 14. Com ela, surge o primeiro monitor de vídeo que permitia
diferentes resoluções (até então o monitor de vídeo trabalhava na mesma
resolução fixa do adaptador): o NEC Multisync.

5.3.2.4 Padrão VGA


Lançado em 1987, também pela IBM, com memória de 256 KB o
padrão VGA (Video Graphics Array – Matriz Gráfica de Vídeo) permite uma
resolução máxima de 640 x 480 pixels e 16 cores simultâneas, ou 256 cores
simultâneas de uma palheta de 262.144 (256 k) cores.

5.3.2.5 Padrão SVGA


Os padrões imediatamente anteriores já sugeriam um novo
comportamento: resoluções e número de cores variáveis. Surgia o padrão

– 102 –
Dispositivos de Entrada e Saída

SVGA (Super Video Graphics Array – Super Matriz Gráfica de Vídeo).


Cada fabricante lançava no mercado suas placas com chips e módulos de
memória específicos. Essa flexibilidade trazia consigo um problema: como
os sistemas e aplicativos gráficos iriam ter conhecimento do funcionamento
específico do equipamento de cada fabricante? Os fabricantes de adaptadores
de vídeo formaram então a VESA (Video Electronics Standards Association –
Associação de Padrões de Eletrônicos para Vídeo). A associação definiu então
padrões para exibição de vídeo, quando surge então o conceito de driver
(controlador) de vídeo. Os adaptadores SVGA atuais exibem naturalmente
vídeos no padrão RGB com 16 milhões de cores simultâneas e resoluções
(limitadas pelos monitores de vídeo) que vão desde os modestos 640 x 480, até
ultrapassarem, em muito, o padrão de vídeo de alta definição Full-HD (Full
High Definition – Alta Definição Completa), que trabalha com resolução de
1920 x 1080 pixels.

5.3.3 Monitores de vídeo


Independente da tecnologia empregada (CRT, LCD, LED, etc.), todos
os monitores são iguais sob um aspecto: apresentar conteúdo gráfico por meio
de uma matriz de pontos. O que muda entre eles é justamente o material
utilizado na formação desses pontos.

5.3.3.1 Monitor de CRT


O monitor de CRT (Cathode Ray Tube – Tubo de Raios Catódicos)
está presente desde os primeiros PCs. Seguindo a mesma linha dos televisores,
esse tipo de monitor (também conhecido como monitor de tubo) leva
esse nome justamente porque a imagem é formada pela projeção de raios
catódicos dentro de um tubo de vácuo. Este tubo é, na realidade, uma espécie
de cone, em que a base é retangular, consistindo a superfície no lugar em
que a imagem é formada. Essa base é revestida internamente com fósforo. O
fósforo é um elemento que, quando estimulado por elétrons, brilha. Dessa
forma, um canhão é colocado na ponta do cone, oposta à base, projetando
elétrons na camada de fósforo e estimulando-os, assim formando a imagem
que é observada no exterior do tubo. O acionamento do canhão é feito,
evidentemente, por componentes montados em uma placa de circuitos
eletrônicos. Veja o esquema de um monitor CRT na figura 12.

– 103 –
Fundamentos da Informática

Figura 12 – O funcionamento de um monitor de CRT.


TELA DE
FÓSFORO

CÁTODO

FEIXE DE
ELÉTRONS
CANHÃO DE
ELÉTRONS
REVESTIMENTO
CONDUTOR
MÁSCARA
DE SOMBRA

Os primeiros monitores de CRT eram monocromáticos, ou seja, toda


a superfície interna do tubo recebia a mesma cor de fósforo. Porém, eles
eram comercializados em diferentes cores de fósforo (verde, âmbar, branco,
etc.). Em modelos coloridos (assim como os televisores), mais modernos, a
imagem é formada através da emissão de três raios catódicos independentes
para estímulo de cada cor independente da tríade.

5.3.3.2 Monitor de LCD


O monitor de LCD (Liquid Crystal Display – Display de Cristal
Líquido) é um dos primeiros e mais populares modelos de monitores flat
(chato, um termo que diz respeito à espessura/profundidade do monitor).
Funciona basicamente pelo estímulo elétrico de cristais líquidos em
fase nemática, que é a fase em que podem ser alinhados quando recebem
estímulo. O display é construído na forma de um sanduíche de vidro com os
cristais líquidos entre eles. Com o auxílio de um filtro polarizado, conforme o
estímulo que recebem, os cristais podem mudar seu alinhamento, permitindo
ou impedindo de forma parcial ou total a passagem de luz por entre eles.
Baseando-se por esse princípio, os cristais são dispostos em uma matriz de
pontos e o display é retroiluminado, ou seja, uma fonte de luz constante
é colocada por trás do vidro. Assim, conforme o estímulo que os cristais
recebem, mudam-se os níveis de passagem de luz em cada um dos pontos e a
imagem é formada.

– 104 –
Dispositivos de Entrada e Saída

A condução de eletricidade para estimular os cristais pode ser feita de


diversas maneiras, sendo que define o tipo de LCD: matriz passiva, matriz
ativa, também chamada de TFT (Thin Film Transistor – Transístor de Filme
Fino), ou ainda IPS (In-Plane Switching – Comutação em Plano) que é a
mais utilizada desde 2010.
Veja na figura 13 um esquema de funcionamento de um display LCD.
Figura 13 – O funcionamento de um monitor de LCD.
Polarizador Filtro Colorido
Painel de vidro Polarizador

Cristal
Líquido

verde
Retroiluminação
(luz branca)

TFT + Eletrodo Eletrodo

Assim como os monitores CRT, os primeiros displays de LCD


também eram monocromáticos e depois evoluíram para apresentação de
imagem colorida.

5.3.3.3 Monitor de plasma


Neste tipo de monitor, a imagem é formada por micro câmaras de gás-
plasma. Cada ponto da matriz é uma câmara de gás que, quando recebe
um estímulo de alta voltagem, ioniza o gás, transformando-o em plasma e
acendendo o ponto para formação da imagem. Portanto, diferente do LCD,
no qual o cristal controla a passagem de uma outra fonte de luz, aqui o ponto
é a própria fonte de luz.

– 105 –
Fundamentos da Informática

Apesar de apresentarem um contraste maior na formação da imagem,


monitores de plasma costumam consumir bem mais energia do que LCDs
e, por isso, raramente são empregados em computadores portáteis. Outra
desvantagem deste tipo de monitor é o chamado efeito burn-in: quando um
ponto da tela fica aceso por um longo período de tempo, ele pode queimar,
fazendo com que o display fique “marcado” naquela região, ou seja, os pixels
da região ficam levemente escurecidos.

5.3.3.4 Monitor de LED LCD


Quando lançados no mercado, talvez por questões de marketing, os
monitores LED LCD eram chamados monitores de LED. Se assim fossem,
cada pixel da matriz deveria ser formado por três LEDs com as cores da tríade
para formação da imagem. Mas a realidade é que não existe comercialmente
monitor fabricado dessa forma. O que há disponível, de fato, são monitores
de LCD cuja retroiluminação é feita por LEDs brancos, proporcionando
maior contraste (e melhor imagem) do que os LCDs convencionais, os quais
possuem iluminação feita por lâmpadas fluorescentes.

5.3.3.5 Conexões
Os primeiros monitores CGA utilizavam conectores de 9 pinos, chamados
D-shell, para serem acoplados às interfaces de vídeo. Com a introdução do
padrão VGA, passou-se a utilizar os conectores D-shell de 15 pinos, sendo
que este tipo de conector é até hoje mencionado como conector VGA. Ambos
os conectores referem-se à transmissão analógica dos sinais para o monitor.
Monitores flat trouxeram consigo o aumento do uso de cabos e conectores
para transmissão digital. O primeiro padrão de conexão digital para uso em
monitores foi o DVI (Digital Visual Interface – Interface Visual Digital).
Concebido para transmitir sinais digitais, também permite, em algumas
variantes, a transmissão de sinal analógico, oferecendo compatibilidade
com o conector VGA. Por último, e mais utilizado atualmente, é a interface
HDMI (High Definition Multimedia Interface – Interface Multimídia de

– 106 –
Dispositivos de Entrada e Saída

Alta Definição). Este último tipo transmite sinais digitais de áudio e vídeo,
com diferentes especificações de velocidade, que vão desde 25 MHz até 340
MHz. Veja na figura 14 essas conexões.
Figura 14 – Conexões d e vídeo para monitores de PCs.

Fonte: Evando Zatti


5.3.4 Imagem 3D e placas aceleradoras
Uma imagem armazenada em três dimensões quando é apresentada
em um monitor comum precisa passar por um processo conhecido como
renderização, ou seja, são realizados os cálculos necessários para tornar a
imagem planar, sob um determinado ângulo de observação, para a geração da
imagem em duas dimensões. Este é um processo computacional complexo,
que demanda uma carga pesada de processamento e memória.
A mesma técnica de formação de imagens vetoriais é utilizada para criação
de modelos tridimensionais. A diferença é que os polígonos que formam as
superfícies tendem a ser menos complexos e são dispostos espacialmente
considerando-se os eixos X, Y e Z. O processo de formação de uma imagem
por diversos polígonos é chamado de tessellation (tesselação), e o resultado,
ou seja, o conjunto desses vários polígonos é conhecido como mesh (malha).
As superfícies destes polígonos podem ser preenchidas com cores sólidas
(única cor) ou com texturas (imagens bitmap). Efeitos de material e luz
também podem ser aplicados, sendo que o nível de realismo de uma imagem
está diretamente relacionado à qualidade da textura e iluminação. A figura 15
apresenta um exemplo deste processo.

– 107 –
Fundamentos da Informática

Figura 15 – Uma imagem vetorial em três dimensões.


FRONTAL

Fonte: Michael Pizzatto Bahr


LATERAL

wireframe sombreado texturizado

Gabriel Torres (1999) sugere que o processo de cálculo para exibição


de uma imagem tridimensional é dividido em duas fases principais: cálculo
geométrico e renderização. De fato, mesmo que se tenha um ambiente
completo desenhado em 3D, é necessário saber o que irá aparecer no monitor
de vídeo antes mesmo de tornar a imagem planar para exibição. Conhecer
previamente essas fases é importante, pois as diferentes placas gráficas 3D
comercializadas trabalham de forma diferente com as fases.
O cálculo geométrico consiste de:
22 Cálculo da cena: quais objetos estão presentes na cena;
22 Transformação: conversão da informação 3D em 2D;
22 Iluminação: reflexão, intensidade, cor, direção, sombreamento;
22 Setup: posicionamento dos triângulos;
22 Corte (clipping): parte dos polígonos que será visualizada.
Já o processo de renderização prevê:
22 Mapeamento de textura: aplicação de bitmaps sobre os polígonos;
22 Filtragem bilinear, trilinear e anisotrópica: elimina o efeito poligo-
nal gerado pela triangulação do objeto;
22 Sombreamento plano e gouraud;

– 108 –
Dispositivos de Entrada e Saída

22 Combinação do canal alfa (alpha blending): transparência;


22 Névoa (fogging);
22 Suavização de serrilhado (antialiasing);
22 Correção de perspectiva;
22 Mistura de cores (dithering): otimizar o número de cores;
22 Mapeamento MIP (Multum in Pavum – Muitos em Um): suaviza o
efeito “mosaico”, reaplicando a textura original em menores proporções;
22 Z-buffering: armazenamento em 3D (eixo Z).
Os fatores complexos inerentes ao processo de exibição de vídeo em
três dimensões fizeram com que os fabricantes se voltassem para soluções
separadas: aumentar a memória das placas de vídeo e embutir uma CPU
específica para realização dos cálculos destinados ao processo de processamento
de imagem, conhecida como GPU (Graphics Processing Unit – Unidade de
Processamento Gráfico).
Para facilitar o processo de comunicação entre os aplicativos e jogos
que utilizam as aceleradoras, existem alguns conjuntos de soluções prontas,
compostas por APIs (Advanced Programming Interface – Interface Avançada
de Programação) ou frameworks para serem utilizadas no desenvolvimento,
com pacotes de distribuição para posterior execução. Dentre os principais
podem ser citados:
22 OpenGL: originalmente criada pela Silicon Graphics como
IrisGL e posteriormente tendo seu código aberto, é uma API que
funciona com a maioria das placas aceleradoras atuais. Utilizada
mais por aplicativos do que jogos, atualmente encontra-se na
versão 4 e derivadas.
22 DirectX: coleção de APIs criada pela Microsoft para rodar jogos no
Windows 95, atualmente é a biblioteca mais utilizada para jogos
em PCs, sendo a versão 11 a mais atual.
22 Glide: merece ser mencionada por ter sido parte de um marco na
história das placas aceleradoras 3D, as placas Voodoo, da fabricante
extinta 3dfx. Era uma API proprietária para uso com aquelas pla-
cas, tendo sido substituída pelos padrões OpenGL e DirectX.

– 109 –
Fundamentos da Informática

22 XNA: é um framework de desenvolvimento da Microsoft, utilizado


para criação de jogos para a plataforma Windows e Xbox 360. É
dependente da runtime (pacotes para execução) do DirectX.

Da teoria para a prática


A NHK (principal emissora de TV japonesa) promete, para
2020, transmissões em UHD (Ultra High Definition – Ultra
Alta Definição). Pesquise sobre as resoluções de vídeo para o
padrão e comente sobre o termo “4K”.

5.4 Impressoras
O seção 5.3 falou dos teletipos, que apresentavam imagens em papel
antes mesmo da existência dos monitores. Os teletipos eram o que se pode
chamar de avós das impressoras. A impressora é o periférico responsável
por transferir a informação digital para o papel ou outro meio físico. Elas
podem ser dividas em dois grandes grupos: as impressoras 2D, ou seja,
aquelas que fazem a transferência do conteúdo para o papel (ou outro
material de única face), através da disposição de tinta (ou outra técnica de
impressão) em sua superfície; e as impressoras 3D, utilizadas para confecção
de moldes volumétricos.

5.4.1 Princípios da impressão digital


O funcionamento de uma impressora digital é simples: os dados são
transferidos do computador para a impressora através de uma conexão (paralela,
serial, etc.), utilizando uma linguagem específica. Um módulo eletrônico do
equipamento, composto por placas, processador e memória, recebe os dados
digitais e aciona os mecanismos que farão a impressão desses dados.
As primeiras impressoras utilizavam impacto em seu funcionamento,
da mesma forma que as antigas máquinas de escrever: os caracteres, forjados

– 110 –
Dispositivos de Entrada e Saída

em metal ou plástico, eram martelados contra uma fita de nylon contendo a


tinta e o papel apoiado no cilindro. Dessa forma, o desenho do caractere era
transferido ao papel. Este ato de pressionar o caractere contra a fita e conse-
quentemente a tinta sobre o papel sugere então a origem do termo imprimir.
A figura 16 apresenta a impressão por impacto.
Figura 16 – Impressão por impacto.
Papel

Fita

Caracteres forjados nas


extremidades das hastes

Martelo

Movimento do
mecanismo
de impressão

Total de 96
hastes de caracteres

Modelos posteriores deixaram o impacto de lado, porém o conceito básico


permanece o mesmo: transferir tinta para o papel. A transferência pode acontecer
basicamente de duas maneiras: caractere a caractere, quando há impressão de
conteúdo exclusivamente textual; e matriz de pontos (pixels), no caso de impressão
que envolva imagens ou outros elementos gráficos. Somente esta última técnica é
empregada atualmente e existem vários tipos de impressões por pontos, que serão
abordados ao longo deste capítulo.

5.4.1.1 Impressão em papel (2D)


A impressão do conteúdo em papel acontece por partes, através de um
processo contínuo. O papel passa por um cilindro, normalmente revestido de
borracha ou outro material aderente, que faz com que cada área do papel seja
“apresentada” ao mecanismo impressor. A passagem pelo cilindro garante que
o papel se mantenha estável e planar durante a impressão.

– 111 –
Fundamentos da Informática

Dependendo do tipo de mecanismo impressor, o cilindro pode girar de


forma suave e contínua, ou linha por linha (gira um pouco, espera a impres-
são daquela linha, gira mais um pouco, e assim sucessivamente).
Para melhor aproveitamento e configuração dos sistemas de impressão, o
papel segue tamanhos específicos utilizados pela indústria gráfica (Carta, A4,
A3, etc..), e pode ser apresentado na forma de folha individual ou formulário
contínuo, sendo que este último foi muito utilizado no passado para impres-
são de relatórios ou de notas fiscais em dupla via com papel carbono. Tam-
bém existe a impressão em bobinas (rolos) de papel (de largura bem menor
do que um papel A4), amplamente utilizada no meio comercial. A figura 17
apresenta um mecanismo típico de impressão em papel.
Figura 17 – Impressão em papel.
3 3 3
2
6
2
4
4
1 5 2 7
5
a b c
a) Hastes, b) Esfera, c) Roda; - 1. haste; 2. Fita de tinta; 3. Papel (impresso); 4. Cilindro;
5. Esfera (alfanumérica); 6.Martelo;7. Roda (alfanumérica).

5.4.1.2 Impressão em cores


Diversas impressoras oferecem opções de impressão em cor única
(normalmente preta) ou colorida. A impressão em cores é feita através da
combinação de algumas cores básicas. Esta combinação não obedece às cores
primárias estudadas no ensino fundamental, e também não segue o padrão
RGB utilizado em monitores. As cores utilizadas na impressão colorida seguem
o padrão CMYK – Cyan, Magenta, Yellow, blacK (Ciano, Magenta, Amarelo e
Preto). Veja o esquema da f5.4.1.3 Impressão 3D18, que mostra a combinação
para formação de algumas cores fundamentais no padrão CMYK.

– 112 –
Dispositivos de Entrada e Saída

Figura 18 – Esquema do padrão CMYK.

CYAN MAGENTA YELLOW BLACK


Cyan

Blue Green

blacK
Magenta Yellow
Red

Composição CMYK

O funcionamento da impressão em cores para alguns tipos de impressora


será abordado para cada impressora específica no item .

5.4.1.3 Impressão 3D
Enquanto as impressoras 2D aplicam pigmentação sobre uma superfície,
as impressoras 3D aplicam material sintético formando diversas “superfícies”,
ou seja: camadas. Dessa forma, é possível construir objetos que foram
projetados/desenhados digitalmente em três dimensões.
Os primeiros modelos de equipamentos com este objetivo surgiram no
início dos anos 80 do século XX, porém o termo “impressão 3D” surgiu
em 1995, no MIT (Massachusetts Institute of Technology – Instituto de
Tecnologia de Massachusetts), quando da criação do primeiro equipamento a
trabalhar com pó na formação das camadas e dos objetos.
Existem atualmente várias técnicas para criação das camadas
volumétricas, que vão desde polímeros plásticos, como o ABS (Acrylonitrile
Butadiene Styrene – Acrilonitrila Butadieno Estireno), até resinas líquidas e
ligas metálicas. A figura 19 apresenta o princípio da impressão 3D.

– 113 –
Fundamentos da Informática

Figura 19 – Impressão 3D.

Shutterstock.com/Giovanni Cancemi
5.4.2 Tipos de impressoras
Assim como a evolução dos monitores de vídeo, as impressoras mais
rudimentares permitiam apenas a impressão dos caracteres que estavam
forjados na cabeça dos martelos e, portanto, são conhecidas como orientadas
a caractere. Posteriormente, as impressões por matriz de pontos permitiram a
formação de imagens, chegando aos resultados de alta definição disponíveis.
A seguir, os tipos mais comuns de impressoras encontradas tanto no mundo
corporativo quanto para uso doméstico.

5.4.2.1 Impressoras margarida


Dentre os diversos equipamentos orientados a caracteres, a impressora
que mais se destacou em uso na época foi a impressora margarida
(daisywheel – roda de margarida). Ela levava esse nome porque os caracteres
que seriam impressos vinham dispostos em forma circular, lembrando a flor
margarida. Cada margarida continha o conjunto de caracteres com o tipo
do caractere e o tamanho pré-definido: Herald, Arial, etc. A margarida era
então encaixada na impressora para realização da impressão. A figura 20
apresenta um conjunto de caracteres em margarida.

– 114 –
Dispositivos de Entrada e Saída

Figura 20 – Margaridas de impressão.

Shutterstock.com/rawcaptured
5.4.2.2 Impressoras matriciais
Da mesma forma que, para os monitores, surgiu a necessidade
de apresentar conteúdo gráfico (fotos, diagramas, ...) além de apenas
caracteres, o mesmo processo aconteceu com as impressoras. A
transferência de imagens para o papel sugeria seguir a mesma ideia dos
monitores: imagens compostas por pontos dispostos em forma de matriz.
Desse conceito surgem as impressoras matriciais (dot matrix – matriz
de pontos).
Ao invés de caracteres previamente forjados para serem martelados,
criou-se um cabeçote de impressão contendo uma matriz de agulhas. Essas
agulhas, impulsionadas contra a fita de nylon e o papel, formam então a
imagem. A impressão acontece por linhas: o cilindro posiciona verticalmente
a área do papel que será impressa e um cabeçote percorre horizontalmente toda
a linha, pressionando as agulhas. Terminada a impressão da linha, novamente
o cilindro atua, girando e avançando verticalmente o papel, permitindo a
impressão da nova linha.

– 115 –
Fundamentos da Informática

A quantidade de agulhas dispostas na matriz de pontos do cabeçote


definem a qualidade e a velocidade de impressão. A figura 21 apresenta uma
impressora matricial típica e os tipos de cabeçotes matriz de pontos.
Figura 21 – Impressão matricial.

Shutterstock.com/burnel1
Cabeça de
impressão

7 Pinos 9 Pinos 18 Pinos 24 Pinos

Com o passar do tempo e o surgimento de novas tecnologias, as


impressões matriciais em folhas de tamanho comum (Carta, A4, Ofício)
foram sendo deixadas de lado, porém ainda é bastante presente a impressão
matricial em bobinas (rolos) de papel, para emissão de bilhete fiscal ou em
máquinas de autoatendimento bancário.
Ainda nesta “geração” de impressoras, surge a impressão colorida. A técnica
para impressão em cores é praticamente a mesma utilizada quando em uma
única cor, porém sendo repetida para as cores básicas que formam uma imagem
colorida. Portanto, para impressão em cores em uma impressora matricial são
necessárias não apenas uma, mas quatro fitas de nylon com as quatro cores
do padrão CMYK (normalmente comercializada como uma única fita com
as quatro cores dispostas longitudinalmente). Quando o cilindro posiciona o
papel para impressão de uma linha, o cabeçote passa quatro vezes nesta mesma
linha, sendo que, a cada passada, a impressora reposiciona a fita de nylon
com a cor que será impressa para a combinação. Poucos foram os modelos
de impressoras matriciais lançadas comercialmente: a pressão das agulhas e da
fita de uma cor contra o papel sujava tanto a fita quanto as agulhas durante a
impressão de uma cor, borrando a impressão da cor subsequente e o resultado
não era nada agradável.

– 116 –
Dispositivos de Entrada e Saída

5.4.2.3 Impressoras Jato de Tinta / Bolha / Cera


Como o próprio nome sugere, estas impressoras jorram (pequenos jatos)
tinta contra o papel para realizar a impressão. O funcionamento mecânico
é similar ao da impressora matricial: a impressão é feita por linhas, onde o
cilindro comanda o papel verticalmente e um cabeçote percorre a linha na
horizontal. Neste caso, o cabeçote não possui uma matriz de agulhas, mas
sim, uma matriz de minúsculos orifícios por onde a tinta será borrifada.
A impressão por jato de tinta é divida em três grupos: bubble jets (jatos
de bolha), piezo inkjets (jatos de tintas piezoelétricas) e phase-change inkjets
(em uma tradução livre: jatos de tinta que mudam de fase, conhecidas por
jato de cera). As primeiras, bubble jets, levam esse nome porque a tinta den-
tro do cabeçote é aquecida até uma temperatura em que ferve e forma uma
bolha a qual, ao estourar, sai pelo orifício projetando-se contra o papel. As
piezoelétricas são assim chamadas porque a tinta passa por cristais que, ao
receberem carga elétrica, “estufam” jorrando então a tinta para fora dos orifí-
cios e chegando ao papel. Por último, as impressoras de jato de cera utilizam,
ao invés de reservatórios de tinta líquida, bastões de cera que, ao passarem
pelo cabeçote são aquecidos, jorrados contra o papel e ao resfriarem voltam ao
estado sólido: a imagem formada por cera. A figura 22 apresenta o processo.
Figura 22 – Impressão por jatos de tinta.
Resistor de aquecimento Câmara de combustão

Shutterstock.com/luchschen

Bico de impressão

A composição das cores na impressora jato de tinta segue a mesma ideia


da matricial: o cabeçote passa quatro vezes na mesma linha. Porém, neste
caso, são quatro reservatórios distintos de tinta, com matrizes de orifícios

– 117 –
Fundamentos da Informática

também distintas para cada cor. Comercialmente, a maioria das impressoras


utiliza dois cartuchos de tinta: um preto e um colorido (sendo que o colorido
traz internamente as outras três cores). Esta divisão atende à maioria das
situações domésticas onde, ou se imprime um texto em preto, ou uma foto
em cores. Porém existem também impressoras que utilizam quatro cartuchos
distintos de cor, estas mais adequadas ao uso profissional.

5.4.2.4 Impressoras Laser


Nas impressoras laser, a “tinta” é um pó plástico: o toner. Este pó é
aquecido para aderir ao papel e então formar a imagem. A transferência deste
pó para o papel é a parte interessante do processo: originárias das fotocopia-
doras, as impressoras laser utilizam-se da reação de alguns materiais à luz.
Estes materiais (como é o caso do selênio) alteram sua condutividade elétrica
quando recebem incidência de luz; são chamados de fotocondutores.
O funcionamento do processo: a imagem é transmitida para o cilindro
(desenhada) através de raios laser. O cilindro, com superfície de material
fotocondutor, passa a atrair partículas onde recebeu a incidência do laser.
Neste momento, o toner é colocado em contato com o cilindro, aderindo a
ele e formando a imagem. O cilindro é então aquecido e, quando o papel
passa por ele, o toner adere ao papel. Uma vez no papel e resfriado, o toner
formou a imagem finalmente impressa. Evidentemente, a circunferência do
cilindro é o limite para o tamanho da impressão parcial da imagem. Assim,
em um movimento contínuo, o cilindro passa por um processo de limpeza
(removendo resíduos do toner) e o processo todo é repetido para a formação da
nova parcial. A figura 23 apresenta os elementos desse processo.
Figura 23 – Impressão laser.
3. Desenho da imagem

2. Carga do tambor
Shutterstock.com/Maksym Dykha

1. Limpeza

4. Transferência de toner

Papel

6. Fusão da imagem no papel


5. Transferência da imagem para o papel

Eliminador de estática

– 118 –
Dispositivos de Entrada e Saída

A impressão em cores em uma impressora laser é dispendiosa: uma vez


que não existe cabeçote de impressão, existem então quatro cartuchos de toner e
quatro cilindros distintos. O papel passa continuamente pelos quatro cilindros,
onde cada um vai imprimir a cor necessária para a composição da imagem.

5.4.2.5 Impressoras térmicas


As impressoras térmicas não possuem tinta ou qualquer pigmento: elas fazem
uso de papel específico. O papel possui a superfície sensível ao calor que muda
de branco para escuro na área aquecida. O cabeçote de uma impressora térmica
é semelhante ao de uma impressora matricial. A diferença é que a agulha apenas
esquenta, não exercendo impacto sobre o papel. A desvantagem deste tipo de
impressão é que os papéis especiais termossensíveis tendem a perder a impressão
com o passar dos anos: a parte escurecida pelo aquecimento volta a clarear,
“apagando” o que foi impresso. Este tipo de impressão foi bastante utilizado nos
antigos aparelhos de fac-símile (fax), sendo que atualmente é bastante utilizado nas
pequenas impressoras de recibos e cupons fiscais.

5.4.2.6 Outras impressoras


Existem outros tipos de impressoras para superfícies planas, tanto para uso
doméstico como uso comercial. Podem ser citadas, por exemplo, as impressoras
por sublimação (com funcionamento similar às impressoras jato de cera).

Da teoria para a prática


Pesquise sobre custos de suprimentos para impressoras (cartuchos de
tinta, toners) e, através de estudo comparativo, responda: conside-
rando aspectos como aplicabilidade, adequação ao uso, financeira-
mente, qual tipo de impressora compensa mais, jato de tinta ou laser?
O cenário é o mesmo tanto para uso doméstico quanto corporativo?

5.5 Aquisição de imagem


Tão importante quanto produzir papel com imagens digitais é
levar essas imagens para dentro do computador para que possam ser

– 119 –
Fundamentos da Informática

armazenadas ou aprimoradas. Enquanto as pessoas enxergam e entendem


o mundo em parte através das cores, para os computadores imagens são
meras sequências de dados numéricos. Esta seção apresenta os scanners
e as câmeras digitais, equipamentos que permitem a captura de imagens
analógicas para o meio digital.

5.5.1 Scanners
O termo scanner, que em uma tradução livre aplicada ao contexto
poderia significar “explorador, examinador, varredor”, indica justamente
sua função: explorar uma imagem analógica, segmento por segmento, para
levá-la ao meio digital. E, por conta disto, o termo no Brasil é adequado
como escâner e traduzido como digitalizador. Ainda que este termo bastante
genérico pudesse ser empregado para equipamentos que levassem ao meio
digital não só imagens, mas também sons ou outros elementos de qualquer
natureza analógica, ele é aplicado especificamente para o aparelho que
digitaliza imagens.
Os scanners utilizados com computadores pessoais são uma evolução
de antigos aparelhos de telefotografia e fax. Os primeiros equipamentos com
esse objetivo datam o início do século XX e utilizavam eletromagnetismo
na captura da imagem. Logo depois, passou-se a empregar fotocélulas no
processo, sendo que atualmente existem diversos tipos de sensores de luz para
a captura.

5.5.1.1 Elementos básicos


Para capturar as imagens do meio analógico para o digital, os scanners
fazem uso de milhares de sensores de luz dispostos em sequência. A seção
5.3 apresentou os princípios da imagem digital, e este princípios também
são aplicados aqui. A quantidade de sensores a cada polegada, ou a menor
distância que um sensor pode se movimentar para capturar um fragmento da
imagem irá definir a resolução óptica do equipamento.
Normalmente os scanners trabalham com resoluções conhecidas, que
iniciam em 300 dpi em equipamentos atuais, sendo oferecidos com resoluções
também de 600, 1200, 2400 dpi. Existem equipamentos profissionais com
resoluções superiores. A imagem, uma vez capturada, pode ser trabalhada

– 120 –
Dispositivos de Entrada e Saída

pelo software controlador do scanner e chegar a resoluções superiores, através


de técnicas de interpolação. Um scanner pode ter resolução óptica de 600 dpi
e ser oferecido comercialmente como sendo de 1200 dpi. Este último número
refere-se então à resolução interpolada, e que não representa a acuidade real
do equipamento.
Uma vez que os scanners são utilizados tanto para captura de fotografias
quanto documentos de texto, um termo genérico é empregado ao objeto de
varredura: original. Os primeiros modelos de scanners, por limitação de seus
sensores, só conseguiam captar imagens monocromáticas: o sensor conseguia
identificar as nuances luminosas da imagem, do claro para o escuro, porém
não a cor. Daí surge o termo grayscale (escala de cinzas), já discutido
anteriormente. Scanners monocromáticos são ainda bastante utilizados na
captura de originais em preto-e-branco. Modelos posteriores passaram a
incorporar diferentes sensores para os espectros de luz. Os scanners coloridos
seguem o já comentado padrão RGB: um sensor para fazer a medição dos
níveis de vermelho, outro para o verde e outro para o azul. As leituras são então
recombinadas pelo software controlador do equipamento para composição
de uma única imagem digital colorida.
Uma vez que esses níveis são representados numericamente para o
computador, a velocidade de aquisição de uma imagem depende da velocidade
dos motores de passo que comandam a varredura da imagem e da taxa de
transferência do barramento utilizado na conexão com o equipamento. A
acuidade da imagem capturada depende dos diversos tipos de scanner, vistos
a seguir, e da qualidade dos componentes empregados em sua fabricação.
Através de software específico, chamado de OCR (Optical Character
Recognition – Reconhecimento Óptico de Caracteres), é possível converter
um original digitalizado em informação textual para ser utilizada em um
editor/processador de textos.

5.5.1.2 Tipos de scanners


O primeiro scanner utilizado em computadores foi construído em
1957 e é utilizado até hoje: o scanner de tambor (drum scanner). A primeira
imagem capturada com o modelo original deste tipo de scanner foi uma
foto do filho de Russel Kirsch, coordenador da equipe que desenvolveu o
equipamento: uma imagem monocromática, com dimensões físicas de 5 x

– 121 –
Fundamentos da Informática

5 cm e digital de 176 x 176 pixels, o que sugere uma resolução óptica de


aproximadamente 69 dpi.
Este tipo de scanner utiliza PMT (PhotoMultiplier Tubes – tubos
fotomultiplicadores), detectores de luz ultrassensíveis, capazes de detectar luz
nos espectros do ultravioleta, luz visível e quase infravermelho. Pela qualidade
na captura de imagem e também o alto preço de sua fabricação, atualmente
o uso de scanners de tambor é restrito a aplicações profissionais de alto
nível, como a digitalização de documentos históricos ou outras imagens que
requeiram armazenamento em altíssima qualidade. A figura 24 apresenta um
modelo atual de scanner de tambor.
Figura 24 – Scanner de tambor.

Fonte: Shutterstock.com/Moreno Soppelsa

O sucessor do scanner de tambor foi o scanner de mesa (flatbed


scanner). Neste tipo de scanner, ao invés da imagem se movimentar diante
dos sensores, o contrário acontece: o original permanece fixo sobre uma
superfície de vidro, enquanto os sensores ficam posicionados em uma peça
móvel que desliza por baixo do vidro, fazendo a leitura da imagem. Também
o tipo de sensor nesse tipo de equipamento muda: são utilizados CCDs

– 122 –
Dispositivos de Entrada e Saída

(Charge-Coupled Devices – Dispositivos de Acoplamento por Carga),


que convertem a quantidade de luz recebida em carga elétrica armazenada
proporcionalmente em capacitores. A figura 25 apresenta o funcionamento
de um scanner de mesa com CCD.
Figura 25 – Scanner de mesa.

Original
Vidro

Lâmpada Espelho

Lente
Caminho da luz
Sensor CCD

Coletor de dados

Shtterstock.com/Mile Atanasov Para o computador

Outra técnica de medição de luz em scanners de mesa são os CIS (Con-


tact Image Sensor – sensor de imagem por contato), na qual são empregados
LEDs das três cores do padrão RGB para iluminar a imagem, enquanto a
captura é feita por um sensor monocromático. Desta forma são realizadas três
leituras do original, uma para cada cor.
Uma alternativa aos scanners de mesa, com a mesma tecnologia
de captura, porém com funcionamento físico diferente é o scanner de
mão. Ao invés de uma superfície de vidro para apoio do original, este fica
apoiado sobre uma superfície plana qualquer, com a face voltada para
cima, e o aparelho, com sensores na parte inferior, é deslizado manual-
mente sobre o documento. O uso dos scanners de mão foi bastante popu-
lar na década de 90 do século XX, pelo seu baixo custo em comparação
aos scanners de mesa. Atualmente ele é utilizado como alternativa portá-
til. Uma solução de baixo custo, porém com uma limitação: a velocidade
inconstante com que se desliza o aparelho sobre o original pode resultar
em uma imagem distorcida.

– 123 –
Fundamentos da Informática

Diante das soluções de reconhecimento biométrico, hoje o termo


scanner de mão gera ambiguidade: é utilizado para se referir tanto aos recém
citados equipamentos manuais de digitalização quanto aos equipamentos que
fazem leitura das impressões digitais da mão para acesso biométrico.

5.5.2 Câmeras digitais


As câmeras digitais têm funcionamento similar aos scanners: sensores
de luz capturam os níveis de cores da imagem e convertem em dados
numéricos. Porém, aqui existe uma diferença crucial: enquanto o scanner
faz gradualmente a leitura do original por partes, em uma superfície
estável, a imagem para uma câmera digital precisa ser lida integralmente,
em distância variável, e em uma fração de segundo. Tudo isso com a
pretensão de ser uma substituta da máquina fotográfica analógica, que
utiliza filmes.

5.5.2.1 Compressão
O armazenamento das imagens digitais em tamanhos e velocidades
maiores foi possível ao longo do tempo graças a técnicas de compressão.
Considere uma foto de 5 megapixels: se esta foto for armazenada sem
compressão, ela irá representar um arquivo digital de aproximadamente 15
MB (3 bytes por pixel no padrão RGB). Na época em que as máquinas de 5
megapixel surgiram, os cartões de memória SD (classe 2) atingiam velocidades
de 2 MB/s. Isto significa que uma imagem sem compressão levaria quase
8 segundos para ser armazenada neste cartão. Fato: para que fosse viável
a comercialização, somente com o uso de compressão. Uma imagem de 5
megapixel comprimida em formato JPG com qualidade média-alta fica com
tamanho aproximado de 1,5 MB, o que permite que ela seja armazenada em
um cartão SD antigo em menos de um segundo.
Evidentemente os cartões de memória evoluíram. Hoje os cartões
SD classe 10 atingem velocidades de até 10 MB/s. Cartões Compact
Flash Ultra (encontrados nas máquinas profissionais) chegam a gravar em
velocidades superiores a 150 MB/s. Com este tipo de cartão é possível o
armazenamento de até 10 imagens de 5 megapixels por segundo no modo
RAW (sem compressão).

– 124 –
Dispositivos de Entrada e Saída

5.5.2.2 Conexões
Uma vez que o cartão de memória pode ser removido para ser lido em
outros equipamentos, muitas câmeras nem fornecem conexões externas para
obtenção das imagens. Porém, a maioria dos fabricantes incorpora algum tipo
de conexão em seus modelos, tornando a câmera uma espécie de pen-drive,
que realiza leitura e gravação de dados nos cartões, comunicando-se com o
computador. Alguns equipamentos utilizam cabos e conectores específicos
para estabelecer a comunicação, porém o padrão de conexão mais utilizado
atualmente é o USB, variando apenas o tamanho da conexão embutida na
máquina: mini ou micro USB.

Da teoria para a prática


Pesquise sobre as mídias de armazenamento para câmeras digi-
tais e estabeleça critérios que elejam um dos modelos de cartão
de memória que poderia ser definido como o “melhor padrão”
e que deveria ser adotado por todas as câmeras.

5.6 Áudio
Desde os bips de alerta emitidos por um pequeno falante interno, pas-
sando pela execução de músicas em alta definição e chegando aos complexos
elementos sonoros de ambientação em um jogo digital, a emissão de som
é mais uma das diversas funções realizadas em um microcomputador. Esta
seção apresenta os elementos básicos para estudo do som e compreensão das
placas e interfaces de áudio presentes em um computador pessoal.

5.6.1 Som: do analógico ao digital


O som é uma sensação auditiva, ou seja, é algo que nossos ouvidos são
capazes de detectar. Essa sensação é produzida pelo movimento organizado de
muitas moléculas que compõem o ar. Ao estalarmos os dedos, por exemplo,

– 125 –
Fundamentos da Informática

provocamos uma perturbação (o surgimento de uma onda) que faz vibrar


o ar e se propaga até ser captada por nossos ouvidos, constituindo o que
chamamos de som. Essa perturbação propaga-se em movimento ondulatório
e, por isso, dizemos que o som se comporta como uma onda (propagação de
energia num meio, sem deslocamento de matéria).

5.6.1.1 Agentes
São três fatores distintos que produzem a sensação de som: deve haver o
agente produtor ou emissor das vibrações, como a campainha – ao ser tocada,
ela fará vibrar as moléculas de ar mais próximas; essas moléculas formam o
agente transmissor, pois chocam-se umas com as outras, fazendo com que o
som se propague na forma de ondas; as moléculas vibram na direção em que
o som se propaga e, por isso, essas ondas são chamadas longitudinais, assim,
elas chegam ao ouvido do agente receptor.

5.6.1.2 Características de uma onda sonora


O som é uma combinação de ondas emitidas tridimensionalmente
em diversas direções. Para simplificação e melhor entendimento de alguns
conceitos básicos, a figura 26 traz a representação gráfica de uma única onda.
Figura 26 – Propagação do som: elementos fundamentais.
Fonte: Evandro Zatti

Uma onda sonora pode variar em frequência, amplitude e formato.


Estes elementos são explicados a seguir, através de nomenclatura específica.
22 Tom: É o que permite distinguir grave de agudo, graças à frequên-
cia, ou seja, o número de oscilações da onda em um determinado
tempo. O som baixo é o som grave, pois sua frequência é baixa (não

– 126 –
Dispositivos de Entrada e Saída

confundir com o som de volume baixo, que é um som fraco, ou


seja, de amplitude baixa). O som alto é o som agudo, de frequência
alta (não confundir com o som de volume alto, que é um som forte,
ou seja, de amplitude alta). O ouvido humano é capaz de perceber
frequências entre 20 Hz e 20.000 Hz (20KHz).
22 Timbre: O timbre está ligado à forma da onda sonora e permite
distinguir dois sons do mesmo tom e intensidade. Sabe-se, por ele,
se uma nota musical vem do piano ou da flauta e identifica-se a voz
das pessoas. Os corpos vibram em diversas frequências, e a combi-
nação delas origina uma onda complexa.

5.6.1.3 Canais de som


Nas primeiras experiências de armazenamento de som ainda em formato
analógico, as músicas (ou sons) eram armazenadas em um único canal,
chamado monofônico. Com a sucessiva necessidade de se proporcionar mais
realidade e envolvimento ao se reproduzir um som, criou-se um segundo canal
para que se pudesse, através do aparelho reprodutor, transmitir a sensação de
localização e movimento para o ouvinte em relação ao som emitido.
Aos sistemas capazes de reproduzir tais canais, chamou-se de estéreo
(stereo). Com a evolução do cinema e grandes salas de teatro, o som estéreo
tornou-se insuficiente, dando lugar ao chamado som multicanal. A partir daí,
a quantidade de trilhas de áudio em som digital é identificada por um número
que indica a quantidade de caixas satélite (aquelas que são distribuídas no
ambiente) e a caixa de baixa frequência, o subwoofer. Por exemplo: um sistema
de som 5.1 possui 5 caixas satélites e 1 subwoofer, enquanto um sistema de
som 2.0 possui apenas 2 caixas (direita/esquerda) e denota um sistema estéreo.
Veja no item 5.6.2.5, deste capítulo, a disposição física desses canais.

5.6.1.4 Conversão de analógico para digital


Para que um som possa ser armazenado em meio digital, ele precisa
ser convertido para o formato digital, através de um processo chamado
sampling (amostragem).
22 Sampling: é o processo de captar momentos de um sinal analógico
em transformação (como pequenas “fotografias” digitais), convertê-

– 127 –
Fundamentos da Informática

Figura 27 – Scanner de mão. -los em sinal digital e corrê-los numa


sucessão contínua, reproduzindo-se,
dessa forma, o sinal original.
22Sampling rate: é a frequência

Fonte: Denis Dryashkin


(medida em Hertz) das fotografias
tiradas do sinal analógico. Quanto
maior for este número, mais perto
do original será a reprodução digi-
tal. Considerando-se que o ouvido
humano, como já foi mencionado,
percebe sons de frequências máximas próximas a 20 KHz, pode-
-se chegar à conclusão de que para se digitalizar um som, bas-
taria fazê-lo à frequência de 20 KHz, ou seja: 20 mil fotografias
por segundo. Porém, como explica o teorema da amostragem de
Nyquist–Shannon, para completa reprodução posterior de um
sinal analógico, este precisa ser digitalizado (“sampleado”) com o
dobro de sua frequência máxima, no caso: 44KHz. Por esse motivo,
aliado aos princípios de transmissão de vídeo analógico desde a
década de 70 do século XX, o sampling rate padrão definido pela
Sony e Philips, quando da criação do CD de áudio (veja a seção
4.5.4), é de 44,1KHz, ou seja, são tiradas 44.100 fotografias do
som por segundo.
22 Sample size: é o tamanho (medido em bits) da fotografia tirada
do sinal analógico. Quanto maior for o sample size (ou resolução,
em analogia às imagens digitais), melhor será a representação do
original. Um CD tem uma resolução de 16 bits, permitindo valores
entre -32.768 e +32.767 para o tamanho da onda.
Em uma abordagem simplificada, pode-se entender que o sampling rate
é a resolução horizontal da fotografia, enquanto o sample size é sua resolução
vertical. Em formatos de arquivos comprimidos, o sample size é apresentado
como bit rate (taxa de bits).
A figura 28 traz a representação de ondas sonoras em um trecho musical
em formato digital. À esquerda: a representação gráfica simples de uma única
amostra da onda, onde cada barra representa a amplitude do sinal de cada

– 128 –
Dispositivos de Entrada e Saída

frequência emitida; à direita: a representação em 3D de sucessivas amostras


da onda, ou seja, a execução contínua do som ao longo do tempo.
Figura 28 – Representação gráfica do sampling de uma música.

Fonte: Evandro Zatti


5.6.1.5 Compressão X bit rate
Como já foi mencionado, arquivos de áudio sobre os quais são aplicados
algoritmos de compressão consideram a quantidade de bits por amostra: bit
rate. O bit rate pode ser definido sob duas formas:
1. CBR (Constant Bit Rate – taxa de bits constante): o usuário ao
salvar um arquivo de áudio, opta por uma quantidade fixa de bits
que será utilizada igualmente para todas as amostras ao longo da
execução. São taxas de bits conhecidas: 32, 48, 96, 128, 160, 192,
256, 320 bps (bits por segundo).
2. VBR (Variable Bit Rate – taxa de bits variável): neste caso, o
programa responsável pelo arquivamento do áudio analisa as
frequências emitidas em cada amostra e utiliza a taxa ótima para
arquivamento. Por exemplo: o áudio de uma música “voz e violão” é
bem menos complexo (em termos de frequências e timbres emitidos)
do que a execução de uma obra sinfônica. A primeira poderia ser
armazenada com 128 bits e a segunda com 320. Ainda nesta mesma
linha, segundos de silêncio (ausência de som) podem ser gravados

– 129 –
Fundamentos da Informática

utilizando-se a taxa mínima: 32 bits. Um arquivo VBR, portanto,


possui várias resoluções diferentes das fotografias dos sons emitidos
ao longo de sua execução, reduzindo seu tamanho final.

5.6.1.6 Formatos de áudio digital


Os arquivos de áudio digital podem comportar um ou mais canais de
som, compactados ou não. Dentre os formatos conhecidos, encontram-se:
22 PCM (Pulse Code Modulation – Modulação por Código de Pul-
sos) – 44,1 KHz/16 bits – é o formato utilizado em CDs de áudio,
para o qual não é aplicado nenhum algoritmo de compressão.
22 MP3 (Motion Picture Experts Group Layer III – Grupo de
Experts em Figura em Movimento de Camada III) – é o formato
de arquivo com codificação mais difundido atualmente. Seu
sampling size (bit rate) pode ser de valor fixo ou variável,
ficando ao usuário a escolha para um melhor resultado:
tamanho/qualidade.
22 WMA (Windows Media Audio – Mídia do Windows® para Áudio)
– com características similares ao MP3, é o formato proprietário da
Microsoft® para armazenamento de áudio digital.
22 AAC (Advanced Audio Compression – Compressão de Áudio
Avançada) – baseado no MP3, é o formato mais difundido para
armazenamento de áudio multicanal.
Existem vários outros formatos menos ou mais difundidos, porém todos
buscam armazenamento de áudio com qualidade superior e tamanho de
arquivo menor.

5.6.2 Dispositivos de áudio


Os dispositivos de áudio têm como principal objetivo converter os sinais
analógicos (ondas) de som em dado digital. Esta conversão acontece em dois
sentidos: na captação do som, em que o microfone vibra, levando dados
eletromagnéticos ao dispositivo de captura e na emissão do som, em que os

– 130 –
Dispositivos de Entrada e Saída

dados digitais precisam ser convertidos em vibração para propagação pelo


falante. O processo é puramente mecânico em ambos os sentidos.

5.6.2.1 Sistemas básicos de som e gerador de tom


O gerador de tom é aquele componente responsável pela emissão dos bips
de alerta, através de um pequeno falante interno ao PC. Seu funcionamento
básico é praticamente o mesmo do clock de um microprocessador: emitir uma
sequência de pulsos em determinada frequência. A emissão desta frequência é
feita através do liga/desliga de voltagem elétrica. A diferença é que os tons são
gerados em frequências bem inferiores ao do clock, pois precisam ser audíveis
pelo ouvido humano. O formato de onda emitido por este dispositivo é sempre
quadrado, dada a característica do projeto do PC, e independente da frequência
emitida, o volume (amplitude) é sempre o mesmo. Vale lembrar que é um
som monofônico, e a saída gerada pelo chip é muito fraca. Portanto, recebe
um chipset auxiliar para ser amplificada: um amplificador simples, apenas
com o intuito de tornar o som audível e filtrar algumas ondas desnecessárias.
O speaker (alto-falante) tem um conector específico padronizado para ser
encaixado na placa mãe. O conector possui 4 furos, porém utilizam-se apenas
2 e um deles é selado (ao mesmo tempo em que o pino correspondente na
placa é cortado) para encaixe correto (figura 29).
Figura 29 – Speaker interno de um PC.
Fonte: Evandro Zatti

Ao longo do tempo, algumas melhorias foram implementadas ao sistema


gerador de tons, inclusive permitindo a execução de sons complexos nas primeiras
versões do sistema operacional Windows®. Porém, diante das limitações técnicas e

– 131 –
Fundamentos da Informática

físicas, o gerador de tons está longe de ser considerado um sistema de sons, dando
lugar a placas e chips dedicados, chamados de placas de som.

5.6.2.2 Placas de som


As placas de som surgiram para atender à necessidade de emissão de sons
de alta qualidade. Em meados dos anos 90 do século XX eram comercializadas
com o que se chamava de kit multimídia: uma placa de som, um CD-ROM
e um conjunto básico de caixas acústicas (por vezes o kit também incluía
microfone). Os primeiros modelos de placa de som não visavam, entretanto,
aplicações multimídia ou jogos. Foram criados nos anos 80 do século XX,
especificamente para trabalhar com software de música. Além de executarem
sons digitalizados, possuíam função de sintetizador e, dessa forma, conseguiam
reproduzir sons que contemplavam múltiplos instrumentos musicais. Os
principais fabricantes (Ad Lib e Creative Labs) utilizavam o mesmo chip em
suas placas: Yamaha YM3812 (também conhecido como OPL2), antes mesmo
da existência do Windows ou adoção de padrões.

5.6.2.3 Interface MIDI


Por permitir a execução de sons sintetizados, nada mais lógico do que
incorporar às placas de som a interface MIDI (Musical Instrument Digital
Interface – Interface Digital para Instrumento Musical), uma interface
padrão, criada na década de 70 do século XX para permitir a interconexão de
diversos sintetizadores de diferentes fabricantes. A maioria das placas de som
das décadas de 80 e 90 do século XX trazia uma interface MIDI utilizando
conexão DIN 5/180º (figura 30).
Figura 30 – Placa de som com interface MIDI.
Fonte: Evandro Zatti

– 132 –
Dispositivos de Entrada e Saída

5.6.2.4 Padronização
Pela mesma dificuldade encontrada com padronização nas placas
de vídeo antes da criação do consórcio VESA (veja capítulo 5), uma das
principais desenvolvedoras de jogos para PCs (A Sierra), resolveu investir para
incentivar uma padronização: além do Yamaha OPL2 também foi incluso o
Roland MT-32. Estava instituído o padrão que seria adotado por diversos
fabricantes a partir de então.
Em sua função mais básica, uma placa de som pode tanto capturar
quanto reproduzir som digital. Tanto a captura quanto a reprodução nos
modelos iniciais da década de 90 do século XX, seguiam as especificações de
som dos CDs de áudio: 44,1 KHz a 16 bits.
Em 1997, a Intel resolve criar um padrão de codec (codificador/
decodificador) para execução de som digital, contemplando vários canais e
sampling rate de 48 KHz: o Audio Codec ‘97, mais conhecido como AC ’97.
Esse padrão seria adotado a partir de então pela maioria dos fabricantes de
placas mãe que incorporavam funções de placa de som (on board).
Atualmente, fabricantes renomados, como a Asus e a MSI, incorporam
chipset AC’97 em suas placas mãe, permitindo a execução de áudio em até 8
canais (configuração 7.1). A Creative Labs continua comercializando diversos
modelos de placas de som internas e também modelos externos com conexão
USB. Outros fabricantes possuem também modelos com drivers próprios ou
que seguem os principais padrões.

5.6.2.5 Conexões e caixas acústicas


Para levar o som na sua forma nativa (digital) ou convertido para analógico
às caixas acústicas (speakers) ou outros equipamentos, as placas de som possuem
algumas conexões padronizadas. Atualmente as conexões analógicas são feitas
através de conectores chamados minijack de 3,5 mm de diâmetro (o mesmo
tipo de conector encontrado na maioria dos fones de ouvido). As conexões são
indicadas por ícones e cores. A exceção fica por conta da saída de áudio digital,
que em alguns modelos é feita através de uma conexão coaxial do tipo RCA, e em
outros é através de saída óptica. A figura 31 apresenta uma interface de conexão
padrão 7.1 e a disposição das caixas acústicas para esta configuração.

– 133 –
Fundamentos da Informática

Figura 31 – Placa e sistema de som 7.1 (8 canais).


Esquerdo Direito

Central
Sub 00 22
0

Microfone 0
30
Entrada de linha

Frontal Esquerdo / Direito


e fone de ouvido

Central + Subwoofer

Surround Esquerdo / Direito


Surround Surround
(Esquerdo) 0 (Direito)
Traseiro Esquerdo / Direito 90

0
0
110
135
Surround 0
Surround
Traseiro 150 Traseiro
(Esquerdo) (Direito)

Da teoria para a prática


Você provavelmente tem em seu computador pessoal arquivos de
música no formato mp3. Procure na internet algum aplicativo gratuito
de conversão de formatos que trabalhe com arquivos mp3 e, para
uma pequena amostra (entre 10 a 20 arquivos), localize os que
tiverem bitrate constante (CBR) e altere para bitrate variável (VBR),
verificando ao final qual o ganho total em espaço de armazenamento.

Conclusão
O computador precisa receber dados para processar e gerar informações
de saída. O usuário o alimenta com dados através dos dispositivos de entrada.
O teclado é a forma mais básica de interação com o PC, porém dispositivos
apontadores e de reconhecimento de voz há muito estão presentes para
complementar essa tarefa.

– 134 –
Dispositivos de Entrada e Saída

Para atender ao ciclo clássico “Entrada-Processamento-Saída”, o


computador precisa externar os dados processados. Isso é feito através de
dois componentes principais: a placa de vídeo e o monitor. As características
técnicas da placa de vídeo irão permitir a apresentação de conteúdo simples,
como o texto, ou complexos cenários 3D com efeitos de iluminação e
textura. O monitor, por sua vez, é o mais próximo do usuário nessa cadeia
de informação visual: é onde o usuário literalmente vê a atividade que está
desempenhando no PC.
Além do monitor, outra forma de visualizar o que está sendo feito no PC
é com o uso da impressora. Os primeiros sistemas de computação externavam
a informação diretamente para o papel. O monitor veio depois. Atualmente,
em um cenário que prima por comportamento ecológico adequado, imprimir
é uma opção. E a impressão pode ser feita de diversas maneiras, sendo a tinta
e o toner os dois principais vilões das árvores.
Mesmo não tendo o objetivo de controlar o PC, os dispositivos de
aquisição de imagem também são dispositivos de entrada. Uma imagem, para
adentrar o computador, precisa passar por um processo de digitalização, que
acontece através de sensores, que convertem luz em informação digital. O
scanner e a câmera digital são os principais equipamentos para esse fim.
Ouvir música é uma das atividades mais desempenhadas em um PC,
como hobbie, é claro. Conhecer elementos que caracterizam uma música
sob o ponto de vista sonoro é importante para correta escolha na gravação
dos arquivos de áudio digital e da configuração do equipamento de som. Da
conversão do arquivo digital de áudio para a propagação analógica da onda
sonora, o processo envolve os formatos de arquivo, qualidade do áudio, placa
de som e falantes.

– 135 –
6
Placa mãe e integração
dos componentes de
Hardware

Chegou o momento de montar o quebra-cabeça: com o


entendimento das diversas partes que fazem um microcomputador
funcionar, este capítulo apresenta o funcionamento de uma placa
mãe e os componentes específicos que são responsáveis pela
integração das partes. Também aqui são vistos os elementos que
permitem classificar as diferentes placas mãe.
Fundamentos da Informática

6.1 Funções e componentes


A função de uma placa mãe é integrar os diversos componentes
estudados até então: processador e memórias, através do barramento local e os
periféricos, através dos barramentos de expansão. O conjunto é composto de
componentes que são fixados (soldados) no circuito impresso, a exemplo dos
chips de áudio e vídeo, e outros que permitem a conexão com componentes
que são encaixados, como é o caso do microprocessador e dos pentes de
memórias. Essa versatilidade permite que sejam conectados processadores e
memórias de diferentes velocidades e capacidades.

6.1.1 Chipset
Evidentemente essa versatilidade tem limite: assim como carros
fabricados sobre uma mesma plataforma podem compartilhar peças, nem
sempre é possível aproveitar peças em diferentes plataformas. No caso dos
microcomputadores, é necessário que essas peças sejam compatíveis com o
chipset da placa mãe. O chipset (conjunto de chips) é responsável por permitir
que as partes interajam. Nas placas mães mais antigas, os chipsets eram
espalhados pela placa. Atualmente uma placa mãe é dividida em dois chipset:
north bridge (ponte norte) e south bridge (ponte sul). Também conhecido
em sistemas Intel como MCH (Memory Controller Hub – Concentrador
Controlador de Memória), o chipset northbridge (ponte norte) é responsável
por gerenciar a comunicação entre a
Figura 1 – Chipsets.
CPU, memória RAM e barramentos de
CPU alta velocidade (AGP e PCI Express);
o chipset southbridge (ponte sul), por
sua vez, é responsável por controlar os
barramentos PCI e ISA (já obsoletos),
Northbridge
os controladores de HD (ATA/IDE e
AGP RAM

SATA) e as portas paralelas, PS/2 e seriais,


incluindo USB. A figura 1 apresenta um
Southbridge diagrama contemplando essas conexões.
PCI LEGACY O modelo do chipset indica o clock
USB BIOS do processador, especificações (tipo,
ISA IDE
velocidade e quantidade de pentes) das

– 138 –
Placa mãe e integração dos componentes de Hardware

memórias, a velocidade máxima entre os barramentos, dentre outros elementos


básicos que compõem o conjunto. Por exemplo: o chipset Intel® Z77 Express
permite a conexão entre processadores Intel Core de última geração, USB
3.0, interface PCI Express 2.0, dentre outras várias especificações.

6.1.2 Soquete
Outro componente, que também define a escolha e classificação de uma
placa mãe, é o socket (soquete). É um encaixe plástico onde o processador
é acoplado. O número que acompanha o modelo do soquete normalmente
indica a quantidade de pinos para o qual ele foi projetado. Por exemplo: uma
placa com soquete Intel® LGA 1155 aceita microprocessadores com 1155
pinos. Existem dois tipos de encaixe em soquetes: PGA (Pin Grid Array –
Matriz de Grade para Pinos), em que o soquete possui furos para encaixe
dos pinos do processador; e LGA (Land Grid Array – Matriz de Grades para
Superfície), no qual o soquete possui pinos para encaixe do processador, que
por sua vez possui os contatos planos em superfície.

6.1.3 Slots de memória


Os slots de memória são encaixes plásticos para que sejam acoplados os
pentes (módulos) de memória DRAM.

6.1.4 Slots de expansão


Estão diretamente relacionados com o barramento de expansão (PCI,
AGP, PCIe, ...): são encaixes plásticos que permitem o acoplamento de
placas de expansão, como placas de vídeo, som, e diversas controladoras
de periféricos.

6.1.5 Conectores e portas de dados


São diversos os conectores e portas disponíveis em uma placa mãe.
Desde os conectores SATA e IDE/ATA, onde são ligados os HDs, até as
portas para conexão de plugues: PS/2 (teclado e mouse), USB (diversos
periféricos), Firewire, entre outras. Além dessas portas, uma vez que a maio-

– 139 –
Fundamentos da Informática

ria das placas mãe atuais oferecem recursos onboard (LAN, Audio, etc.),
a conexão para esses recursos é feita através de um painel único de tama-
nho padrão, chamado de I/O Connectors Panel (Painel de Conectores de
Entrada e Saída).

6.1.6 Conectores do gabinete


A placa mãe possui conexão com alguns componentes do gabinete,
alguns que fornecem informação ao usuário, outros que permitem ao usu-
ário interagir com a placa. É o caso das luzes indicadoras (LEDs) de ativi-
dade dos HDs, botões de switch (liga/desliga) e reset (reinicialização), ou
mostradores (displays).

6.1.7 Fixação
A placa mãe precisa ser fixada ao gabinete (detalhes na seção 6.4). Para
tanto, as placas recebem perfuração em pontos específicos de sua superfície,
seguindo padrões que são atendidos pelos gabinetes.

6.1.8 Alimentação
A placa mãe e os componentes a ela acoplados precisam ser alimentados,
ou seja, receber corrente elétrica. Atualmente o padrão utilizado em fontes e
gabinetes para intera-
Figura 2 – Componentes de uma placa mãe ção com a placa mãe
CONECTORES
SOQUETE DO SLOTS DE
PROCESSADOR MEMÓRIA DDR é o ATX (Advanced
DE RESFRIADORES
CONECTOR DE
ALIMENTAÇÃO ATX
Technology eXtended
CHIPSET
PONTE NORTE BATERIA CONECTORES
– Tecnologia Avan-
(com dissipador) DA CMOS SERIAL ATA
çada Estendida). Há
CHIPSET
CONECTOR
PONTE SUL também o encaixe
(com dissipador)
PS/2 para a bateria (ou
CONECTORES
DO GABINETE
pilha) que mantém
PORTAS
CONECTORES
as informações da
USB 3.0
USB CMOS (Comple-
PORTAS
E-SATA
SLOTs PCI EXPRESS
mentary Metal-Oxide
PORTA
PORTAS
USB 2.0
Semiconductor –
LAN CONECTORES
DE AUDIO 7.1
SLOT PCI Semicondutor Metal-

– 140 –
Placa mãe e integração dos componentes de Hardware

-Óxido Complementar). A figura 2 apresenta uma placa mãe com a identifica-


ção dos componentes mencionados neste capítulo.

6.2 Histórico e evolução


Desde os primeiros IBM PCs, as placas mães sofreram constante evolução,
sempre acompanhando a evolução do microprocessador. Até hoje, o principal
componente que define a aquisição de uma máquina é o microprocessador e,
portanto, o principal elemento que também define a evolução de uma placa
mãe é o tipo de processador para o qual ela foi projetada.
A classificação de uma placa mãe pelo tipo de processador é sempre
estabelecida através do seu soquete de CPU. Sendo o microprocessador um
dos componentes mais caros, sua troca/atualização já era prevista desde a
fabricação de placas mãe para os PCs baseados em processador Intel 80386.
Porém, somente a partir dos PCs 486 é que se criou um padrão para encaixe
de processadores, ou seja, um padrão para os soquetes, pelos quais as placas
mãe passaram a ser identificadas.
O quadro 1 apresenta um histórico com alguns dos principais soquetes
e suas características.
Quadro 1 – Soquetes de CPU.

Nome do Processador Quantidade


Imagem Observação
soquete / [ano] que suporta de contatos
É o primeiro padrão
Socket 1 de soquete, criado
Intel® 486
169 para os processadores
[1989] e derivados.
486 e derivados,
operando em 5 volts.
Uma evolução do socket
1, também para 486,
Socket 2 Intel® 486 permitia a conexão de
238
[1990] e derivados. alguns processadores
Pentium, também
operando em 5 volts

– 141 –
Fundamentos da Informática

Nome do Processador Quantidade


Imagem Observação
soquete / [ano] que suporta de contatos

Intel® 486 Mais uma variação


Socket 3 e derivados; de soquete para 486,
237
[1991] Intel® porém com opção
Pentium. de 5 ou 3,3 volts.

Criado para uso


Socket 4 Intel® com processadores
Pentium 60 273 Pentium, a voltagem
[1992] e 66 MHz. alta (5 volts) causava
superaquecimento.

Socket 5 Intel® Projetado para os


Pentium 75 320 novos Pentium
[1992] a 133 MHz. de 3,3 V.

Evolução do socket
3, não chegou a ser
Socket 6 usado, pois foi projetado
Intel® 486. 235 para processadores
[?] 486 em uma época
em que os Pentium
dominavam as vendas.
Além dos
processadores Intel
Pentium, aceitava
Socket 7 Intel® os similares da
321
[1994] Pentium. concorrente AMD:
K6. Operava com
voltagens entre
2,5 e 3,3 volts.

– 142 –
Placa mãe e integração dos componentes de Hardware

Nome do Processador Quantidade


Imagem Observação
soquete / [ano] que suporta de contatos
Rapidamente
abandonado para dar
Socket 8 Intel® Pen- lugar aos slots de
487
[1995] tium Pro. encaixe do Pentium II.
Operava com voltagens
entre 3,1 e 3,3 volts.
Substituto dos slots de
encaixe, uma vez que
Intel® a Intel voltou atrás na
Socket 370 Celeron; decisão de utilizar slots
370
[1999] Intel® para seus processadores.
Pentium III. A partir dele o nome
dos sockets indica a
quantidade de furos.

Socket 462 AMD® Substituto do Slot A


Athlon; da AMD, que também
ou Socket A 462
AMD® recuou na estratégia
[2000] Duron. de uso de slots.

Intel® Nada além de


Celeron; um adaptador de
Slocket 370
Intel® Socket 370 para ser
Pentium III. usado em Slot 1.

Socket 423 Intel® Foi substituído


423
[2000] Pentium 4. pelo Socket 478.

– 143 –
Fundamentos da Informática

Nome do Processador Quantidade


Imagem Observação
soquete / [ano] que suporta de contatos

Socket 478 Processador mais


Intel®
ou Socket 478 popular para uso
Pentium 4.
N [2000] em Pentium 4.

AMD®
Socket 754 Athlon 64;
754
[2003] AMD®
Sempron.

AMD®
Socket 940 Athlon 64;
940
[2003] AMD®
Opteron.
AMD®
Athlon 64;
Socket 939 Athlon
939
[2004] 64 X2;
Athlon
64 FX.
Intel®
Pentium
4; Intel®
Socket T Celeron;
Primeiro soquete
ou LGA 775 Intel® 775
do tipo LGA.
[2004] Pentium XE;
Intel® Core 2
Duo; Intel®
Core 2 Quad.

– 144 –
Placa mãe e integração dos componentes de Hardware

Nome do Processador Quantidade


Imagem Observação
soquete / [ano] que suporta de contatos
Socket J
ou
Intel® Xeon 771
LGA 771
[2006]
Intel® Pen-
Socket H tium; Intel®
Celeron;
ou Intel®
1156
LGA 1156 Core i3;
Intel® Core
[2009] i5; Intel®
Core i7.

Intel® Core O número causa certa


Socket R ou i7 e Intel® confusão, uma vez que
LGA 2011 Xeon 2011 o ano de lançamento
[2011] Sandy coincide com o número
Bridge. de pontos de contato.

Fonte: o próprio autor (imagens retiradas aleatoriamente da internet).

Da teoria para a prática


Escolha um computador desktop qualquer (seu ou de um amigo).
Verifique qual processador, placa mãe e chipset que o equipa. Faça
um estudo de possibilidade de troca dos componentes, ou seja,
quais outros processadores poderiam estar nesta mesma placa mãe,
ou quais placas mães trabalham com o mesmo tipo de soquete.

– 145 –
Fundamentos da Informática

6.3 BIOS
Se a placa mãe é o componente que integra as partes de um computador,
do processador aos periféricos, pode-se dizer que o BIOS é responsável por
comandar ou permitir esta integração. O BIOS (Basic Input/Output System
– Sistema Básico de Entrada/Saída) é um pequeno programa, armazenado
em memória permanente, que controla as funções básicas de hardware de
um PC. Esta seção aborda essas funções, explicando o seu funcionamento
e necessidade.

6.3.1 Elementos do BIOS


Quando o PC é ligado, a primeira coisa que o processador faz é buscar
o programa que deve ser executado. Inicialmente pode-se pensar que o
primeiro programa executado é o sistema operacional (Windows® ou Linux,
por exemplo, abordados com maiores detalhes no capítulo 10). Porém, o
sistema operacional reside em uma unidade de armazenamento (disco rígido,
de estado sólido, ou memória flash) e, para que o processador possa ter acesso
a essas unidades, o “conhecimento” vem do BIOS.
O BIOS de um PC típico contém instruções que testam o hardware
existente e dão subsídio ao sistema operacional para acessar este hardware.
Uma vez que o PC é composto de várias partes, dentre CPU e periféricos, o
BIOS também é dividido em módulos, onde cada módulo é responsável por
controlar um componente específico.
Originalmente, até pela limitação do próprio PC no desempenho
de suas atividades, muitas funções eram controladas pelo BIOS. A Apple,
por exemplo, deixou todo o controle gráfico de seu sistema por conta do
BIOS durante anos. Porém atualmente a maioria das funções que definem
o comportamento de um PC foram transferidas para o sistema operacional,
restando à BIOS apenas o contato mais íntimo com o hardware básico.

6.3.1.1 Firmware
Pequenos programas como o BIOS são normalmente encapsulados em
memórias ROM ou programáveis. Esses programas, que estão intimamente
ligados com o hardware, são chamados de firmware. Mas um firmware não

– 146 –
Placa mãe e integração dos componentes de Hardware

significa necessariamente um programa pequeno. Um sistema operacional


inteiro poderia ser disponibilizado como um firmware, mas isso não acontece
pela dificuldade de prover atualizações e a quantidade de memória flash que
seria necessária para comportar.

6.3.1.2 Inicialização
No momento em que o PC é ligado, o processador busca instruções para
serem executadas em um endereço absoluto da memória, em que se encontra
o BIOS. A partir daí, o BIOS faz com que o processador execute instruções
específicas conforme o tipo de inicialização:
22 Partida a frio (cold boot): se o PC está sendo inicializado porque
recebeu energia, ou seja, porque acabou de ser ligado.
22 Partida a quente (warm boot): se o PC está sendo inicializado por
uma reinicialização sem interrupção de fornecimento de energia
(reinicialização pelo sistema operacional, por exemplo).

Saiba Mais
A tradução literal para a palavra boot é “pontapé”, fazendo alu-
são à expressão “pontapé inicial”, e a tradução mais amplamente
adotada para o termo é “inicialização”. Porém a combinação
com as palavras cold ou warm resultou no termo composto que
utiliza a palavra “partida”.

Para o sistema operacional, qualquer um dos tipos de inicialização causa


o mesmo efeito: inicialização dos registradores e um novo carregamento
do sistema. A diferença fica por conta dos componentes (principalmente
periféricos): na partida a quente, por continuarem energizados, eles podem
não ter suas memórias totalmente reinicializadas. Isso normalmente não
representa um problema, mas se um componente periférico originou o
travamento do sistema, a partida a quente não irá resolver o problema, sendo
então necessária uma partida a frio.

– 147 –
Fundamentos da Informática

6.3.1.3 Autoteste de partida


Toda vez que o PC é ligado, o BIOS identifica os componentes do
sistema e realiza testes para saber se estão funcionando corretamente. Essa
rotina de diagnóstico é chamada de POST (Power-On Self Test – Autoteste
de partida) e é executada para garantir que todos os componentes básicos
estejam funcionando.
O teste é relativamente simples: o BIOS envia um sinal para uma porta
ou registrador do componente que está sendo testado e, se o resultado for o
esperado, significa que está tudo certo.
Se algo estiver errado, o usuário é informado de duas possíveis formas:
na primeira delas, um código de erro ou mensagem é apresentado no
monitor. Dada a limitação de memória onde o BIOS encontra-se instalado,
não é possível emitir uma grande variedade de mensagens completas sobre o
erro. Se o sistema básico de vídeo for o problema, torna-se inútil apresentar
mensagens, então são emitidos bips para sinalizar o erro. Um único bip indica
que tudo está funcionando, enquanto qualquer outra sequência de bips indica
que algo está errado, sendo que a quantidade de bips indica o erro.

6.3.1.4 Extensões do BIOS


Depois de testados os componentes principais, o BIOS inicia a rotina
de testes das placas de expansão. Aqui os testes dependem de cada placa e do
fabricante, sendo que toda placa possui BIOS próprio que troca informações
com o BIOS inicial.

6.3.1.5 Armazenamento
O BIOS possui uma área de persistência de dados, seja para
armazenamento de informações como data e hora do sistema até dados
pertinentes ao hardware instalado. Nessa área também residem os detalhes
físicos dos disquetes e discos rígidos (barramento, cilindros, cabeças). A
maioria desses dados é configurável pelo usuário, e a configuração será
melhor detalhada mais adiante neste capítulo. Os dados são armazenados
utilizando tecnologia CMOS, mantidos por uma pequena bateria de lítio.
O uso massivo dessa tecnologia neste tipo de aplicação fez com que a

– 148 –
Placa mãe e integração dos componentes de Hardware

própria área de armazenamento do BIOS fosse chamada, ao longo dos anos,


de CMOS.

6.3.1.6 Carga do programa inicial


Uma vez que o hardware foi verificado e encontra-se apto para uso, ini-
cia-se então a rotina de IPL (Initial Program Load – Carga do Programa Ini-
cial). Nesta rotina, o BIOS procura nas unidades de armazenamento secun-
dário (disquetes ou HDs) pelo setor de inicialização (boot sector), que é onde
devem residir os arquivos de carga inicial do sistema operacional.
A partir daí, quem toma conta do PC é o sistema operacional, porém com
uma comunicação contínua com o BIOS para gerenciamento e uso do hardware.

6.3.2 Configuração e overclocking


As opções de configuração do BIOS dependem de uma série de fatores,
desde o modelo de placa mãe, fabricante, até o tipo de interface utilizada (grá-
fica ou texto). Seria praticamente impossível contemplar todas as variações de
opções existentes no mercado no capítulo de um livro, portanto esta seção
tem como objetivo apresentar e explicar os principais itens, que são comuns
entre a maioria dos modelos.

6.3.2.1 Acesso ao programa e aos menus


Para acessar o programa de configuração do BIOS, normalmente man-
tém-se pressionada uma tela (ou uma combinação) imediatamente após ligar
o PC, sendo que as teclas mais comumente adotadas pelos fabricantes para
esta função são: F1, F2, F12, Del e Esc.
Uma vez que o programa é acessado, se a interface é gráfica não tem erro:
os ícones são acessíveis através do uso do mouse, com movimentação e uso
dos botões. Quando a interface é textual, utilizam-se as teclas de movimen-
tação de cursor para acessar as opções. Porém a forma de alterar uma confi-
guração é que muda: alguns fabricantes utilizam as teclas F5 e F6 enquanto
outros utilizam PgUp e PgDwn para navegação entre os valores disponíveis
de configuração. Sempre há uma opção do menu ou aba disponível para a
efetivação (armazenamento) das alterações efetuadas.

– 149 –
Fundamentos da Informática

6.3.2.2 Configurações de data e hora


Esta opção, apesar de estar presente em todos os programas de configuração
de BIOS, atualmente é pouquíssimo utilizada, uma vez que os sistemas
operacionais atuais se encarregam de atualizar a data e hora do sistema.

6.3.2.3 Discos flexíveis


Apesar de praticamente extintos, os disquetes ainda aparecem como
opção configurável na maioria dos programas configuração, normalmente
permitindo escolher entre o tipo de drive, ou simplesmente desabilitá-los.

6.3.2.4 Discos rígidos / controladoras


Em modelos mais antigos de placas mãe, essa era uma das partes mais
complicadas de se configurar, pois exigia que o usuário tivesse conhecimento
de características técnicas do HD conectado: capacidade, quantidade de
setores, de trilhas. Posteriormente foram introduzidas funções de detecção
automática desses dados e, atualmente, as opções se limitam a algumas
particularidades adicionais que, na maioria das vezes, resulta em alteração do
desempenho.
Ainda permanece a escolha do tipo de interface utilizada (IDE/ATA,
SATA) e a habilitação de alguns recursos que valem a pena serem comentados:
22 LBA / Large Mode: disponível em BIOS desde 1995, o recurso
LBA (Logical Block Addressing – Endereçamento de Bloco Lógico)
foi criado para permitir que os BIOS reconhecessem HDs com
capacidade acima de 528MB.
22 PIO Mode (Programmed Input / Output Mode – Modo de
Entrada / Saída Programado): este é um recurso que permite que
dados sejam transferidos do periférico para a CPU. É uma técnica
que utiliza bastante as funções do processador na escrita/leitura de
dados, contrária ao DMA (explicado a seguir). Os modos de PIO
são enumerados, indo desde o modo 0 (zero), com taxa de transfe-
rência de 3,3 MB/s até o modo 6, com taxa de 25 MB/s.
22 DMA Mode (Direct Memory Access Mode – Modo de Acesso
Direto à Memória): periféricos que trabalham com DMA conse-

– 150 –
Placa mãe e integração dos componentes de Hardware

guem acessar diretamente a memória RAM, sem que o dado tenha


que passar pelo processador.
22 S.M.A.R.T (Self-Monitoring, Analysis and Reporting Techno-
logy – Tecnologia de Automonitoramento, Análise e Relatório):
este recurso foi criado para guardar estatísticas de funcionamento
do HD na tentativa de impedir que dados cruciais sejam perdidos
no caso de falha eminente. O sistema incorpora diversos atributos
monitorados, desde erro e desempenho de leitura e gravação até
impacto e vibração no equipamento. Os itens monitorados variam
entre as marcas e modelos.
22 Multi-Block / Multi-Sector Transfer (Transferência de Múltiplos
Blocos / Múltiplos Setores): quando habilitada, esta opção permite
que, ao se ler um dado, sejam transferidos vários blocos/setores do
disco, aumentando a velocidade/desempenho. Porém, esta opção
pode se tornar um incômodo se o HD contiver blocos/setores
defeituosos e alguma informação útil para ser lida estiver em bloco
próximo, fazendo com que nem os dados em bom estado sejam
transferidos. Portanto, em situações de defeito para recuperação de
dados, esta opção deve ser desabilitada.

6.3.2.5 Dispositivos onboard


Controladores de dispositivos específicos, fabricados incorporados à
placa mãe (onboard), são listados nas configurações do BIOS em uma tela
específica, para que possam ser ativados ou desativados. Os principais são:
HD Audio (placa de som), LAN (placa de rede), porta Serial, porta Firewire.

6.3.2.6 Configurações USB


As portas USB podem ser configuradas para operarem nas velocidades
pré-determinadas pelo padrão. O capítulo 4 apresentou as variações do
padrão USB.

6.3.2.7 Overclocking
Realizar overclocking em um dispositivo significa permitir que este
equipamento trabalhe com frequência superior àquela para qual ele foi

– 151 –
Fundamentos da Informática

projetado. Antes de explicar o processo, chama-se atenção para duas


perguntas inerentes: “Qual o principal objetivo?” Resposta: “Aumentar o
desempenho do dispositivo”; “Por que ele já não é fabricado para operar
na sua maior frequência?” Resposta: “Normalmente um componente é
ofertado ao mercado na maior frequência que o permite operar em condições
de temperatura ambiente, com variações previstas. Quando se realiza
overclocking, a temperatura de operação do componente sobe e, portanto,
não se pode garantir que o dispositivo será submetido a condições compatíveis
de refrigeração.”
Os componentes que podem receber overclock são: processador,
memória, placa de vídeo e placa mãe; e os elementos numéricos que estão
envolvidos no processo: clock (frequência) e voltagem.

Da teoria para a prática


Faça um estudo de overclocking confiável para um PC qualquer
(seu ou de um amigo). Veja quais os componentes utilizados
e quais as possibilidades de alteração de frequência e voltagem
para cada um deles. O estudo pode ser feito também para
placas de vídeo.

6.4 Gabinetes e fontes


Placa mãe, placas controladoras, HDs, enfim o conjunto precisa ser
agrupado de alguma forma e, em PCs desktop, isso acontece no gabinete.
Também é necessário fornecer energia para operação desses componentes, e
é quando a fonte entra em cena. Esta seção apresenta os principais elementos
de um gabinete, juntamente com conceitos básicos de eletricidade e
componentes relacionados à operação da fonte de alimentação.

– 152 –
Placa mãe e integração dos componentes de Hardware

6.4.1 Gabinete
Este é um assunto que poderia ser desconsiderado se em alguns sistemas
não houvesse a necessidade ou a perspectiva de expansão por parte dos
usuários. Notebooks, por exemplo, oferecem possibilidades de atualização de
hardware extremamente restritas, que se limitam praticamente à memória e ao
HD, e que são realizadas através de algumas aberturas específicas previstas na
fabricação da sua carcaça. O mesmo acontece em PCs desktop com sistemas
fechados, como os Apple Mac, cujo projeto não permite adição de novas
placas, senão alguma customização realizada na própria loja antes mesmo de se
retirar o produto. Diante disso, esta seção é dedicada aos consumidores de PCs
desktop chamados “montados”, compostos por peças de diferentes fabricantes.
Os gabinetes não se limitam a acomodar os componentes de um PC. Eles
também possuem diversos componentes que dão subsídio ao funcionamento
do conjunto. A figura 3 apresenta um gabinete com seus componentes
e, na sequência, esta seção explica cada um deles, juntamente com outros
itens relevantes.
Figura 3 – Componentes de um gabinete.
FONTE DE TAMPA SUPERIOR
ALIMENTAÇÃO MOLDURA
ENTRADA FRONTAL
DO PLUGUE
DE ENERGIA

ORIFÍCIOS DOS
RESFRIADORES BAIAS PARA
(COOLERS) DRIVES DE 5.25"

CONEXÕES DE
PERIFÉRICOS
ENTRADA/SAÍDA
BAIAS PARA
DRIVES DE 3.5"
Shutterstock.com.br

ORIFÍCIOS PARA
VENTILAÇÃO
CONECTORES DE
LEDs, SWITCHES
BAIAS DE E SPEAKER
SLOTS DE
EXPANSÃO

– 153 –
Fundamentos da Informática

6.4.1.1 Tamanho
O primeiro fator a ser considerado na aquisição de um gabinete é o
seu tamanho, que está diretamente relacionado à quantidade e ao tamanho
das peças que podem ser acomodadas dentro dele. É importante destacar
que gabinetes com dimensões inadequadas, mesmo que comportem
as peças necessárias, podem prejudicar o fluxo de ventilação, causando
superaquecimento dos componentes.
Tamanhos reduzidos dificultam o acesso para encaixe dos componentes,
da mesma forma que tamanhos maiores podem tornar insuficientes os
comprimentos dos cabos de conexão entre eles.

6.4.1.2 Baias
As baias são lugares físicos destinados à acomodação de componentes
fechados (que não placas livres), como HDs, leitores de DVDs, entre outros.
Elas podem acomodar tanto componentes exclusivamente de uso interno,
que não necessitem interação com o usuário (como é o caso dos HDs),
quanto componentes com os quais o usuário interage fisicamente (como
leitor de DVDs). As baias com acesso externo normalmente estão localizadas
na parte frontal do gabinete, chamado painel frontal. Internas ou externas,
as baias possuem dimensões físicas que atendem a padrões de fabricação dos
componentes: 5,25”, 3,5”, dentre outras medidas.

6.4.1.3 Espaços dos slots


Ainda que utilizem barramentos (e consequentemente tamanhos)
diferentes, os slots são posicionados na placa mãe de forma que as placas
controladoras que ali são encaixadas tenham uma face projetada para a parte
externa do gabinete e fiquem sempre equidistantes. O gabinete, por sua vez,
possui espaços (vãos) compatíveis com estes encaixes.

6.4.1.4 Painel de Conexões de E/S


De forma similar aos espaços dos slots, para expor o painel de conectores de
E/S da placa mãe (seção 6.1.5), o gabinete oferece um único vão.

– 154 –
Placa mãe e integração dos componentes de Hardware

6.4.1.5 Resfriamento
Todo componente eletrônico irradia calor, em maior ou menor intensi-
dade. O conjunto de peças acomodadas pelo gabinete pode gerar tanto calor
ao ponto de prejudicar o seu funcionamento. Dessa forma, é muito impor-
tante que o conjunto tenha um sistema de resfriamento.
Um cooler (resfriador) prevê duas etapas. O processo inicia com o uso
do dissipador, uma peça metálica, normalmente de alumínio ou cobre, que é
acoplada a um componente para conduzir o calor irradiado para onde ele possa
ser liberado mais facilmente pelo ar. Na sua forma mais simples, é uma peça
metálica única com base sólida que se subdivide em várias placas finas. Se não
há fluxo de ar suficiente para remover o calor liberado pelos componentes ou
até mesmo conduzido pelo dissipador, torna-se necessário o uso de um ventila-
dor (fan), que é a segunda etapa do resfriamento. Tecnicamente o dissipador é
chamado de cooler passivo, enquanto o ventilador é chamado de cooler ativo. A
figura 4 apresenta um sistema de resfriamento dissipador e ventilador.
Figura 4 – Sistema de resfriamento (cooler).

Shutterstock.com/luchschen

Atualmente alguns componentes operam em velocidades tão elevadas


que o resfriamento por dissipador e ventilador (air cooling) não é suficiente.
A indústria segue então uma prática já adotada no automobilismo há algumas
décadas: o resfriamento utilizando água. Conhecido como watercooling, este
novo sistema de resfriamento prevê o uso de dois módulos: 1) um dissipador

– 155 –
Fundamentos da Informática

com uma bomba, acoplados ao componente eletrônico gerador de calor; 2)


Um radiador com ventilador. Através de tubos de borracha, o sistema faz
com que um líquido especial, não condutor de eletricidade, circule sobre o
componente aquecido e passe pelo radiador, desta forma dissipando o calor
com muito mais eficiência, uma vez que o líquido é melhor condutor térmico
do que o ar.

6.4.1.6 Mostradores e LEDs


Para que o usuário tenha um retorno visível do que acontece em alguns
componentes internos, o gabinete oferece painéis contendo mostradores (dis-
plays) e/ou LEDs. Estes indicativos possuem conexão com a placa mãe atra-
vés de conectores, abordados na seção seguinte.

6.4.1.7 Conectores do gabinete


Alguns componentes do gabinete necessitam de conexão com a placa
mãe: LEDs, mostradores, botões, ventiladores, speaker. A ligação é feita atra-
vés de conectores específicos identificados, conforme ilustra a figura 5.
Figura 5 – Conectores do gabinete.
Fonte: Evandro Zatti

6.4.2 Fonte
Normalmente comercializada juntamente com o gabinete, a fonte de
um PC é um item que merece atenção especial, pois é ela que irá forne-
cer energia para todos os componentes, desde a complexa placa mãe até o

– 156 –
Placa mãe e integração dos componentes de Hardware

mais simples dos LEDs indicadores. Antes de adentrar seu funcionamento é


importante uma abordagem de alguns conceitos básicos de eletricidade.

6.4.2.1 Energia elétrica


A energia elétrica chega aos lares domésticos na forma de onda alternada.
No Brasil, como em diversos países, esta onda oscila a uma frequência de
60 Hz. Em outros países (como diversos do continente europeu), a onda é
emitida em 50 Hz. A amplitude desta onda está relacionada à tensão. No caso
do Brasil, a energia é fornecida a uma tensão de 127 V RMS (Root Medium
Square – Raiz Média Quadrada). Este é o valor da tensão média, sendo 70%
da tensão de pico, que é de 180 V. A figura 6 ilustra estes conceitos.
Figura 6 – Onda de energia elétrica alternada.

Fonte: Evandro Zatti

6.4.2.2 Transformação de tensão


A maioria dos equipamentos eletrônicos, pela natureza dos componentes
empregados, trabalha com tensão contínua bem abaixo da tensão da rede
elétrica pública. Diante disso, os equipamentos precisam de transformadores
(chamados de fontes), cuja principal função é converter a tensão de 127 V /
240 V alternada em tensões contínuas padronizadas. No caso de PCs, estas
tensões devem ser de +3 V, +-5 V e +-12 V.
Este processo de conversão integra os seguintes elementos:
22 Entrada: tensão que entra na fonte. É a tensão alternada da rede
elétrica: 110 / 127 V ou 220 / 240 V (60 Hz ou 50 Hz).

– 157 –
Fundamentos da Informática

22 Transformador: a tensão é reduzida pelo transformador. Ele apenas


reduz a tensão, portanto na saída deste, a tensão é ainda alternada.
22 Retificador: formado por diodos. Pega a parte negativa da tensão
alternada da saída do transformador e transforma em positiva, em
forma de onda pulsante.
22 Filtro: formado por capacitores. Transforma a forma de onda pul-
sante em tensão contínua.
22 Regulador: formado por diodo zener ou C.I. Remove a oscilação,
fazendo com que a tensão seja contínua.
22 Saída: tensão que sai da fonte. São as já citadas tensões contínuas
padronizadas.
Uma fonte que contemple somente estes elementos atende a grande
parte dos equipamentos. Mas existe um problema: quanto maior a corrente
necessária (maior consumo), maior será o transformador. Fontes de PCs, se
fossem tradicionais, seriam extremamente grandes e pesadas. A solução? Cha-
veamento em alta frequência.

6.4.2.3 Fonte chaveada


Quanto maior a frequência, menores são os componentes: filtro e capa-
citor. Então a solução para evitar tamanhos maiores de fontes é chaveá-las em
alta frequência. Daí surge o conceito de fonte chaveada.
Na fonte chaveada é adicionado um chaveador antes do transformador:
a tensão da rede aumenta de 50 / 60 Hz para +- 20KHz.
O diagrama da figura 7 ilustra o processo com os elementos componen-
tes da fonte chaveada.
Figura 7 – Uma fonte chaveada.

Chaveador Transformador Retificador Filtro Regulador

Entrada tensão Saída tensão


alternada contínua

– 158 –
Placa mãe e integração dos componentes de Hardware

6.4.2.4 Potência
As fontes são vendidas em potências nominais: 250 W, 300 W, etc. Essa
é a potência máxima que a fonte pode ter em suas saídas. Para calcular a
potência consumida pelo PC, basta somar as potências máximas individuais
de cada componente.
Para saber a potência necessária na alimentação de um componente,
utiliza-se a fórmula: P = V ∙ I, em que P é a potência, V é a voltagem e I é a
corrente exigida pelo(s) componente(s).

Exemplo
Tomando-se como base um gravador de CD que tenha os
consumos 1,8 A ∙ 5 V (para a placa eletrônica) e 400 mA ∙ 12
V (para os motores), sendo que 400 mA equivalem a 0,4 A,
tem-se: (1,8 ∙ 5) + (0,4 ∙ 12) = 13,8 W. Portanto, esse gravador
irá consumir 13,8 W.

Da teoria para a prática


Observando um PC qualquer, faça um levantamento de
consumo de todos os componentes internos e verifique
se a fonte utilizada neste equipamento está adequada,
subdimensionada ou superdimensionada.

6.5 Dispositivos de comunicação


Desempenhar uma tarefa em coletividade geralmente é mais produtivo
do que realizá-la de forma individual: dividem-se os esforços, somam-se as

– 159 –
Fundamentos da Informática

experiências. Baseando-se nessa premissa, o conceito de coletividade também


adentrou o mundo dos PCs e surgiram os dispositivos de comunicação.

6.5.1 Transmissão de dados e modem


A transmissão de dados em longa distância entre equipamentos
eletrônicos data do início do século XX, com o uso de telégrafos e
teleprinters (teleimpressoras).
Durante a Guerra Fria, a necessidade de comunicação entre as
diversas bases militares, radares e centros de comando impulsionava a
comercialização dos primeiros equipamentos de comunicação via linhas
telefônicas: os modems.

6.5.1.1 Modem
Apesar de ser utilizado atualmente como um substantivo, modem é uma
sigla, que significa modulador/demodulador (MODulator/DEModulator),
indicando a principal característica deste equipamento que é modular e
demodular um sinal, ou seja, converter o sinal de uma forma física para
outra e vice-versa. Daí a grafia da palavra, quando no plural, terminanda
em “ms” ao invés de “ns”. No caso dos primeiros modems, a proposta era
a conversão de sinais analógicos de telefonia para dados digitais, mas com
a evolução, atualmente a modulação/demodulação não se limita a linhas
analógicas de telefonia.
Os primeiros modems para utilização em computadores pessoais datam
da década de 80 e, com algum aperfeiçoamento, são utilizados até hoje.
O equipamento transforma as sequências binárias em ruídos para serem
transmitidos dentro da faixa de frequência de operação das linhas telefônicas
de voz (por volta de 1 KHz). Os primeiros modelos trabalhavam com
velocidades de transferência de 300 bps, sendo que atualmente os modelos
mais rápidos operam na faixa de 56 Kbps. Esta é a velocidade nominal, mas
dependendo do conteúdo, a transferência pode atingir maiores velocidades
utilizando-se de técnicas de compressão de dados.
Ao deixar a esfera militar e adentrar o meio civil, no princípio a utilização
de modems ia pouco além da transmissão de dados entre sede e filiais de

– 160 –
Placa mãe e integração dos componentes de Hardware

empresas. A popularização da internet, em meados de 1990, fez com que


cada PC comercializado levasse consigo um aparelho de fax/modem, para
permitir conexão via linha telefônica comum. As funções de fax tiveram
também seus dias de glória em residências. Com o surgimento de outras
formas de comunicação para internet (abordadas na sequência), o uso de fax/
modems reduziu drasticamente, porém, no Brasil, ele ainda não foi extinto.
Atualmente, esses equipamentos são chamados de modems de linha discada
ou simplesmente modem discado.

6.5.1.2 DSL
O termo DSL (Digital Subscriber Line – Linha Digital para Assinante)
não tem relação técnica com a tecnologia que é empregada. É atualmente
uma das soluções de acesso à internet mais utilizadas, e tem como principal
característica o uso da linha telefônica comum operando em frequência
diferente da faixa de voz, permitindo que se converse ao telefone ao mesmo
tempo em que dados são transmitidos.
No Brasil, uma variação da DSL é utilizada: a ADSL (Assymmetric Digital
Subscriber Line – Linha Assimétrica Digital para Assinante). Assimétrica
porque ela permite que a velocidade de transmissão para download (dados
vindo da internet para o PC) seja diferente da velocidade de upload (dados
enviados do PC para a internet). Conexões DSL pressupõem uso de modems
específicos (diferentes dos modems citados na seção anterior), que podem
transmitir em velocidades superiores a 100Mbps. Linhas de transmissão de
dados operando em velocidades maiores são conhecidas como banda larga, e
este é o caso da DSL.

6.5.1.3 Cabo
Aproveitando-se da estrutura utilizada em TVs por assinatura, as
operadoras passaram também a oferecer internet banda larga através dos
cabos coaxiais que compreendem a rede de transmissão de imagens. O cable
modem (modem de cabo), amplamente utilizado como solução de banda
larga no Brasil e no mundo, apresenta opções similares aos DSL, porém a
modulação/demodulação é completamente diversa desta última, dada a
diferença do meio empregado para transmissão. A velocidade de transmissão
de dados por cabo é similar às oferecidas nas soluções DSL.

– 161 –
Fundamentos da Informática

6.5.1.4 Rádio
Algumas operadoras oferecem transmissão de dados via rádio, normalmente
para soluções corporativas que necessitem estabelecer comunicação em
distâncias médias entre suas sedes. Em algumas cidades também são ofertadas
ao consumidor final como solução para acesso a internet.

6.5.1.5 Fibra óptica


Modems de fibra óptica são quase inexistentes em residências. A
velocidade máxima possível de transmissão aumenta significativamente
em relação às outras soluções, porém o custo de instalação ainda é alto.
São utilizados em soluções corporativas que demandam alta velocidade de
transferência de dados; com conexões de fibras ópticas, principalmente,
são construídos os backbones (espinha dorsal), ou seja, conexões de alta
velocidade e longa distância normalmente utilizadas para tráfego de volumes
muito grandes de dados (conexões entre países).

6.5.2 LANs e WANs


Em 1972, Robert Metcalfe, então pesquisador do MIT, foi solicitado
a criar um sistema que permitisse a conexão das estações Xerox Palo Alto
entre si e com os servidores. A solução apresentada por Metcalfe deu início
ao protocolo Ethernet, o mais utilizado até hoje em redes locais (detalhes na
seção 6.5.2.2).

6.5.2.1 Redes locais


LAN (Local Area Network – Rede de Área Local) é o termo técnico
utilizado para as redes locais de computadores, comumente chamadas sim-
plesmente de rede. Uma LAN é composta fisicamente de (veja figura 8):
22 Estação de trabalho: é o computador utilizado para desempenhar
as tarefas pelo usuário.
22 Servidor: é um computador, normalmente dotado de mais
capacidade de processamento e armazenamento, destinado a
comportar arquivos e/ou programas para serem utilizados nas

– 162 –
Placa mãe e integração dos componentes de Hardware

estações de trabalho. Em redes domésticas, normalmente não há


um servidor dedicado, utiliza-se uma das estações de trabalho da
rede para esta finalidade.
22 Dispositivos: são os equipamentos envolvidos na interconexão dos
computadores da rede e o consequente repasse dos dados entre eles
(detalhes na seção 6.5.3).
Figura 8 – Componentes de uma LAN.

Servidor

Hub/
Switch

Estação de trabalho
Estação de trabalho
(desktop)
Estação de trabalho
(notebook)

6.5.2.2 Protocolo Ethernet


Para que os diversos computadores de uma rede possam estabelecer
comunicação, é necessário que o façam seguindo um padrão, ou seja,
um protocolo. As conexões de rede mais utilizadas atualmente seguem
o protocolo Ethernet. O protocolo Ethernet corresponde à especificação
802.3 do IEEE (Instituto dos Engenheiros de Eletricidade e Eletrônica),
publicada pela primeira vez em 1985. Esse protocolo define características
físicas (abordadas na seção 6.5.3) e lógicas de funcionamento de uma rede,
seguindo orientações do modelo OSI (Open Systems Interconnection –
Interconexão de Sistemas Abertos).

– 163 –
Fundamentos da Informática

Sugestão de Leitura
Para saber mais sobre as especificações do modelo OSI, bem
como outras informações não abordadas nesta obra, leia:
TANENBAUM, A. S., Redes de Computadores. 4. Ed. Rio
de Janeiro: Campus, 2003.

6.5.2.3 Identificação
Os computadores que operam em uma mesma rede precisam ser
identificados. Da mesma forma que as pessoas se chamam pelo nome, os
computadores também precisam receber identificação para serem únicos.
Existem algumas formas de identificar um PC:
22 Por nome: na instalação do sistema operacional, se este permitir a
identificação por nomes (como é o caso do Windows), é fornecido
ao computador uma sequência de caracteres pela qual ele será iden-
tificado. Por exemplo: PC-JOÃO.
22 Por endereço físico: atendendo a protocolos, a interface de rede
recebe um endereço MAC (Media Access Control – Controle de
Acesso ao Meio). O endereço MAC é composto de uma sequência
de 6 bytes, normalmente notados em hexadecimal. Por exemplo:
FF-5E-48-37-2B-FA.
22 Por endereço lógico: também seguindo protocolo, a interface de
rede está vinculada a um endereço. No caso, o endereçamento uti-
lizado atualmente segue o protocolo TCP/IP (Transmission Con-
trol Protocol – Protocolo de Controle de Transmissão / Internet
Protocol – Protocolo de Internet), e portanto a interface recebe
um endereço IP. O endereço IP é composto de uma sequência de 4
bytes, notados em decimal. Por exemplo: 192.168.255.255.

– 164 –
Placa mãe e integração dos componentes de Hardware

6.5.2.4 Redes de Longa Distância


Quando duas ou mais LANs estão conectadas entre si, significa que elas
fazem parte de uma WAN (Wide Area Network – Rede de Área Larga, ou
seja, longa distância).
Com o objetivo de interligar diferentes redes locais, Sandra Lerner e
Leonard Bosack, da Universidade de Stanford criaram, no início dos anos 80
do século XX, o roteador (detalhes na seção 6.5.3.5). Essa nova abordagem
no conceito de redes permitiu a criação e desenvolvimento da internet.

6.5.2.5 A internet
Denomina-se internet o conjunto de computadores interligados
mundialmente em rede. Inicialmente as informações eram dispostas em
servidores de BBS (Bulletin Board System – Sistema de Quadro de Avisos),
organizadas e acessíveis através de aplicativos utilizando o protocolo
Gopher. Com a criação da World Wide Web, em 1991, e o desenvolvimento
do navegador (browser) pelo fundador da Netscape, Marc Andreesen, a
internet deslanchou para se tornar a grande rede mundial de computadores.
Desde então é mais fácil acessar o conteúdo através de uma interface gráfica
e hipertexto.

6.5.3 Dispositivos de rede local


A comunicação física entre computadores de uma rede local depende
do uso de alguns equipamentos, abordados nesta seção. Os equipamentos
aqui apresentados seguem o protocolo ethernet, utilizado na maioria das
redes locais.

6.5.3.1 Placa ou interface de rede


Da mesma forma que o modem é o equipamento responsável pela
comunicação entre computadores em longa distância, nas LANs isso é feito
através da placa de rede. A placa de rede pode prover o acesso à rede de duas
formas: por cabo ou wireless (sem fio). A figura 9 apresenta duas interfaces
de rede padrão Ethernet (por cabo e sem fio) para serem encaixadas em

– 165 –
Fundamentos da Informática

barramento PCI. A maioria das placas mãe atuais já incorporam adaptador


ethernet com cabo.
Figura 9 – Adaptadores de rede padrão Ethernet
por cabo e wireless, respectivamente.

Shutterstock.com/Ivaschenko
Roman
6.5.3.2 Cabeamento
O padrão Ethernet também especifica o tipo de cabo que é utilizado.
Originalmente os adaptadores trabalhavam com cabo coaxial. Um
único cabo percorria toda a rede, passando de adaptador em adaptador.
Atualmente as interfaces fazem uso do cabo chamado ethernet par
trançado, onde uma extremidade é conectada à placa de rede e a outra é
conectada a um concentrador ou switch (abordados nesta seção). O cabo
par trançado normalmente é comercializado na cor azul, conforme ilustra
a figura 10.
Figura 10 – Cabo ethernet par trançado com conector RJ-45.

Fonte: Evandro Zatti

6.5.3.3 Hub
O hub (concentrador) é o equipamento responsável por permitir
a interligação de vários computadores, através das portas em que são

– 166 –
Placa mãe e integração dos componentes de Hardware

conectados os cabos par trançado. Foi durante muito tempo comercializado


com diversas opções em número de portas (veja na figura 11).
Figura 11 – Hub ethernet 4 portas.

Shutterstock.com/Zsolt Biczo
Os hubs foram gradativamente sendo substituídos pelos switches.

6.5.3.4 Switch
O switch (comutador) tem forma física parecida com o hub, porém
seu funcionamento difere basicamente sob dois aspectos: o switch
trabalha com maior largura de banda e também possui melhor controle
das colisões de pacotes na transferência de dados. A figura 12 apresenta
um switch.
Figura 12 – Switch ethernet 8 portas.

Fonte: Evandro Zatti

– 167 –
Fundamentos da Informática

6.5.3.5 Roteador
O roteador, por sua vez, tem forma física parecida com o switch, porém
implementa uma função crucial para as redes locais que acessam internet:
permite que os equipamentos interconectados trabalhem em diferentes
faixas de IP, levando os dados de uma faixa para outra (roteando). São esses
equipamentos que permitem a conexão entre mais de uma LAN. Dessa
maneira, computadores de uma rede local conseguem “enxergar” a internet.
Veja um roteador na figura 13.
Figura 13 – Roteador ethernet 4 portas.

Shutterstock.com

6.5.3.6 Ponto de acesso à rede sem fio


Um WAP (Wireless Access Point – Ponto de Acesso sem Fio) é um
equipamento que permite a conexão entre computadores de uma rede local
por meio de ondas de rádio. É o tipo de equipamento mais utilizado nas redes
atuais, que visam a extinção do uso de cabos. Veja na figura 14 um WAP.
Figura 14 – Wireless Access Point.
Shutterstock.com/sbko

– 168 –
Placa mãe e integração dos componentes de Hardware

A maioria das operadoras de banda larga têm oferecido a seus clientes


soluções integradas em um único aparelho: modem + roteador + wireless
access point. Fisicamente o aparelho é muito similar ao WAP, porém com
antenas para a conexão sem fio, portas para conexão RJ-45 e a porta específica
para o tipo de conexão banda larga (RJ-11 para telefone ADSL ou coaxial
para TV a cabo).

Da teoria para a prática


Utilizando sites de medição, verifique se a velocidade de ope-
ração da internet de sua casa ou escritório é compatível com o
serviço contratado. Caso não seja, verifique se o que é forne-
cido está dentro dos limites legais de tolerância.

6.6 Especificando um PC
Pense naquele membro da família, já com certa idade, que em um
domingo qualquer olha para você e diz: “Meu filho, estou querendo comprar
um computador. Você que é jovem, pode me dar umas dicas?”. Esta seção
destina-se a auxiliar com os principais elementos que ajudam a resolver esta
questão, focando em soluções para uso doméstico ou por profissionais liberais.

6.6.1 A escolha dos componentes


Diante dos diversos tipos de atividade que alguém pode desempenhar
utilizando um PC, é improvável que se consiga especificar um equipamento,
de forma genérica, que atenda a todas as necessidades. Ao menos não
se a decisão for racional em termos de custo, pois seria muito fácil
optar pelo melhor e mais caro modelo de cada peça, resultando em um
“supercomputador” capaz de desempenhar atividades de qualquer natureza.
Sim, é possível comprar uma Ferrari 458 Spider para ir à panificadora da
esquina comprar pão.

– 169 –
Fundamentos da Informática

6.6.1.1 Tipos de usuários


A escolha de componentes para montar um PC deve levar em conta
o perfil do usuário e o tipo de atividade para o qual o PC será destinado.
Usuários naturalmente calmos e lentos não precisam de equipamentos
rápidos, enquanto os mais impacientes sentem a necessidade de PCs com
tempos de resposta mínimos. Há os que se satisfazem com qualquer solução,
desde que seja de baixo custo, assim como existem os que usam Ferrari para
ir à panificadora da esquina.
Identificado o perfil do usuário, deve-se levar em consideração
a natureza das atividades que serão desempenhada. Considerando as
aplicações mais comumente encontradas, podem ser elencados como perfis
de atividades:
22 Usuário iniciante: pessoal ou doméstico, costuma utilizar o
PC para acessar a internet, interagindo nas redes sociais ou
em conversas de chat e IM (Instant Messenger – Mensageiro
Instantâneo); ler e responder e-mails; editar textos ou peque-
nas planilhas.
22 Usuário médio: faz uso um pouco mais intenso da internet,
baixando e trocando arquivos; produz uma quantidade significativa
de documentos (textos e planilhas); utiliza algum aplicativo
específico para sua área, muitas vezes acessando banco de dados.
Profissionais liberais e estudantes se enquadram nessa categoria.
22 Usuário avançado: utiliza todos os recursos de um usuário médio e
ainda se aventura (normalmente por hobbie) em aplicativos de alto
desempenho, como os de computação gráfica e edição de vídeo.
22 Desenvolvedor de software: utiliza ferramentas diversas para
desenvolvimento de software, normalmente agrupadas em um
IDE (Integrated Development Environment – Ambiente de
Desenvolvimento Integrado), adicionando serviços de banco de
dados e de internet.
22 Artista gráfico: trabalha quase que exclusivamente com
aplicativos de alto desempenho, como ferramentas de
computação gráfica, editoração, edição de vídeo e som. Para

– 170 –
Placa mãe e integração dos componentes de Hardware

este perfil, é importante avaliar se uma solução PC irá atender


suas necessidades ou ele deverá partir para outras plataformas
fechadas, baseadas em Apple Mac ou workstations (esta-
ções) gráficas.
22 Gamer: não se contenta com consoles de videogame e faz do seu
PC a sua diversão.
Seja qual for o perfil de usuário, o conjunto de peças de hardware com-
ponentes de um PC é basicamente o mesmo, porém com bastante divergên-
cia em suas especificações. Esta seção tem por objetivo enquadrar os princi-
pais componentes nas categorias dos perfis citados, justificando e elencando
sugestões de produtos atualmente comercializados.

6.6.1.2 Escolhendo processador e placa mãe


Estes são os principais responsáveis pelo custo de um computador.
Aqui se aplica o ditado “Não adianta colocar motor de Fusca em Ferrari”,
portanto ambos têm que ser diretamente compatíveis, independente da
solução adotada: processadores menos potentes sobrevivem com placas mãe
mais modestas, enquanto processadores de alto desempenho exigem placas
mãe com chipsets avançados.
22 Usuários iniciante e médio possuem necessidades semelhantes em
termos de processador e placa mãe: o conjunto mais modesto dis-
ponível no comércio irá atendê-los, desde que não seja oriundo de
estoques encalhados. Solução comercial: processadores dual core,
como a linha Intel Core i3 ou AMD Athlon, operando na faixa dos
1,5 a 2 GHz e 1MB de cache.
22 Usuário avançado e desenvolvedor de software necessitam um
pouco mais de poder de processamento, permanecendo em uma
faixa mediana. Solução comercial: processadores quad core,
contemplados pelos Intel Core i5 ou i7 e AMD Phenom, operando
na faixa dos 2 a 2,5 GHz e 4 MB de cache.
22 Artistas gráficos e gamers só irão se contentar com os modelos
top de linha, pois processamento é a base para o desempenho de
aplicativos gráficos e jogos. Solução comercial: processadores de

– 171 –
Fundamentos da Informática

no mínimo 6 núcleos (preferencialmente multiprocessado), como


Intel Core i7 Sandy Bridge e AMD Phenom II, operando acima
dos 3 GHz e 12 MB de cache.

6.6.1.3 Escolhendo memória


As memórias SDRAM tiveram seu custo bastante reduzido ao longo
dos anos. Se no passado elas influenciavam (e muito) no custo total da
solução, hoje neste quesito são meras coadjuvantes, mas permanecem
como protagonistas na influência que exercem sobre o desempenho. Como
solução comercial, as fabricantes Corsair e Kingstom são as top of mind
(mais lembradas) nesse cenário, independente da quantidade ou velocidade
dos módulos ofertados.
22 Usuários iniciante e médio ficarão satisfeitos com módulos DDR3-
800, totalizando 4 GB.
22 Usuário avançado e desenvolvedor de software exigirão soluções
com módulos DDR3-1066 e total de 8 GB.
Para os artistas gráficos o céu é o limite nesse quesito. Atualmente os
sistemas de alto desempenho para uso doméstico suportam até 64 GB com
DDR3-1600. Os gamers não precisam ser tão exigentes aqui, pois a memória
que mais os interessa está presente nas controladoras de vídeo (abordadas na
sequência). Ficarão satisfeitos com 16 GB em módulos DDR3-1333.

6.6.1.4 Escolhendo HD (ou dispositivo


similar de armazenamento)
A escolha do dispositivo de armazenamento está intimamente
relacionada com a memória SDRAM, porém com algumas particularidades.
Comercialmente, considere as marcas Seagate e Samsung.
22 Usuários iniciante e médio de uma forma geral serão atendi-
dos com 300 GB de HD, operando em 5400 rpm. Não se pode
excluir desse perfil os aficionados em downloads: filmes, séries de
tv, música... Neste caso é bom considerar dispositivos de armazena-
mento na faixa dos terabytes.

– 172 –
Placa mãe e integração dos componentes de Hardware

22 Usuário avançado e desenvolvedor de software separam-se


neste tópico: enquanto o usuário avançado irá precisar de boas
soluções de armazenamento para suas aventuras gráficas (HDs
na faixa de 1 TB com 7200 rpm), os desenvolvedores se conten-
tam com soluções modestas, uma vez que código de programa-
ção ocupa pouquíssimo espaço: 500 GB com 5400 rpm está de
bom tamanho.
Conteúdo gráfico (foto ou vídeo) ocupa espaço. Artistas gráficos que
trabalham somente com imagens poderiam ser enquadrados no perfil de
usuários que fazem download: considere alguns terabytes. A particularidade
fica por conta dos que editam vídeo: além da grande capacidade necessária,
devem possuir obrigatoriamente mais de uma unidade física de disco, pois
isso aumenta consideravelmente o desempenho dos aplicativos de edição de
vídeo. Ainda com custo elevado, devem ser considerados os SSDs em soluções
(ilhas) de edição de vídeo.
Para os gamers: há os que executam seus jogos através de mídias
removíveis (CDs, DVDs, ...), e para esses uma solução de 500 GB atende.
Porém, há os que geram imagens (.ISO) das mídias e as armazenam em HDs
para execução. Neste caso, considere capacidades maiores e bom desempenho
de gravação/leitura.

6.6.1.5 Escolhendo controladora de vídeo


Usuários iniciantes, médios, e até alguns avançados irão se contentar
com a mais simples das placas gráficas atuais, com um mínimo de aceleração
2D/3D. Soluções onboard Intel Graphics os atenderá.
Ainda que possa parecer contraditório, artistas gráficos não necessariamente
precisam da última geração de placas aceleradoras. Elas ajudam, sim, na pré-
visualização de conteúdo e, muitas vezes, até no processamento da finalização
de arte, mas o processador ainda é o principal elemento para estes profissionais.
Talvez seja necessária uma atenção redobrada para atender aos profissionais
que trabalham com edição de vídeo, que irão precisar de placas que permitam
captura e processamento de vídeo comprimido.

– 173 –
Fundamentos da Informática

Já os gamers... apresente-lhes a melhor placa aceleradora e eles virão com


a pergunta: “Roda Crysis?”. Para tentar responder esta pergunta, você deverá
adentrar o mundo das placas aceleradoras (dominados comercialmente pelas
nVidia GeForce e AMD Radeon), considerando itens como núcleos e clock
de GPU, quantidade e clock de memória e APIs e frameworks gráficos (veja
capítulo 5).

Da teoria para a prática


Procure alguém (ou você mesmo) que faça uso do computador
em seu cotidiano (domiciliar ou profissional). Identifique qual
o perfil de uso dessa pessoa e, buscando informações em sites
de fabricantes e de comércio eletrônico, sugira uma solução de
PC, elaborando uma tabela com os principais componentes
trabalhados neste capítulo e seus respectivos preços de venda
ao consumidor.

Conclusão
Tão importante quanto o processador que incorpora um PC é a placa
mãe sobre a qual ele está acoplado. Ao passo que o processador evolui em
velocidade e conjunto de instruções, a placa mãe precisa acompanhá-lo,
estabelecendo toda a comunicação física entre ele e os demais componentes,
como memória (através da ponte norte) e periféricos (pela ponte sul). Cada
ponte é controlada por um conjunto de chips, chamado de chipset, elemento
importante na escolha do dispositivo.
Escondido por trás do sistema operacional, o BIOS é um ou mais
programas que controlam o funcionamento básico do hardware: quais
componentes estão disponíveis no sistema, quais suas características técnicas,
se estão funcionando ou não. Alguns BIOS são tão completos que oferecem
opções avançadas e configurações automáticas para todos os componentes

– 174 –
Placa mãe e integração dos componentes de Hardware

do PC. A maioria dos BIOS atuais pode receber atualização de firmware,


portanto é muito importante estar sempre com a versão atualizada.
Um PC precisa de energia elétrica para funcionar. Os milhares de
componentes eletrônicos que compõem as peças não trabalham na mesma tensão
elétrica que é fornecida através da rede pública. É necessária uma conversão
(mudança de tensão), ficando esta função a critério da fonte de alimentação.
A comunicação de dados está presente nos PCs praticamente desde
sua existência, da troca de dados entre um ponto e outro à coletividade da
internet. A comunicação entre computadores dentro de um mesmo espaço
físico consiste em uma rede local (LAN). Quando existe uma distância grande
entre um ponto e outro da comunicação, configura uma WAN (como é o
caso da internet).
Tão importante quanto ter tarefas para realizar com o auxílio de um PC
é saber qual a ferramenta mais adequada para desempenhá-las. Da mesma
forma que, para apertar um parafuso, escolhe-se a melhor chave, para fazer
algo com o computador é importante que se tenha o mais adequado. Escolher
o PC adequado incorre em conhecer o perfil de quem usa o equipamento.

– 175 –
7
Sistemas de numeração

O homem sentiu desde muito cedo a necessidade de quanti-


ficar coisas – objetos, animais do rebanho, dias – como uma forma
de controlar um pouco o mundo ao seu redor.
No entanto, a representação numérica como conhecemos
hoje não surgiu do dia para a noite e nem foi fruto da “invenção”
de apenas uma mente. Provavelmente começou com a utilização
dos dedos das mãos como grandeza numérica, que logo se mostrou
insuficiente. Mas, até hoje, é o que primeiro as crianças aprendem
a utilizar.
Fundamentos da Informática

7.1 Lei de formação


Pedras, nós em cordas, marcas em um osso e símbolos unitários pintados
nas paredes de cavernas surgiram como outras formas de representação
numérica. Imagine os homens das cavernas representando o número 15
nas paredes desse jeito: | | | | | | | | | | | | | | |. É fácil perceber que é uma
tarefa exaustiva.
Bem mais adiante, apareceram os números romanos (até hoje emprega-
dos para referenciar séculos), utilizados em todo o Império Romano. Quanti-
dades pré-definidas são representadas por letras. (Quadro 1)
Quadro 1: Exemplos de números representados no sistema numérico romano.

Número Símbolo romano


Um I
Dois II
Três III
Quatro IV
Cinco V
Nove IX
Dez X
Cinquenta L
Cem C
Cento e dezesseis CXVI
Quinhentos D
Seiscentos e vinte DCXX
Mil M
Dois mil e oito MMVIII
Apesar de esse sistema ser amplamente utilizado pelo Império Romano,
apresenta deficiências em operações aritméticas. Outras maneiras de
representar números sugiram em outras fases da civilização. Uma delas são os
algarismos arábicos, representados pelos seguintes símbolos:

– 178 –
Sistemas de numeração

Número Símbolo arábico

0 ٠

1 ٩

2 ٨

3 ٧

4 ٦

5 ٥

6 ٤

7 ٣

8 ٢

9 ١

Nessa representação, ao contrário da romana, aparece o número zero,


uma invenção indoarábica das mais importantes para a humanidade. Aqui,
dez símbolos diferentes são utilizados para representar qualquer número
natural. Esse sistema numérico é o mais amplamente conhecido e utilizado
atualmente. É conhecido como sistema decimal ou sistema numérico posi-
cional de base 10.
Além dele, outros sistemas numéricos são importantes para a
computação: o binário (sistema numérico posicional de base 2), o octal
(sistema numérico posicional de base 8) e o hexadecimal (sistema numérico
posicional de base 16).
Todas as representações posicionais, independente da base, são regidas
por uma única lei: lei de formação.
Por essa lei, um número é assim composto:
an· bn + an–1 · bn–1 + an–2 · bn–2 + ... + a0 · b0
em que:

– 179 –
Fundamentos da Informática

b = base do número (exemplo: base 2, 8, 10 ou 16)


n = quantidade de algarismos – 1
an = algarismos de acordo com sua posição (daí o nome sistema posicional)
É a posição do algarismo que define a potência da base.

7.2 Sistema decimal (base 10)


O sistema de base 10 acabou se tornando mais popular em relação aos
demais por causa da facilidade que as pessoas têm para usar os 10 dedos das
mãos para contar e fazer pequenos cálculos, desde criança. É, portanto, uma
maneira familiar de pensar nos números, de zero a nove.


Exemplo
O número 1982 no sistema decimal é composto por
1 milhar, 9 centenas, 8 dezenas e 2 unidades.
1000 + 900 + 80 + 2 = 1982

Esse número pode ser decomposto
também da seguinte maneira:
1982 = 1000 + 900 + 80 + 2

= 1 · 1000 + 9x 100 + 8x 10 + 2x 1
= 1 · 103 + 9x 102 + 8x 101 + 2x 100

Note que a última linha é a representação do número 1982 no sistema


decimal pela lei de formação. A ideia é adotar pesos diferentes para posições
diferentes de algarismos (ideia de representação posicional). Assim, quanto
mais à esquerda, maior seu peso, sempre 10 (base) vezes maior. A seguir,
veremos detalhes dos sistemas binários, octal e hexadecimal.

– 180 –
Sistemas de numeração

7.3 Sistema binário (base 2)


O sistema decimal (base 10) utiliza dez símbolos diferentes para repre-
sentar qualquer número natural. Já no sistema binário, existem apenas dois
símbolos: 0 (zero) e 1 (um).
O sistema binário também obedece à lei de formação.


Exemplo
O número 1100, no sistema binário, é assim composto:
1100 = 1x23 + 1x22 + 0x21 + 0x20
O número 10011, no sistema binário, de acordo
Com a lei de formação, é assim composto:
10011 = 1x24 + 0x23 + 0x22 + 1x21 + 1x20

Para Ivan Valeije Idoeta e Francisco Gabriel Capuano, que estudam


os elementos da eletrônica digital, “para representarmos a quantidade zero,
utilizamos o algarismo 0, para representarmos a quantidade um, utilizamos o
algarismo 1. E para representarmos a quantidade dois, se nós não possuímos o
algarismo 2 nesse sistema? É simples. No sistema decimal, nós não possuímos
o algarismo dez e representamos a quantidade de uma dezena utilizando o
algarismo 1 seguido do algarismo 0. Neste caso, o algarismo 1 significa que
temos um grupo de uma dezena e o algarismo 0 nenhuma unidade, o que
significa dez.” (Idoeta e Capuano, 1998).
Essa mesma ideia está presente também no sistema binário, proveniente
da lei de formação. Para se representar o número dois, é utilizado o algarismo
1 seguido do algarismo 0. Assim o algarismo 1 representa dois elementos na
base 2 (ao invés de 10 do sistema decimal) e 0 representa nenhuma unidade.
Ao contrário do decimal, em que cada posição de algarismo recebe um
nome (unidade, dezena, centena, milhar, etc.), no binário cada algarismo é
chamado de bit (binary digit – dígito binário, em português). As denominações

– 181 –
Fundamentos da Informática

no sistema binário aparecem pela quantidade de bits.(Quadro 2)


Quadro 2: Nibble, byte,word.

Bits Denominação
4 Nibble
8 Byte
16 Word
Uma outra maneira de explicar o sistema binário, para facilitar o enten-
dimento, é apresentada por Bill Gates (Gates, 1995). Imagine um quarto
com uma única lâmpada de 250 watts. Agora suponha que, ao invés de uma,
o quarto tenha oito lâmpadas de menor intensidade (de 1 a 128 watts), con-
forme apresentado na Figura 1.
Figura 1  Lâmpadas de intensidades diferentes, com seus interruptores.

Lâmpada de 128 Lâmpada de 64 Lâmpada de 32 Lâmpada de 16


watts watts watts watts

interruptor interruptor interruptor interruptor

Lâmpada de 8 watts Lâmpada de 4 watts Lâmpada de 2 watts Lâmpada de 1 watts

interruptor interruptor interruptor interruptor

Fonte: Gates (1995)

– 182 –
Sistemas de numeração

No ambiente, há um interruptor para cada lâmpada e elas são arranjadas


em ordem crescente de potência da direita para a esquerda, ou seja, a de maior
potência está mais à esquerda e a de menor mais à direita (a mesma ideia dos
pesos da lei de formação). Assim, ao ligar e desligar os interruptores, é possí-
vel ajustar a iluminação do ambiente.
Se quisermos somente 1 watt de luz, ligaremos somente o interruptor
mais à direita. Se quisermos 191 watts, ligaremos todos os interruptores, com
exceção do da lâmpada de 64 watts. Se o objetivo é ajustar a intensidade da
iluminação para 137 watts, deve-se ligar as lâmpadas de 128, 8 e 1 watts
(Figura 2).
Figura 2  Interruptores ajustados para produzir 137 watts.

Lâmpada de 128 Lâmpada de 64 Lâmpada de 32 Lâmpada de 16


watts watts watts watts

interruptor interruptor interruptor interruptor

Lâmpada de 8 watts Lâmpada de 4 watts Lâmpada de 2 watts Lâmpada de 1 watts

interruptor interruptor interruptor interruptor

Fonte: Gates (1995)

– 183 –
Fundamentos da Informática

“Para encurtar ainda mais a notação, você pode registrar cada “desligado”
com 0 e cada “ligado”com 1. O que significa que, em vez de escrever “ligado,
desligado, desligado, desligado, ligado, desligado, desligado, ligado”, vale
dizer, ligue a primeira, a quarta e a oitava das oito lâmpadas e deixe as outras
desligadas, você escreve a mesma informação como 1, 0, 0, 0, 1, 0, 0,1 ou
10001001, um número binário. No caso, é 137.” (Gates, 1995)
A ideia de ligar e desligar interruptores é que está por trás do sistema
binário. A princípio pode até parecer complicado mas, no sistema decimal,
essa mesma ideia é utilizada, regida pela lei de formação.

7.4 Sistema octal (base 8)


O sistema octal define que existem oito símbolos diferentes para se
representar qualquer número natural: 0, 1, 2, 3, 4, 5, 6 e 7. O sistema octal
também obedece à lei de formação.


Exemplo
O número 735 no sistema octal, de acordo com a
lei de formação, é composto da seguinte forma:
735 = 7x82 + 3x81 + 5x80

7.5 Sistema hexadecimal (base 16)


O sistema hexadecimal possui 16 símbolos para representações. Mas,
se os algarismos arábicos são apenas dez, faltariam ainda seis algarismos. Por
isso, o sistema hexadecimal é constituído pelos seguintes símbolos ordenados
em ordem crescente:
0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F
Note que A=10, B=11, C=12, D=13, E=14 e F=15. Outros símbo-

– 184 –
Sistemas de numeração

los poderiam ser utilizados para representar as quantidades maiores que


nove (Lourenço e outros, 1996). As letras foram escolhidas pela facilidade
de manuseio.
A lei de formação também rege o sistema hexadecimal, uma vez que ele
também é um sistema de representação posicional.

Exemplo
O número A29F no sistema hexadecimal, de acordo com
a lei de formação, é composto da seguinte forma:
A29F = Ax163 + 2x162 + 9x161 + Fx160
=10x163 + 2x162 + 9x161 + 15x160

7.6 Padrões de representação numérica


Existem vários padrões para se representar os números em diferentes
bases (Lourenço e outros, 1996). Os mais comuns são:
22 utilizar uma letra após o número para indicar a base;
22 colocar o número entre parênteses e a base como um índice do número.

Exemplos
• Sistema decimal: 1673D ou (1673)10
• Sistema binário: 1001B ou (1001)2
• Sistema octal: 753O ou (753)8
• Sistema hexadecimal: F3AH ou (F3A)16

7.7 Tabela de conversão entre bases


Os principais sistemas de representação posicional de números são o deci-

– 185 –
Fundamentos da Informática

mal, o binário, o octal e o hexadecimal. Para poder converter números de uma


base para outra, é muito importante entender a equivalência entre elas (Tabela 1).
Tabela 1: Tabela de equivalência entre as bases 10, 2, 8 e 16.

Base 10 Base 2 Base 8 Base 16


0 0 0 0
1 1 1 1
2 10 2 2
3 11 3 3
4 100 4 4
5 101 5 5
6 110 6 6
7 111 7 7
8 1000 10 8
9 1001 11 9
10 1010 12 A
11 1011 13 B
12 1100 14 C
13 1101 15 D
14 1110 16 E
15 1111 17 F
Como no sistema decimal, adicionando-se zeros à esquerda de um
número em qualquer outra base, seu valor não é alterado.


Exemplos
43610 = 043610 = 0043610 = 00043610

– 186 –
Sistemas de numeração

111012 = 0111012 = 00111012 = 000111012


6178 = 06178 = 006178 = 0006178

F4316 = 0F4316 = 00F4316 = 000F4316

7.8 Conversões de qualquer


base para a base 10
Para se converter um número de qualquer representação posicional para
a base 10, basta aplicar a lei de formação, substituindo b pela base do número
a ser convertido e an por seus algarismos.


Exemplos

(11011)2:

b = 2 (base do número)

n = 5 – 1 = 4 (quantidade de algarismos – 1)
1x24 + 1x23 + 0x22 + 1x21 + 1x20

16 + 8 + 0 + 2 + 1 = (27)10

(3D9)16 :

b = 16 (base do número)

n = 3 – 1 = 2 (quantidade de algarismos – 1)
3x162 + Dx161 + 9x160

3x256 + 13x16 + 9x1

768 + 208 + 9 = (985)10

– 187 –
Fundamentos da Informática

7.9 Conversão da base 10 para qualquer base


Para se converter um número de qualquer base para o sistema decimal,
também utilizamos a lei de formação, fazendo, basicamente, sucessivas
multiplicações dos algarismos por seus pesos. Se queremos o inverso –
do sistema decimal para as demais bases – precisamos realizar a operação
matemática inversa, ou seja, a divisão.
Lourenço explica que, “dado um número inteiro escrito na base 10,
para se obter seu equivalente em uma base b qualquer, divide-se o número
por b tantas vezes quantas necessárias para que o quociente da divisão
seja menor que b. O último quociente da divisão e os restos das divisões
sucessivas, tomados na ordem inversa, correspondem ao número na base b”
(Lourenço e outros, 1996).

Exemplo

(125)10 : ( ? )2 15 ÷ 2 = 7 e resto = 1
125 ÷ 2 = 62 e resto = 1
7 ÷ 2 = 3 e resto = 1

62 ÷ 2 = 31 e resto = 0
3 ÷ 2 = 1 e resto = 1

31 ÷ 2 = 15 e resto = 1 1 < 2 (base desejada)

Quando o quociente é menor que a base desejada, pára de se efetuar as


divisões. O resultado da conversão é o último quociente concatenado
com os restos das divisões do fim para o começo. Dessa forma, obte-
mos (1111101)2.

Esse mesmo exemplo pode ser visto na Figura 3.

– 188 –
Sistemas de numeração

Figura 3: Exemplo de múltiplas divisões na


conversão do número (125)10 para a base 2

125 2
1 62 2

Lourenço e outros (1996).


0 31 2
1 15 2
sentido da leitura 1 7 2
1 3 2

(125)10 = (1111101)2 1 1

Fonte:
7.10 Conversão entre base 2 e 16
A conversão entre os sistemas binário e hexadecimal pode ser feita
diretamente, sem a necessidade de operações aritméticas. Isso ocorre
porque existe uma estreita relação entre esses dois sistemas posicionais de
representação. Afinal, o número 16 (base do sistema hexadecimal) pode ser
expresso como 24 (repare o dois do sistema binário na base). Ou seja, os
números hexadecimais podem ser vistos como uma representação compacta
dos números binários. A conversão da base 2 para a base 16 é realizada da
seguinte forma:
1. segmenta-se o número em partes de 4 (quatro é a potência de 24)
algarismos, da direita para a esquerda;
2. cada segmento é convertido diretamente para o seu equivalente em
hexadecimal (Tabela 1).

– 189 –
Fundamentos da Informática

Exemplo

(1010011011)2
0010 1001 1011

2 9 B

Para a conversão da base 16 para a base 2, cada algarismo hexadecimal


é convertido diretamente para o seu equivalente em binário com quatro bits
(de acordo com a Tabela 1).
Exemplo

(54B)16
5 4 B

0101 0100 1011

7.11 Conversão entre as bases 2 e 8


A conversão entre as bases 2 e 8 também pode ocorrer diretamente, assim
como entre as bases 2 e 16. Isso se dá porque também há uma relação entre
essas duas bases, afinal 8 também pode ser reescrito como 23. A conversão é
direta. Ao invés de se formar grupos de quatro algarismos, formam-se grupos
de três algarismos.
Exemplo

(1010011011)2
001 010 011 011

1 2 3 3

– 190 –
Sistemas de numeração

Para a conversão de um número octal em binário, procede-se de modo


idêntico ao da conversão da base 16 para a base 2. Assim cada algarismo octal
é convertido diretamente para o seu equivalente em binário de três bits (de
acordo com a Tabela 1).
Exemplo

(543)8
5 4 3

101 100 011

7.12 Conversão entre as bases 8 e 16


Para converter um número octal em hexadecimal, é preciso realizar um
passo intermediário por meio do sistema binário (base 2). Isso porque, embora
não se possa elevar 8 a alguma potência para chegar a 16, é possível estabelecer
uma relação entre eles com a ajuda do número 2, já que 8=23 e 16=24.
Exemplo

(543)8
5 4 3

101 100 011


Encontrado o binário, realiza‑se a conversão da base 2 para a base 16.
0001 0110 0011

1 6 3

– 191 –
Fundamentos da Informática

Na conversão inversa (de hexadecimal para octal), também é necessária


uma etapa intermediária com ajuda do sistema binário. Assim, primeiro se
converte o número da base 16 para a base 2 e, em seguida, este para a base 8.
Exemplo

(1F4B)16
1 F 4 B

0001 1111 0100 1011


Encontrado o binário, se realiza a conversão da base 2 para a base 8.
001 111 101 001 011

1 7 5 1 3

7.13 Conversão de números fracionários


Os números fracionários também podem ser representados nas bases 2,
8 e 16. Afinal, esses números podem ser representados pela base 10. Para isso,
basta ampliar a aplicação da lei de formação:
Número = anbn + an–1bn–1 + an–2bn–2 + ... + a0b0 + a–1b–1 + a–2b–2 + ... + a–mb–m

Parte inteira Parte fracionária

em que:
b = base do número (exemplo: base 2, 8, 10 ou 16)
n = quantidade de algarismos da parte inteira –1
an = algarismos de acordo com sua posição
m = quantidade de algarismos da parte fracionária

– 192 –
Sistemas de numeração

Exemplos

a) Base 2 para base 10


1101,0112 = 1 · 23 + 1 · 22 + 0 · 21 + 1 x 20 + 0 · 2‑1 + 1 · 2‑2 + 1 · 2‑3
= 8 + 4 + 0 + 1 + (0/2) + (1/4) + (1/8) = 13,37510
b) Base 8 para base 10
51,348 = 5 · 81 + 1 · 80 + 3 · 8‑1 + 4 · 8‑2
= 40 + 1 + (3/8) + (4/64) = 41,437510
c) Base 16 para base 10
1F,5C016 = 1 · 161 + 15 · 160 + 5 · 16‑1 + 12 · 16‑2 + 0· 16‑3
= 16 + 15 + (5/16) + (12/256) + (0/4096) = 31,35937510

Já para a conversão inversa (da base 10 para as outras bases), o processo


é um pouco diferente na parte fracionária. A parte inteira é convertida
separadamente pelas divisões sucessivas. Para a parte fracionária, utiliza-se o
processo das multiplicações sucessivas pela base desejada.
Exemplos

a) Base 10 para a base 2


7,2512 = parte inteira: 1112
parte fracionária:
0,25 0,50 0,0 final
x 2 x2
0,50 1,00

0 1
7,42710 = 111,012

– 193 –
Fundamentos da Informática

b) Base 10 para a base 2 (dízima periódica)


6,410 = parte inteira: 1102
parte fracionária:
0,4 · 2 = 0,8 0
0,8 · 2 = 1,6 1
Repetição 0,6 · 2 = 1,2 1
0,2 · 2 = 0,4 0
0,4 · 2 = 0,8 1
6,410 = 110,01100110011001100110...2

Entre os vários sistemas de numeração existentes, os de representação


posicional (atribuição de pesos para cada posição de algarismo) se destacam
pela facilidade de realização de operações aritméticas.

Conclusão
O ser humano sempre teve a necessidade de quantificar coisas, e para
isso criou os sistemas numéricos. Com as representações numéricas, torna-se
possível realizar de forma trivial tarefas antes complexas. Entre as várias
representações, destacam-se a decimal (com dez símbolos), a binária (com
dois símbolos) – amplamente utilizada nos computadores, a octal (com
oito símbolos) e a hexadecimal (com 16 símbolos). A lei de formação rege
todas essas representações, e graças a isso é possível converter os números
de uma base para outra. Basicamente, a lei de formação atribui pesos para
as posições de cada algarismo de um número (ideia de sistema posicional).
Os números fracionários também podem se representados seguindo essa
mesma lógica.

– 194 –
8
A informática
e o software

A informática está inserida na vida moderna como uma


ferramenta de apoio em todas as atividades, das simples às
complexas. Com a evolução tecnológica e a democratização dos
equipamentos eletrônicos, esta ferramenta tem um crescimento
significativo na população mundial.
Os equipamentos informatizados, tais como telefones
celulares, computadores pessoais, veículos automotores,
eletrodomésticos, caixas eletrônicos de bancos, constituem alguns
exemplos dessa ferramenta que estão inseridos na vida moderna.
Com isso, a sua utilização tornou-se comum em todos os momentos
e setores da sociedade. Torna-se, portanto, necessária maior interação
e nível de treinamento quando são utilizados os dispositivos, citados
anteriormente, no mercado de trabalho.
O profissional da área de informática deve saber que, para se
destacar no mercado de trabalho, precisa se aperfeiçoar na utilização,
instalação e configuração de softwares, como sistemas operacionais,
editores de texto, planilhas de cálculo, softwares de apresentação,
banco de dados e sistemas especialistas, mas não necessariamente
em todos ao mesmo tempo.
Fundamentos da Informática

Portanto, conhecer e dominar técnicas dentro da informática e os


programas que a mesma utiliza é de fundamental importância. Não há um
caminho único ou apenas um sistema que se deva conhecer profundamente. A
informática sempre reserva aos seus usuários muitos desafios e cobra dedicação
e conhecimento, mas proporciona a todos um ambiente de interação nunca
visto na sociedade contemporânea.

8.1 O que é software?


Software é um conjunto de instruções a serem executadas pelos
dispositivos eletrônicos para manipulação e interação de dados utilizados pelo
usuário. Para este e próximos capítulos, deve-se considerar como dispositivo
eletrônico o computador pessoal (Personal Computer – PC) que, a partir de
agora, será chamado apenas de computador.
Um computador é formado por duas partes importantes e distintas:
hardware e software, o hardware é a parte física e o software é a parte lógica.
O software é responsável pelo gerenciamento dos componentes do
computador e pela interface amigável que possibilita ao usuário a utilização
das ferramentas disponíveis na área da Tecnologia da Informação (TI).
Na TI tem-se o Processamento de Dados, que consiste na entrada, no
processamento e na saída de dados, sendo realizado através de dispositivos
físicos, tais como teclado, mouse, memória, monitor e impressora, que são
dispositivos físicos acoplados ao computador. Cada software pode gerenciar
um ou mais dispositivos.

8.2 Categorias de software


O software pode ser classificado pelas suas características de utilização;
com isso se tem as seguintes categorias: sistema operacional, editor de
texto, planilha de cálculo, software de apresentação, internet, linguagens de
programação, sistema gerenciador de banco de dados e sistema especialista.

8.2.1 Sistema operacional


O sistema operacional é um software básico, responsável pelo gerencia-

– 196 –
A informática e o software

mento dos dispositivos de entrada, processamento e saída de dados.


Também gerencia outros softwares instalados no computador e faz a
interpretação da linguagem da máquina, transformando-a na linguagem
do ser humano.

8.2.2 Editor de texto


O editor de texto é um software aplicativo, que se propõe a editar
textos, facilitando a elaboração de documentos, permitindo implementar
as necessidades do usuário referentes à criação de cartas, relatórios, livros e
textos em geral. O mesmo implementa todos os padrões de formatação das
entidades responsáveis pelas normas técnicas de edição de textos.
Pode-se comparar um editor de texto a uma máquina de escrever, porém
com facilidades muito maiores quando se necessita incluir ou alterar uma
cópia existente, pois partes do texto podem ser retiradas, trocadas de lugar,
adicionadas ou alteradas, e não será necessário reescrever nada daquilo que já
fora feito corretamente.
Os editores de texto modernos aplicam as normas ortográficas e
gramaticais relativas aos diversos idiomas, facilitando e proporcionando ganho
de tempo e um trabalho adequado, tanto para os textos acadêmicos quanto
para os profissionais.

8.2.3 Planilha de cálculo


Uma planilha de cálculo é composta de linhas e colunas. Sua principal
função é trabalhar com números, proporcionando ao usuário um modo
simples de elaborar planilhas para controlar relações de materiais ou de
pessoas com a possibilidade de automatizar os cálculos necessários para
finalizar o seu trabalho.
Com as planilhas pode-se calcular um número muito grande de funções
aritméticas, matemáticas, juros simples e compostos, além de elaborar gráficos
para representar visualmente os dados contidos na mesma.
Com a planilha de cálculos consegue-se responder a perguntas, tais como:

– 197 –
Fundamentos da Informática

22 Qual foi o lucro de uma empresa em um determinado período?


22 Qual a média dos alunos de uma turma na última avaliação?
22 Quantas reuniões estão marcadas, em que sala serão realizadas e
quais as salas disponíveis?
22 Quanto foi a despesa pessoal com relação ao combustível nos
últimos meses?
O recurso de automatização de cálculos citado é um dos mais importantes
de uma planilha de cálculo, pois possibilita reavaliar constantemente as
funções implementadas na tabela do usuário. Na medida em que os dados são
inseridos, os cálculos são refeitos instantaneamente de modo que a planilha
sempre fique atualizada.

8.2.4 Software de apresentação


O software de apresentação tem a finalidade de representar graficamente
as informações que fazem parte de uma comunicação, que podem ser: um
treinamento, uma aula, apresentação de um produto, entre outros.
Esta representação gráfica é feita por meio de slides, que são as páginas do
software de apresentação, substituindo, com muita vantagem, as apresentações
antigas que precisavam ser impressas e tinham qualidade inferior, visto que
nas atuais, além da qualidade gráfica superior, pode-se contar com diversos
recursos de multimídia.
Os softwares de apresentação podem ser utilizados para diversos fins,
tais como:
22 Apresentação de slides e vídeos;
22 Desenvolvimento de trabalhos acadêmicos;
22 Mostra de fotografias;
22 Treinamento de funcionários;
22 Materiais didáticos.
Uma dica muito importante sobre a elaboração de uma apresentação diz

– 198 –
A informática e o software

respeito à comunicação que se deve ter com o público-alvo. Para tanto, alguns
cuidados precisam ser tomados:
22 Conhecer o assunto a ser abordado;
22 Selecionar a informação que se deve passar ao público;
22 Considerar somente os pontos importantes a serem tratados;
22 Planejar a apresentação antes da elaboração dos slides;
22 Organizar as ideias com começo, meio e fim;
22 Observar o tempo disponível para a apresentação e distribuir os
slides dentro desse tempo;
22 Conhecer o público-alvo, pois é para ele que a apresentação
deve ser preparada;
22 Cuidar das cores utilizadas, tanto na combinação quanto na sua
tonalidade;
22 Adotar uma identidade visual para facilitar a compreensão e a loca-
lização de informações relevantes;
22 Adequar a quantidade e o tamanho do texto utilizados no slide, que
não devem ser excessivos.

8.2.5 Internet
A internet é uma rede global de computadores, interligados por
equipamentos e protocolos de comunicação. É baseada na troca de informações
entre computadores, o que possibilita aos usuários transferir arquivos, conversar
eletronicamente por meio de mensagens escritas ou faladas, compartilhar equipa-
mentos e softwares.
Com o surgimento da internet, o comportamento das empresas e das
pessoas mudou. Novas aplicações e soluções foram criadas; isso possibilitou
novas oportunidades de trabalho e entretenimento.
O compartilhamento favorecido de ideias e informações entre pessoas e
empresas, em qualquer parte do mundo, força o pensamento global, possibi-
litando às atitudes locais serem facilmente compartilhadas.

– 199 –
Fundamentos da Informática

8.2.6 Comunicação
A comunicação entre computadores é feita por meio de um protocolo
de comunicação. Protocolo é o nome dado ao conjunto de regras que os
equipamentos envolvidos no processo devem seguir para que a ligação entre
os mesmos permaneça estável e funcional. Portanto, os computadores só
entendem se falarem a mesma língua (o protocolo).
O protocolo mais comum utilizado nas redes de computadores – estru-
turas físicas (equipamentos) e lógicas (programas, protocolos) que permitem
que dois ou mais computadores possam compartilhar informações – é o
TCP/IP (Transmission Control Protocol/Internet Protocol). Cada computador
ligado à rede possui um endereço, chamado Endereço IP, que deve ser único.
O Endereço IP é formado por quatro conjuntos de números que vão de
0 a 255, separados por três pontos e variando a quantidade de dígitos, como:
255.255.255.1, 1.1.1.255 ou 17.15.1.203. Dois computadores não podem
ter, ao mesmo tempo, o endereço IP igual. Para garantir isso, há um sistema
de atribuição automática para o endereçamento.
Quando um computador se conecta a uma rede TCP/IP, o mesmo recebe
o endereço IP de um servidor, que é um computador central, localizado na
empresa ou no provedor que provê o acesso à internet, que também é um
tipo de rede de computadores. Este servidor não vai atribuir um endereço IP
repetido a nenhum outro computador que se conectar, enquanto aquele ainda
permanecer conectado na rede. Após a saída (desconexão) do computador, o
endereço IP pode ser atribuído a qualquer outro equipamento.

8.2.7 Linguagem de programação


O computador é um equipamento eletrônico que executa tarefas
predefinidas; para isso é preciso “dizer” o que deve ser executado e como. A
função das linguagens de programação é exatamente essa, ou seja, servir de
meio de comunicação entre computadores e humanos.
Basicamente existem dois tipos de linguagens de programação: as de
baixo e as de alto nível. Os computadores interpretam as tarefas a serem
executadas como números em base binária, ou seja, só entendem zero e um.
As linguagens de baixo nível são complexas para se desenvolver, pois possuem

– 200 –
A informática e o software

uma sintaxe peculiar, bastante diferente da linguagem humana, porém são


interpretadas diretamente pelo computador, o que aumenta a velocidade de
execução das mesmas.
As linguagens de alto nível são mais fáceis para programar; os comandos
são representados por palavras comuns como “faça”, “imprima”, “volte” e
“pare”. Como padrão é utilizado o idioma inglês para facilitar a memorização
e a lógica. As linguagens não são interpretadas diretamente pelo computador,
sendo necessário transformar os comandos para linguagem binária, tarefa
realizada pelos compiladores.
Programar é escrever um arquivo de texto comum contendo a lógica do
programa, que são as instruções que deverão ser executadas; programando
o computador para realizar tarefas específicas. Este texto é chamado de
código fonte e cada ordem dentro do código é chamada de instrução.
Após a conclusão do arquivo de texto, é necessário traduzir os comandos
para a linguagem binária, tarefa do compilador, ou ainda, em algumas
linguagens que não utilizam compiladores, há uma interpretação dos
mesmos. Após essa transformação, os programas são disponibilizados para o
usuário final.

8.2.8 Sistema Gerenciador de banco de dados


Um banco de dados é um repositório de dados para armazenamento e
extração de informações relevantes ao negócio. Têm-se, nesse contexto, os
dados que são um elemento ou conjunto de elementos que, isoladamente,
não possuem significado preciso, e a informação que é o resultado da trans-
formação dos dados em algo útil para o usuário. Esses dados são armazenados
em um modelo de dados relacional.
O modelo de dados relacional tem como base uma tabela bidimensional
que é composta de linhas (registros) e colunas (campos). Neste modelo, uma
tabela é chamada de relação.
Para realizar as tarefas pertinentes a um banco de dados, tem-se o Sis-
tema Gerenciador de Banco de Dados (SGBD), que é um software com várias
funções, dentre elas a manipulação de objetos e de dados.

– 201 –
Fundamentos da Informática

8.2.9 Sistema especialista


O sistema especialista tem a função de reproduzir a ação humana em
alguma área do conhecimento, substituindo total ou parcialmente a atividade
de um especialista no processo de tomada de decisões. O mesmo se justifica
pela falta ou número reduzido de especialistas no mercado e para que as ações
envolvidas no processo não sofram atraso e inviabilizem a cadeia de produção.

Da teoria para a prática


Diante dos desafios cada vez maiores do mercado de trabalho,
os profissionais precisam estar atentos às novidades do setor de
informática. Para isso, a leitura de material específico deve ser
realizada com frequência. A internet é uma fonte abundante
de informações, portanto é uma das melhores opções para
a atualização e leitura sobre lançamentos, tendências e
características dos vários assuntos relacionados ao mundo
digital, claro, sempre tomando cautela, pois nem sempre as
fontes da internet são confiáveis.
Dentre tais assuntos, os softwares aplicativos devem receber uma
atenção especial, pois, mesmo nas atividades básicas, eles estão
sempre sendo atualizados e a sua correta utilização é muito bem
vista e valorizada pelas empresas. Treinamento é outra opção
válida para se manter atualizado e acompanhar o ritmo frenético
dos fabricantes de aplicativos, inclusive quando há a necessidade
da mudança de fabricante, por exemplo, de um editor de texto.
A grande característica da área de software é entender o conceito
dos softwares especialistas; com isso, mesmo diante de mudanças
significativas, a adaptação será mais fácil.

Conclusão
O que é software? Software é um conjunto de instruções a serem
executadas pelos dispositivos eletrônicos para manipulação e interação de

– 202 –
A informática e o software

dados utilizados pelo usuário. Foi visto que há um número considerável de


categorias de software e cada um com suas características e aplicações.
Sistema operacional, editor de texto, planilha de cálculo, software de
apresentação, internet, comunicação, linguagem de programação, banco de
dados e sistemas especialistas são categorias de software feitas para o dia a dia
de todas as profissões. Conhecer e dominá-las fará com que um profissional
seja valorizado no mercado, portanto, vejamos a seguir informações mais
detalhadas sobre cada categoria de software mencionada.

– 203 –
9
Classificação de
software

O software, popularmente conhecido como “programa de


computador”, está na essência da computação, visto que é ele que
determina como o hardware (o computador e seus acessórios) deve
funcionar, que tarefas executar e como exibir os resultados. Assim,
criar um software é tarefa sofisticada e que requer conhecimentos
técnicos específicos da lógica e das linguagens de programação.
A distribuição e comercialização de um software é tema
de muitas discussões, já que existem opiniões divergentes sobre
como isso deveria ser feito. De um lado, os defensores do chamado
software livre, que pode ser reproduzido e modificado livremente;
de outro, os que acreditam nos softwares proprietários, cujo uso só
é permitido com aquisição de uma licença.
Essa divergência gira em torno de direitos autorais e
intelectuais, e do custo para o desenvolvimento do software incluindo
a remuneração dos profissionais da área de desenvolvimento
(gerentes de projeto, analistas de sistemas e programadores
(MOLINARI, 2007).
Fundamentos da Informática

9.1 Software livre


A partir dos anos 1990, a vertente que defende o software livre começou
a ganhar considerável força, devido à visão da Free Software Foundation
(FSF) – uma fundação sem fins lucrativos, criada em 1985, que se dedica à
eliminação de restrições sobre a cópia, redistribuição, estudo e modificação
de programas de computadores, além de patrocinar o desenvolvimento de
um sistema operacional completo e licenciado como software livre, o GNU.
O nome GNU é um acrônimo para a sigla Gnu is Not Unix (Gnu não é
Unix, uma brincadeira com o gnu, espécie de antílope africano, e o sistema
operacional Unix).
Para a FSF, “software livre é uma questão de liberdade, não de preço.
Para entender o conceito, você deve pensar em liberdade de expressão, não
em cerveja grátis”.
Está aí um dos pontos principais do software livre: ele não necessariamente
é gratuito. A controvérsia sobre “liberdade” e “gratuidade” vem do termo
original em inglês – free –, que tanto pode ser traduzido como livre
ou gratuito.
O ponto central do software livre se baseia na ideia de garantir
liberdade para que usuários executem, copiem, distribuam, estudem,
aperfeiçoem e modifiquem um software, levando em consideração suas
características, expectativas e necessidades. Tudo isso contribui para
uma visão construtivista e evolucionária em que diversas pessoas podem
trabalhar para torná-lo melhor. (OSI, [s. d.]).
Se a próxima pergunta é “o que posso fazer para torná-lo melhor se
foi outra pessoa que o criou?”, a resposta orienta. A característica mais
importante de um software livre é a disponibilização de seu código fonte para
que outras pessoas possam utilizar, alterar ou mesmo redistribuir o software
com suas alterações. Isso contribui sensivelmente para que diversas pessoas
tenham acesso à informação, difundindo conhecimento e incentivando a
pesquisa científica (FSF, [s. d.]).
A FSF menciona que, para que um software seja considerado livre, ele
deve necessariamente seguir os quatro princípios da liberdade. São eles:
22 liberdade n. 0: o usuário deve ter a liberdade de executar o programa,

– 206 –
Classificação de software

para qualquer propósito;


22 liberdade n. 1: o usuário deve ter a liberdade de estudar e adaptar o
programa às suas necessidades. O acesso ao código fonte é um pré
requisito para essa liberdade;
22 liberdade n. 2: o usuário deve ter a liberdade de redistribuir cópias
de modo que possa ajudar ao próximo;
22 liberdade n. 3: o usuário deve ter a liberdade de aperfeiçoar o
programa e disponibilizar seus aperfeiçoamentos, de modo a
beneficiar toda a comunidade. O acesso ao código fonte é um pré
requisito para essa liberdade.

Saiba mais
Antes de formar uma opinião acerca de software livre, é bom
entender mais a fundo os conceitos em torno dele.
Boas referências sobre o assunto podem ser encontradas nos
sites da Free Software Foundation (www.fsf.org), do Projeto
GNU (www.gnu.org) e da Open Source Iniciative (www.
opensource.org).

No entanto, embora o acesso ao código fonte seja um dos pilares para a


caracterização de um software livre, isso não significa que não possa haver um
viés comercial. A ideia de se ganhar dinheiro com software livre não está na
venda de produtos fechados, mas sim na venda de serviços de qualidade que
estão, a todo o momento, expostos, sendo colocados à prova e ao julgamento
da comunidade. (Molinari, 2007)
Um software, quando se diz livre, geralmente está regido pelas regras
da GPL (Licença Pública Geral, na sigla em inglês), que é uma licença
para software concedida pela Free Software Foundation, criada por Richard
Stallman em meados da década de 80. Essa licença atesta que o software segue
as regras de software livre, atendendo, por exemplo, as quatro liberdades
mencionadas anteriormente. É utilizado por grandes projetos, como o do
sistema operacional Linux (FSF, [s. d.]).

– 207 –
Fundamentos da Informática

O software livre pode ser encarado sob dois aspectos: Open Source e
Livre Comercial.

9.1.1 Open source


Também conhecido como código aberto, esse tipo de software também
leva em consideração os preceitos de liberdade descritos para o software
livre. Sua defesa, porém, a cargo da Open Source Iniciative (OSI), foca mais
em questões técnicas (até a eventual superioridade em relação aos softwares
proprietários, de código fechado) e não tanto em questões éticas ou morais
como as que a FSF prega quando se refere ao software livre.
No open source, o código fonte é acessível e há permissão para que seja
modificado e redistribuído, mantendo os princípios de liberdade do software
original. Isso auxilia na prevenção de sua utilização com fins comerciais,
estando sujeito aos termos da licença GPL. Alguns exemplos de softwares
open source são o kernel do sistema operacional Linux e o projeto Web Apache
TomCat, que podem ser alterados e redistribuídos (FSF, [s. d.]).

9.1.2 Livre comercial


O software livre comercial ainda preserva a característica de código
fonte aberto, mas não exclui a possibilidade de receber um tratamento
comercial (distribuição mediante pagamento). No entanto, uma vez que
é regido pelas regras da GPL, que exige a sua distribuição sem ônus para
o usuário, o software chamado livre comercial encontra outra maneira de
ser comercializado (FSF, [s. d.]). Na maior parte das vezes, trabalha-se com
a ideia de agregar valor, diferenciando-o da versão open source. Entre esses
recursos, está o empacotamento e a venda com outros softwares integrados,
ou a venda de um hardware que se comporta melhor por ser compatível
com o software. A distribuição dos softwares Linux RedHat e o Mandrake são
alguns exemplos.
O mercado também é fértil em softwares gratuitos, mas nenhum deles
abre o código fonte. Só por essa característica, fica claro que software gratuito
não é software livre. A impossibilidade do usuário de modificar e redistribuir
o software faz com que ele fique indiretamente preso à empresa que o

– 208 –
Classificação de software

desenvolveu. As versões de software gratuito são duas:


22 Versões freeware: podem ser utilizados sem limite de tempo, copia-
dos e distribuídos livremente, mas não podem ser alterados porque
o código fonte não é aberto. Exemplo: Java Sun, Internet Explorer.
22 Versões adware: são gratuitos, porém utilizam publicidade, como
banners ou links de patrocinadores, que custeiam o desenvolvimento
e manutenção em troca de marketing. Como o freeware, podem
ser copiados e distribuídos livremente, mas sem modificações (pela
falta do código fonte). Exemplo: Adobe Acrobat.


Lembre-se: nem sempre um software gratuito é livre, e nem
todo software livre deixa completamente de ser comercial.

Todos esses exemplos deixam claro que existem diversas possibilidades


quanto à exploração das características do software livre. Por outro lado, há
a corrente que prega a utilização de softwares proprietários, nos quais são
considerados direitos autorais e ideológicos envolvendo custo.

9.2 Software proprietário


A ideologia que embasa os livres vai de encontro à percepção de que
um software é um produto comercial que envolve pesquisa, custos de
desenvolvimento e até segredos e estratégias de negócio de grandes empresas.
Muita gente acredita que o conceito de software livre é uma utopia ou uma
ideia muito à frente de seu tempo.
Os argumentos em defesa do software proprietário são melhor analisados
com ajuda de uma analogia. Por exemplo: um grande chef de cozinha, por
cozinhar muito bem, tem todo o direito de abrir um restaurante e vender suas
deliciosas iguarias. Ninguém pode obrigá-lo a ensinar ou mesmo a distribuir
suas receitas gratuitamente para que outros as utilizem. Alguns chefs gostam
de compartilhar seus conhecimentos, outros fazem questão de cercá-los de

– 209 –
Fundamentos da Informática

uma aura de segredo. É o cliente quem decide se vai querer pagar ou não para
degustar as iguarias.
Assim, voltando ao software, o que é fornecido tem um preço que é
definido de acordo com a utilidade do software para determinada pessoa que
pague o valor sugerido, mesmo que outros discordem completamente desse
ponto de vista (Molinari, 2007).

Saiba mais
Alguns softwares se utilizam de licenças um tanto quanto
diferentes, como a Postcardware e a Stampware­Cardware, nos
quais o desenvolvedor exige o feedback por parte dos usuários
da ferramenta por meio de postais ou cartas para só então liberar
o registro do software.

Um software comercial ou proprietário é distribuído sem a


disponibilização de seu código fonte. Normalmente, é comercializado sob
os termos de licença de uso e não de propriedade. O que acontece nesse
caso é que, ao adquirir um software, uma pessoa está se comprometendo
somente a utilizá-lo, sem direito algum no âmbito de comercialização ou de
redistribuição, sob pena de multas severas. Exemplos desse tipo de software
são o sistema operacional Microsoft Windows e o assistente gráfico Corel Draw.
Uma grande quantidade de softwares proprietários oferece versões
gratuitas para teste e “degustação”, que podem ser classificadas como:
22 shareware: software que, após certo tempo de utilização ou de um certo
número de utilizações, suspende suas funcionalidades. Para continuar
usando, é necessário o registro, mediante o pagamento de uma taxa ao
proprietário. Muitas empresas que desenvolvem software optam por
agregar serviços aos usuários registrados, a fim de fidelizar o cliente;
22 demo: serve como uma demonstração do produto, para que o
cliente possa avaliá-lo e julgar se vale ou não a pena adquiri-lo.
Esta é uma modalidade muito comum no mercado de games,
em que se oferece acesso a uma ou mais fases de um jogo, por

– 210 –
Classificação de software

exemplo, para que o cliente em potencial possa ter uma amostra da


experiência. A versão demo não expira e nem pode ser registrada,
sendo necessária a substituição de todo o software, caso o usuário
decida comprá-lo;
22 trial: é semelhante à distribuição demo, porém se aplica geralmente a
softwares funcionais, como editores de texto e planilhas eletrônicas.
Embora permita experimentar quase todos os recursos disponíveis,
bloqueia alguns pontos-chave, impedindo, por exemplo, a edição
de trabalhos ou o recurso de salvar os documentos.

Reflita
Em sua maioria, os softwares proprietários são conhecidos
como Software Box, ou “softwares de caixinha”. É como
comprar um produto pronto na prateleira. O usuário tem pouco
ou nenhum poder de manipulá-lo, alterar suas configurações ou
personalizá-lo para necessidades específicas.

Essas classificações de software não são as únicas existentes, mas


as principais e mais utilizadas. Elas refletem as ideias e opiniões dos
desenvolvedores e proprietários de softwares e seu desejo de como estes
deveriam ser utilizados. Outros métodos incluem a utilização do software em
troca de uma doação voluntária por parte do usuário.
A Microsoft, por sua vez, teve a iniciativa de lançar seus produtos sob
licença shared source, permitindo que parceiros, empresas e governo tenham
acesso ao código fonte de seus produtos. Segundo alguns, isso minimiza o
que poderia ser caracterizado como monopólio do mercado. Ainda assim, a
Microsoft não permite nem a alteração nem a redistribuição de seus produtos
(OSI, [s. d.]).
As discussões sobre o modelo ideal de distribuição de softwares são
influenciadas por valores culturais e sociais, e por isso todas as propostas têm
prós e contras. No entanto, todas contribuem, cada uma à sua maneira, para
enriquecer a produção de conhecimento e a disseminação de informação.

– 211 –
Fundamentos da Informática

Conclusão
Existem dois tipos básicos de software no mercado: o livre e o proprietário.
O software livre caracteriza-se por ter seu código fonte aberto (open source),
que é a linguagem em que ele foi programado. Isso dá aos usuários liberdade
para utilizar, copiar, distribuir, estudar, aperfeiçoar, modificar e redistribuir
um software. Porém, essa liberdade não vem necessariamente acompanhada
de gratuidade. Os programas chamados de livre comercial vêm sempre
atrelados a “pacotes” de outros programas ou hardware, agregando valor que
permite a cobrança.
Software gratuito não quer dizer software livre. Sem exibir o código fonte,
os produtos gratuitos trabalham com versões freeware e adware, permitindo
seu uso sem custo por determinado tempo ou com patrocínio de anunciantes.
Já o software proprietário concede uma licença de uso apenas, sem abrir
o código fonte. São os chamados “softwares de caixinha”, pois já vêm prontos
e impedem o usuário de fazer qualquer modificação ou personalização, exceto
por questões de usabilidade. Por serem produtos prontos, normalmente
oferecem versões shareware, demo e trial, que permitem “degustar” o produto
antes de decidir a compra.
Entidades como a Free Software Foundation (FSF) e a Open Source
Iniciative (OSI) contribuem para as discussões e soluções a respeito da
melhor forma de compartilhar o conhecimento e beneficiar usuários em
todo o mundo.

– 212 –
10
Sistemas operacionais,
redes de computadores
e banco de dados

Com exceção das instruções básicas do BIOS, o Sistema


Operacional é o software que está intimamente ligado ao hardware
em um computador pessoal. É ele o responsável por gerenciar os
recursos do equipamento, abstraindo esse gerenciamento e subsi-
diando o desenvolvimento de aplicativos que irão permitir ao usu-
ário desempenhar suas tarefas do cotidiano. Uma visão geral desse
gerenciamento e dos principais sistemas operacionais é abordada
neste capítulo.
Fundamentos da Informática

10.1 Sistema Operacional: Conceitos


Um sistema computacional moderno consiste em um ou
mais processadores, memória principal, discos, impressoras,
teclado, monitor, interfaces de rede e outros dispositivos de
entrada e saída. [...] Por isso, os computadores têm um dis-
positivo de software denominado sistema operacional, cujo
trabalho é gerenciar esses componentes e fornecer aos progra-
mas do usuário uma interface com o hardware mais simples
(TANENBAUM, 2003, p. 1).

Para garantir um gerenciamento de recursos adequados e proporcionar


uma boa comunicação entre os aplicativos e o hardware do computador, um
sistema operacional prevê alguns conceitos, abordados nesta seção.

10.1.1 Abstração de recursos


Imagine se um editor de textos, ao gravar um documento, precisasse
verificar diretamente quais os setores disponíveis de um disco rígido para
saber se existe espaço suficiente e em qual posição as agulhas deveriam
escrever as sequências binárias. O mesmo procedimento deveria ser adotado
por um editor gráfico ao gravar uma imagem. E todos os aplicativos que
necessitassem realizar gravação e leitura de arquivos deveriam englobar as
mesmas funcionalidades. Se, em determinado momento, o usuário resolvesse
trocar o HD por outro de tamanho diferente, ou até mesmo escolhesse
outra mídia para gravação de seus documentos, essa alteração deveria ser
contemplada em todo o processo.
Fica evidente que esse processo de compreensão do hardware em uso é
tarefa exclusiva do sistema operacional, e que de alguma forma simplificada, irá
prover subsídios para que aplicativos realizem-na sem maiores preocupações.
Isto é abstração de recursos: tornar transparente aos aplicativos como gerenciar
e acessar os recursos de hardware disponíveis (processador, memória, discos,
etc.), de maneira genérica, sem detalhes de seu funcionamento.

10.1.2 Gerenciamento de recursos


No desempenho de sua função básica, que é a abstração de recursos,
o sistema deve trabalhar com uma política adequada de gerenciamento dos

– 214 –
Sistemas operacionais, redes de computadores e banco de dados

mesmos. Dentre os principais recursos gerenciados pelo sistema operacional,


alguns merecem especial atenção:
22 Processador: onde são executadas as tarefas (processos) – o
gerenciamento do processador consiste em distribuir sua capacidade
de processamento de forma justa entre os processos, garantindo
também a comunicação e sincronização entre eles.
22 Memória: gerenciar a memória deve prever a distribuição de
sua capacidade entre os processos, garantindo o controle de
compartilhamento e acesso exclusivo pelos processos. Em caso
de insuficiência de memória principal, fazer uso da memória
secundária (discos) como alternativa.
22 Dispositivos: permitir, através de drivers, o uso genérico e o
controle de entrada/saída de dispositivos como HDs, disquetes,
pen-drives, etc.
22 Arquivos: oferecer aos aplicativos subsídios para operações de acesso
a arquivo (leitura, gravação, exclusão), bem como sua organização
estruturada (como pastas).
22 Segurança: estabelecer políticas de acesso a recursos por
diferentes usuários ou grupos de usuários, mediante autenticação
e autorização.

10.1.3 Escalonamento de processos


Em sistemas operacionais multitarefa, é importante que haja uma
política consistente de gerenciamento de recursos entre os processos.
À medida que as tarefas vão sendo solicitadas pelo usuário ou por outros
programas em execução, elas vão sendo colocadas em uma fila e o sistema
operacional precisa decidir qual tarefa será executada por primeiro. O módulo
do sistema responsável por esta decisão chama-se escalonador e ele obedece a
um algoritmo de escalonamento.
De acordo com a forma de gerenciamento da fila de execução, um sistema
pode ser dito preemptivo ou não preemptivo. Nos sistemas não preemptivos
(pouco utilizados em sistemas modernos), a tarefa entra em execução e assim

– 215 –
Fundamentos da Informática

permanece até que termine de executar ou que necessite realizar uma operação
de entrada/saída. Os sistemas preemptivos vão atendendo todas as tarefas ao
mesmo tempo, alternadamente, e por partes. Para tanto, incorporam dois
novos conceitos: troca de contexto e quantum.
Para o sistema atender simultaneamente as diversas tarefas que estão em
fila para execução, ele o faz por partes, ou seja executa um pouco de uma,
para, executa um pouco da outra, para, e assim sucessivamente. A fração de
tempo que o processo fica em execução é chamada de quantum. A troca de
contexto acontece toda vez que um processo é deixado de lado para dar lugar
a outro: o processo atual precisa ser removido da memória, dando lugar ao
próximo, e em momento futuro volta a ocupar a memória para execução de
mais uma fração.
Dentre os diversos algoritmos de escalonamento empregados nos
escalonadores, destacam-se: FCFS (First Come First Served – o primeiro a
chegar é o primeiro a ser servido), Round Robin, Prioridades, SJF (Shortest
Job First – tarefa mais curta por primeiro), FSS (Fair Share Scheduling –
escalonamento por fração justa).

10.1.4 Gerenciamento de memória


Quando um processo entra em execução, ele é colocado em memória
para ser acessado pelo processador. Ao ocupar a memória, esse processo é
colocado em um endereço físico e, com o auxílio dos registradores, recebe
um endereço inicial lógico. Um programa nunca enxerga em qual endereço
físico da memória está alocado, tendo acesso somente aos endereços lógicos
dentro do espaço de memória que lhe foi reservado. Os registradores foram
abordados no capítulo 3.
Existem vários métodos de organização e gerenciamento de memória,
alguns trabalhando de forma estática e outros de forma dinâmica. São eles:
alocação contígua simples, overlay (sobreposição), alocação particionada
estática (absoluta e relocável), alocação particionada dinâmica.
Muitas vezes a quantidade de memória DRAM de um PC não é suficiente
para alocar os processos que precisam ser executados. Diante dessa situação,
o sistema operacional reserva uma parte do HD para gravação dos dados que

– 216 –
Sistemas operacionais, redes de computadores e banco de dados

deveriam residir na DRAM e durante a execução realiza trocas constantes


entre o que está no HD e o que permanece na DRAM. Esse processo de troca
é chamado de swapping.

10.1.5 Sistemas de arquivos


De programas executáveis, incluindo o próprio sistema operacional, a
documentos manipulados por aplicativos, todo software de um PC é baseado
em sistemas de arquivos.
Os arquivos são sequências de bytes de dados com delimitação de início
e tamanho dentro da unidade de armazenamento (HD, disquete, etc.) e
com estrutura própria. Para que seja possível o acesso aos arquivos, eles são
organizados pelo sistema operacional nas diversas mídias de acordo com o
que se conhece por sistemas de arquivos.
A distribuição física dos arquivos (sequências binárias) é organizada
de forma lógica, na qual cada arquivo recebe um nome (ou também uma
extensão), residindo normalmente em diretórios (também chamados de
pastas) que, por sua vez, podem estar dentro de outros diretórios e assim
sucessivamente, formando uma árvore. Também é o sistema de arquivos que
permite o controle do espaço disponível na mídia.
Toda essa organização é armazenada em forma de índices ou tabelas,
que é basicamente o que difere entre os sistemas. De acordo com o sistema de
arquivos utilizado, muda a forma de organização, desempenho e segurança
para acesso aos dados. Os diversos sistemas operacionais comerciais fazem
uso de seus próprios sistemas de arquivos, alguns oferecendo possibilidade de
manipulação de outros, a fim de garantir a portabilidade dos dados. Dentre
os sistemas de arquivos mais conhecidos, podem ser citados:
22 FAT (File Alocation Table – Tabela de Alocação de Arquivos): pre-
sente nos sistemas operacionais da Microsoft desde o DOS, é reco-
nhecido até hoje pelas versões mais modernas do Windows®, mais
comumente em variações mais evoluídas do sistema (FAT32 ou
exFAT).
22 NTFS (New Technology File System – Sistema de Arquivos de
Nova Tecnologia): utilizada pelo Windows NT® desde suas primei-

– 217 –
Fundamentos da Informática

ras versões, tornou-se o padrão para os sistemas operacionais da


Microsoft contemporâneos.
22 HPFS (High Performance File System – Sistema de Arquivos de
Alta Performance): sistema de arquivos utilizado pelo famoso,
porém obsoleto, sistema operacional da IBM, o OS/2.
22 EXT (Extended File System – Sistema de Arquivos Estendido):
tendo sido substituído pelo ext2 (second extended file system –
segundo sistema de arquivos estendido), é adotado pela maioria dos
sistemas baseados em Unix, como o Linux.
22 HFS (Hierarchical File System – Sistema de Arquivos Hierárquico):
não é mais utilizado em sua versão original, mas sim em sua versão
atual (HFS+ ou HFS Plus), é o sistema adotado pelo Apple OS.

10.1.6 Tipos de sistemas operacionais


De acordo com a natureza de suas aplicações, os sistemas operacionais
recebem classificações. Estas classificações não são exclusivas, ou seja, um mesmo
sistema operacional pode se enquadrar em mais de uma categoria. São elas:
22 Batch: primeiros sistemas operacionais, onde todos os programas
eram colocados em uma fila para serem executados em sequência.
22 De rede: a maioria dos sistemas atuais entram nesta classificação,
pois operam em rede, permitindo compartilhamento de recursos
entre diferentes computadores.
22 Distribuído: os recursos são distribuídos em diversas máquinas,
sendo que para o usuário isso fica transparente, tendo a impressão
que opera um único computador.
22 Multiusuário: oferece suporte a mais de um usuário, gerenciando
tanto a distribuição de recursos quanto as permissões de acesso para
cada usuário.
22 Desktop: é o tipo de sistema mais comumente utilizado, pois é o
que permite a realização de tarefas comuns em rotinas domésticas
e corporativas.

– 218 –
Sistemas operacionais, redes de computadores e banco de dados

22 Servidor: gerencia vários recursos, multiusuários com suporte


a rede.
22 Embutido: exerce função específica e está presente em dispositivos
com hardware limitado, como televisores, blu-ray players, etc.
22 Tempo real: possuem comportamento temporal previsível, ou seja,
ao se solicitar uma tarefa sabe-se exatamente quanto tempo vai
levar sua execução e o momento em que irá terminar.

Sugestão de Leitura
Para saber mais sobre o funcionamento dos sistemas operacio-
nais, recomenda-se a leitura da obra:
TANENBAUM, A. S., Sistemas Operacionais Modernos.
3. Ed. São Paulo: Pearson Prentice Hall, 2010.

10.2 Principais sistemas operacionais


São inúmeros os sistemas operacionais e variações disponíveis para PCs
comercializados atualmente, dentro dos quais três se destacam: Microsoft
Windows®, Linux e Apple Mac OS.

10.2.1 Microsoft Windows®


O capítulo 1 apresentou de forma cronológica a evolução do computador,
citando William (Bill) Gates e Paul Allen, fundadores da empresa Microsoft
em 1975. Em 1980, a empresa criou seu primeiro sistema operacional, o
MS-DOS, que foi vendido à IBM para ser comercializado juntamente com
seus PCs. Naquela época, os sistemas funcionavam somente com comandos
de texto, em vídeos monocromáticos.
Em 1983, a Apple (principal concorrente da Microsoft desde a época),
lança o Apple Lisa, computador com interface gráfica de comandos. Em 1985,
a Microsoft lança também uma interface gráfica para o seu sistema operacional

– 219 –
Fundamentos da Informática

MS-DOS. Esta interface recebeu o nome de Windows. Diferente do Lisa,


o Windows era apenas uma “máscara” gráfica para o MS-DOS (textual). É
importante ressaltar que, tanto o Windows quanto o sistema operacional da
Apple, foram cópias de um sistema operacional gráfico criado pela Xerox.
Outras versões dessa interface foram lançadas posteriormente, até que
a Microsoft resolveu unificar o sistema e a interface, lançando, em 1995,
o Windows 95. Em paralelo, sempre houve uma versão do Windows para
escritórios, conhecida como Windows NT, mais robusta e com recursos
voltados ao trabalho corporativo.
As versões do Windows para uso doméstico consistem em: Windows 1.0,
2.0 e 3.0, Windows 95, Windows 98, Windows Millenium, Windows XP
Home, Windows Vista Home, Windows 7 Home e, atualmente, Windows
8. Ainda há a versão Starter tanto para o Windows Vista quanto para o
Windows 7, que são versões com recursos bastante reduzidos. Já as versões
corporativas são: Windows 3.11, Windows NT, Windows 2000, Windows
XP Pro, Windows Vista Business, Windows 7 Business e Windows 8 Pro.

10.2.2 Linux
Antes de falar propriamente do Linux, faz-se necessário entender a sua
origem: o Unix. O Unix é um sistema operacional que foi criado na década
de 70 do século XX para ser utilizado em minicomputadores, a fim de os
permitir realizar mais de uma tarefa simultaneamente. Ele foi idealizado por
Ken Thompson, um pesquisador do MIT, que na época trabalhava para a
Bell Laboratories.
Mais tarde, o projeto ganhou a adesão de outro pesquisador: Dennis
Ritchie. Thompson e Ritchie publicaram um artigo sobre o sistema, que fez
com que diversas universidades se interessassem e pedissem uma cópia do
Unix. A partir daí surgiram diversas outras versões paralelas ao sistema, que
normalmente eram incompatíveis. Essa falta de padronização inibiu o sucesso
comercial do Unix. Nos anos 90 do século XX houve algumas tentativas de
padronização, mas sem sucesso.
Em 1987, Andrew Tanenbaum criou sua própria versão do Unix: o
Minix, versão que, com o uso massificado da internet, passou a ser cultuada

– 220 –
Sistemas operacionais, redes de computadores e banco de dados

em uma comunidade com mais de 40 mil usuários que contribuíam para o


seu aperfeiçoamento. Mas nem todas as sugestões eram aceitas e isso irritava
muitos usuários. Dentre esses, havia um estudante finlandês chamado Linus
Torvalds que resolveu criar sua própria versão do Unix: o Linux. A primeira
versão do Linux foi liberada em 1991, sendo que a versão 1.0 surgiu em
1994. Em 1996 foi lançada a versão 2.0 e era bastante compatível com
o Unix padrão. Isto fez com que diversas empresas se interessassem pelo
sistema e uma grande quantidade de softwares foi portada para ele: “Uma
característica não usual do Linux é seu modelo comercial: ele é um software
livre; pode ser copiado de vários lugares da Internet. [...] Os usuários podem
usar, copiar, modificar e redistribuir [...] livremente.” (TANENBAUM, A.
S., 2003, p. 509).
Por se tratar de um sistema livre, o Linux não possui uma única
interface gráfica, como acontece com o Windows. Diversas interfaces
foram criadas e redistribuídas para uso livre. Inclusive existem interfaces
criadas à semelhança do Windows e até do Mac OS (citado a seguir), que
tornam mais fácil o seu uso. Dentre as interfaces mais conhecidas podem
ser citadas: Kde, Gnome, AfterStep, Enlightnment, WindowMaker, IceW,
BlackBox, Fvwm90.

10.2.3 Macintosh Operating System (Mac OS)


É crescente o número de usuários dos computadores Macintosh e,
portanto, usuários do sistema operacional proprietário da Apple: o Mac OS.
Lançado em sua primeira versão em 1984, logo depois do sucesso do
Apple Lisa, o sistema operacional da Apple era chamado inicialmente de
System. Com o lançamento da versão 7.6 passou a se chamar Mac OS. Sua
atual versão é o Mac OS X Mountain Lion, baseado também numa versão do
sistema operacional Unix.

10.2.4 Outros sistemas


Além dos três citados sistemas operacionais para PCs, ainda há uma
série de sistemas menos utilizados ou utilizados em equipamentos específicos,
como smartphones e tablets.

– 221 –
Fundamentos da Informática

A Microsoft desde 2002 disponibiliza a versão compacta do Windows


para celulares de terceiros. Originalmente PocketPC, passando a se chamar
Windows Mobile em 2003 (em uma plataforma que envolve o PocketPC e o
Windows CE), e em sua versão mais recente Windows Phone 8.
A Apple equipa seus dispositivos móveis com sistema proprietário: o iOS.
Lançado com a primeira versão do iPhone em 2007, sem nome específico definido
na época, passou a se chamar iOS a partir de 2010. Atualmente o sistema, na
versão iOS 6, está presente nas últimas gerações de smartphones, tablets e gadgets
da Apple (iPhone 3GS, 4, 4S e 5; iPad 2, 3 e 5; iPod Touch 4 e 5).
A Google, assim como a Microsoft, dispõe de um sistema operacional
para smartphones de terceiros: o Android. Atualmente em sua versão 4 (e
releases), o Android equipa a grande maioria de telefones das principais
fabricantes: Samsung, Motorola, HTC e LG.
A maioria dos telefones celulares Nokia e Motorola até pouco tempo
utilizavam um sistema operacional chamado Symbian, baseado no Unix.
Com o nascimento do Android, o Symbian e outros sistemas proprietários
perderam bastante mercado.

10.2.5 Sistema operacional e hardware


Uma vez que o sistema operacional é o software mais próximo do
hardware, no qual seus módulos interagem com os componentes físicos, sua
instalação e configuração está intimamente ligada às placas e dispositivos
que compõem o PC.
A instalação de sistemas operacionais mais antigos (leia-se: até o final
da década de 80 do século XX, como o MS-DOS) era bastante rápida, pois
aqueles proviam acesso aos recursos básicos (discos, teclado e monitor) e, se
algum aplicativo precisasse de hardware específico, ficava a cargo do aplicativo
controlá-lo. Residia na instalação desses aplicativos específicos por parte do
consumidor final a configuração específica e era, na maioria das vezes, onerosa:
várias horas tentando acertar a interrupção ou o endereço adequado.
Diante dessa dificuldade, o mercado buscava padronização, com foco
em facilitar o processo de configuração dos dispositivos por parte dos usuários
menos experientes, então a Microsoft (desenvolvedora do sistema operacional

– 222 –
Sistemas operacionais, redes de computadores e banco de dados

Windows®) juntamente com os fabricantes de hardware apresentaram ao


mercado uma solução: o plug and play (ligar e usar). Com essa solução o
hardware traz identificação de modelo, série, etc., e o sistema operacional,
de posse dessas informações, busca (em discos locais ou internet) o driver
adequado. As primeiras experiências não foram tão bem sucedidas, mas com
o tempo houve significativo aperfeiçoamento e atualmente são raros os equipa-
mentos que não são reconhecidos automaticamente pelo sistema operacional.
Tanto o Windows® quanto outros sistemas operacionais modernos
são bem mais complexos e possuem uma camada de abstração mais
sólida. Isso faz com que seu desenvolvimento tenha um alto grau de
complexidade, porém quando chega ao consumidor para instalação, o
processo é bastante facilitado: basta que existam controladores (drivers)
para examinar as peças sob o sistema em questão e está tudo resolvido. Em
contrapartida, o processo de instalação sem (ou com pouca) intervenção
do usuário pode levar horas enquanto o sistema reconhece o hardware em
que está sendo instalado.
Independente da forma de configuração do hardware (se automática,
pelo sistema operacional, ou manual, pelo usuário instalador) existe um
passo anterior que merece atenção especial: “onde” e “como” o sistema irá
residir. “Onde” refere-se ao disco (HD, SSD, ...) em que o sistema será
instalado. A maioria dos sistemas atuais são comercializados na forma de
CD ou DVD, contendo arquivos que serão transferidos para o PC. Para
que o equipamento possa receber esses arquivos, faz-se necessária uma
preparação do disco destino: ele precisa ser particionado. Para tanto, deve-se
escolher o sistema de arquivos (visto na seção 10.1.5 deste capítulo) e criar
uma partição baseada neste sistema, definindo “como” o sistema terá seus
arquivos armazenados.

Da teoria para a prática


Veja qual o sistema operacional utilizado no seu computador
pessoal e classifique-o, justificando. Lembre-se que um mesmo
sistema pode se enquadrar em mais de uma categoria.

– 223 –
Fundamentos da Informática

10.3 Redes de computadores e banco de dados


Ao interligar computadores em uma única rede, empresas de diferentes
portes podem manter seus funcionários em permanente contato e colabo-
ração, compartilhando documentos, aplicativos e informações sem necessi-
dade de utilizar meios físicos como pen drive, CD ou DVD, nem recorrer
ao email.
Aliado a isso, a implantação de bancos de dados permite agrupar de
maneira lógica todos os dados referentes a uma empresa, garantindo acesso
fácil e rápido a eles.
Esses dois poderosos processos corporativos – redes de computadores
e bancos de dados – aceleram o crescimento das empresas em um tempo de
globalização. À medida em que cresce nossa capacidade de coletar, processar
e distribuir informações, torna-se ainda maior a demanda por maneiras cada
vez mais sofisticadas, seguras e rápidas de fazer tudo isso.

10.3.1 Redes de computadores


Pode-se atribuir o termo “rede de computadores” a dois ou mais compu-
tadores que estejam interconectados e habilitados a trocar informações. Essa
conexão poderá ser realizada através de vários tipos de meios: par de fios, cabo
coaxial, fibra ótica, micro-ondas e wi-fi (sem fio). Além disso, os computa-
dores devem possuir um processamento próprio, tornando-os independentes
um dos outros.
As redes de computadores cada vez mais fazem parte do cotidiano das
pessoas, que utilizam a interligação dos seus equipamentos para a comunica-
ção pessoal e também como uma ferramenta de trabalho.

10.3.1.1 Tipos de redes de computadores


As redes estão divididas em três categorias conforme sua abrangência
geográfica:
22 rede local (LAN – Local Area Network): normalmente usada por
uma mesma empresa ou grupo de pessoas, interliga computadores
na mesma sala, edifício ou condomínio, em uma distância de até
10 km, com alta velocidade e baixas taxas de erro;

– 224 –
Sistemas operacionais, redes de computadores e banco de dados

22 rede metropolitana (MAN – Metropolitan Area Network): interliga


computadores dentro de uma mesma cidade e arredores, possuindo
alcance de até 100 km;
22 rede de longa distância (WAN – Wide Area Network): mais pode-
rosa, proporciona interligação entre computadores em cidades,
estados e até mesmo países diferentes, em distâncias superiores a
100 km. As redes de longa distância são oferecidas por empresas
especializadas em telecomunicações.
Também existe a rede de área pessoal (PAN – Personal Area Network),
que se destina a conectar todos os dispositivos que alguém usa individual-
mente, através de conexão sem fio (usualmente com tecnologia bluetooth).
Celular, fone de ouvido, computador pessoal, tablet e outros aparelhos são
exemplos do que pode fazer parte da PAN.

10.3.1.2 Tipos de interligação (topologia de rede)


A topologia de rede, ou como a rede é organizada do ponto de vista físico
e lógico, influencia pontos críticos de seu desempenho, como flexibilidade,
segurança e velocidade. Na hora de formar a rede, existem várias maneiras de
interligar os computadores, sendo as mais comuns as seguintes:
a. barramento: é um tipo de ligação multiponto em que há apenas
uma única via de conexão e o acesso é compartilhado entre todos os
computadores nela conectados. Por não haver hierarquia no envio
de dados nessa topologia de rede, pode ocorrer colisão e mistura de
dados durante a transmissão.
Figura 1  Topologia de rede em barramento.

b. anel: os computadores são interligados em sequência na forma de


um anel. As informações trocadas entre os computadores são prefe-

– 225 –
Fundamentos da Informática

rencialmente unidirecionais, mas podem ser em qualquer direção.


Um grande problema desse tipo de topologia de rede é que, se um
falhar, toda a comunicação pode ser comprometida.
Figura 2  Topologia de rede em anel.

c. estrela: este é um modelo de ligação ponto a ponto,com um


gerenciador central pelo qual passa toda a comunicação. Isso
garante que toda informação enviada seja entregue correta-
mente ao seu destino. Esse tipo de topologia de rede é o mais
usado atualmente.
Figura 3  Topologia de rede em estrela.

Para cada topologia de rede, existem diferentes meios de transmissão.

– 226 –
Sistemas operacionais, redes de computadores e banco de dados

10.3.1.3 Meios de transmissão em redes de computadores


Computadores, impressoras e outros tipos de hardware e periféricos
transmitem dados entre si por meio de um sistema físico formado por cabos,
que podem ser de três tipos:
a. cabo coaxial: é um cabo de cobre revestido de uma malha ou trança
metálica isolante que conduz sinais elétricos;

Fonte: Shutterstock.com/ra3rn Fonte: Shutterstock.com/I. Pilon

b. cabo de pares trançado: são cabos entrelaçados em forma de


espiral com a finalidade de isolar interferências de campos eletro
magnéticos quando há uma transmissão de dados na condução de
sinais elétricos. O máximo de comprimento de um cabo de pares
trançado é de 100 m;

Fonte: Shutterstock.com/deepspacedave Fonte: Shutterstock.com/titelio

c. cabo de fibra óptica: são cabos que transmitem dados por meio de
feixes de luz e que podem chegar a grandes distâncias. Seu revestimento
é feito de uma mistura de vidro, plástico e outros componentes.

Fonte: Shutterstock.com/zentilia Fonte: Shutterstock.com/Datskevich Aleh

– 227 –
Fundamentos da Informática

Saiba mais
Outro meio físico de comunicação é o ar -- as chamadas redes
wireless (sem fio) utilizam ondas de rádio digital, satélites e
espectro de difusão para transmitir dados a grandes distâncias
e em grandes velocidades. Já o que se chama de wi-fi é um
padrão de rede sem fio para curta distância, utilizado em resi-
dências, escritórios, restaurantes etc.

10.3.1.4 Dispositivos de transmissão de dados


Para auxiliar a comunicação entre computadores, impressoras, scanners,
etc., existem dispositivos que facilitam e aceleram a transmissão de dados, e que
atuam de modo ativo ou passivo. Os dispositivos ativos são equipamentos de rede
que têm regras pré definidas, podendo escolher o melhor caminho de trans-
missão; já os passivos são equipamentos sem regras pré definidas que funcionam
somente como um elo entre outros dispositivos. Esses dispositivos são:
a. pontes (bridges): têm como objetivo expandir ou segmentar uma
rede de computadores que usam o mesmo protocolo. Oferecem
suporte a diversos tipos de protocolos de rede;
b. roteadores (routers): têm como objetivo interligar redes de
computadores fisicamente distintas, determinando por qual
caminho a informação deve seguir para chegar ao seu destinatário;

Fonte: Shutterstock.com/alexRem

c. repetidores (repeaters): têm como objetivo regenerar o sinal


atenuado pela distância, ou seja, aumenta a potência do sinal para
que consiga atingir grandes distâncias;

– 228 –
Sistemas operacionais, redes de computadores e banco de dados

d. concentrador (hub): tem como finalidade inter ligar vários computadores


entre si. Por não comportar grandes volumes de dados, é recomen-
dado para redes pequenas. Isso ocorre pelo fato de receber um sinal de
um computador e enviálo a todos os outros computadores da rede;

Fonte: Shutterstock.com/alarich

e. comutador (switch): é semelhante ao hub, com a diferença de que é


otimizado, ou seja, o sinal recebido por ele é enviado para um com-
putador específico, sem que os outros recebam essa informação.

Fonte: Shutterstock.com/Sergii Korolko

Saiba mais
Na comunicação entre esses dispositivos, temos quatro tipos
de envio de dados: anycast, em que a informação é enviada
e distribuída ao receptor mais próximo definido pelo roteador;
broadcast,em que a informação é transmitida a muitos receptores
ao mesmo tempo; multicast, em que a informação é enviada a
vários receptores simultaneamente, utilizando a melhor estratégia
de roteamento; e unicast, em que a transmissão da informação é
feita a um único receptor (Wikipedia, [s. d.]).

– 229 –
Fundamentos da Informática

10.3.2 Bancos de dados


A tecnologia para comunicação entre computadores caminha lado a
lado com as soluções cada vez mais sofisticadas para armazenar e manipular
dados. Com aplicações mais ou menos complexas, os bancos de dados são
ferramenta indispensável no mundo corporativo, pois permitem a geração de
informações de vital importância para a gestão do negócio.
Um banco de dados é um conjunto de dados de mesma natureza,
guardados em um mesmo local e sob um mesmo padrão de armazenamento,
cuja manipulação permite gerar informação. A preocupação com a integridade e
a segurança dos dados, bem como a padronização da semântica, é o que orienta
um banco de dados.

10.3.2.1 Tipos de banco de dados


Existem quatro tipos básicos de bancos de dados: hierárquico, em
rede, relacional e orientado ao objeto. Os dois primeiros estão praticamente
em desuso. Os outros dois servem a Sistemas Gerenciadores de Bancos de
Dados (SGBD), como MySQL ou PostgreSQL. Os SGBD começaram a ser
desenvolvidos na década de 60 e são um conjunto de programas que permite
ao usuário acessar e manipular os dados.
a. hierárquico: é organizado de cima para baixo, como uma árvore. Os
registros são formados por campos, e cada campo pode conter apenas
um valor. Esses registros se conectam por ligações. Os registros obe-
decem a uma subordinação – cada registro “pai” pode ter mais de um
“filho”, mas cada “filho” só pode ter um “pai. Por exemplo, o regis-
tro “cliente” é formado pelos campos “nome” e “endereço”. O registro
“encomenda” tem os campos “tipo de produto” e “quantidade”. Então,
o registro “pai” (o cliente) pode ter mais de um “filho” (mais de uma
encomenda), mas cada “filho” (a encomenda) só pode ter um “pai” (o
cliente que fez o pedido). Essa estrutura de árvore é difícil de gerenciar
quando aumenta muito o volume de dados.

– 230 –
Sistemas operacionais, redes de computadores e banco de dados

Departamento

31 Pessoal 142 35 Financeiro 143 38 Técnico 144

Empregado

012 M. Santos 320 028 S. Silva 118 029 T. Melo 425


087 J. Furquin 370 093 P. Ferreira 135 098 R. Silva 226
073 F. Prates 497

b. rede: é semelhante ao modelo hierárquico, com o diferencial de que


cada registro pode ser subordinado a mais de um registro (como se
fosse um “filho” ligado a mais de um “pai”);
Empregado
012 M. Santos 320
Departamento 087 J. Furquin 370
31 Pessoal 142 028 S. Silva 118
35 Financeiro 143 093 P. Ferreira 135

38 Técnico 144 029 T. Melo 425


098 R. Silva 226
073 F. Prates 497

c. relacional: os dados são armazenados em tabelas, formadas por


linhas e colunas, e apresentados por meio de relações. Ao contrário
do modelo hierárquico, em que é preciso começar pela raiz da
“árvore”, no modelo relacional pode-se fazer perguntas e colher
respostas em qualquer ponto.

– 231 –
Fundamentos da Informática

Empregado
Num Empregado Nome Empr Salário Departamento
012 M. Santos 1020 012
087 J. Furquin 980 027
028 S. Silva 789 011
093 P. Ferreira 852 013
029 T. Melo 825 009
098 R. Silva 1520 014
073 F. Prates 980 026

Departamento
Num Departamento Nome Departamento Ramal
31 Pessoal 142
35 Financeiro 143
38 Técnico 144

d. orientado a objetos: um objeto é definido por um conjunto de


dados (atributos) e códigos (métodos). O estado de cada objeto é
determinado por suas propriedades, que podem ser seus atributos
próprios, as operações que pode executar ou as relações com outros
objetos. Esse tipo de banco de dados é bastante adequado para
tratar dados complexos (gráficos, textos, imagens).

– 232 –
Sistemas operacionais, redes de computadores e banco de dados

Estacionamento
+ Endereço: String
+ Qtd vagas: int

Funcionário
+ Matrícula: int
- Data de admissão: Date
Cliente
+ Consultar vagas (): String
+ Cadastra veídulo (): String + Nome: String
+ emiti ticket(): String
+ Mamter tab de Pre (): String + CPF: int
+ Gerar Relatorio (): String

Veículo
+ Tipo: String
+ Placa: int

10.3.2.2 Usuários de banco de dados


Para manipular um banco de dados, existem diferentes perfis de usuários,
com atribuições e permissões de acesso distintas. A Wikipédia define essas
funções como:

– 233 –
Fundamentos da Informática

a. administrador de banco de dados (data base administrator – DBA):


tem a função de supervisionar e gerenciar os recursos fornecidos
que são utilizados pelo banco de dados, além de permitir ou não,
por parte dos usuários, o acesso aos dados;
b. analistas de banco de dados: são os projetistas, que montam a
estrutura mais adequada para o armazenamento dos dados. Têm
uma proximidade maior com os usuários finais para poder moldar
o banco de dados, de acordo com o que necessitam;
c. usuários finais: são as pessoas que utilizam o banco de dados para
inserir dados, consultar, modificar e gerar algum tipo de relatório.

10.3.2.3 Sistema de Gerenciamento


de Banco de Dados (SGBD)
É uma coleção de programas que facilita a manipulação de uma base de
dados. As principais funções de um SGBD são:
a. controle de redundância: evita que a mesma informação seja
gravada em locais diferentes, o que ocasionaria um problema na
atualização dos dados;
b. compartilhamento de dados: utiliza-se de um ambiente multiusu-
ário em que os dados são compartilhados em acessos simultâneos;
c. controle de acesso: cada usuário tem um tipo de permissão para
acesso ao banco de dados, definido pelo administrador (DBA);
d. controle de transações: toda transação deve ser realizada sem
falhas ou interrupções, como, por exemplo, a atualização de uma
conta bancária;
e. múltiplas interfaces: há possibilidade de se programar, realizar consu-
ltas e interagir por meio de menus em linguagem de fácil compreensão;
f. relacionamento entre dados: os dados são variados e estão
interconectados de várias maneiras, representando um complexo
relacionamento entre si;

– 234 –
Sistemas operacionais, redes de computadores e banco de dados

g. backup: recupera falhas e possibilita uma cópia de segurança da


base de dados, para não haver perda.
Podese observar que um SGDB tem várias funcionalidades para que a
informação, que é o principal objeto de armazenamento, esteja segura e possa
ser facilmente acessada e utilizada.

Saiba mais
Hoje, no mercado, temos muitos SGBDs de grande poder de
armazenamento e segurança, como MySQL, PostgreSQL,
Oracle, SQL Server e outros.

Na próxima seção, veremos como é feita a manipulação e definição dos


dados por meio de comandos que utilizamos para ajudar na construção de
uma tabela de geração de informação.

10.3.2.4 Structured Query Language (SQL)


A tarefa de manipular dados em um SGBD tornou-se extremamente
complexa e exigiu uma solução que combinasse comandos lógicos e
facilidade de uso pelos profissionais e usuários. Assim, a IBM desenvolveu,
em meados dos anos 60 do século XX, o Structured Query Language (SQL),
uma linguagem capaz de funcionar como interface e “ponte” entre o usuário
e o SGBD.
O SQL é composto de uma série de comandos, como “palavras de
ordem” (todas de língua inglesa), que servem para:
22 manipulação – chamado de DDL (Data Definition Language),
inclui os comandos create e drop;
22 definição de dados – chamado de DML (Data Manipulation Lan-
guage), como o insert, update, delete e select;
22 controle de dados – chamado de DCL (Data Control Language),
tem termos como grant e revoke e ajuda os usuários a construir
tabelas e gerar informação coerente.

– 235 –
Fundamentos da Informática

O SQL também permite que sejam executadas tarefas como a gravação/


atualização de dados e o cancelamento de uma operação. Por exemplo, quando
um dado é gravado, a confirmação dessa gravação é dada pelo comando
commit. No entanto, se houver uma falha no momento dessa gravação, o
sistema retorna ao passo anterior graças ao comando rollback.
As características da linguagem SQL possibilitam:
22 a manipulação de várias tabelas;
22 a união de uma instrução SQL dentro de outra instrução SQL;
22 o uso simples, sem a necessidade de especificar o método de acesso
aos dados;
22 o acesso de vários usuários, com diferentes funções e permissões
(administrador do banco de dados, especialista de banco de dados,
programadores, usuário final);
22 a utilização de uma interface para o uso interativo com o banco
de dados.

Conclusão
Os sistemas operacionais são programas responsáveis por oferecer aos
aplicativos um acesso facilitado e controlado ao hardware. Ao se salvar um
documento, em um editor de texto, é o sistema operacional que detém o
controle de onde este arquivo será armazenado, com que nível de permissão/
acesso, dentre outras características que envolvem uma comunicação mais
próxima do hardware.
Uma rede é um conjunto de computadores e outros dispositivos
interligados entre si, mesmo que distantes geograficamente, visando ao
compartilhamento de recursos e de informações.
As redes são classificadas de acordo com a distância entre os computadores
conectados a ela e recebem a denominação de redes locais (LAN – Local Area
Network), redes metropolitanas (MAN – Metropolitan Area Network) e redes
geograficamente distribuídas (WAN – Wide Area Network).

– 236 –
Sistemas operacionais, redes de computadores e banco de dados

Para estabelecer a conexão entre os computadores de uma rede, podem


ser utilizadas as ligações em barramento, anel, ou estrela, com o suporte de
um sistema físico que se utiliza de cabos coaxiais, trançados ou de fibra ótica,
pelos quais os dados são transmitidos.
O armazenamento e manipulação de dados cada vez mais complexos e
em quantidades cada vez maiores é outra demanda do mundo contemporâneo,
que é atendida pelos Sistemas de Gerenciamento de Banco de Dados (SGBD).
Podendo ser montados de várias maneiras (hierárquico, rede, relacional e
orientado ao objeto), os bancos de dados são manipulados por diferentes
perfis de usuários, cada qual com uma permissão de acesso, do administrador
com plenos poderes (DBA – data base administrator) até o usuário final, que
tem direito de fazer apenas consultas.
Como uma coleção de programas que facilita a manipulação de uma
base de dados, o SGBD tem funcionalidades como evitar a gravação de dados
em duplicidade, oferecer múltiplas interfaces e gerar uma cópia de segurança
(backup) de tudo o que é gravado.
Para que o usuário e o banco de dados “conversem” em uma mesma
linguagem, foi criado o Structured Query Language (SQL), com comandos de
fácil entendimento para manipulação, definição e controle dos dados.

– 237 –
11
Sistemas de informação:
conceito, componentes
e tipologia

A informação é o cerne de qualquer organização. É com


base nela que decisões são tomadas, novos negócios são planejados,
processos são estabelecidos, pessoas são contratadas, objetivos são
traçados e investimentos são executados. Para tanto, ela tem que ser
eficiente, precisa, significativa e útil.
Por causa disso, um dos maiores desafios dos chamados
sistemas de informação (SI) é assegurar a qualidade e agilidade
dessa informação, já que dela depende o crescimento e o sucesso de
qualquer empresa.
Fundamentos da Informática

11.1 Dados, informação e sistemas


Um dado é um elemento primário, que por si só não conduz à com-
preensão de um determinado fato ou situação. Ao processar esses dados,
ou seja, ao reuni-los, organizá-los e analisá-los, é que geramos uma infor-
mação útil.
Assim, informação é um conjunto de dados com algum significado, ou
seja, que reduz a incerteza ou que aumenta o conhecimento a respeito de
algo. A informação é uma mensagem com significado útil em um determi-
nado contexto, disponível para o uso e que proporciona orientação às toma-
das de decisão.
Ralph Stair e George Reynolds afirmam, em sua obra Princípios de
Sistemas de Informação (Stair; Reynolds, 2002), que a informação é um
conjunto de fatos organizados de tal forma que adquirem valor adicional,
além do valor do fato em si. Isso significa que, na maioria das vezes, é mais
importante a maneira como uma informação é utilizada, ou o meio em que
é aplicada, do que o valor de seu conteúdo. Em outras palavras, a informa-
ção é o dado trabalhado que permite tomar decisões.
Porém, para o processo de transformação de dado em informação, é
necessário o conhecimento. O conhecimento são regras e procedimentos usa-
dos para selecionar, organizar e manipular os dados, para tornálos úteis e
para atingir um resultado específico (Stair; Reynolds, 2002). Em resumo,
a informação pode ser considerada um dado tornado mais útil por meio da
aplicação do conhecimento.
Já os sistemas são elementos interligados com a função de produzir ou
obter determinados objetivos ou resultados específicos.

11.2 Definição de sistemas de informação


Para Jane Price Laudon e Kenneth Laudon, ambos mestres e doutores em
sistemas de informação pelas renomadas universidades americanas Columbia,
Stanford e Harvard, sistemas de informação (SI) são “um conjunto de com-
ponentes interrelacionados que trabalham juntos na coleta, recuperação, pro-
cessamento armazenamento e distribuição de informações com a finalidade

– 240 –
Sistemas de informação: conceito, componentes e tipologia

de facilitar o planejamento, o controle, a coordenação, a análise e o processo


decisório em organizações” (Laudon; Laudon, 2004).
O principal objetivo de um sistema assim é obter informações que possam
atender às necessidades de uma organização. Essas necessidades podem ser para
planejamento, controle de processos e tomada de decisões em diferentes âmbi-
tos, em empresas públicas, privadas, escolas, departamentos de Governo etc.
Stair e Reynolds dizem que os SI são “uma série de elementos ou com-
ponentes interrelacionados que coletam (entrada), manipulam e armazenam
(processo), disseminam (saída) os dados e informações e fornecem um meca-
nismo de feedback” (Figura 1) (Stair; Reynolds, 2002).
Figura 1  Atividades de um sistema de informação.

Ambiente

Entrada Processamento Saída

Feedback

22 Entrada (input): alimenta o sistema, captando e reunindo da-


dos primários.
22 Processamento: é a interação entre os dados que foram inseridos,
convertendo-os em saídas.
22 Saída (output): é o resultado do processamento, traduzido em
informações precisas, apropriadas e atuais.
22 Feedback: é uma forma usada para refinar ou ajustar se algo estiver
errado nos dados de entrada.
A qualidade da informação produzida a partir de dados brutos é mais
importante do que sua quantidade. Para que se garanta essa qualidade, é fun-
damental avaliar os dados que se está inserindo – se eles têm utilidade, se há
dados demais ou, ao contrário, se são insuficientes. O quadro a seguir traz

– 241 –
Fundamentos da Informática

alguns exemplos de sistemas de informação em uma empresa.


Quadro 1  Exemplos de sistemas de informação.

Funções
Componentes Dados Sistemas de informação
gerenciais
Administração Empregados, cargos, Folha de pagamento,
Pessoas
de RH qualificação, etc. plano de carreira, etc.
Contas a pagar, contas Contabilidade,
Administração
Dinheiro a receber, orça- custos, orçamento,
Financeira
mento, custos, etc. contas a pagar, etc.
Itens, fornecedores,
Administração Controle de estoques,
Materiais estoques, ordens
de Materiais controle de compras, etc.
de compra, etc.
Controle de
Administração Programas, roteiros sistemas, controle de
Sistemas
de Sistemas de operação, etc. operação, controle de
manutenção, etc.
Maladireta,
Administração Pesquisas, demandas,
Mercado reclamações,
de Marketing concorrentes, etc.
pesquisas, previsões, etc.
Administração Faturamento, estatísticas,
Clientes Clientes, vendas, etc.
de Vendas controle de metas, etc.
Fonte: adaptado de Moreira ([s.d.])

11.3 Componentes de sistemas de informação


Há três elementos que trabalham juntos para que um sistema de infor-
mação exista: organizações, pessoas e tecnologias (Laudon; Laudon, 1999).

11.3.1 Organizações
As necessidades de gestão dos diversos aspectos que fazem parte da opera-
ção diária de organizações de qualquer natureza (Governo, empresas privadas,
organizações não-governamentais etc.) modelam os sistemas de informação
(SI). São essas demandas e problemas, internos e externos, que determinam
o que precisa ser feito.

– 242 –
Sistemas de informação: conceito, componentes e tipologia

11.3.2 Pessoas
Em sistemas baseados em computador, as pessoas são o elemento mais
importante, pois são elas que gerenciam, programam e executam os proces-
sos, administrando todo o SI.

11.3.3 Tecnologias
A tecnologia é o meio utilizado para transformar dados em informa-
ções úteis. De maneira rudimentar, há sistemas manuais, com auxílio de
caneta e papel, mas bastante limitados à manipulação de uma quantidade
pequena de dados.
Com tecnologias mais sofisticadas, a sistematização de informações evo-
luiu para o uso do computador como ferramenta. Os sistemas computadori-
zados são compostos por hardware, software, banco de dados, comunicação
de dados ou redes de dados, pessoas e procedimentos (Stair; Reynolds, 2002).
22 Hardware: é o equipamento físico (computador) usado para
executar as atividades de entrada, processamento e saída em um
sistema de informação. Os dispositivos de entrada podem ser
teclado, mouse, câmera, microfone e vários outros. Os dispositivos
de processamento envolvem unidade central de processamento,
memória e armazenagem. Já os dispositivos de saída podem ser
monitor e impressoras.
22 Software: é um conjunto de instruções que faz o computador
funcionar. Consiste em programas que permitem ao computador
processar dados e executar tarefas exigidas pelos sistemas
de informação.
22 Banco de dados: é um sistema de armazenamento e organização de
dados que são utilizados no processamento (conforme já descrito
no capítulo 10).
22 Redes de dados: permitem a ligação de diferentes hardwares e são
usadas para conectar e transferir dados de um ponto a outro. Uma
rede permite a ligação de dois ou mais hardwares independentemente
do local em que estejam (conforme já descrito no capítulo 10).

– 243 –
Fundamentos da Informática

22 Pessoas: são todos os envolvidos com o sistema, ou seja, administra-


dores, usuários, desenvolvedores, etc.
22 Procedimentos: são as instruções (estratégias, objetivos, métodos,
regras) para a operação do sistema.
Os sistemas de informação devem servir a um propósito maior do que
apenas executar tarefas bem definidas – sua missão mais nobre é fornecer
recursos às pessoas para que executem suas atividades de forma mais eficaz
e eficiente.
Quando implantam um SI, as empresas buscam alguns benefícios:
22 maior segurança
22 vantagens competitivas
22 menos erros
22 maior produtividade
22 redução de custos

11.4 Sistemas de informação: tipologia


Os computadores, no início, eram usados apenas para aplicações simples
nos negócios, como reduzir custos.
Os professores norteamericanos Jane Price Laudon e Kenneth Laudon,
ambos doutores em sistemas de informação, descrevem as empresas como uma
coleção de processos interrelacionados que organizam, coordenam e têm foco
no trabalho necessário para produzir um produto e/ou serviço de qualidade.
Os sistemas de informação utilizados no universo corporativo servem
áreas funcionais específicas das organizações. Diversos tipos de sistemas são
desenvolvidos para resolver diferentes problemas em diferentes níveis das
organizações (Laudon; Laudon, 1999).

11.4.1 Sistemas organizacionais


O uso dos sistemas organizacionais tem sido uma ferramenta muito

– 244 –
Sistemas de informação: conceito, componentes e tipologia

importante para as empresas na disputa por uma fatia de mercado em cenários


complexos e competitivos. Esses sistemas lidam com problemas internos e
externos e ajudam a programar as melhores decisões em relação à produção,
ao planejamento, ao desenvolvimento de produtos e novos negócios, ao
controle de processos e às operações gerenciais.
Uma organização, na opinião de James O’Brien, professor de Ciência da
Computação da Universidade da California em Berkeley, é um sistema em
que os recursos econômicos são transformados por processos organizacionais
em bens e serviços (O’Brien, 2004). Em outras palavras, uma organização se
baseia em processos de negócios interdependentes que trabalham para gerar
produtos e/ou serviços.
O papel dos sistemas de informação é agilizar os processamentos
operacionais, gerenciais e estratégicos nas organizações. Para a Sociedade
Brasileira de Computação, os sistemas de informação podem ser definidos como
“uma combinação de recursos humanos e computacionais que interrelacionam
a coleta, o armazenamento, a recuperação, a distribuição e o uso de dados com o
objetivo de eficiência gerencial (planejamento, controle, comunicação e tomada
de decisão) nas organizações. Adicionalmente, os sistemas de informação
podem também ajudar os gerentes e os usuários a analisar problemas, criar
novos produtos e serviços e visualizar questões complexas” (SBC, 1998).

11.4.1.1 Gestão da informação


Os sistemas organizacionais se baseiam em informação, que é um ele-
mento crucial em todos os níveis hierárquicos de uma companhia e que
permite o acompanhamento de processos, as operações diárias e a tomada
de decisões. O principal desafio é definir a informação correta, em tempo
hábil e no local adequado. Para tanto, é necessário que a empresa controle
a busca, a coleta e a manutenção de informações de qualidade sobre seu
próprio negócio.
Essa estratégia é o que permite a uma empresa, também, conhecer
melhor o mercado e identificar as vantagens competitivas que podem ser
exploradas, de modo a expandir e perpetuar seu negócio.
Segundo o professor francês François Jakobiak, autor de livros sobre
informação estratégica, inteligência econômica e inovação, a gestão da infor-

– 245 –
mação pode ser dividida em quatro níveis: crítica, mínima, potencial e exces-
siva (Jakobiak, 1995).
22 Informação crítica: vital para a organização, exigida para decidir
que ações devem ser tomadas para alcançar os objetivos prioritá-
rios, fatores críticos de sucesso.
22 Informação mínima: essencial para uma boa gestão da organização
porque permite a execução de boas ações.
22 Informação potencial: possibilita antecipar e desenvolver vantagens
competitivas.
22 Informação excessiva: informação inútil para o desenvolvimento
da organização.
Define-se gestão da informação como a aplicação de princípios
administrativos para aquisição, organização, controle, transmissão e uso da
informação para o funcionamento das organizações (Tarapanoff, [s.d.]). A
gestão da informação preocupase com a qualidade, com o uso e a segurança
da informação no desempenho organizacional.
Dentro de uma organização, cada área tem diferentes interesses, neces-
sidades e características, o que exige a adoção de diferentes tipos de sistemas
para gerenciar as informações.

11.4.2 Tipologia dos sistemas de informação


Existem vários tipos de sistemas de informação, cada qual com cri-
térios e combinações diferentes, de acordo com o objetivo que pretende
alcançar. Em comum, no entanto, todos eles têm o papel de apoiar a
tomada de decisões e as atividades nos diferentes níveis e funções organi-
zacionais.
Os quatro principais níveis de atuação dos sistemas de informação
podem ser vista na Figura 2.
Sistemas de informação: conceito, componentes e tipologia

Figura 2  Áreas de atuação dos sistemas de informação.

Fonte: adaptado de O’Brien (2004)


Segundo Jane e Kenneth Laudon, os principais tipos de sistemas são:
Sistemas de Processamento de Transações (SPT), Sistemas de Informação
Gerencial (SIG), Sistemas de Apoio à Decisão (SAD), Sistemas de Apoio ao
Executivo (SAE), Sistemas de Automação de Escritório (SAE) e Sistemas de
Trabalhadores do Conhecimento (STC) (Laudon; Laudon, 1999).

11.4.2.1 Sistemas de Processamento de Transações – SPT


Esses sistemas trabalham no nível operacional da organização e respon-
dem pelo processamento, execução, manutenção e registro das transações
organizacionais rotineiras, gerando relatórios utilizados por toda a empresa.


Exemplos de SPT: controle de estoque, ven-
das, contas a receber, folha de pagamento, etc.

– 247 –
Fundamentos da Informática

Para que possa fornecer informações corretas e confiáveis, um SPT pre-


cisa ser atualizado continuamente. Suas principais características, conforme
mostrado na Figura 3, são:
22 entrada e alimentação de dados;
22 processamento e armazenamento de dados;
22 geração de documentos e relatórios.
Figura 3  Modelo de sistema de processamento e transação.

Fonte: Laudon; Laudon (1999).

11.4.2.2 Sistemas de Informação Gerencial – SIG


Esses sistemas de nível gerencial foram concebidos para produzir rela-
tórios sobre áreas funcionais (contabilidade, finanças, marketing, vendas,
Recursos Humanos) com informações relevantes para gerentes de nível inter-
mediário (Laudon; Laudon, 1999). Geralmente, dependem das informações
fornecidas pelo SPT (Figura 4).
Figura 4  Utilização dos dados gerados pelo SPT.
Fonte: adaptado de Laudon;
Laudon (1999).

– 248 –
Sistemas de informação: conceito, componentes e tipologia

Os SIG geram relatórios estruturados e pré-definidos, que servem de


subsídio para que os níveis gerenciais tomem decisões sobre operações regula-
res e cotidianas de uma empresa.

11.4.2.3 Sistemas de Apoio à Decisão – SAD


Também são sistemas que dão apoio e assistência ao nível gerencial,
mas para situações que se alteram com rapidez e para as quais não há um
modelo ou procedimento pré-definido. Os SAD auxiliam na tomada de deci-
são de curto prazo para problemas complexos e específicos, com alto grau de
imprevisibilidade. Com um SAD, por exemplo, é possível realizar de maneira
informatizada um diagnóstico médico preliminar baseado nos sintomas do
paciente, ou planejar e monitorar a irrigação de um campo plantado (época,
duração, quantidade de água etc.) com base no cruzamento de dados de esta-
ções meteorológicas. Ou seja, quando há cenários que mudam a todo ins-
tante, o SAD é poderosa ferramenta para avaliar esse cenário e poder tomar
a melhor decisão.

11.4.2.4 Sistemas de Apoio ao Executivo – SAE


Voltados à gerência de alto nível (estratégico), os SAE agrupam dados
de várias fontes (inclusive externas) e oferecem um ambiente complexo a ser
considerado, que inclui projeção de tendências, análise dos concorrentes e
redesenho de processos, dentro de uma abrangente visão mercadológica. Os
softwares que auxiliam nesse processo normalmente oferecem várias possibi-
lidades de cruzamento de dados e projeção de resultados por meio da visuali-
zação em gráficos, diagramas e outras simulações. Seu foco é o planejamento
estratégico e exige do profissional raciocínio lógico, avaliação e bom senso na
análise das informações e tomada de decisões.

11.4.2.5 Sistemas de Automação de Escritório – SAE


A produtividade é o foco dos SAE, que dão suporte aos usuários para a
organização diária, principalmente em tarefas que envolvem documentos e
comunicação. Exemplos de SAE são planilhas matemáticas, editores de texto,
softwares gráficos e navegadores web.

– 249 –
Fundamentos da Informática

11.4.2.6 Sistemas de Trabalhadores do Conhecimento – STC


Os trabalhadores do conhecimento são os profissionais que constroem
seu conhecimento sobre a base da experiência prática. Seu papel nas organiza-
ções é alimentar a pesquisa, buscar novos conhecimentos e propor inovações.
Atuam como agentes de mudança, ao fazer uso das mais recentes tecnologias
e estar antenados com novidades do mercado. Os STC servem como ferra-
mentas para que esses profissionais desenvolvam novos projetos, produtos e
processos. Exemplos de STC são simuladores de realidade virtual e AutoCAD
(software para projetos arquitetônicos).
Todos esses sistemas são interdependentes e constituem um amplo dia-
grama de colaboração. Por exemplo, os SPT fornecem informações para vários
outros sistemas de níveis mais elevados, que por sua vez também atuam como
fonte para sistemas que atendem níveis hierárquicos superiores (Figura 5).
Figura 5  Modelo de relação entre os sistemas.

Fonte: adaptado de Laudon e Laudon (1999).

11.4.3 Sistemas mais conhecidos


Entre os sistemas de informação organizacional, os mais conhecidos são o
BI, o CRM e o ERP, utilizados por muitas empresas de médio e grande porte.
22 BI – Business Intelligence, ou Inteligência de Negócios. Sua função

– 250 –
Sistemas de informação: conceito, componentes e tipologia

é coletar dados de diversas fontes, organizá-los e analisá-los para


subsidiar a tomada de decisões estratégicas para o negócio. Os
dados considerados referem-se a todos os processos internos da
empresa e também ao mercado e aos concorrentes, monitorando
itens como vantagens competitivas, fraquezas, posicionamento de
vendas e maneiras de atuação dos principais competidores. Com
isso, é possível fazer uma avaliação comparativa das decisões e
escolhas da própria empresa e planejar seu crescimento e sucesso
de maneira inteligente.
22 CRM: Customer Relationship Management, ou sistema de geren-
ciamento do relacionamento com o cliente. Esse sistema privile-
gia o cliente como porta de entrada para informações, permitindo
mapear preferências de consumo, frequência de compra, compor-
tamento e outros dados que facilitam a tarefa de criar e manter
um bom relacionamento com quem já consome seus produtos ou
serviços. A partir daí, é possível formular estratégias de negócio,
entendendo e antecipando as necessidades dos clientes.
22 ERP: Enterprise Resource Planning, ou sistemas integrados de ges-
tão empresarial. Essa ferramenta integra os diversos setores de uma
empresa, consolidando em um lugar só o conjunto de informações
que afeta o negócio. Com esse sistema, o gestor consegue enxergar
o todo e consolidar o que antes eram “ilhas de informação”.

Conclusão
Dados, por si só, não levam à compreensão de um determinado fato
ou situação. Somente quando processados – reunidos, analisados, transfor-
mados – é que podem gerar informação, ou seja, um conjunto com algum
significado e que aumenta o conhecimento a respeito de algo. Um sistema
são elementos interligados com a função de produzir ou obter determinados
objetivos ou resultados específicos.
Os sistemas de informação (SI) dependem de equipamentos, pessoas,
meios de comunicação e uma série de normas e processos a fim de transfor-
mar dados brutos em informação útil, que possa servir à tomada de decisões

– 251 –
Fundamentos da Informática

nas empresas. Esses sistemas coletam dados (entrada), manipulam e arma-


zenam (processo) e disseminam (saída) informações, fornecendo ainda um
mecanismo de feedback.
Três elementos compõem a estrutura de um SI: organizações (estrutu-
radas e hierárquicas), pessoas (administradores dos SI) e tecnologias (meio
usado para transformar dados em informações úteis).
As tecnologias computadorizadas que hoje atendem as demandas do
mundo corporativo dependem de seis componentes: hardware (equipamento
físico usado para executar as atividades de entrada, processamento e saída
em um sistema de informação), software (conjunto de instruções que faz o
computador funcionar), banco de dados (sistema de armazenamento e orga-
nização de dados que são utilizados no processamento), redes de dados (o que
permite a ligação de diferentes hardwares), pessoas (todos os envolvidos com
o sistema) e procedimentos (instruções para a operação do sistema).
A competição acirrada no mercado exige das empresas decisões consis-
tentes e ações precisas nas áreas de produção, planejamento, desenvolvimento
de produtos e novos negócios, controle de operações e processos gerenciais.
O uso de variados sistemas de informação proporciona essa organização e essa
visão macro a respeito de todos os aspectos do negócio.
A adoção dessas ferramentas requer profissionais com um novo perfil,
com atitude voltada a inovação, planejamento e gerenciamento da infraestru-
tura de informações.
Os sistemas organizacionais cuidam da gestão da informação, que pode
ser classificada em crítica (para tomada de boas decisões), mínima (para exe-
cução de boas ações), potencial (para obtenção de vantagens competitivas) e
excessiva (informação inútil).
Vários tipos de sistemas atendem a diferentes propósitos dentro da
empresa. O SPT coleta dados sobre aspectos da operação cotidiana, alimen-
tando outros sistemas mais complexos, especialmente o SIG, destinado à área
gerencial. O SIG transforma os dados em informações, fornecendo relatórios
essenciais para orientar a tomada de decisões sobre processos regulares. Já o
SAD, também para o nível de gerência, serve como subsídio quando é pre-
ciso tomar decisões em cenários que mudam a todo instante e para os quais

– 252 –
Sistemas de informação: conceito, componentes e tipologia

não há procedimentos-padrão já estabelecidos e que possam ser seguidos. O


SAE, mais sofisticado, destina-se aos altos executivos e tem função estraté-
gica, auxiliando a projetar tendências e avaliar o posicionamento no mercado.
Para aumentar a produtividade dos usuários no dia a dia, os sistemas SAE
são poderosos auxiliares, enquanto os STC atendem aos trabalhadores do
conhecimento, que estão sempre em busca de inovação, criação de novos
produtos e geração de novos conhecimentos no ambiente corporativo. Todos
esses sistemas funcionam de maneira interligada, criando um diagrama de
colaboração dentro das corporações.

– 253 –
Referências

.
Fundamentos da Informática

ALBERTIN, A. L. Comércio Eletrônico: Benefícios e Aspectos de sua Apli-


cação. RAE: Revista de Administração de Empresas, São Paulo, v. 38, n. 1,
p. 52-63, 1998.
AUDY, Jorge Luis Nicolas; ANDRADE, Gilberto Kleber de; CIDRAL, Ale-
xandre. Fundamentos de sistemas de informação. Porto Alegre: Bookman,
2005.
AZAMBUJA, Ricardo Alencar de. Teoria Geral de Sistemas. Departa-
mento de Sistemas e Computação. Blumenau: Universidade Regional de
Blumenau, 2004. Disponível em: <http://www.inf.furb.br/~zamba/docs/
tgs_v2004.pdf>. Acesso em: 2 ago. 2008.
BERTALANFFY, Ludwig Von. Teoria geral dos sistemas. Petrópolis: Vozes,
1975.
BIGONHA, Roberto da Silva. Perguntas frequentes sobre a regulamen-
tação da profissão. 2004. Disponível em <http://homepages.dcc.ufmg.
br/~bigonha/Sbc/plsbc-faq.html>. Acesso em 20 ago. 2008.
BITTENCOURT, R. A. Montagem de computadores e hardware. 6. ed. Rio
de Janeiro: Brasport, 2009.
BOGHI, Cláudio; SHITSUKA, Ricardo. Sistemas de informação: um
enfoque dinâmico. 2. ed. São Paulo: Érica, 2005.
CAPUANO, Francisco Gabriel, IDOETA, Ivan V. Elementos de eletrônica
digital. 29.ed., 1998.
CHIAVENATO, I. Introdução a Teoria Geral da Administração. São
Paulo: Makron Books, 1993.
CRUZ, Adriano J. De O. Apostila. Disponível em <http://equipe.nce.ufrj.
br/adriano/c/apostila /introd.htm#hardware>
DAVENPORT, Thomas H. Ecologia da informação: por que só a tecnolo-
gia não basta para o sucesso na era da informação. 6. ed. São Paulo: Futura,
2003.
DINIZ, R. Introdução à Informática Passo a Passo. São Paulo: Terra, 2001.

– 256 –
Referências

FERNANDES, A. A.; ABREU V. F. de. Implantando a Governança de TI


da Estratégia à Gestão dos Processos e Serviços. 2. ed. Rio de Janeiro:
Brasport, 2008.
FERREIRA, F. N. F.; ARAUJO, M T. de. Política de segurança da informa-
ção. Rio de Janeiro: Ciência Moderna, 2008.
FREITAS, H.; BECKER, J. L.; KLADIS, C. M.; HOPPEN, N. Informação
e decisão: sistemas de apoio e seu impacto. Porto Alegre: Ortiz, 1997.
FSF. Free Software Foundation. Disponível em <http://www.fsf.org>.
GARTNER. Gartner Inc.. Stamford, CT, USA: 2014. Disponível em <http://
www.gartner.com/newsroom/id/2592315> (sobre download de aplicativos)
e <http://www.gartner.com/newsroom/id/2573415> (sobre venda de smar-
tphones no mundo em 2013). Acesso em fevereiro de 2014.
GATES, Bill. A Estrada do Futuro. Rio de Janeiro: Companhia das Letras,
1995.
GLOBAL WEB INDEX. Mobile internet usage hits 65% globally. Dispo-
nível em <https://www.globalwebindex.net/products/chart_of_the_day/5th-
-february-2014-mobile-internet-usage-hits-65-percent-globally>. Acesso em
fevereiro de 2014.
HADDAD, Cláudia Maria Salles. Sistemas de Informação e a tomada de
decisão executiva: um estudo exploratório na indústria química nacional.
Santos: Universidade Católica de Santos, 2007. Disponível em: <http://
biblioteca.universia.net/html_bura/ficha/params/id/33745796. html>.
Acesso em: 2 ago. 2008.
HAYES, R.; PISANO, G.; UPTON, D.; WHEELWRIGHT, S. Operations,
strategy and technology: pursuing the competitive edge. River Street: John
Wiley & Sons, 2005.
HOUAISS, A. Novo Dicionário Houaiss da Língua Portuguesa. Rio de
Janeiro: Objetiva, 2009.
IDC. International Data Corporation. Framingham, MA, USA: 2014.
Estatísticas sobre uso e vendas de celulares, disponível em <http://www.
idc.com/getdoc.jsp?containerId= prUS24645514>; <http://www.idcbra-

– 257 –
Fundamentos da Informática

sil.com.br/releases/news.aspx?id=1511> e <http://www.idc.com/getdoc.
jsp?containerId=prUS24472713> . Acesso em fevereiro de 2014.
JAKOBIAK, François. Information scientifique et technique. Paris: Presses
Universitaire de France,1995.
LAUDON, K. Kenneth. C.; LAUDON, Jane P. Sistemas de Informação
com internet. 4. ed. Rio de Janeiro: LTC, 1999.
LAUDON, K. Sistemas de Informação Gerenciais. 5. ed. São Paulo: Pear-
son/Prentice Hall, 2004.
LOURENÇO, Antonio C.; CRUZ, Eduardo C. A.; FERREIRA, Sabrina R.;
CHOUERI JÚNIOR, Salomão. Circuitos digitais. São Paulo: Érica, 1996.
MANO, Rui. Representação de dados. 1998. Disponível em: http://wwwu-
sers.rdc.puc-rio.br/rd6aritr.html. Acesso em 20 dez. 2007.
MATTOS, J. R. L. de; GUIMARÃES, L. dos S. Gestão da tecnologia e
inovação: uma abordagem prática. São Paulo: Saraiva, 2005.
MEIRELES, Manoel. Sistemas de informação: quesitos de excelência dos
sistemas de informação operativos e estratégicos. São Paulo: Arte & Ciência,
2001. v.1.
MOLINARI, Leonardo. Gerência de configuração - técnicas e práticas no
desenvolvimento do software. Florianópolis: Editora Visual Books, 2007.
MOREIRA, Jussara. Sistemas de informação: conceitos básicos. Petrolina:
FACAPE, [s.d.].
MORIMOTO, C. E. Hardware II – o guia definitivo. Porto Alegre: Sul
Editores, 2010.
______. Linux – guia prático. Porto Alegre: Sul Editores, 2009.
MOZ. The Beginner’s Guide to SEO. Disponível em http://moz.com/
beginners-guide-to-seo. Acesso em fevereiro de 2014.
O’BRIEN, James A.; MOREIRA, Cid Knipel. Sistemas de informação: e as
decisões gerenciais na era da Internet. 2. ed. São Paulo: Saraiva, 2004.
OSI. Open Source Iniciative. Disponível em <opensource.org>.

– 258 –
Referências

REZENDE, Denis Alcides. Engenharia de software e sistemas de informa-


ção. 3. ed. Rio de Janeiro: Brasport, 2006.
ROGERS, D. Procedural Elements for Computer Graphics. 2. ed. New York:
McGraw-Hill, 1998.
SBC. Sociedade Brasileira de Computação. Brasília: MEC, 1998. Disponí-
vel em: <http://www.sbc.org.br>.
SENGE, Peter M. A quinta disciplina: arte e prática da organização de
aprendizagem. Barcelona: Best Seller, 1998.
SIMÕES, Marco Antônio. Qual a diferença entre os cursos de Sistemas
de Informação, Engenharia da Computação e Ciência da Computação?
Disponível em: <http://www.teenageronline.com.br/docs/diferencas.pdf>.
Acesso em: 23 ago. 2008.
SIMON, H. A. Comportamento administrativo. 2. ed. Rio de Janeiro:
FGV, 1971.
SLACK, N.; CHAMBERS, S.; JOHNSTON, R.; BETTS, A. Gerencia-
mento de operações e de processos: princípios e prática de impacto estraté-
gico. Porto Alegre: Bookman, 2008.
STAIR, Ralph M.; REYNOLDS, George W. Princípios de sistemas de
informação: uma abordagem gerencial. 4. ed. Rio de Janeiro: LTC, 2002.
TANENBAUM, A. S. Redes de computadores. 3. ed. Rio de Janeiro: Cam-
pus, 1997.
TANENBAUM, A. S. Sistemas operacionais modernos. 3. ed. Nova Jersey:
Prentice Hall, 2010.
TANENBAUM, A. S. Sistemas operacionais modernos. São Paulo: Pearson
Prentice Hall, 2003.
TARAPANOFF, Kira. Inteligência Social e Inteligência Competitiva.
Departamento de Ciência da Informação. Universidade de Brasília. Dispo-
nível em: <http://www.encontros-bibli.ufsc.br/bibesp/esp_01/2_tarapanoff.
pdf>. Acesso em: 28 jul. 2008.

– 259 –
Fundamentos da Informática

TELECO. Estatística de celular no mundo. São Paulo: 2013. Disponí-


vel em <http://www.teleco.com.br/pais/celular.asp>. Acesso em fevereiro de
2014.
TORRES, G. Hardware – Curso Completo. Rio de Janeiro: Axcel
Books,1999.
VELLOSO, F. de C. Informática – conceitos básicos. 8. ed. Rio de Janeiro:
Campus, 2011.
VIANA, Gerardo V. R.. Padrão IEEE 754 para aritmética binária de ponto
flutuante. Fortaleza: Universidade Estadual do Ceará, 2005.
WEBER, Raul F. Fundamentos da arquitetura de computadores. 3a ed..
Porto Alegre: Sagra Luzatto, 2004.
ZENONE, Luiz Claudio. Marketing Estratégico e Competitividade
Empresarial. São Paulo: Novatec, 2003.

– 260 –
Estamos rodeados de computadores embutidos em equipamentos que utili-
zamos em nosso dia a dia. Um carro pode ter mais de dez deles, no telefone
celular, um computador extremamente poderoso, e mesmo em geladeiras e
micro-ondas. Mas como é que os computadores funcionam? O que é preciso
saber sobre estas maquininhas para que tragam bem-estar a nossa sociedade.
Neste livro estamos apresentando respostas básicas para estas perguntas.
Depois de conhecer como o equipamento do computador funciona e quais os
recursos que temos disponíveis para que o computador rode aplicações uteis
para os usuários, vamos mostrar quais são as diversas áreas nas empresas
onde o uso do computador e seus aplicativos podem colaborar. Isto permite
uma organização dos dados de tal forma que elas consigam buscar informa-
ções importantes para decidir sobre o futuro de uma forma segura e confiável.
Espero que goste deste primeiro contato com a computação e que consiga
responder aquelas perguntinhas que seu tio, primo, vizinho irão fazer agora
que você está fazendo uma faculdade na área de computação. Depois você
me conta... Sucesso e boa leitura!

ISBN 978-85-53370-29-0

9 7885 53 3 7029 0

Você também pode gostar