Escolar Documentos
Profissional Documentos
Cultura Documentos
➢ INFORMÁTICA
O computador é uma máquina que processa dados, orientada por um conjunto de instruções e
destinada a produzir resultados completos, com um mínimo de intervenção humana. Entre vários
benefícios, podemos citar:
• Grande velocidade no processamento e disponibilização de informações;
• Precisão no fornecimento das informações;
• Próprio para execução de tarefas repetitivas;
• Propicia a redução de custos em várias atividades;
➢ELEMENTOS COMPUTACIONAIS
➢BIT E BYTE
Está se tornando cada vez mais comum filmes de ficção científica com computadores inteligentes,
de alto grau de sofisticação. Filmes como I.A. - Inteligência Artificial (A.I. “Artificial Intelligence”,
nome original), Matrix e Eu Robô (“I, Robot” nome original) são alguns exemplos dessas
produções. Muitas vezes, é possível ver essas “máquinas” se comunicando entre si como os
humanos, através de fala oral, de gestos ou da escrita tradicional com alfabetos ou outros símbolos.
Mas será que os computadores se comunicam desta forma, como os humanos? Ou possuem algum
tipo de comunicação peculiar?
➢GERAÇÕES
Primeira geração. Computadores constituídos de válvulas
eletrônicas. Exemplos: ENIAC, UNIVAC I, IBM 701.
Segunda geração. Com início nos fins dos anos 50,
engloba computadores equipados com transistores
organizados em circuitos impressos. Exemplo: IBM 1401.
Começaram a surgir também as linguagens de programação
alto nível: Fortran (1957), Cobol (1960), Basic (1964).
Figura 6: Válvulas
Terceira geração. Com início em meados da década de 60,
compreende computadores constituídos de circuitos integrados.
Escalas de integração:
• SSI - Small Scale of Integration
• MSI - Middle Scale of Integration.
Exemplos: IBM /360 e IBM /370.
Quarta geração. Com início no princípio da década de 70, são
os computadores constituídos de circuitos integrados nas
seguintes escalas:
• LSI - Large Scale of Integration 08:00 - 10:30
Figura 7: Transistores
• VLSI - Very Large Scale of Integration.
Exemplos: Os computadores atuais, incluindo os microcomputadores.
A substituição das válvulas pelos transistores acarretou em um aumento de processamento, uma
diminuição de tamanho nos computadores e uma diminuição considerável de temperatura nos
mesmos, visto que os transistores não geravam tanto calor como as válvulas.
➢HARDWARE X SOFTWARE
Hoje, o mercado de trabalho exige conhecimentos básicos de informática, não só no que se refere
aos softwares, mas ao hardware também. É importante saber, por exemplo, o que é um HD (Hard
Disk), para que serve o processador, qual a função da memória RAM e assim por diante. Nada de
recursos avançados, isso pode ser deixado para quem quer se aprofundar no assunto. No entanto, ter
conhecimentos básicos do assunto é essencial, até mesmo para lidar com determinadas situações,
como observar o reparo de seu PC por um técnico, por exemplo. Este artigo, voltado aos iniciantes
ou àqueles que tiveram um "branco" no assunto, mostrará um resumo sobre cada um dos principais
componentes de um computador pessoal, assim como abordará suas utilidades e suas principais
funções.
➢ DIVISÃO DO COMPUTADOR
Não irei mais me enrolar com esta diferença! Hardware: todo o equipamento, suas peças, isto é, tudo
o que "pode ser tocado", denomina-se hardware. Alguns
equipamentos, como monitor, teclado e mouse são
também chamados de periféricos. Outros exemplos de
hardware: memórias, processadores, gabinetes, disco
rígido, etc.
Software: consiste na parte que "não se pode tocar", ou
seja, toda a parte virtual, onde estão incluídos os drivers,
os programas e o sistema operacional.
O mercado de processadores é dominado, essencialmente, por duas empresas: Intel e AMD. Eis
alguns exemplos de seus processadores: Intel Core 2 Duo, Intel Core i7, Intel Atom (para
dispositivos portáteis), AMD Athlon X2, AMD Phenom II e AMD Turion X2 (também para
dispositivos portáteis). Abaixo, a foto de alguns processadores.
➢HARDWARE
PROCESSADOR
Este é o grande pivô da história. O processador, basicamente, é o "cérebro" do computador.
Praticamente tudo passa por ele, já que é o processador o responsável por executar todas as
instruções necessárias. Quanto mais "poderoso" for o processador, mais rapidamente suas tarefas
serão executadas.
Todo processador deve ter um cooler (ou algum outro sistema de controle de temperatura). Essa
peça (um tipo de ventilador) é a responsável por manter a temperatura do processador em níveis
aceitáveis. Quanto menor for a temperatura, maior será a vida útil do chip. A temperatura sugerida
para cada processador varia de acordo com o fabricante, com o mecanismo e com o desempenho.
Procure saber com o fabricante qual a temperatura ideal para o seu processador. Se o valor estiver
acima do limite, talvez seja necessário melhorar a ventilação interna da máquina. Para conhecer a
temperatura, fabricantes de placas-mães costumam oferecer programas próprios para isso. Em
muitos casos, também é possível obter essa informação no setup do BIOS (visto no item placa-mãe,
mais adiante).
Vale ressaltar que cada processador tem um número de pinos ou contatos. Por exemplo, o antigo
Athlon XP tem 462 pinos (essa combinação é chamada Socket A) e, logo, é necessário fazer uso de
uma placa-mãe que aceite esse modelo (esse socket). Assim sendo, na montagem de um
computador, a primeira decisão a se tomar é qual processador comprar, pois a partir daí é que se
escolhe a placa-mãe e, em seguida, o restante das peças.
CLOCK INTERNO
Em um computador, todas as atividades necessitam de sincronização. O clock interno (ou apenas
clock) serve justamente para este fim, ou seja, basicamente, atua como um sinal para sincronismo.
Quando os dispositivos do computador recebem o sinal de executar suas atividades, dá-se a esse
acontecimento o nome de "pulso de clock". Em cada pulso, os dispositivos executam suas tarefas,
param e vão para o próximo ciclo de clock.
A medição do clock é feita em hertz (Hz), a unidade padrão de medidas de frequência, que indica o
número de oscilações ou ciclos que ocorre dentro de uma determinada medida de tempo, no caso,
segundos. Assim, se um processador trabalha à 800 Hz, por exemplo, significa que ele é capaz de
lidar com 800 operações de ciclos de clock por segundo.
Repare que, para fins práticos, a palavra kilohertz (KHz) é utilizada para indicar 1000 Hz, assim
como o termo mega-hertz (MHz) é usado para referenciar 1000 KHz (ou 1 milhão de hertz). De
igual forma, giga-hertz (GHz) é a denominação usada quando se tem 1000 MHz e assim por diante.
Com isso, se um processador conta com, por exemplo, uma frequência de 800 MHz, significa que
pode trabalhar com 800 milhões de ciclos por segundo.
Neste ponto, você provavelmente deve ter entendido que é daqui que vem expressões como
“processador Intel Core i5 de 2,8 GHz”, por exemplo.
Veja que o Front Side Bus está totalmente relacionado com o processador e a memória RAM.
Considerando isso, fica meio óbvio que qualquer 1 MegaHertz acrescentado no FSB, pode ser um
valor muito alto para o processador e a memória RAM. Se o Front Side Bus opera a 200 MHz, por
exemplo, ele será capaz de rodar um jogo com uma quantidade de quadros por segundo bem maior
do que o FSB configurado para operar em 190 MHz.
Qualquer tarefa que você vá realizar com seu computador deve ser muito bem pensada, sendo que
muitas devem ser executadas após uma boa leitura do manual (ou até mesmo por técnicos). O FSB é
um valor utilizado em vários componentes de Hardware e ele tem efeito direto sobre o processador,
o que pode ser um perigo. Caso você esteja pensando em aumentar o Front Side Bus de 200 MHz
para 300 MHz, pode ir parando de exagerar. O FSB é controlado pela placa-mãe, a qual possui um
valor máximo (que em geral não chega a mais do que 10% do que o FSB suporta).
Uma maneira bastante fácil de verificar o seu clock externo (Front Side Bus), o multiplicador que
está sendo usado e consequentemente o clock interno do processador seria o uso de um software
utilitário, como por exemplo o CPU-Z (Figura 13) ou o Everest.
Quando nos deparamos com situações em que precisamos trocar um computador, atualizar um
sistema operacional ou até mesmo baixar uma versão de um determinado software, é muito comum
encontrarmos termos que dizem respeito sobre o tipo de arquitetura adotada: as de 32 ou de 64 bits.
OBS 2: Se o seu Pc tiver mais de 4GB de memória RAM e for instalado um sistema
operacional de 32 bits, este só reconhecerá até 4GB, desta forma haverá desperdício de
memória.
MEMÓRIA CACHE
A memória cache é uma pequena quantidade de memória localizada perto do. Surgiu quando a
memória RAM não estava mais acompanhando o desenvolvimento do processador.
A memória RAM é lenta, e faz o processador “esperar” os dados serem liberados. Para entender
melhor esta situação, deve-se entender como o computador trabalha internamente. Quando o
usuário clica para abrir um arquivo, o processador envia uma “requisição” para a memória RAM.
A memória RAM procura o dado que o usuário quer acessar no HD. Quando o arquivo é
encontrado, é copiado para a memória RAM e enviado para o processador. O processador exibe o
arquivo no monitor, mandando as informações para a placa de vídeo.
Quando o processador envia a informação para a memória RAM, e também quando a memória
RAM manda esta informação novamente para o processador, há uma demora, devida a velocidade
limitada da memória RAM.
Ai que entra o papel da memória cache, na qual é uma memória bastante rápida, no entanto tem
uma menor capacidade de armazenamento.
Ela guarda alguns dados mais importantes, e usados mais frequentemente, ou por determinados
programas, quando são executados. Sem esta memória, o desempenho dos computadores atuais
cairia em mais de 95%, devido a limitação de velocidade da memória RAM. Estes dados
importantes, e se fosse necessária a memória RAM para passar estes dados repetidas vezes, o
processador ficaria muito tempo esperando os dados chegarem, e não usaria sua capacidade total.
Existem 3 tipos de Cache, conhecidos como L1 (primário) e L2 (secundário) e o L3, que atua como
secundária também. Os três são embutidos no processador (antigamente somente o L1 era), já que a
distancia física poderia interferir na transferência de dados. A cada novo processador, é
desenvolvido um novo tipo de memória Cache para acompanhar a velocidade do processador.
Atualmente é inviável, mas futuramente a
memória cache pode se transformar na memória
principal do PC, isto ajudaria muito no
desempenho das máquinas. Pouco tempo atrás, a
memória Cache do processador era em média
256k, atualmente está em 12 MB, e logo teremos
memórias cache maiores ainda, e o preço dos
processadores vai subindo cada vez mais. O preço
IFigura 15: Memória Cache inicial do Core2Duo (8 MB de Cache), foi em
media R$ 1.000,00; já o Core i7, com 12 MB de
Cache custou aproximadamente R$ 3.000,00 no lançamento.
Ao longo dos anos, houve a necessidade de se desenvolver processadores cada vez mais velozes, ou
seja que fossem capazes de executar a suas tarefas em um menor espaço de tempo, então quais
seriam as possíveis possibilidades para que isso pudesse ser feito?À medida que a indústria das
CPUs evoluiu, as empresas foram entregando processadores cada vez mais rápidos (com maior
frequência) até chegar à casa dos 4 GHz. Ali a indústria encontrou um limite: subir muito mais que
isto torna o sistema instável e faz o processador superaquecer.
Esse software é como se fosse o gerente de uma fábrica; o processador seria a linha de produção; os
operários seriam equivalentes aos núcleos do processador.
esses núcleos; mas infelizmente não é isso o que acontece em muitos casos, mesmo que
processadores multi-core não sejam exatamente uma novidade. Para um software funcionar com
mais de um núcleo, os desenvolvedores precisam inserir muito mais linhas no código dos
aplicativos. Em vez de simplesmente mandar o software executar uma função específica pelo
processador, é preciso determinar qual núcleo vai fazer o que e quando. Quanto mais núcleos, mais
complicada é essa tarefa.
Apesar de a maioria dos desenvolvedores já trabalhar com esses recursos, não são todos que o
fazem. Muitas vezes porque é muito caro perder tempo com programação apenas para otimizar os
processos e outras por motivo de compatibilidade.
SOQUETES
Os soquetes ( ou sockets em inglês) são entradas que as placas-mãe possuem para instalação dos
processadores. Existem diversos tipos, cada um deles é específico para cada fabricante ou modelo
da unidade processamento que será instalada. Assim como os soquetes, os processadores
apresentam diversos tipos, que variam de acordo com a quantidade de núcleos, capacidade de
processamento e suporte ao overclock, prática de aumentar a capacidade do chip. Existe dois
modelos de soquete:
– PGA: sigla de Pin Grid Array (algo como “matriz de pinos”), esse é um
tipo de soquete que faz com que o processador utilize pinos de contato que
devem ser inseridos em um encaixe adequado na placa-mãe do computador.
LISTA DE SOQUETES
Intel Celeron
Intel Core 2 Duo / Extreme / Quad
LGA755/T Intel
Intel Pentium 4 / D / Dual Core / Extreme
Intel Xeon
AMD Athlon 64 / FX / X2
939 AMD Dual-core Opteron AMD
AMD Sempron
AMD Athlon II
AM3 AMD Phenom II X2 / X3 / X4 / X6 AMD
AMD Sempron / Sempron X2
OBS: Um fato muito importante a se frisar seria o de que não é garantido compatibilidade
entre a placa-mãe e o processador com o mesmo soquete na qual se quer encaixar, pois o
chipset da sua placa tem que ser compatível com o processador que está sendo encaixado.
Desta forma é importante você consultar o manual do fabricante referente aquela placas-mãe.
ARQUITETURA DE PROCESSADORES
➢DISSIPADORES E COOLERS
O processador realiza milhões de cálculos por segundo. A atividade interna nele só é possível graças
à energia elétrica que transita de um lado para o outro. Acontece que essa grande carga de trabalho
gera calor, visto que os materiais oferecem resistência à passagem de corrente, consequentemente os
processadores aquecem muito quando estão efetuando tarefas. Para evitar a perda ou qualquer tipo
de danos aos componentes, teremos quer ter uma solução favorável para mantê-lo com uma
temperatura aceitável, para isso utilizamos um conjunto composto por: cooler e dissipador. Existem
três tipos de coolers:
- Air Coolers
- Water Coolers
Esse sistema é mais utilizado em placas de vídeo, mas também é encontrado em coolers de
processadores. No caso de sistemas para refrigeração de CPUs, os cooler heat pipes são utilizados
em conjunto com os coolers à base de ar.
➢ MEMÓRIAS
MEMÓRIAS ROM
É a memória somente para leitura (Read Only Memory) onde temos o sistema básico do
microcomputador: o BIOS. Neste o POST efetua o autoteste assim que o PC é ligado. O Setup
permite ao usuário a configuração do sistema básico e a CMOS é uma memória mantida pela
bateria da placa-mãe que armazena essas configurações.
• MASK-ROM
- Memória gravada na fábrica do circuito integrado.
- Não há como apagarmos ou regravarmos seu conteúdo.
• PROM (Programable ROM)
- Memória vendida virgem. Figura 25: Memória
ROM
- Fabricante se encarrega de fazer a gravação do conteúdo.
Obs – Fabricante do periférico que gravará.
• EPROM (Erasable Programable ROM)
- Igual à PROM.
- Porém, seu conteúdo pode ser apagado através da luz ultra-violeta.
• EEPROM (Eletric Erasable Programable ROM)
- É uma EPROM onde a regravação é feita através de pulsos elétricos.
• FLASH-ROM
- É uma EEPROM que utiliza baixas tensões de regravação e este é feito em tempo bem
menor.
- Regravação feita através de software.
- É empregada nos Pendrives, MP3, MP4, cartões de memória, etc.
➢ MEMÓRIAS RAM
A memória RAM é um tipo de tecnologia que permite o acesso aos arquivos armazenados no
computador. Diferentemente da memória do HD, a RAM não armazena conteúdos
permanentemente. É responsável, no entanto, pela leitura dos conteúdos quando requeridos. Ou
seja, de forma não-sequencial, por isso, a nomenclatura em inglês de Random Access Memory
(Memória de Acesso Aleatório).
FUNCIONAMENTO
Assim como a mesa, quanto maior a memória RAM, maior sua capacidade de trabalho. Mas a
capacidade da mesa é medida em área. Quanto maior a área da mesa, mais livros cabem e mais
rapidamente se faz o trabalho. Já a capacidade da memória RAM, mede-se pelo fluxo de bits
suportados nas operações. Ou seja, para se acessar uma grande quantidade de memória no HD de
uma só vez, como muitos programas atuais exigem, é necessário uma grande quantidade de
memória RAM. São estes, portanto, os megabites ou gigabites que aparecem nas configurações. A
memória RAM é um chip semelhante a um micro-processador, composto por milhões de
transistores e capacitores. O capacitor é uma peça capaz de armazenar elétrons. Quando ele está
carregado, o sistema faz uma leitura com base no famoso código binário de “zeros e uns”. Cada
leitura dessa em zero ou um significa um bit de informação. Essa leitura é feita de forma muito
rápida, são muitas em poucos milésimos de segundos. Uma outra característica importante de uma
memória RAM é a sua temporização, pois ela vai indicar o quanto rápida é a memória na leitura e
escrita dos dados e o quanto ela é rápida na entrega dos dados para o processador. Concluindo, se eu
tiver duas memórias com a mesma frequência e a mesma capacidades, as mesmas podem ter
desempenhos diferentes, pois os seus parâmetros de temporização serão diferentes.
A largura nos diz o número de bits que podem ser enviados ao CPU simultaneamente. A velocidade
é o número de vezes que esse grupo de bits pode ser enviado a cada segundo.
A memória comunica-se com o CPU, trocando dados, e completa o que se conhece como ciclo de
barramento. É esse período que apresenta o desempenho da memória que, pode ser de 100MHz e
32bits, por exemplo. Isto significa que tal memória é capaz de enviar 32bits de dados ao
processador 100 milhões de vezes por segundo. No entanto, existe um efeito chamado latência, que
atrasa a taxa de transferência de dados de forma significativa quando se envia o primeiro bit.
Ao se comprar uma memória deve-se ficar atento para essa questão da taxa de transferência. Não
adianta a memória ter uma frequência alta e a frequência do sistema ser menor, pois a taxa do
sistema vai limitar a da memória RAM. Portanto, para um sistema que rode a 100MHz e 32bits,
compre uma memória com os mesmos aspectos.
DESEMPENHO
Muitos sistemas não têm a memória necessária para executar certos aplicativos, jogos e programas.
É possível dizer que um dos motivos para isso é a baixa quantidade de memória RAM. O número
de informações que o programa exige que sejam acessadas ao mesmo tempo do HD não é suportada
pela configuração e o sistema fica lento.
Vale ressaltar, no entanto, que há muitos outros fatores que podem implicar nessa velocidade, dentre
eles a velocidade do processador e da placa de vídeo, os quais possuem suas próprias memórias
também. Caso da memória Cache, explicada acima.
➢TIPOS DE RAM
DRAM
Existem dois tipos básicos de memórias RAM. O mais barato e comum deles é a DRAM ou memória
dinâmica de acesso aleatório. Nesse tipo, um transistor e um capacitor unem-se para formar uma célula
de memória, que é responsável por um bit de dados. Enquanto o capacitor conserva o bit de informação,
o transistor age como um controle, que permite ao chip ler o capacitor ou mudar seu estado.
A DRAM costuma ser uma memória mais lenta, pois passa por um processo de refrescamento dos
dados, o que leva tempo e deixa a memória lenta.
SRAM
O segundo tipo é o SRAM ou, memória estática de acesso aleatório. Essa possui um circuito em uma
forma conhecida como Flip-flop, que contém quatro ou seis transistores e fios. A vantagem desse tipo é
que não há necessidade de ser refrescada. Sendo assim, é mais rápida que o primeiro tipo. No entanto,
ocupa também bem mais espaço em um chip que uma célula de memória dinâmica. O que resulta na
menor quantidade de memória que se pode ter por chip, fazendo da SRAM um componente bem mais
caro.
DUAL CHANNEL
As memórias têm evoluído muito e agregado cada vez mais funcionalidades para aplicarem suas
capacidades e o Dual Channel é uma delas.
➢MEMÓRIA DDR
A DDR ou, Double Data Rate (taxa dupla de transferência) é mais um para a lista dos aperfeiçoamentos
na engenharia das memórias RAM. Essa funcionalidade possibilita a transferência de dois dados
simultaneamente.
MÓDULOS DE MEMÓRIA
Mais um aspecto importante nas memórias RAM, ao qual deve-se ficar atento,
principalmente se for adquirir novas, é o seu módulo. Isto é, o formato dos
conectores da placa de memória. Isso acontece porque as placas-mães devem ter
compatibilidade com o conector na memória.
O modelos para desktops que ficaram mais conhecidos são: o SIMM, single
in-line memory module; o DIMM, dual in-line memory module e o RIMM,
Rambus in-line memory module.
Já o modelo SODIMM serve para notebooks. Essas são memórias que se
diferenciam essencialmente nos modos como organizam os pinos nos
conectores e transmitem os dados.
Figura 27: Pentes
de Memória RAM A memória DDR surgiu como a evolução da memória SDRAM. Esta memória
conseguia realizar dois acessos aos dados, obtendo assim o dobro da velocidade. A tensão
necessária para as alimentar foi melhorado e, baixando de 3.3 V – 5 V (nas memórias SDRAM),
para 2.5V.A Memória DDR é fisicamente diferente da sua antecessora, apresentando 184 pinos.
MEMÓRIA DDR 2
A Memória DDR2 é uma evolução da DDR. Este modelo apresentou várias alterações significas,
reduzindo as tensões de alimentação para 1.8 V e aumentando significativamente a velocidade, com
um clock máximo de 650 MHz.
MEMÓRIA DDR 3
Tal como o próprio nome sugere, as DDR3 são uma evolução das memórias DDR2. O Buffer foi
aumentado para 8 bits, permitindo uma elevada taxa de transferência, com frequências até 800
MHz.
DDR3 – módulo com um tamanho mínimo de 512 MB e tamanho máximo (até agora) 8GB.
MEMÓRIA DDR 4
Em construção estão os módulos DDR4, estimando-se que o seu consumo de energia seja reduzido
até 40%, e apresente tensões de alimentação na ordem dos 1.05V - 1.2V. Também se estima que
apresentem maiores velocidades, com uma frequência até 1.6 GHz e uma transferência de dados até
2400 Mb/s.
Consulta rápida:
PARÂMETROS DDR DDR2 DDR3
HD é a abreviatura para Hard Disk. Essa palavra significa disco rígido, nome comumente utilizado
para fazer referência ao componente que armazena as pastas e arquivos. É no HD que fica instalado
o sistema operacional, os programas e os jogos.
Além disso, o disco rígido guarda os vídeos, as músicas e as imagens do usuário. Diferente da
memória RAM, o disco rígido não armazena os dados temporariamente. Todas as informações
presentes no HD ficam nele até que o usuário dê uma ordem para excluí-las.
LEITURA E GRAVAÇÃO
Todo o processo de gravação e leitura dos dados de um disco rígido é feito com a utilização de
cabeças de leitura eletromagnéticas, presas a um braço móvel que permite o acesso a toda a
superfície do disco rígido.
O braço de leitura geralmente é feito de alumínio, pois precisa ser ao mesmo tempo leve e resistente
para suportar a grande velocidade com que os discos giram. Para coordenar o movimento das
cabeças de leitura, os HDs contam com um dispositivo especial chamado atuador.
Durante o processo de gravação, o campo magnético gerado pelos ímãs presentes nas cabeças faz
com que as moléculas de óxido de ferro presentes na superfície magnética dos discos se
reorganizem, alinhando os pólos negativos delas com os pólos positivos da cabeça. Da mesma
forma, os pólos positivos se alinham com os pólos negativos.
Os eletroímãs presentes nas cabeças de leitura e gravação podem ter sua polaridade alternada
constantemente, o que permite variar livremente as moléculas da superfície magnética do disco
rígido. Conforme a direção de cada pólo, obtém-se um bit interpretado como 1 ou 0 pelo
computador.
Na hora de ler os dados gravados, a cabeça de leitura capta o campo magnético gerado pelas
moléculas alinhadas: a variação dos sinais magnéticos positivos e negativos gera uma corrente
elétrica transmitida para a bobina de fios presentes na cabeça. Ao chegar à placa lógica do HD, esta
corrente é interpretada como uma sequência de bits 1 e 0, que formam os diferentes arquivos
gravados no disco rígido.
Vale mencionar que todo esse processo ocorre sem nenhuma espécie de contato entre as cabeças de
leitura e a superfície do disco. Isso porque, devido às altas velocidades com os que os discos rodam,
forma-se um colchão de ar que repele as cabeças de leitura e impede qualquer espécie de contato.
Caso houvesse contato entre os componentes, dificilmente um disco rígido funcionaria durante
muito tempo devido aos danos físicos ocorridos. Para evitar acidentes, a maioria dos HDs conta
com um ímã ao lado do atuador, responsável por atrair as cabeças a uma posição segura toda vez em
que o computador é desligado ou não há gravação ou leitura de dados.
Para evitar problemas do tipo recomenda-se utilizar acessórios como no-breaks, que permitem
desligar o computador da forma correta em casos de instabilidade no fornecimento de energia.
Discos de estado sólido são fabricados sem partes móveis, ou seja, são peças inteiras que trabalham
com componentes estáticos. Diferentemente do que acontece com discos rígidos comuns, eles não
utilizam processos mecânicos para a gravação e a leitura de arquivos no disco magnético (HDs
funcionam de maneira similar aos toca-discos).
No lugar da agulha e do disco, os SSDs são constituídos por dispositivos de memória Flash. Dessa
forma, o processo de escrita e leitura dos arquivos é feito de maneira elétrica, quase instantânea. O
motivo para isso é o acesso facilitado do processador aos dados gravados, pois não é necessário
dissipar energia com o movimento das faixas magnéticas.
BOOT FACILITADO
Computadores como o Macbook Air podem ser carregados para todos os locais sem a necessidade
de desligá-lo. O processo de "acordar" após longos períodos de hibernação é muito rápido, assim
como o tempo de boot. Testes da Samsung indicam a inicialização do Windows em 36 segundos
para computadores com SSD, e 63 segundos para máquinas com HD.
Conhece alguém que sofreu perdas de dados por causa de impactos ocorridos com seus
computadores? Se não, pelo menos já ouviu alguém reclamando sobre travamentos após pequenas
pancadas nos notebooks ou gabinetes dos desktops. Isso acontece por um motivo bastante simples:
os HDs são produzidos com discos magnéticos e agulhas (ressaltamos a analogia a um toca-discos).
Quando algum impacto ocorre, essa agulha pode se perder na leitura e gravação dos dados, fazendo
com que o computador trave completamente. Em casos mais sérios, os HDs podem ser inutilizados,
pois, em vez de a agulha apenas se perder, ela acaba riscando o disco magnético do componente.
Computadores com SSD não sofrem com isso. Sem partes mecânicas na composição do dispositivo,
impactos ou grandes sessões de “chacoalhações” não oferecem riscos. Testes da Samsung
apontaram que os SSDs suportam uma frequência superior a 2 mil Hz, enquanto os HDs pararam
de funcionar com menos de 400 Hz.
EFICIÊNCIA ENERGÉTICA
O adjetivo que mais tem sido empregado para descrever as novas tecnologias é “verde”. Os
dispositivos de memória SSD fazem parte disso, pois são criados para reduzir o consumo energético
e garantir melhor eficiência com os recursos que utiliza. Pode-se dizer que com a mesma quantidade
de energia é possível fazer muito mais.
O maior benefício trazido por isso é a maior duração das baterias de notebooks. Sem discos
rotativos, menos energia é dissipada com o movimento, sendo direcionada para a transmissão de
dados entre os componentes do computador. Hoje, os discos de estado sólido ainda apresentam
alguns problemas que impedem esta ferramenta de entrar com força no mercado mundial. É
necessário entender que ainda existem alguns pontos em que os discos rígidos tradicionais são
superiores.
Você deve se lembrar de que o computador já custou mais do que um carro (em 1980, armazenar 1
GB chegava a custar 193 mil dólares). É lógico que o SSD está muito aquém desse valor, mas ainda
existe um alto custo para armazenar dados em discos sólidos, principalmente se comparados aos
atuais baixos preços dos HDs.
Devido aos valores cobrados por esses dispositivos, produzir discos com capacidades elevadas
ainda não é vantajoso para as fabricantes. Felizmente o cenário está se modificando aos poucos e
hoje já existem alguns SSDs que contam com 256 GB para armazenar arquivos. Outro problema é a
limitação dos discos: enquanto HDs podem ser sobrescritos infinitas vezes, SSDs podem parar de
apagar dados em determinados setores da memória.
➢PLACA – MÃE
A forma como os slots, conectores e chipsets estão distribuídos variam de acordo com o fabricante e
o modelo da placa, mas os componentes principais são os mesmos em todas elas. Na foto abaixo
você pode visualizar uma placa-mãe. Nela estão destacados as principais características que a
compõe, e esses pontos serão explicados a seguir.
Existem vários modelos de placas no mercado, cada qual com suas diferenças e peculiaridades. Por
isso, pegamos como exemplo a placa-mãe ASUS P5Q-C meramente para ilustração, pois ela é
híbrida em relação à memória (tem DDR3 e DDR2).
Atualmente as placas-mãe vêm apresentando cada vez mais diferenciais. Algumas placas, como
esta, possuem suporte tanto para DDR2 quanto para DDR3, o que é muito interessante, pois caso
mais tarde você deseje fazer um upgrade de memória não será necessário trocar de placa-mãe, e
com o constante avanço da tecnologia é sempre bom adquirirmos produtos que possuam maior
autonomia.
A placa-mãe possui diversos componentes, alguns destes já foram citados nesta apostila, portanto
focaremos mais nos que ainda não foram comentados.
SOQUETE
Uma das principais características de uma placa-mãe é qual o soquete que
ela possui. O soquete é o lugar onde é encaixado o processador, e de
acordo com a quantidade de pinos para encaixe que ele possui é que
definimos qual é o soquete. Tecnicamente, isso é chamado de pinagem, e é
o que define qual família de processadores é suportado pela placa.
➢SLOTS
Os slots de memória variam de acordo com o tipo de memória suportado. Por exemplo, uma
memória do tipo DDR2 não encaixa em um slot para memórias DDR3, e vice-versa.
O IDE, do inglês Integrated Drive Eletronics, foi o primeiro padrão que integrou a controladora
com o Disco Rígido. Os primeiros HDs com interface IDE foram lançados por volta de 1986 e na
época isto já foi uma grande inovação porque os cabos utilizados já eram menores e havia menos
problema de sincronismo, o que deixava os processos mais rápidos.
Inicialmente, não havia uma definição de padrão e os primeiros dispositivos IDE apresentavam
problemas de compatibilidade entre os fabricantes. O ANSI (American National Standards
Institute), em 1990, aplicou as devidas correções para padronização e foi criado o padrão ATA
(Advanced Technology Attachment). Porém com o nome IDE já estava mais conhecido, ele
permaneceu, embora algumas vezes fosse chamado de IDE/ATA.
As primeiras placas tinham apenas uma porta IDE e uma FDD (do drive de disquete) e mais tarde
passaram a ter ao menos duas (primária e secundária). Cada uma delas permite a instalação de dois
drives, ou seja que podemos instalar até quatro Discos Rígidos ou CD/DVD-ROMs na mesma
placa. Para diferenciar os drives instalados na mesma porta, existe um “jumper” para configurá-los
como master (mestre) ou slave (escravo).
Inicialmente, as interfaces IDE suportavam apenas a conexão de Discos Rígidos e é por isso que há
um tempo atrás os computadores ofereciam como diferencial os famosos "kits multimídia", que
eram compostos por uma placa de som, CD-ROM, caixinhas e microfone.
O SATA ou Serial ATA (Figura 41), do inglês Serial Advanced Technology Attachment, foi o
sucessor do IDE. Os Discos Rígidos que utilizam o padrão SATA transferem os dados em série e
não em paralelo como o ATA. Como ele utiliza dois canais separados, um para enviar e outro para
receber dados, isto reduz (ou quase elimina) os problemas de sincronização e interferência,
permitindo que frequências mais altas sejam usadas nas transferências.
Existem dois padrões de controladores SATA: o SATA 150 (ou SATA 1.5
Gbit/s ou SATA 1500), o SATA 300 (SATA 3.0 Gbit/s ou SATA 3000) e o
SATA 600 (ou SATA 6.0 Gbit/s). Este último é a terceira geração desta Figura 38:
tecnologia e foi lançado em Maio de 2009 e são melhor aproveitados por Controladora SATA
Discos rígidos de Estado Sólido.
Atualmente o padrão SATA, já se encontra em sua 3ª versão, a principal diferença entre esta e as
suas antigas versões é na velocidade de transmissão. Veja um quadro comparativo entre as versões
da controladora SATA, relacionado a transmissão de dados:
➢SLOTS DE EXPANSÃO
SLOT AMR
SLOT CNR
A Intel resolveu responder ao problema das placas
AMR redesenhando o slot AMR. O slot CNR
pode coexistir com os slots PCI padrão, permitindo
que as placas CNR ou as placas PCIutilizem o slot
á vez. Os slots CNR também receberam suporte Figura 41: Slot Cmr
para Plug and Play e outras funções de interesse para os designers de sistemas. Os padrões AMR e
CNR são incompatíveis, tanto ao nível físico como eléctrico. Embora tenhamos visto poucas placas
CNR, na maioria adaptadores de som e modems, as placas CNR não são fáceis de encontrar tal
como as placas AMR.
SLOT ACR
SLOT ISA
O barramento ISA é um padrão não mais utilizado, sendo encontrado apenas em computadores
antigos. Seu aparecimento se deu na época do IBM PCe essa primeira versão trabalha com
transferência de 8 bits por vez e clock de 8,33 MHz (na verdade, antes do surgimento do IBM PC-
XT, esse valor era de 4,77 MHz).
Na época do surgimento do processador 286, o barramento ISA ganhou uma versão capaz de
trabalhar com 16 bits. Dispositivos anteriores que trabalhavam com 8 bits funcionavam
normalmente em slots com o padrão de 16 bits, mas o contrário não era possível, isto é, de
dispositivos ISA de 16 bits trabalharem com slots de 8 bits, mesmo porque os encaixes ISA de 16
bits tinham uma extensão que os tornavam maiores que os de 8 bits.
As placas de 8 bits utilizam somente a parte maior. Como você já deve ter imaginado, as placas de
16 bits usam ambas as partes. Por conta disso, as placas-mãe da época passaram a contar apenas
com slots ISA de 16 bits. Curiosamente, alguns modelos foram lançados tendo tanto slots de 8 bits
quanto slots de 16 bits.
SLOT PCI
O barramento PCI surgiu no início de 1990 pelas mãos da Intel. Suas principais características são
a capacidade de transferir dados a 32 bits e clock de 33 MHz, especificações estas que tornaram o
padrão capaz de transmitir dados a uma taxa de até 132 MB por segundo. Os slots PCI são menores
que os slots ISA, assim como os seus dispositivos, obviamente.
Mas, há uma outra característica que tornou o padrão PCI atraente: o recurso Bus Mastering. Em
poucas palavras, trata-se de um sistema que permite a dispositivos que fazem uso do barramento ler
e gravar dados direto na memória RAM, sem que o processador tenha que "parar" e interferir para
tornar isso possível. Note que esse recurso não é exclusivo do barramento PCI.
Outra característica marcante do PCI é a sua compatibilidade com o recurso Plug and Play (PnP),
algo como "plugar e usar". Com essa funcionalidade, o computador é capaz de reconhecer
automaticamente os dispositivos que são conectados ao slot PCI. Atualmente, tal capacidade é
trivial nos computadores, isto é, basta conectar o dispositivo, ligar o computador e esperar o sistema
operacional avisar sobre o reconhecimento de um novo item para que você possa instalar os drivers
adequados (isso se o sistema operacional não instalá-lo sozinho). Antigamente, os computadores
não trabalhavam dessa maneira e o surgimento do recurso Plug and Play foi uma revolução nesse
sentido. Além de ser utilizada em barramentos atuais, essa funcionalidade chegou a ser
implementada em padrões mais antigos, inclusive no ISA.
O barramento PCI também passou por evoluções: uma versão que trabalha com 64 bits e 66 MHz
foi lançada, tendo também uma extensão em seu slot. Sua taxa máxima de transferência de dados é
estimada em 512 MB por segundo. Apesar disso, o padrão PCI de 64 bits nunca chegou a ser
popular. Um dos motivos para isso é o fato de essa especificação gerar mais custos para os
fabricantes. Além disso, a maioria dos dispositivos da época de auge do PCI não necessitava de
taxas de transferência de dados maiores.
SLOT AGP
Se antes os computadores se limitavam a exibir apenas caracteres em telas escuras, hoje eles são
capazes de exibir e criar imagens em altíssima qualidade. Mas, isso tem um preço: quanto mais
evoluída for uma aplicação gráfica, em geral, mais dados ela consumirá. Para lidar com o volume
crescente de dados gerados pelos processadores gráficos, a Intel anunciou em meados de 1996 o
padrão AGP, cujo slot serve exclusivamente às placas de vídeo.
A primeira versão do AGP (chamada de AGP 1.0) trabalha a 32 bits e tem clock de 66 MHz, o que
equivale a uma taxa de transferência de dados de até 266 MB por segundo, mas, na verdade, pode
chegar ao valor de 532 MB por segundo. Explica-se: o AGP 1.0 pode funcionar no modo 1x ou 2x.
Com 1x, um dado por pulso de clock é transferido. Com 2x, são dois dados por pulso de clock.
Em meados de 1998, a Intel lançou o AGP 2.0, cujos diferenciais estão na possibilidade de trabalhar
também com o novo modo de operação 4x (oferecendo uma taxa de transferência de 1.066 MB por
segundo) e alimentação elétrica de 1,5 V (o AGP 1.0 funciona com 3,3 V). Algum tempo depois
surgiu o AGP 3.0, que conta com a capacidade de trabalhar com alimentação elétrica de 0,8 V e
modo de operação de 8x, correspondendo a uma taxa de transferência de 2.133 MB por segundo.
Além da alta taxa de transferência de dados, o padrão AGP também oferece outras vantagens. Uma
delas é o fato de sempre poder operar em sua máxima capacidade, já que não há outro dispositivo
no barramento que possa, de alguma forma, interferir na comunicação entre a placa de vídeo e o
processador (lembre-se que o AGP é compatível apenas com placas de vídeo). O AGP também
permite que a placa de vídeo faça uso de parte da memória RAM do computador como um
incremento de sua própria memória, um recurso chamado Direct Memory Execute.
PCI-Express (ou PCIe) é o nome dado ao barramento encontrado em placas-mãe, usado como
entrada para placas de expansão gráfica, de som e rede. Agora, contaremos um pouco sobre como
surgiu o PCI-Express e seus diferentes modelos.
Se você já parou para ver uma placa-mãe, notou que ela tem várias linhas que percorrem toda a sua
superfície. Essas linhas são chamadas de trilhas e são através delas que os dados percorrem a placa-
mãe e chegam às diferentes peças instaladas. Essas trilhas passam dos conectores de placas e outros
componentes, levando os dados coletados ali para outros setores do sistema. Barramentos PCI e
AGP ficavam responsáveis por serem as portas para placas de vídeo, som e rede serem instaladas no
PC. Com o aumento do tráfego de dados, ambas as conexões começaram a ser insuficientes para um
funcionamento veloz e dentro do potencial que poderia alcançar.
Pensando nisso, a Intel criou o PCI-Express, que, além de ser mais rápido que barramentos PCI e
AGP, padronizou o tipo de conectores de placa de vídeo, som e rede.
Existem três tipos de barramentos PCI-Express disponíveis, sendo que a única diferença entre eles é
a velocidade da transmissão de dados entre placa de expansão e computador. Isso significa que uma
placa de vídeo que é conectada a um conector PCIe 3.0 pode funcionar também em um do tipo 1.0.
O que muda é a quantidade e velocidade de dados que serão enviados.
PCI-Express 1.0
Primeiro modelo, lançado em 2004. Contando com 16 caminhos de transmissão de dados (16x), um
slot PCI-Express pode realizar o tráfego de até 4 GB/s.
PCI-Express 2.0
PCI-Express 3.0
PCI-Express 3.0 é o modelo mais recente e apresenta a maior velocidade alcançada por faixa de
dados até o momento (1 GB/s), podendo chegar até 16 GB/s. A primeira placa gráfica a utilizar o
potencial do barramento foi a Radeon HD 7970, da AMD, lançada em janeiro de 2012.
Foi anunciado em novembro de 2011 que o desenvolvimento de slots PCI Express 4.0 havia sido
iniciado e que ele agora teria uma taxa de transmissão de 2 GB/s por faixa. Isso possibilitaria uma
transmissão de 32 GB/s em slots 16x. Placas com PCI Express 4.0 devem ser lançadas entre 2014 e
2015.
Resumindo tudo, PCI Express é o nome dado a barramentos da placa-mãe que servem como
entradas para placas de expansão (como placas de vídeo, som e rede) e realizam a transmissão de
dados para o computador.
Outro item relevante é a possibilidade de ligar duas ou mais placas de vídeo no mesmo computador.
Algumas placas-mãe possuem mais de um slot PCI-Express ou PCI-Express 2.0 e permitem que
você conecte as placas para assim conseguir um desempenho superior. Para as placas Nvidia, a
tecnologia chama-se SLI, e para as placas ATI, Crossfire.
➢BATERIA CMOS/BIOS
➢ JUMPERS
➢ CONEXÕES ONBOARDS
Existem várias entradas em uma placa-mãe onboard, tomando como exemplo a placa RC415ST-HM
(Asterope5), vamos comentar as principais.
• PORTA PARALELA
• PORTA SERIAL
• PORTA USB (UNIVERSAL SERIAL BUS)
• PORTA DE REDE
• PORTA PS2
• PORTA VGA
PORTA PARALELA
A porta paralela com o padrão Centronics de comunicação. Que possui um conector Amphenol de
36 pinos do lado da impressora e um conector com 25 pinos, ligado na porta paralela.
Na transmissão paralela são enviados vários bits ao mesmo tempo através de 8 vias separadas (uma
ao lado da outra), transmitindo um byte completo de cada vez. Sendo muito mais rápida em relação
à comunicação serial.
Apesar de a comunicação paralela ser mais rápida, ela exige cabos com 25 vias em pequenos
comprimentos (até 10 metros), em contrapartida, a comunicação serial utiliza cabos mais simples e
permite maiores distâncias entre os equipamentos.
PORTA SERIAL
Considerada uma das conexões externas mais básicas para um computador, a porta serial é parte
integrante da maioria dos computadores há mais de 20 anos. Embora muitos sistemas novos tenham
abolido a porta serial completamente, colocando em seu lugar conexões USB, a maioria dos modens
ainda utiliza a porta serial, assim como algumas impressoras, PDAs e câmeras digitais. Poucos
computadores possuem mais de duas portas seriais.
Todo computador comprado atualmente possui uma ou mais portas (conectores) USB. Estas portas
USB permitem que se conecte desde mouses a impressoras em seu computador. O sistema
operacional também suporta a interface USB, assim a instalação do driver do dispositivo é rápida e
fácil. Em comparação a outras formas de conexão de dispositivos (incluindo-se portas paralelas,
portas seriais e placas especiais instaladas dentro do gabinete da máquina), os dispositivos USB são
incrivelmente simples.
Qualquer pessoa envolvida com computadores nos últimos anos conhece os problemas que o
Universal Serial Bus (USB) está tentando solucionar. No passado, a conexão de dispositivos a um
computador costumava ser uma dor de cabeça.
O objetivo do USB é acabar com essas dificuldades. O Universal Serial Bus fornece uma forma
única, padronizada e fácil para conectar até 127 dispositivos em um computador.
Atualmente, quase todos os periféricos estão disponíveis em uma versão para USB. Um exemplo de
dispositivos USB que podem ser adquiridos hoje incluem, impressoras, scanners, mouses, dentre
outros.
PORTA DE REDE
A placa de rede é o hardware que permite aos computadores conversarem entre si através da rede. A
sua função é controlar todo o envio e recepção de dados através da rede. Cada arquitetura de rede
exige um tipo específico de placa de rede; sendo as arquiteturas mais comuns a rede em anel Token
Ring e a tipo Ethernet.
Além da arquitetura usada, as placas de rede à venda no mercado diferenciam-se também pela taxa
de transmissão, cabos de rede suportados e barramento utilizado (On-Board, PCI, ISA ou Externa
via USB). As placas de rede para Notebooks podem ser on-board ou PCMCIA.
Quanto à taxa de transmissão, temos placas Ethernet de 10 Mbps / 100 Mbps / 1000 Mbps e placas
Token Ring de 4 Mbps e 16 Mbps. Como vimos no trecho anterior, devemos utilizar cabos
adequados à velocidade da placa de rede. Usando placas Ethernet de 10 Mbps, por exemplo,
devemos utilizar cabos de par trançado de categoria 3 ou 5, ou então cabos coaxiais. Usando uma
placa de 100 Mbps o requisito mínimo em nível de cabeamento são cabos de par trançado blindados
nível 5.
No caso de redes Token Ring, os requisitos são cabos de par trançado categoria 2 (recomendável o
uso de cabos categoria 3) para placas de rede de 4 Mbps, e cabos de par trançado blindado categoria
4 para placas de 16 Mbps. Devido às exigências de uma topologia em estrela das redes Token Ring,
nenhuma placa de rede Token Ring suporta o uso de cabos coaxiais.
As placas de rede que suportam cabos de fibra óptica, são uma exceção, pois possuem encaixes
apenas para cabos de fibra. Estas placas também são bem mais caras, de 5 a 8 vezes mais do que as
placas convencionais por causa do CODEC, o circuito que converte os impulsos elétricos recebidos
em luz e vice-versa que ainda é extremamente caro.
PORTAS PS2
Porta PS/2 para mouse ou teclado: é o mais comum entre as portas antigas. A maioria das placas-
mãe com portas PS/2 tem duas delas, embora em alguns casos haja apenas uma, como na foto
acima. Por convenção o teclado é plugado na porta roxa, e o mouse na verde (os conectores usam
cores correspondentes, para evitar confusão).
PORTA VGA
VGA (Video Graphics Array): PCs com gráficos integrados ainda tem portas VGA, e a maioria dos
monitores no mercado também, embora estejamos finalmente vendo alguns modelos dispensarem
este padrão ancião (ele estreou em 1987). Atualmente é raro ver placas de vídeo que trazem esta
porta, embora a maioria ainda inclua na embalagem um adaptador DVI-VGA, caso você precise
dele.
➢FONTE DE ALIMENTAÇÃO
As fontes de alimentação são as responsáveis por distribuir energia elétrica a todos os componentes
do computador. Por isso, uma fonte de qualidade é essencial para manter o bom funcionamento do
equipamento. No intuito de facilitar a escolha de uma fonte, este artigo apresentará as principais
características desse dispositivo, desde o padrão AT até o padrão ATX.
Essencialmente, as fontes de alimentação são equipamentos responsáveis por fornecer energia aos
dispositivos do computador, convertendo corrente alternada (AC – Alternate Current) - grossamente
falando, a energia recebida através de geradores, como uma hidroelétrica) - em corrente contínua
(DC - Direct Current ou VDC - Voltage Direct Current), uma tensão apropriada para uso em
aparelhos eletrônicos.
Nos computadores, usa-se um tipo de fonte conhecido como "Fonte Chaveada". Trata-se de um
padrão que faz uso de capacitores e indutores no processo de conversão de energia. A vantagem
disso é que há menos geração de calor, já que um mecanismo da fonte simplesmente desativa o
fluxo de energia, em vez de dissipar um possível excesso. Além disso, há menor consumo, pois a
fonte consegue utilizar praticamente toda a energia que "entra" no dispositivo. Por se tratar de um
equipamento que gera campo eletromagnético (já que é capaz de trabalhar com frequências altas),
as fontes chaveadas devem ser blindadas para evitar interferência em outros aparelhos e no próprio
computador.
Os dispositivos que compõem um computador são tão variados que requerem níveis diferentes de
tensão para o seu funcionamento. Por isso, as fontes de alimentação fornecem, essencialmente, as
seguintes tensões: +3,3 V, +5 V, +12 V, -5 V e -12 V (as antigas fontes AT não oferecem a tensão de
+3,3 V). As saídas de +3,3 V e +5 V são mais direcionadas a dispositivos menores, como chips de
memória. A tensão de +12 V é utilizada por dispositivos que consomem mais energia, tais como
aqueles que contam com "motores", como HDs (cujo motor é responsável por girar os discos) e
drives de DVD ou Blu-ray (que possuem motores para abrir a gaveta e para girar o disco). As
tensões de -5 V e -12 V são pouco utilizadas – serviam ao antigo barramento ISA, por exemplo.
É claro que há dispositivos que exigem voltagens menores. Memórias DDR3 do tipo DDR3, por
exemplo, podem trabalhar com +1,5 V. Para esses casos, a placa-mãe conta com reguladores que
convertem uma saída de voltagem da fonte de alimentação para a tensão necessária ao componente.
As fontes ATX também trouxeram um recurso que permite o desligamento do computador por
software. Para isso, as fontes desse tipo contam com um sinal TTL (Transistor-Transistor Logic)
chamado PS_ON (Power Supply On). Quando está ligada e em uso, a placa-mãe mantém o PS_ON
em nível baixo, como se o estive deixando em um estado considerado "desligado". Se a placa-mãe
estiver em desuso, ou seja, não estiver recebendo as tensões, deixa de gerar o nível baixo e o
PS_ON fica em nível alto. Esse sinal pode mudar seu nível quando receber ordens de ativação ou
desativação de determinados recursos, por exemplo:
- Soft Power Control: usado para ligar ou desligar a fonte por software. É graças a esse recurso que
o sistema operacional consegue desligar o computador sem que o usuário tenha que apertar um
botão para isso;
Há também outro sinal importante chamado Power Good que tem a função de comunicar à
máquina que a fonte está apresentando funcionamento correto. Se o sinal Power Good não existir ou
É importante que na hora de comprar um computador saibamos o quanto o mesmo consumirá, para
que desta forma, possamos comprar uma fonte adequada, evitando assim problemas relacionados a
hardware e possíveis travamentos que possam acontecer.
Item Consumo
Processadores medianos e top de linha 60 W - 110 W
Processadores econômicos 30 W - 80 W
Placa-mãe 20 W - 100 W
HDs e drives de DVD ou Blu-ray 25 W - 35 W
Placa de vídeo com instruções em 3D 35 W - 110 W
Módulos de memória 2 W - 10 W
Placas de expansão (placa de rede, placa de
5 W - 10 W
som, etc)
Cooler 5 W - 10 W
Teclado e mouse 1 W - 15 W
Para proteger o seu computador, videogame ou outro aparelho eletrônico da variação da rede
elétrica, existem alguns equipamentos específicos no mercado, que são conhecidos como filtro de
linha, nobreak e o estabilizador.
FILTRO DE LINHA
Procure por descrições como “Protetor contra surtos”, incluindo características de cuidados contra
curto-circuito, sobrecargas e descargas elétricas. Além disso, o selo do INMETRO é indispensável.
Os preços dos filtros de linha variam bastante, dependendo da quantidade de tomadas,
características e qualidade do material. É possível encontrar modelos de boa qualidade por preços
na faixa de R$ 25 a R$ 60.
ESTABILIZADOR
A faixa de preço de um bom modelo de 300 VA é de R$ 50 a R$ 100. Caso seja necessário conectar
equipamentos que precisem de mais corrente para funcionar ou mais aparelhos em um único
estabilizador, aconselha-se a utilização de um com, pelo menos, 600 VA, que custa, em média, a
partir de R$ 180.
NOBREAKS
Os mais simples custam, em média, a partir de R$ 170 reais. No entanto, aconselha-se examinar as
características dos equipamentos que deseja conectar a ele para efetuar uma compra adequada. E
lembre, este aparelho serve para que o usuário não perca dados importantes quando houver uma
queda de energia.
➔ MÓDULO ISOLADOR
Existe ainda o "módulo isolador" da Microsol. Embora ele seja muitas vezes oferecido como um
substituto ao aterramento, ele é na verdade um estabilizador que utiliza transformadores isolados
(combinados com um disjuntor nos modelos mais caros). Ele oferece alguma proteção para PCs não
aterrados e faz com que o gabinete do micro não dê choque, mas não substitui o aterramento. Ele é
apenas um "quebra galho" para situações em que o aterramento é impossível ou inviável, que serve
mais para proteger você (evitando os choques ao encostar no gabinete) do que proteger o
equipamento propriamente dito.
Além do custo de aquisição, o módulo isolador tem a desvantagem de desperdiçar cerca de 10% da
energia fornecida (mais do que a maioria dos estabilizadores), que é convertida em calor. Isso faz
com que o custo de usá-los seja relativamente elevado, dinheiro esse que poderia ser melhor
investido em uma combinação de aterramento, DPS e filtro de linha.
➢ SOFTWARE
SOFTWARE LIVRE
A licença de software livre, permite que ele seja usado, copiado, estudado, modificado e
redistribuído sem nenhuma restrição. Normalmente esse tipo de software é distribuído com seu
código fonte.
Um software é considerado livre quando atende aos quatro tipos de liberdade para os usuários,
definidos pela Free Software Foundation.
➢ A liberdade de redistribuir cópias de modo que você possa ajudar ao seu próximo;
seu utilizador a gastos com atualização. A Microsoft está tentando mudar o esquema das licenças de
software, para evitar a utilização do software ilegal, ao contrário de vender as licenças e
atualizações, esta empresa pensa já em introduzir o aluguel de software.
Exemplos de software proprietário: Microsoft Windows, Adobe Photoshop (Figura 59), Microsoft
Office.
➢ SETUP
O setup é um programa de configuração que todo micro tem e que está gravado dentro da memória
ROM do micro. Normalmente para chamarmos esse programa pressionamos a tecla Del ou
qualquer outro atalho, vai depender da sua placa-mãe.
Integrated Peripherals
Ajusta e habilita os canais e portas de comunicação
Porta Paralela SPP (normal), EPP ou ECP.
Macintosh (Apple)
*Vantagens: Maior proteção: – Ricardo Freitas, gerente comercial da Interalpha, revenda autorizada
da Apple, diz que os computadores Apple são mais seguros e menos atingidos por vírus. Ele explica
que os criminosos estão mais preocupados em desenvolver pragas para Windows para promover
ataques em massa. Como o uso do sistema operacional Mac OS X é mais restrito, não há tanto
investimento na produção de códigos maliciosos para esta tecnologia.
*Desvantagens: Preço: Por serem mais sofisticados, os computadores da Apple são mais caros que
os PCs. Entretanto, Freitas da Interalpha, diz que a diferença de preços está caindo. Ele dá o
exemplo do novo iMac, que vem com CPU embutida em um monitor de 20 polegadas, com
processador de 2,0 GHz da Intel core 2 duo e HD de 250 GB.
Windows (Microsoft)
*Desvantagens: Segurança: A Microsoft é de longe o alvo preferido dos criminosos virtuais. Falhas
no Windows e no Internet Explorer são sempre descobertas e exploradas.
➢PARTICIONAMENTO
Partições são divisões dentro do disco rígido, são marcas de onde começa e onde termina um
sistema de arquivos. Por estas divisões podemos usar mais de um sistema operacional no mesmo
computador (como o GNU/Linux, Windows), ou dividir o disco em uma ou mais partes para ser
usado por um único sistema operacional. É possível por exemplo instalar o sistema operacional em
uma partição e guardar seus arquivos, música, vídeos, etc em outra partição. Caso seja necessário
formatar a partição ou trocar de sistema operacional os arquivos pessoais serão preservados.
Para gravar os dados no disco ele deve ser primeiro formatado e particionado, escolhendo então o
tipo da partição (Linux Native, Linux Swap, Fat, Ntfs, etc).
Uma partição de disco não interfere em outras partições existentes, por este motivo é possível usar o
Windows, GNU/Linux e qualquer outro sistema operacional no mesmo disco. Antes de particionar
ou formatar seu Hd é preciso conhecer algumas características deste serviço, vamos destacar agora
as três principais:
Quando se apaga uma partição, você apagará TODOS os arquivos existentes nela;
A partição do tipo Linux Swap é usada como memória virtual. Basicamente ela trabalha em parceria
com a memória RAM do computador;
➢SISTEMA DE ARQUIVO
É criado durante a “formatação” da partição de disco. Após a formatação toda a estrutura para
leitura/gravação de arquivos e diretórios pelo sistema operacional estará pronta para ser usada.
Normalmente este passo é feito no processo de instalação de sua distribuição Linux. Cada sistema
de arquivos tem uma característica em particular mas seu propósito é o mesmo, que é de oferecer ao
sistema operacional a estrutura necessária para ler/gravar os arquivos/diretórios. Entre os sistemas
de arquivos existentes posso citar:
Ext2: Usado em partições Linux Nativas para o armazenamento de arquivos. Seu tamanho deve ser
o suficiente para acomodar todo os arquivos e programas que deseja instalar no GNU/Linux (você
encontra isto no manual de sua distribuição).
Ext3: Este sistema de arquivos possui melhorias em relação ao ext2, com destaque para o recurso de
jornaling. Ele é totalmente compatível com o ext2 em estrutura. O journaling mantém um log de
todas as operações no sistema de arquivos, caso aconteça uma queda de energia elétrica (ou
qualquer outra anormalidade que interrompa o funcionamento do sistema), o fsck verifica o sistema
de arquivos no ponto em que estava quando houve a interrupção, evitando a demora para checar
todo um sistema de arquivos (que pode levar minutos em sistemas de arquivos muito grandes).
Reiserfs: É um sistema de arquivos alternativos ao ext2/3 que também possui suporte a journaling.
Entre suas principais características, podemos destacar que ele possui tamanho de blocos variáveis,
suporte a arquivos maiores que 2 Gigabytes (esta é uma das limitações do ext3) e o acesso mhash a
árvore de diretórios é um pouco mais rápido que o ext3. O reiserfs também é mais eficaz que o
Ext3; no entanto o projeto foi descontinuado e a maioria das distribuições utilizam o Ext3 por
padrão.
Ext4: É a evolução do conhecido Ext3, hoje o sistema de arquivos padrão da maioria das
distribuições Linux. Entre as principais novidades então melhorias na performance, comporta um
maior número de subpastas e também arquivos maiores que 16 GB, checagem mais rápida da
integridade do disco (em caso de desligamento inesperado, por exemplo), entre outros.
Swap: Usado em partições Linux Swap para oferecer memória virtual ao sistema. Note que é
altamente recomendado o uso de uma partição Swap no sistema.
NTFS: Sistema de arquivos que sucedeu o FAT 32, pois ele é mais eficiente para trabalhar com
volume de dados maiores se comparado ao seu antecessor.
Para organizar o processo de gravação e leitura dos dados gravados no disco rígido, a superfície dos
discos é dividida em trilhas e setores. As trilhas são círculos concêntricos, que começam no final do
disco e vão se tornando menores conforme se aproximam do centro. Cada trilha recebe um número
de endereçamento, que permite sua localização. A trilha mais externa recebe o número 0 e as
seguintes recebem os números 1, 2, 3, e assim por diante. Para facilitar ainda mais o acesso aos
dados, as trilhas se dividem em setores, que são pequenos trechos onde são armazenados os dados,
sendo que cada setor guarda 512 bytes de informações. Um disco rígido atual possui até 900 setores
em cada trilha (o número varia de acordo com a marca e modelo), possuindo sempre mais de 3000
trilhas.
Para definir o limite entre uma trilha e outra, assim como, onde termina um setor e onde começa o
próximo, são usadas marcas de endereçamento, pequenas áreas com um sinal magnético especial,
que orientam a cabeça de leitura, permitindo à controladora do disco localizar os dados desejados.
Em HDs IDE estas marcas são feitas apenas uma vez, durante a fabricação do disco, e não podem
ser apagadas via software. Existem alguns programas como o Norton Calibrate, que prometem uma
formatação física não destrutiva, regravando as marcas de orientação o que, segundo os manuais,
melhoraria a confiabilidade do disco. Entretanto, a grande maioria dos discos atuais não permite
este tipo de regravação, também por que ela não é necessária. Ao rodar estes programas, apesar de
ser mostrado um indicador de progresso, não será feito absolutamente nada.
Além das trilhas e setores, temos também as faces de disco. Um HD é formado internamente por
vários discos empilhados, sendo o mais comum o uso de 2 ou 3 discos. Em geral, apenas HDs de
grande capacidade utilizam 4 ou mais discos. Assim como num disquete, podemos usar os dois
lados do disco para gravar dados, cada lado passa então a ser chamado de face. Em um disco rígido
com 2 discos por exemplo, temos 4 faces. Como uma face é isolada da outra, temos num disco
rígido várias cabeças de leitura, uma para cada face.
Apesar de possuirmos várias cabeças de leitura num disco rígido, elas não se movimentam
independentemente, pois são todas presas à mesma peça metálica, chamada braço de leitura. O
braço de leitura é uma peça triangular, que pode se mover horizontalmente. Para acessar um dado
contido na trilha 982 da face de disco 3, por exemplo, a controladora do disco ativa a cabeça de
leitura responsável pelo disco 3 e a seguir, ordena ao braço de leitura que se dirija à trilha
correspondente. Não é possível que uma cabeça de leitura esteja na trilha 982, ao mesmo tempo que
outra esteja na trilha 5631, por exemplo, justamente por seus movimentos não serem independentes.
Já que todas as cabeças de leitura sempre estarão na mesma trilha de seus respectivos discos,
deixamos de chamá-las de trilhas e passamos a usar o termo "cilindro". Um cilindro nada mais é do
que o conjunto de trilhas com o mesmo número nos vários discos. Por exemplo, o cilindro 1 é
formado pela trilha 1 de cada face de disco, o cilindro 2 é formado pela trilha 2 de cada face, e
assim por diante.
MBR é abreviação de "Master Boot Record". Ao comprar um novo hd, você precisa primeiro
formatá-lo antes de poder instalar qualquer sistema operacional.
Tanto o gerenciador de boot quanto a tabela de particionamento do HD são salvos no primeiro setor
do HD (a famosa trilha MBR), que contém apenas 512 bytes. Destes, 446 bytes são reservados para
o setor de boot, enquanto os outros 64 bytes guardam a tabela de partição e os dois últimos a
assinatura.
Ao trocar de sistema operacional, você geralmente sobrescreve a MBR com um novo gerenciador
de boot, mas a tabela de particionamento só é modificada ao criar ou deletar partições. Caso, por
qualquer motivo, os 64 bytes da tabela de particionamento sejam sobrescritos ou danificados, você
perde acesso a todas as partições do HD. O HD fica parecendo vazio, como se tivesse sido
completamente apagado. Apesar disso, é quase sempre possível recuperar as partições (e os dados
dentro delas) usando um programa de recuperação.
Para manter dois ou mais sistemas operacionais instalados em um mesmo HD é necessário instalar
um boot manager, um pequeno programa que ficará residente na trilha MBR e será carregado cada
vez que o micro é ligado. O boot manager exibe uma tela perguntando qual sistema operacional
deve ser inicializado. A maior parte dos sistemas operacionais atuais trazem algum boot manager. O
Windows NT/2000/XP por exemplo traz o NTLDR, que permite o dual boot com o Windows 95 ou
98, enquanto no Linux temos o Lilo e o GRUB, que podem ser usados para combinar Linux e
Windows, ou mesmo várias versões diferentes do Linux, de acordo com a configuração.
“MBR” ou “GPT são os modelos agora disponíveis, sendo que, apesar de arquitecturas diferentes, o
GPT é considerado quase uma evolução do MBR.
O MBR é um standard antigo, que todos certamente conhecem, e que define a estrutura das
partições, mantendo a informação sobre como as partições lógicas estão organizadas no disco.
Usando esta estrutura, há mais limitações do que propriamente vantagens
• Um disco pode dividir-se num máximo de 4 partições primárias (Para contornar esta limitação é
possível dividir o disco até 3 partições primárias e 1 partição estendida). Uma partição estendida
pode dividir-se em múltiplas partições lógicas. Cada partição primária e lógica tem a sua própria
letra de drive.
• Como o MBR usa 32 bits para guardar informações da partições, cada partição apenas pode ter
um tamanho máximo de 2 TB.
A estrutura GPT (Tabela de Partição Guid) é um novo layout relativo a particionamento de disco
rígidos. O GPT traz muitos benefícios comparativamente ao tradicional MBR (Master boot record),
dos quais se destacam:
• Suporte para partições acima dos 2 TB (ou seja, 2^64 blocos, um máximo de 1 ZB). De
referir que no Windows, devido ao sistema de ficheiros NTFS, este tamanho está limitado
para 256TB.
• Apesar de poderem ser criadas um número ilimitado de partições, o GPT “apenas” suporta
128 partições primárias.
• O campo Protective MBR funciona ao estilo do MBR, mas com suporte para 64 bits. Esta
área funciona como como “mecanismo” de retro compatibilidade.
Esta é a definição encontrada no site do projeto Ubuntu, que melhor caracteriza o Sistema
Operacional GNU/Linux Ubuntu. Vantagens do GNU/Linux Ubuntu :
• Fácil Instalação;
Para um melhor entendimento da instalação, acompanhe a instalação passo a passo do sistema, com
print-screens (foto de tela) realizadas em todas as etapas do sistema.
CONFIGURANDO
O computador utilizado para ilustração da apostila possui o software para gerenciamento da BIOS
(setup) da fabricante PhoenixBIOS. O acesso ao setup neste caso, foi feito pressionando a tecla F2
do teclado, após o início da ligação do computador.
Para cada fabricante o acesso ao setup é feito de uma forma diferente, a grande maioria utiliza-se da
tecla DEL para efetivar o acesso ao setup. Também é possível encontrar fabricantes que se utilizam
de uma combinação de teclas para a entrada no setup, para evitar acesso aleatório ao setup por
usuários leigos.
A BIOS da PhoenixBIOS (Figura 63), é de fácil entendimento, bastando acessar a opção BOOT e
definirmos com as teclas mais (+) ou menos (-) a ordem correta do dispositivo desejado para boot.
Após o procedimento, basta salvar a operação.
Já configurado o setup para a execução correta do boot via CD, basta inserir o CD no drive e
aguardar a inicialização do boot loader do GNU/Linux Ubuntu. Rapidamente o sistema chega à
tela de instalação do GNU/Linux Ubuntu. É necessário realizar a mudança de algumas opções para
mudar a linguagem do sistema para Português do Brasil e caso necessário, alterar o mapa de
teclados (keymap) para o teclado compatível com o computador à ser instalado o sistema.
Nessa tela será possível escolher entre Experimentar o Ubuntu ou Instalar o Ubuntu. Se você
escolher instalar Experimentar, será possível utilizar o sistema a partir do Disco ou Pen drive.
Nessa tela será possível escolher a linguagem de instalação do Ubuntu. Ao mesmo tempo da escolha
da linguagem, será possível escolher se você quer primeiramente experimentar e Sistema ou se já
quer instalar sem experimentá-lo. Na primeira opção você poderá utilizar o sistema sem instalá-lo.
Iremos escolher a segunda opção e continuar a nossa instalação.
Feita a alteração, todo o menu de instalação do GNU/Linux Ubuntu será alterado para a nossa
língua. A partir deste ponto, o usuário terá a tranquilidade de seguir todos os passos de forma mais
prática. “Preparando para instalar o Ubuntu", marque as opções convenientes para você. E, em
seguida, apenas clique em “Continuar” o processo.
Feita a alteração, todo o menu de instalação do GNU/Linux Ubuntu será alterado para a nossa
língua. A partir deste ponto, o usuário terá a tranquilidade de seguir todos os passos de forma mais
prática. “Preparando para instalar o Ubuntu", marque as opções convenientes para você. E, em
seguida, apenas clique em “Continuar” o processo;
Para realizar a instalação do sistema no Disco Rígido (HD) basta acessar a opção "Install" presente
na tela principal do sistema. A partir desta ação, é necessário seguir os passos de acordo com o
desejado para a instalação do sistema de acordo o método de utilização do sistema (Desktop ou
Servidor). Deste ponto em diante, o acompanhamento da instalação será basicamente visual.
O sistema pergunta (vide próxima figura) ao usuário se ele realmente quer continuar a instalação
na linguagem já escolhida anteriormente. O idioma escolhido será o idioma padrão de todo o
sistema, ou seja, se escolhermos o "Português do Brasil" teremos toda a parte gráfica do sistema
adaptada à linguagem escolhida, bem como arquivos de ajuda (tanto em modo gráfico como texto).
A estrutura do GNU/Linux Ubuntu é toda baseada em "Live CD", permitindo ao usuário rodar o
sistema sem necessariamente instalá-lo na máquina. O que o processo de instalação faz, na medida
do possível é justamente jogar todos os dados do sistema em um Disco Rígido (HD).
➢PREPARANDO A INSTALAÇÃO
Na tela “Tipo de instalação” escolha entre duas opções: Para atualizar o Ubuntu, marque a primeira.
Se quiser apenas adicionar o novo Ubuntu ao computador, marque a segunda opção; e se desejar
apagar o atual Ubuntu e instalar o novo sistema operacional totalmente limpo de informações do
anterior, marque a terceira opção. Será possível manter o sistema que está em seu PC, basta marcar
a opção Instalar Ubuntu13.10 ao lado do Ubuntu 13.04. Se for o Windows que estiver instalado, no
lugar de Ubuntu 13.04 estará escrito Windows. Neste caso é mais fácil porque você não terá que
criar partições. O próprio instalador do Ubuntu cuidará de tudo sozinho para você. Pode ficar
sossegado que é quase impossível que dê errado. É muito seguro. Deveremos marcar Opção
avançada para falar um pouco mais sobre partições. Depois de escolher, clique em Continuar.
Aqui você vai ver exatamente como está dividido o seu HD. Se você quiser apagar alguma partição,
clique no caractere – à esquerda da palavra Change. Se você apagar todas as partições, você terá
apenas uma. Mas, se você apagar, você poderá perder todos os arquivos. Portanto é bom que você
tenha feito backup antes de começar a instalação.
Para criar uma nova partição, clique no caractere + à esquerda da palavra Change. Ou para excluir.
Quando você clicar no caractere +, abrirá esta janela. Em Tamanho você terá que inserir o tamanho
da nova partição. É bom que você não use o HD todo em apenas uma partição. Divida-o. Veja que o
tamanho aqui é medido em MB. Portanto, para criar uma partição de 20GB, você terá que inserir
20000MB. Em Tipo para a nova partição, você pode marcar Primária para a Raiz (/) e para swap e
Lógica para as outras. Em Localização para a nova partição, você pode marcar Início deste espaço
para a Raiz (/) e Fim deste espaço para as outras. Em Usar como, selecione Sistema de arquivos
com “journaling” ext 4 para todas. Mas você terá que criar uma e selecionar Área de troca swap. O
tamanho da Área de troca swap pode ser o mesmo que sua memória RAM. Em ponto de montagem,
você terá que criar uma e selecionar / (Raiz). Você também pode criar outras selecionadas como
/home por exemplo. Depois de criar cada partição, clique em OK.
Depois de criar as partições você terá que escolher quais serão formatadas. Para isso marque os
quadrinhos. Veja na foto acima que eu marquei a / (Raiz) e a /home. As partições que você não
marcar não serão formatadas. Ou seja, se você for formatar de novo, você não precisará apagar
sua /home por exemplo. Depois de marcar as partições que serão formatadas, Clique em Instalar
agora.
Figura 73: Escolha o padrão do teclado Figura 74: Cadastro no Ubuntu One
(português do Brasil) e clique em continuar
A instalação do Windows Seven não muda muito do UBUNTU, por isso isto pode não ser grande
novidade para muitos. Lembrando que se deve dar um pouco mais de atenção ao particionamento
que muda um pouco.
Então vamos começar a formatação. Insira o DVD do Windows Seven e reinicie o computador.
Depois de ter inserido o DVD do Seven e reiniciado o PC, irá aparecer esta mensagem: "Pressione
uma tecla para iniciar do CD". Pressione ENTER ou qualquer tecla para darmos início à instalação
do Windows Seven.
Na tela que surgir, você poderá escolher o idioma, o formato da hora e da moeda e o idioma do
teclado. Continuamos a instalação clicando em "Seguinte" ou "Next" (Dependendo da Língua do
Windows).
Para instalar o Windows Seven basta clicar em "Instalar Agora" ou "Install Now". Depois irá surgir
durante algum tempo no fundo da janela um texto a dizer "Aguarde" ou "Setup is starting...".
Após algum tempo irá surgir uma janela com os Termos de Uso do Windows. Clique em "Aceito os
termos da licença" ou "I accept the license terms" e depois em "Seguinte" ou "Next".
Chegamos ao momento de criar as partições no disco, a parte da instalação do Windows que mais
atormenta os usuários novatos. Mas no Windows Seven não é muito complicado, basta seguir as
informações presentes na tela. Na imagem abaixo, disco não está formatado (aliás nunca foi, é como
se fosse um disco acabado de sair de uma loja). Clique "Opções da unidade" ou "Drive Options"
para podermos ter acesso as opções de partição.
É recomendado sempre criar duas partições, assim na próxima vez que você for formatar seu PC,
não precisará fazer o backup de seus arquivos, pois toda vez que formatar o Windows, seus arquivos
ficaram em um HD e o Windows em outro.
Para criar uma nova partição clique em "Novo" ou "New". Depois escolha o tamanho do mesmo.
Mas o ponto X deste tutorial é a instalação do Seven, e se caso o seu computador já possuísse algum
sistema operacional, vá na partição onde ele foi instalado e clique em "Eliminar" ou "Delete".
➢ FINALIZANDO A INSTALAÇÃO
Depois da instalação ser concluída, basta você configurar sua conta do Seven! E está parte é a mais
fácil divertida. Fique à vontade. Depois de configurar a sua conta corretamente, o Windows vai
proceder uma análise no computador para verificar a sua performance. Depois de acabar a análise, o
Windows Seven estará pronto para o uso. Agora faça Log on de sua conta e senha (lembre-se da
senha que você inseriu no começo deste capítulo).
PRONTO! Você acaba de instalar o Windows Seven! Agora você já pode sentir as grandes
novidades que a Microsoft preparou nesta nova versão do Windows.
MANUTENÇÃO PREVENTIVA
O próprio nome já diz, previne alguma coisa. Na informática, usamos esse termo para prevenir
qualquer dano que o computador possa sofrer, como problemas no HD, na memória, no
processador, infecção por vírus e até mesmo falhas no sistema operacional. Claro que não é possível
uma prevenção total, mas boa parte das perdas por defeitos desconhecidos em periféricos de
computadores acontecem por falta de uma prevenção adequada.
Vou dar um exemplo: um computador "travar" não é algo normal; qual seria o motivo? Muitos
pensam que ocorreu um aquecimento no processador, ou que foi alguma trilha ou setor defeituoso
do HD. Tudo isso é possível de ser prevenido: ao realizar a manutenção preventiva são utilizados
softwares específicos para fazer essas checagens e mostrar se tais problemas existem, em tempo
hábil de serem corrigidos antes de uma pane e garantindo uma vida útil maior tanto para o
equipamento quanto para o sistema operacional.
MANUTENÇÃO CORRETIVA
Neste caso é realizada uma correção de algum problema existente, quando não é possível prever (na
manutenção preventiva) algum problema maior. A manutenção corretiva tem como finalidade
solucionar problemas mais graves, como defeitos que inutilizam memória, ou queima de HD, o que
gera a necessidade de substituição e nova instalação do sistema operacional.
Pense bem antes de tomar qualquer decisão sobre o que fazer nos
casos de manutenção de computadores. Prevenir é preciso, mas
também é necessário ter profissionais especializados e que saibam
fazer isso.
Figura 85: Manutenção A troca da pasta térmica do processador pode ser tanto uma
Preventiva ou Manutenção manutenção preventiva, como também uma manutenção
Corretiva corretiva, pois esta atitude prevenirá futuros problemas, como
também se pode corrigir algum problema que esteja acontecendo devido ao seu ressecamento Só
para frisar que temos diversos modelos de pastas térmicas, no entanto existem aquelas que tem
uma melhor condutividade de calor, como por exemplo aquelas que apresentam um alto teor de
prata, como por exemplo a artic silver.
Vivemos em rede: trabalho, família, amigos... e, claro, nos comunicamos. Mas na tecnologia, rede é
entendida por um conjunto de processadores que podem não só compartilhar recursos, mas também
trocar informações entre si.
"Basicamente você tem uma LAN que é um local area network, que nada mais que é os
computadores próximos uns aos outros se comunicando através de uma rede. Eles podem estar
dentro de uma sala, de uma empresa, de um andar... Isso caracteriza uma LAN".
Quando a distância é um pouco maior, como por exemplo, entre cidades ou países, existe um outro
tipo de rede chamado WAN – rede de longa distância.
"Ai você utiliza outras tipos de equipamento, outros tipos de formas de transmissão de dados. Então
computadores e transmissões de longa distância caracterizam um tipo de rede WAN", conta
Chiavegatti.
" Na verdade a internet é um conjunto de várias redes se comunicando entre si. Essas redes são
separadas e definidas pelo provedor de acesso quando eles disponibiliza endereços IP para usuários
e empresas acessarem a rede".
A topologia física de uma rede descreve como é o layout do meio de transmissão pelo qual ocorre
as transmissões das informações, e também como os dispositivos presentes na rede são conectados
ao próprio meio. Há várias possibilidades para organizar a interligação entre cada um dos
computadores (estações e servidores) numa rede. Deve-se lembrar que topologias divididas em dois
tipos: Topologias física e lógica. A topologia física é o designer da rede ou sua aparência física
propriamente dita, já a topologia lógica representa o modo que as transmissões de informações
fluem pela rede.
TOPOLOGIAS FÍSICAS
A topologia física pode ser representada de várias maneiras e descreve por onde os cabos
passam e onde as estações, os nós, roteadores e gateway estão localizados. As mais utilizadas
conhecidas são as topologias do tipo estrela, barramento e anel.
Ponto a Ponto
A topologia ponto a ponto é a mais simples. Une dois computadores, através de um meio de
transmissão qualquer. Dela pode-se formar novas topologias, incluindo novos nós em sua estrutura.
Barramento
Topologia em barra é uma topologia de rede em que todos os computadores utilizam um único
barramento físico de dados onde um único computador terrá acesso a este barramento por vez para
transmissão. Assim, quando uma máquina está transmitindo na rede (esta acessa o barramento)
todas máquinas conectas ao barramento recebem as informações transmitidas pela rede, assim
quando um computador estiver transmitindo um sinal, toda a rede fica ocupada, logo outras
máquinas não podem transmitir, caso outra estação tente acessar a barra enquanto permanecer
ocupada, ocorrerá o que se denomina de colisão. Isto também acontece quando as barras estão
“livres” e duas estações ou mais tentam transmitir ao mesmo tempo. Essa topologia era muito
utilizada quando os cabos coaxiais em populares.
Anel ou Ring
Estrela
Árvore
As redes de computadores sejam: LAN’s, MAN's, WAN's, PAN's são concebidas para garantir
aos clientes acesso aos mais variados serviços e compartilha uma ampla gama de recursos, como:
impressoras, scanners, softwares, e demais informações com simplicidade e eficiência .Estas
redes utilizam dispositivos para permitir que as transmissões/recepções ocorram. Assim, os
componentes são divididos em dois grupos:
realizada pelas redes, sejam estas: LAN’s, MAN's, WAN's, PAN's. Logo, este vem adotar uma
tecnologia em comum, como a Ethernet, de modo a possibilitar comunicações na rede.
➢REPETIDORES
Numa linha de transmissão, o sinal sofre distorções e enfraquecimento tanto mais importantes
quanto seja longa a distância que separa dois elementos ativos. Geralmente, dois nós de uma rede
local não podem distar de mais de algumas centenas de metros, é a razão pela qual um
equipamento suplementar é necessário para além desta distância.
REPETIDORES WIRELESS
Desse modo, usar repetidores permite aumentar o alcance das transmissões, que muitas vezes
utilizam as mais variadas tecnologias em ondas de rádio, como redes wireless, wimax.
HUBS
O hub é um equipamento que tem a função de
interligar vários computadores em uma rede. A
grossa modo, funcionam como uma extensão
elétrica, permitindo a ligação de vários
computadores em um ponto de rede.
PONTES
SWITCH
Hub: simplesmente retransmite todos os dados que chegam para todas as estações conectadas a
ele, como um espelho. Isso faz com que o barramento de dados disponível seja compartilhado
entre todas as estações e que apenas uma possa transmitir de cada vez.
Switch: também pode ser usado para interligar vários hubs, ou mesmo para interligar
diretamente as estações, substituindo o hub. Mas, o switch é mais esperto, pois em vez de
simplesmente encaminhar os pacotes para todas as estações, encaminha apenas para o
destinatário correto.
➢Logo, como podemos perceber, um Switch trabalha de forma muito mais inteligente que o
Hub, encaminhando os dados apenas para o destinatário correto. Já o seu “design”, este não tem
jeito, é muito igual ao do Hub, ou seja, com um número “x” de portas para conexão de “x”
computadores.
TIPOS DE SWITCHES
Atualmente quase não mais se utiliza hubs, eles são encontrados apenas em redes antigas, pois
está disponível a venda produtos denominados "hub-switches", que são tipos de switches mais
baratos. Outra opção é o denominado switch "verdadeiro", que são modelos aptos a gerenciar um
número maior de portas que as disponíveis nos "hub-switches" que são mais simples. O switch
trabalha na camada de Enlace de Dados, transmitem os pacotes apenas para as estações destino.
Switches "verdadeiros" e "hub-switches" operam no nível da segunda camada do modelo
OSI. Então, quais as diferenças entre ambos? Eles diferem nas capacidades de gerenciamento e
no número de portas disponíveis, assim enquanto os "hub-switches" possuem nenhum ou pouco
gerenciamento além de um número reduzido de portas, os switches "verdadeiros" são dotados de
interfaces para facilitar o gerenciamento, pois muitas vezes podem ser acessados utilizando
navegadores web. Atualmente é cada vez mais comum as empresas fabricantes desses produtos
incorporarem características de produtos diversos num único produto, pois a concorrência no
setor de dispositivo de rede é muito acirrada; essas empresas buscam conquistar cada vez mais
clientes. Desde modo, pode-se comprar um dispositivo que possui as características de dois ou
mais equipamentos incorporados, esses produtos muitas vezes possuem uma pequena elevação
no seu preço, assim é muito vantajoso para os clientes adquiri-los. Seguindo essa tendência,
pode-se encontrar no mercado dispositivos como os denominados "level 3 switches", um tipo de
switch que executa algumas operações realizadas por roteadores.
ROTEADOR
diferentes. Vocês devem ter percebido que se não fossem os roteadores a Internet como
conhecemos hoje, não seria possível. Roteadores são dispositivos que variam desde PC's
comuns que possuem duas ou mais placas de rede com um software que “transforma” esse
simples PC num roteador, passando por modems para redes usuários domésticos, até dispositivos
com uma supercapacidade de gerenciamento responsáveis por milhares de links com banda larga
➢MEIOS DE TRANSMISSÃO
CABO COAXIAL
O cabeamento por par trançado (Twisted pair) é um tipo de cabo que tem um feixe de dois fios,
no qual eles são entrançados um ao redor do outro para cancelar as interferências
eletromagnéticas de fontes externas e interferências mútuas (linha cruzada ou, em inglês,
crosstalk) entre cabos vizinhos. Os dois de cabos par trançado mais utilizados são:
● Categoria do cabo 5 (CAT5): usado em redes fast ethernet. (CAT5 não é mais recomendado
pela TIA/EIA).
● Categoria do cabo 6 (CAT6): definido pela norma ANSI EIA/TIA-568-B-2.1. Adequada para
redes gigabit ethernet. (CAT6 é recomendado pela norma EIA/TIA-568-B).
● Categoria: CAT 6a: é uma melhoria dos cabos CAT6. O a de CAT6a significa augmented
(ampliado). Os cabos dessa categoria podem ter até 55 metros, no caso da rede ser de 10.000
Mbps, caso contrário podem ter até 100 metros.
● Categoria 7 (CAT7): foi criado para permitir a criação de rede 10 gigabit Ethernet de 100m
usando fio de cobre (apesar de que atualmente esse tipo de rede esteja sendo usado pela rede
CAT6).
➢WIRELESS
A topologia é semelhante à das redes de par trançado, com o switch central substituído pelo
ponto de acesso. A diferença é que são usados transmissores e antenas em vez de cabos. Os
pontos de acesso possuem uma saída para serem conectados em um switch tradicional,
permitindo que você “junte” os micros da rede cabeada com os que estão acessando através da
rede wireless, formando uma única rede, o que é justamente a configuração mais comum. Pode-
se configura um switch para atender a rede cabeada, usando um cabo também para o Access
Point numa rede WIRELESS interligando o ponto de acesso à rede. O ponto de acesso serve
apenas como a "última milha", levando o sinal da rede até os micros com placas wireless. Eles
podem acessar os recursos da rede normalmente, acessar arquivos compartilhados, imprimir,
acessar a Internet, etc. Nesse caso, o ponto de acesso atua como um bridge, transformando os
dois segmentos em uma única rede e permitindo que eles se comuniquem de forma transparente
aos usuários. Basicamente, existem dois tipos de redes móveis sem fio: as redes infra-
estruturadas e as redes ad hoc.
➢A TECNOLOGIA WI-FI
Apesar de o termo Wi-Fi ser uma marca registrada pela Wi-Fi Alliance, a expressão hoje se
tornou um sinônimo para a tecnologia IEEE 802.11, que permite a conexão entre diversos
dispositivos sem fio.
A expressão Wi-Fi surgiu como uma alusão à expressão High Fidelity (Hi-Fi), utilizada pela
indústria fonográfica na década de 50. Assim, ao termo Wi-Fi nada mais é do que a contração das
palavras Wireless Fidelity, algo que se traduzido não representa muito bem a tecnologia em
questão.
As redes Wi-Fi funcionam por meio de ondas de rádio. Elas são transmitidas por meio de um
adaptador, o chamado “roteador”, que recebe os sinais, decodifica e os emite a partir de uma
antena. Para que um computador ou dispositivo tenha acesso a esses sinais, é preciso que ele
esteja dentro um determinado raio de ação, conhecido como hotspot.
O raio de ação de uma rede Wi-Fi é variável, de acordo com o roteador e a antena utilizada. Essa
distância pode variar de 100 metros, em ambientes internos, a até 300 metros, em ambientes
externos. O mesmo tráfego de dados ocorre no sentido oposto estabelecendo, assim, a
comunicação entre os dispositivos.
Amplamente difundido no mercado, o Wi-Fi hoje busca novos padrões de forma a alcançar
velocidades cada vez mais altas na transferência de dados. O Instituto de Engenheiros Eletricistas
e Eletrônicos trabalha em um novo padrão que permitiria o envio de dados a velocidades de até
22 Mbps, atingindo distâncias de até 100 quilômetros.
- IEEE 802.11a: Padrão Wi-Fi para frequência 5 GHz com capacidade teórica de 54 Mbps.
- IEEE 802.11b: Padrão Wi-Fi para frequência 2,4 GHz com capacidade teórica de 11 Mbps.
Este padrão utiliza DSSS (Direct Sequency Spread Spectrum – Sequência Direta de
Espalhamento de Espectro) para diminuição de interferência.
- IEEE 802.11g: Padrão Wi-Fi para frequência 2,4 GHz com capacidade teórica de 54 Mbps.
- IEEE 802.11n: Padrão Wi-Fi para frequência 2,4 GHz e/ou 5 GHz com capacidade de 65 a 600
Mbps. Esse padrão utiliza como método de transmissão MIMO-OFDM..
- IEEE 802.11ac é a nova geração da tecnologia de redes sem fio pertencentes a família 802.11
(Que é comercializada sob a marca Wi-Fi, e desenvolvida pela IEEE standards association, que
fornece redes locais sem fio(WLAN) de alto desempenho na frequência de 5GHz. O padrão foi
desenvolvido a partir de 2011 até 2013, após a aprovação do grupo de trabalho (responsável pelo
desenvolvimento) que previa o lançamento somente para o início de 2014. De acordo com um
estudo, os dispositivos fabricados com essa especificação deverão ser comuns até 2015, quando
se estima que serão encontrados em torno de um bilhão de aparelhos em todo o mundo. Esta
especificação trabalhará com multi-estações de transferência sem-fio de pelo menos 1Gb/s e de
um link único de transferência de 500 megabits por segundo (500 Mbit/s). Isso é dado graças ao
conceito de extensão de interface, que já é implementada no modelo 802.11n: Largura de banda
mais larga RF (até 160MHz), mais fluxos espaciais MIMO (até 8), mais multiusuários MIMO e
modulação de alta densidade (até 256-QAM).
➢TECNOLOGIA BLUETOOTH
A fibra ótica não envia dados da mesma maneira que os cabos convencionais. Para garantir mais
velocidade, todo o sinal é transformado em luz, com o auxílio de conversores integrados aos
transmissores. Há dois modos de converter os dados: por laser e por LED (respectivamente:
fibras monomodo e multimodo. Ambas serão explicadas mais adiante).
Sem essa conversão, os dados enviados e recebidos não poderiam desfrutar das mesmas larguras
de banda. Nesse momento, surge a necessidade dos cabos de fibra ótica, pois são eles que
permitem a velocidade e a qualidade superiores às oferecidas pelos tradicionais cabos de cobre.
O motivo disso nós vamos explicar mais à frente.
Você imagina como é um cabo de fibra ótica por dentro? Ele não é construído apenas com a fibra
de vidro e o revestimento plástico, há várias camadas que fazem parte da estrutura essencial dele.
Vamos agora explicar um pouco mais sobre cada uma das camadas que compõe a fibra ótica.
Proteção plástica
Como todo cabo, a fibra ótica também precisa de proteção externa, para evitar que o desgaste
natural ou as situações anômalas do tempo representem interferências no sistema. Geralmente,
essa camada de proteção é composta por plásticos, tornando a aparência dos cabos de fibra ótica
muito similar à apresentada por cabos de rede, por exemplo.
Fibra de fortalecimento
Logo abaixo da camada plástica, existe uma fibra de fortalecimento, bastante parecida com a que
existe em cabos coaxiais de transmissão de sinal de televisão. Você sabe qual a função dela?
Proteger a fibra de vidro de quebras que podem acontecer em situações de torção do cabo ou
impactos no transporte.
Se a camada de fortalecimento não existisse, qualquer movimento brusco que atingisse os cabos
de fibra ótica resultaria em quebra da fibra principal e, consequentemente, na perda total do sinal
transmitido.
Revestimento interno
Também chamado de “Coating”, o revestimento interno tem função similar à das fibras de
fortalecimento. É ele que isola todos os impactos externos e também evita que a luz natural atinja
as fibras de vidro internas, o que poderia resultar em interferências muito fortes em qualquer que
seja o sinal.
Camada de refração
Nas duas camadas mais internas, ocorre a parte mais importante do processo de transmissão de
luz. Cobrindo o filete de fibra de vidro, a camada de refração (ou “Cadding”) é responsável pela
propagação de todos os feixes, evitando que existam perdas no decorrer dos trajetos. Em um
sistema perfeito, essa camada garantiria 100% de reaproveitamento dos sinais luminosos.
Núcleo
Também chamado de “Core”. Em suma, é onde realmente ocorre a transmissão dos pulsos de
luz. Construído em vidro, é por ele que a luz viaja em suas longas distâncias. No próximo tópico
mostraremos os dois tipos de fibras de vidro que podem ser utilizados nos cabos.
➢MULTÍMODO E MONOMODO
Os dois nomes que abrem este tópico representam os dois principais modelos de fibras óticas
existentes atualmente. Eles são diferenciados em vários aspectos, desde o custo de produção até
as melhores possibilidades de aplicação. Qual deles será mais recomendado para a construção de
redes de internet?
Monomodo
Como o nome já diz, as fibras monomodo só podem atender a um sinal por vez. Ou seja, uma
única fonte de luz (na maior parte das vezes, laser) envia as informações por enormes distâncias.
As fibras monomodo apresentam menos dispersão, por isso pode haver distâncias muito grandes
entre retransmissores.
Teoricamente, até 80 quilômetros podem separar dois transmissores, mas, na prática, eles são um
pouco mais próximos. Outra vantagem das fibras desse tipo é a largura da banda oferecida, que
garante velocidades maiores na troca de informações.
Multimodo
Fibras multímodo garantem a emissão de vários sinais ao mesmo tempo (geralmente utilizam
LEDs para a emissão). Esse tipo de fibra é mais recomendado para transmissões de curtas
distâncias, pois garante apenas 300 metros de transmissões sem perdas. Elas são mais
recomendadas para redes domésticas porque são muito mais baratas.
A fibra ótica garante velocidades muito maiores do que as oferecidas pelos fios de cobre comuns,
mas ainda não viu os números exatos. Hoje, uma conexão banda larga de alta velocidade é
oferecida com cerca de 10 Mbps, o que permite downloads a quase 1,25 MB/s.
Os padrões de testes da fibra ótica apontam para velocidades de 10 Gbps, o que resulta em
downloads de 1.280 MB/s. É um aumento considerável, que pode ser extremamente importante
para quem gosta de jogar games online ou baixar muitos arquivos pela internet.
Vale dizer que as conexões de 10 Gbps são muito potentes e devem custar muito caro, por isso
são mais recomendadas para grandes empresas e universidades, locais em que a banda precisa
ser muito dividida. Outra possibilidade é a instalação de padrões de fibra ótica em condomínios,
que podem redividir a conexão para vários computadores.
Não existe nenhuma tecnologia perfeita, por isso precisamos apresentar também as desvantagens
dos cabos de fibra ótica. A principal delas é relacionada aos custos, tanto de produção quanto de
implementação dos novos sistemas de transmissão.
Produzir cabos de fibra ótica envolve processos muito complexos e caros, o que exige uma
demanda muito grande de usuários dispostos a pagar um pouco mais pelos recursos oferecidos
pela tecnologia. Além disso, para alimentar grandes cidades seriam necessários muitos
retransmissores, e há relatos de perdas grandes de sinal em retransmissores divisores.
Outros problemas estão ligados diretamente à fragilidade das fibras de vidro. Como ainda não
existe uma padronização no sistema, há muitos cabos que são vendidos sem o encapsulamento
protetor adequado. Isso gera instabilidade para os cabos e pode resultar em quebras dos filetes de
transmissão.
EXERCÍCIO DE FIXAÇÃO
➢ Hardware
➢ Software
1. TECMUNDO
a) http://www.tecmundo.com.br/processadores/31584-mito-ou-verdade-processadores-
com-mais-nucleos-sao-sempre-melhores-.htm
b) http://www.tecmundo.com.br/placa-mae/2580-quais-as-diferencas-entre-ide-sata-e-
sata-ii-.htm
c) http://www.techtudo.com.br/dicas-e-tutoriais/noticia/2013/12/conheca-os-tipos-de-
processadores-existentes-e-saiba-como-instalar-no-pc.html
d) http://www.techtudo.com.br/artigos/noticia/2013/06/entenda-qual-e-diferenca-entre-
computadores-de-32-e-64-bits.html
e) http://www.tecmundo.com.br/cooler/825-o-que-e-o-cooler-.htm
f) http://www.tecmundo.com.br/intel/1866-conheca-como-e-uma-placa-mae-sem-
medo.htm#ixzz2xZ3VsLuz
g) http://www.techtudo.com.br/dicas-e-tutoriais/noticia/2013/12/conheca-os-tipos-de-
processadores-existentes-e-saiba-como-instalar-no-pc.html
h) http://www.tecmundo.com.br/infografico/9862-como-funciona-a-fibra-otica-
infografico-.htm#ixzz2xeJ4EwkA
i) http://www.techtudo.com.br/artigos/noticia/2013/05/qual-a-diferenca-entre-filtro-de-
linha-nobreak-e-estabilizador.html
j) http://www.tecmundo.com.br/intel/1866-conheca-como-e-uma-placa-mae-sem-
medo.htm#ixzz2xZ3VsLuz
k) http://www.tecmundo.com.br/memoria/918oqueememoriaramvideo.html
l) http://www.techtudo.com.br/artigos/noticia/2012/02/oqueememoriaramequalsua
funcao.html
m)http://www.tecmundo.com.br/aumentardesempenho/3469comofuncionaumdiscorigidoh
tm
n) http://www.tecmundo.com.br/wi-fi/197-o-que-e-wi-fi--htm
2. WIKIPÉDIA
a) http://pt.wikipedia.org/wiki/Bridge_(redes_de_computadores)
b) http://pt.wikipedia.org/wiki/Placa_de_rede
c) http://pt.wikipedia.org/wiki/Master_Boot_Record
3. CLUBE DO HARDWARE
a) http://www.clubedohardware.com.br/artigos/Tudo-o-Que-Voce-Precisa-Saber-Sobre-
Chipsets/568/2
b) http://www.clubedohardware.com.br/artigos/Setup/196
4. INFOWESTER
a) http://www.infowester.com/guiahdinic.php
b) http://www.infowester.com/fontesatx.php
5. UOL
a) http://informatica.hsw.uol.com.br/portas-seriais.htm
b) http://informatica.hsw.uol.com.br/portas-usb.htm
6. INFOESCOLA
a) http://www.infoescola.com/informatica/topologiasde-redes/
b) http://www.infoescola.com/informatica/memoria-cache/
7. HP
a) http://h10025.www1.hp.com/ewfrf/wc/documentcc=br&lc=pt&dlc=pt&docname=c015
45777#N690
8. OLHAR DIGITAL
a) http://olhardigital.uol.com.br/video/37551/37551
a) http://www.epidemiclinux.org/wiki/index.php?title=Par
%C3%A7%C3%B5es_e_Sistema_de_Arquivos
10. OUTRAS
a) http://pt.kioskea.net/contents/302-equipamento-rede-o-repetidor
b) http://tecciencia.ufba.br/numeros-binarios
c) http://chasqueweb.ufrgs.br/~paul.fisher/apostilas/inform/
d) http://g1.globo.com/Noticias/Tecnologia/0,,MUL1567316-6174,00-
CONFIRA+DICAS+PARA+COMPRAR+UM+COMPUTADOR+NOVO.html
e) http://www.sabereletrico.com/leituraartigos.asp?valor=49
f) http://www.hardwarebr.com/forum/showthread.php?2057-Chipset-Ponte-Norte-e-
Ponte-Sul
g) http://www.bloghardwaremicrocamp.com.br/manutencao/curso-de-hardware-parte-1/
h) http://www.bloginformaticamicrocamp.com.br/computadores/diferencas-entre-
hardware-e-software/
i) http://www.bloghardwaremicrocamp.com.br/manutencao/potencia-eletrica-como-
calcular-a-potencia-consumida-pelo-seu-micro/
j) http://www.criativodegalochas.com/2013/04/11/como-saber-se-seu-windows-e-32-ou-
64-bits/
k) http://computadoresentenda.wordpress.com/author/jesseic94/page/3/
l) http://www.icefusion.com.br/funcionamento-do-processador/
m)http://adrenaline.uol.com.br/tecnologia/artigos/224/como-escolher-um-processador-
amd-da-linha-fx.html?pg=4
n) http://www.hardware.com.br/dicas/resumo-soquetes.html
o) http://www.geek.com.br/posts/11176-principais-diferencas-entre-os-core-i5-e-core-i7
p) http://www.diegomacedo.com.br/arquitetura-de-processadores-risc-e-cisc/
q) http://www.gruponetcampos.com.br/2011/03/arquitetura-cisc-e-risc-qual-diferenca/
r) http://museudocomputador.org.br/encicooler.php
s) http://agrupamento-vertical-canelas.edu.pt/blogs/t2imc/2011/11/21/bios-e-dual-bios-2/
t) http://resumindoall.blogspot.com.br/2012/07/ponte-norte-e-sul.html
u) http://www.laercio.com.br/artigos/HARDWARE/hard-067/hard-067.htm
v) http://www.comtac.com.br/?url=produto&id=272
w)http://www.pccompleto.net/os-slots-amr-cnr-e-acr/
x) http://www.webtekin.xpg.com.br/barramentos.htm
y) http://consertandofacil.blogspot.com.br/2013/10/entenda-as-vantagens-e-
desvantagens.html
z) http://gparted.org/display-doc.php?name=help-manual&lang=pt_BR
aa) http://tinfortech.blogspot.com.br/2012/08/gestao-de-hardware-manutencao.html
ab) http://forum.tecnologia.uol.com.br/tutorial-teste-de-fonte-c-multimetro_t_951036
ac) http://fabiomontoro.blogspot.com.br/2013/03/fibra-optica-ou-cabo-de-cobre.html
ad) www.ebah.com.br/content/ABAAABPXwAD/manutencao-fontes-alimentacao;
ae) http://www.hardware.com.br/tutoriais/filtros-estabilizadores-nobreaks/pagina3.html
af) https://pplware.sapo.pt/gadgets/hardware/qual-a-diferena-entre-mbr-e-gpt/