Você está na página 1de 12

Introdução HD – Disco rígido.

Disco rígido, disco duro, (popularmente também winchester) ou HD (do inglês


Hard Disk) são os nomes dados ao dispositivo onde são armazenadas as
informações, ou seja, é a "memória permanente" propriamente dita (não
confundir com "memória RAM"). É caracterizado como memória física, não-
volátil, que é aquela na qual as informações não são perdidas quando o
computador é desligado.

O disco rígido é um sistema lacrado contendo discos de metal recobertos por


material magnético onde os dados são gravados através de cabeças, e
revestido externamente por uma proteção metálica que é presa ao gabinete do
computador por parafusos. É nele que normalmente gravamos nossos dados e
executamos nossos sistemas e programas.

Este sistema é necessário porque o conteúdo da memória RAM é apagado


quando o computador é desligado ou reiniciado. Desta forma, temos um meio
de executar novamente programas e arquivos anteriormente utilizados. O disco
rígido é também chamado de memória de massa ou ainda de memória
secundária. Nos sistemas operacionais mais recentes, o disco rígido é também
utilizado para expandir a memória RAM, através da gestão de memória virtual.

Existem vários tipos de discos rigidos diferentes: IDE/ATA, Serial-ATA, SCSI e


Fibre channel.

EVOLUÇÃO
Em setembro de 1956 a IBM lançou o 305 RAMAC, o primeiro computador com
Hard Disk (HDD).
Pesava perto de 1 tonelada.

O primeiro PC IBM, apresentado em 1981, não previa nenhum tipo de disco


fixo. O código do BIOS não reconhecia nenhum suporte deste tipo, e as
primeiras versões de DOS limitavam as memorizações em massa, limitando o
número de diretivas e dos arquivos que podiam ser criados. Isso não nos
deveria surpreender, se pensarmos que o primeiro PC, a 4,77 MHz, era
fornecido com 16K de RAM, expansíveis a 64 K. Além do leitor floppy, para o
sistema operacional era possível a expansão do leitor a fitas e da ROM de
base.

O uso de um disco fixo em um PC requer:

* IRQ Hardware (para o pedido de interrupção)

* Endereço I/O para o controller

* Um canal DMA (agora opcional)


* Código de baixo nível

* Código de baixo nível

* Suporte do sistema operacionais

* Energia de esfriamento suficiente.

Depois que DOS 2 introduziu a possibilidade de criação de subdiretorios, e o


suporte para dispositivos de memorização em massa, as empresas começaram
a produzir e a vender discos fixos para PC. Estes eram compostos por um
gabinete externo que continha o disco, uma controladora e um delicado
sistema de alimentação do disco (do momento que 63,5 watts fornecidos pelo
alimentador do PC não eram suficientes). Tais dispositivos eram exportados
para outras arquiteturas e eram conectados por um cabo e um adaptador de 8
bits, que era inserido em um slot disponível. Este subsistema era configurado
para usar um IRQ, um canal DMA, e um range de portas I/O, e o driver era
colocado a disposição de um dispositivo carregado em memória logo depois do
boot (executando o boot de um floppy).

Em 1983 a IBM produziu o IBM XT (eXTended), com 10MB de disco fixo


integrado. IBM trabalhou com uma empresa (Xebec), para integrar os
componentes do disco, normalmente localizados em um gabiente externo, ao
interno do computador. Introduzem também uma placa para interfacear o bus,
criando aquilo que é comunamente chamado o “controladora do disco fixo”.

O código para o gerenciamento do disco é fornecido por um chip ROM no


controller, que expande as sub-rotinas presentes no BIOS, e a corrente
fornecida pelo alimentador foi levada a 135 watts, para produzir a potencia
necessária ao disco fixo interno.

A IBM XT usava:

* IRQ 5

* Endereços I/O de range 320-32f

* Canal DMA 3
* Código programa em ROM C8000

* DOS 2.0 ou melhor

Diversas empresas começaram a produzir e vender esses tipos de periféricos,


com diversos melhoramentos, entre os quais: maior capacidade física,
melhores performances, e um controlador floppy integrado na mesma placa
(para preservar os slots disponíveis). Este subsistema podia também ser
colocado em um PC original, se a alimentação de energia elétrica interna fosse
adequada.

Em 1984 apareceu o IBM AT (Advanced Technology), que levou a uma


completa revisão ao sistema de discos fixos. O código para o boot foi incluído
diretamente no BIOS da placa mãe, eliminando a necessidade de um chip a
mais no novo controlador a 16 bits, e também melhora notavelmente os tempos
de acesso ao disco. Nesse sistema foi introduzido também um IRQ mais
elevado, eliminando assim a necessidade de usar o DMA para os discos, e
mudou o range de endereços I/O.

A IBM usava:

* IRQ 14

* Endereços I/O de range 1f0-1f8

* Canal DMA – nenhum

* Código programa em BIOS da placa mãe

* DOS 2.0 ou melhor

Os detalhes de configuração hardware para o AT, incluindo os parâmetros do


disco fixo, eram memorizados em um chip CMOS de baixa potência conexo a
uma pequena bateria, eliminando numerosos switchs e jumpers de
configurações presentes na placa mãe dos modelos velhos. A bateria permitia
manter as informações até quando o computador estava desligado e gerencia-
las através de um menu de configurações.
O primeiro modelo de AT suportava 14 diferentes tipos de drive, reconhecendo
os discos com capacidade entre 10 e 112MB. Cada drive que não respeitava
esses parâmetros físicos deveria ter um chip ROM no controle, que expandia o
BIOS, ou então era necessário carregar o código do drive no momento do boot.

As versões de DOS precedentes aos 4.0 (ou 3.31) não suportavam partições
maiores de 32MB independentemente das dimensões do drive. Isso visto que o
endereçamento dos setores não podia superar o valor de 16 bits (até a 65.536
setores). A criação de partições maiores pedia o uso de um software como Disk
Manager da Ontrack. Esta solução, mesmo sendo uma das melhores punha
muitos problemas de compatibilidade com outros instrumentos para o
gerenciamento dos discos, pois criava uma partição não DOS.

O número dos tipos de drive reconhecidos do BIOS estendido além de 40, e


muitos BIOS modernos fornecem um tipo com parâmetros definíveis pelo
usuário . Muitos PC de hoje usam ainda esses CMOS originais para o controle
e a configuração dos parâmetros dos discos fixos, ainda se foram muitas
mudanças no modo de memorizar e atualizar as informações no disco. Isso
criou alguns limites, entre os quais um problema com o uso de dois ou mais
discos fixos, ou o limite do BIOS e do sistema operacional de não reconhecer
mais de 1024 cilindros, 16 cabeçotes e 63 setores por traço.

Cada setor contem 512 byte, o drive com mais capacidade é de 504MB. )1024
X 16 X 63 = 1,032,192 setores X 512 = 528,482,304 byte)

Para compreender esse limite devemos entender o modo pelo qual o PC acede
ao disco.

Em primeiro lugar são enviados comandos I/O ao controller, através de um


range de endereços de portas reservadas. Esse processo é muito complicado e
maçante, e o BIOS inclui uma sub-rotina (INT 13) para executar essa função. O
sistema operacional DOS tem também outras funções que simplificam este
processo. Entre essas tem a função INT25/26 que lê e escreve setores
absolutos de um drive, ou a função de alto nível (INT 21) para abrir, fechar e
escrever dados em um arquivo. Muitos programas confiam nessa função DOS
para controlar o acesso ao disco, e é o DOS que se preocupa de chamar a
sub-rotina INT 13 do BIOS, que executa os comandos I/O necessários.

Introdução SSD

O SSD é a sigla para Solid-State Drive, algo como "Unidade de Estado Sólido",
em tradução livre. Trata-se de um tipo de dispositivo para armazenamento de
dados que, de certa forma, concorre com os discos rígidos.

Aceita-se a ideia de que o nome faz alusão à inexistência de peças móveis na


construção do dispositivo, o que já não acontece nos HDs, que precisam de
motores, discos, e cabeçotes de leitura e gravação para funcionar.

O termo "Estado Sólido", na verdade, faz referência ao uso de material sólido


para o transporte de sinais elétricos entre transístores em vez de uma
passagem baseada em tubos a vácuo, como era feito na época das válvulas.

Em aparelhos SSD, o armazenamento é feito em um ou mais chips de


memória, dispensando totalmente o uso de sistemas mecânicos para o seu
funcionamento. Como consequência, unidades do tipo acabam sendo mais
econômicas no consumo de energia, afinal, não precisam alimentar motores ou
componentes semelhantes (note, no entanto, que há outras condições que
podem elevar o consumo de energia, dependendo do produto).

Essa característica também faz "discos SSD" (não se trata de um disco,


portanto, o uso desta denominação não é correto, apesar de relativamente
comum) utilizarem menos espaço físico, pois os dados são armazenados em
chips especiais, de tamanho muito reduzido. Graças a isso, os SSDs
começaram a ser usados de forma ampla, inclusive em dispositivos
extremamente portáteis, como notebooks ultrafinos (ultrabooks) e tablets.

Outra vantagem da não utilização de peças móveis está no silêncio — você


não ouve uma unidade SSD trabalhar, tal como pode acontecer com um HD. A
resistência física também é um benefício: o risco de danos é menor quando o
dispositivo sofre quedas ou é balançado (o que não quer dizer que SSDs são
indestrutíveis).

Além disso, dispositivos SSD pesam menos e, em boa parte dos casos, podem
trabalhar com temperaturas mais elevadas que aquelas suportadas pelos
discos rígidos. Há ainda outra característica considerável: o tempo de
transferência de dados entre a memória RAM e unidades SSD costuma ser
muito menor, agilizando o processamento de dados.

É claro que também há desvantagens: unidades SSD são mais caras que HDs,
embora os preços diminuam à medida que a sua utilização aumenta. Por causa
disso — em muitos casos, também por limitações tecnológicas —, a grande
maioria das unidades SSD oferecidas no mercado tem capacidade de
armazenamento muito inferior em comparação aos discos rígidos que possuem
a mesma faixa de preço.

Memória Flash: o ingrediente principal

A tecnologia SSD é baseada em chips especialmente preparados para


armazenar dados, mesmo quando não há recebimento de energia. São,
portanto, dispositivos não-voláteis. Isso significa que não é necessário usar
baterias ou deixar o dispositivo constantemente ligado na tomada para manter
os dados nele.

Para que isso seja possível, convencionou-se entre os fabricantes de SSD o


uso de memórias Flash. Trata-se de um tipo de memória EEPROM* (ver
explicação abaixo) desenvolvido pela Toshiba nos anos 1980. Os chips de
memória Flash são parecidos com a memória RAM usados nos computadores,
porém, ao contrário desta última, suas propriedades fazem com que os dados
não sejam perdidos quando não há mais fornecimento de energia, como já
informado.

(EEPROM é um tipo de memória ROM que permite a regravação de dados, no


entanto, ao contrário do que acontece com as memórias EPROM, os processos
para apagar e gravar informações são executados eletricamente, fazendo com
que não seja necessário mover o dispositivo a um aparelho especial para que a
regravação ocorra)

Há, basicamente, dois tipos de memória Flash: Flash NOR (Not OR) e Flash
NAND (Not AND). O nome é proveniente da tecnologia de mapeamento de
dados de cada um. O primeiro tipo permite acesso às células de memória de
maneira aleatória, tal como acontece com a RAM, mas com alta velocidade.
Em outras palavras, o tipo NOR permite acessar dados em posições diferentes
da memória de maneira rápida, sem necessidade de esta atividade ser
sequencial. O tipo NOR é usado em chips de BIOS ou firmwares de
smartphones, por exemplo.

O tipo NAND, por sua vez, também trabalha em alta velocidade, porém faz
acesso sequencial às células de memória e as trata em conjunto, isto é, em
blocos de células, em vez de acessá-las de maneira individual. Em geral,
memórias NAND também podem armazenar mais dados que memórias NOR,
considerando blocos físicos de tamanhos equivalentes. É, portanto, o tipo mais
barato e mais utilizado em SSDs.

Chip de memória Flash NAND


da Micron

SSD x HDD: qual é a diferença entre eles?


1. O HD (hard disc)

Os HDs, ou discos rígidos (também conhecido como “Winchesters”, porque os


primeiros tinham duas faces de 30 polegadas, e foram chamados de “3030”, o
mesmo apelido usado para os rifles Winchester, por causa do calibre dos
mesmos) utilizam basicamente a mesma tecnologia desde 1956, quando o IBM
350 (um monstro de uma tonelada e incríveis 5 MB de capacidade) foi
introduzido: conta com discos móveis, utilizados para armazenar os dados, e
um braço mecânico, que faz a leitura e escrita.

Cada disco do HD, que pode ser de alumínio, cerâmica ou vidro, é revestido
com um material magnético que fica a nanômetros de distância da cabeça
magnética fixada no braço mecânico, que conta com um conjunto de ímãs.
Essa cabeça detecta a magnetização nos setores do disco, ou muda os
padrões conforme os mesmos giram, a uma velocidade que normalmente varia
entre 5.400 e 7.200 RPMs (Rotações Por Minuto). É assim que um HD realiza
o processo de escrita e leitura de dados.

Vantagens

 Preço: o preço de um HD é muito mais em conta quando comparado a um


SSD de mesma capacidade; em média, uma unidade de 1 TB custa em torno
de R$ 250, contra R$ 850 para um SSD de mesma capacidade;

 Capacidade de armazenamento: este é um fator ligado paralelamente ao


preço; por ser mais acessível, é comum encontrarmos HDs com maiores
capacidades no mercado em relação a SSD, e para uso corporativo, existem
unidades com muito, muito espaço, por valores muito atraentes.

Desvantagens

 Fragilidade: por contar com partes móveis, os HDs estão sujeitos a


danos por fatores como manuseio e transporte; uma simples pancada
pode corromper um disco rígido, e levar à perda de todos os seus
arquivos;
 Velocidade: os HDs são bem mais lentos para escrever ou ler dados,
pelo mesmo motivo anterior: partes móveis. Em média, HDs padrão
atingem velocidades de até 50 MB/s para escrita, e até 120 MB/s para
leitura.

2. O SSD (solid-state drive)

Os SSDs, ou unidades de estado sólido, têm esse nome por não contarem com
partes móveis. Embora o desenvolvimento desse tipo de memória não-
volátil ter sido iniciada nos anos 1970 (na forma das boas e velhas EEPROMs),
os primeiros SSDs para uso por usuários comuns e empresas chegaram ao
mercado nos anos 2000. A principal diferença para o HD, é que o SSD é mais
rápido.

Um SSD armazena dados em células de memória Flash, as mesmas presentes


em smartphones e tablets. Cada célula é formada por um controlador, o
responsável por fazer a comunicação com o computador, e um transístor de
porta flutuante, ou floating gate, que é o que armazena os dados.

Quando uma carga elétrica é aplicada no controlador, a tensão empurra alguns


elétrons para o floating gate, onde permanecem por conta de duas camadas de
óxido de silício, com carga negativa, que isolam o circuito. É assim que os
dados são escritos, e podem ser lidos várias vezes, enquanto uma nova carga
não for aplicada.

Vantagens

 Velocidade: as velocidades médias de escrita e gravação de um SSD são bem


mais altas que as de um HD, sendo eles ótimas alternativas como unidades
onde o sistema operacional e programas são instalados;

 Resistência: por não ter partes móveis, um SSD é menos propenso a danos
de manuseio que um HD.
Desvantagens

 Preço: o preço por gigabyte de um SSD é bem maior do que o de um


HD; em média, pelo mesmo valor de um HD de 1 TB, é possível comprar
um SSD de no máximo 250 GB;

 Vida útil: com o tempo, o floating gate vai perdendo sua capacidade de
reter cargas, e por isso, a vida útil de um SSD tende a ser bem menor
que a de um HD.

Conclusão
O SSD e muito útil pela sua velocidade de processamento, porem e preciso
saber se vai valer a pena mudar o HD por isso visando o custo beneficio,
levando em conta que o SSD e bem mais caro que o HD, por tanto, enquanto o
HD estiver atendendo as necessidades não haverá motivos para mudar para o
SSD.

Conceito de RPM.
O RPM, originalmente abreviatura de Red Hat Package Manager, e atualmente
um acrónimo recursivo de RPM Package Manager (“Gerenciador de Pacotes
RPM”) é um sistema de gerenciamento de pacotes de software, assim como o
formato de arquivo usado por esse sistema. Ele é parte da Linux Standard
Base .
Base de dados RPM

Atrás do gerenciador de pacotes está o banco de dados RPM. Ele consiste de


uma lista duplamente ligada que contêm todas as informações de todos os
RPMs instalados. O banco de dados lista todos os arquivos que são criados ou
modificados quando um usuário instala um programa e facilita a remoção
desses arquivos. Se o banco de dados ficar corrompido (o que acontece
facilmente se o cliente de RPM é fechado subitamente), as ligações duplas
garantem que ele possa ser reconstruído sem nenhum problema. Em
computadores com o sistema operacional RedHat instalado, este banco de
dados se encontra em /var/lib/rpm.

Você também pode gostar