Escolar Documentos
Profissional Documentos
Cultura Documentos
Apesar de ter acesso extremamente rápido, permitir ser gravada, desgravada e lida, a
memória principal apresenta um grande inconveniente: ela é volátil. Ser volátil significa dizer
que se gravamos uma série de informações e o computador for desligado por qualquer
motivo, ela "esquece" todo o seu conteúdo.
Leitura: Outro tipo de circuito integrado de memória é não-volátil. Estes circuitos conservam
os dados que estavam sob sua custódia mesmo que a máquina esteja desligada. Em
compensação o microcomputador em operação normal não consegue escrever nenhuma
neles, apenas lê-los é possível. É o circuito do tipo "ROM" (Read Only Memory ou Memória
Apenas para Leitura).
Cache: Esta memória está localizada na placa-mãe e é formada por vários circuitos
integrados RAM do tipo "SRAM" (Static RAM) e é muito mais rápida que a do tipo "RAM"
convencional, porque não usa o método capacitivo de armazenamento e sim dispositivos de
dois estados como os Flips-Flops (circuito eletrônico que pode assumir um de dois estados,
determinados por uma ou duas entradas).
Memória Externa: Memória externa ou memória auxiliares (external memory) é aquela que
se vale de meios magnéticos externos à CPU, como fitas, disquetes, discos zip, CD-Rom's,
etc., para armazenar informações, as quais não são possíveis serem gravados na memória
principal, pelo fato da mesma ser volátil.
Esses meios ficam ligados indiretamente à CPU e podem ser rapidamente acessados por
eles, operam com velocidade menor do que a RAM, porém, têm uma capacidade de
armazenamento infinitamente maior, não são voláteis e podem ser desconectados
fisicamente do computador e transportados para outro local, sem que seja causados
prejuízo nas informações armazenadas.
Cartões perfurados:
Tubo de williams:
O tubo de Williams foi criado por Frederick Williams, em 1947, e era um tubo
aproximadamente 150 cm de comprimento contendo mercúrio com cristal de quartzo em
cada ponta onde os dados a armazenar passavam pelo mercúrio na forma de vibrações
mecânicas e eram reconvertidos na outra ponta
O tubo só conseguia realizar suas tarefas mediante o uso da corrente elétrica, caso esta
acabasse, perdia-se o seu conteúdo, portanto o tubo de Williams é uma memória volátil e
mantida por por pulsos elétricos.
Tambor de memória:
Em 1932 vai surgir o tambor de memória. Ele era constituído por um cilindro de revolução
metálico que roda em torno de um eixo vertical e o seu movimento é assegurado por um
motor elétrico.
Esse tambor tem capacidade de armazenamento de 500.000 bits. O IBM 650 era um dos
computadores que usava esse tambor e tinha uma memória de 8,5 KB
Fita Uniservo:
Em 1951 foi criada a primeira unidade de fita para computador comercial, que foi
encomendado pelo censo dos Estados Unidos. A Uniservo usava uma fita de metal feita por
uma liga níquel-bronze de fósforo e tinha 1200 m de comprimento com a capacidade de
armazenamento de três megabytes.
Disco Rígido:
Em 1996 surgiu o primeiro disco rígido ou HD com velocidade de 7000 rotações por minuto
produzidos pela Seagate Technology, que foi chamado de SeaGate Barracuda. Com isto, a
indústria dos discos rígidos começou a colocar estas unidades nos computadores de
Desktop. Ele marcou a história do armazenamento e foi o primeiro de uma geração de HDs
que até hoje são amplamente utilizados.
De lá pra cá tivemos uma evolução notável, hoje em dia os HDs já ultrapassam a marca de
um terabyte e utilizam gravação perpendicular e interfaces sata 300: o sata é um
barramento serial onde é transmitido único bit por vez em cada sentido e o nome Sata 300
indica a taxa de transferência e a taxa bruta em megabits. Esses HDs são muito mais
rápidos que os modelos antigos e também mais baratos.
Nos últimos anos a capacidade de armazenamento dos HDs aumentou bastante, mas a
velocidade não sofreu grandes avanços.
SDD:
O SSD Solid State Drive está ficando cada vez mais atraente e o preço por gigabyte está
cada vez mais diminuindo, as capacidades de armazenamento estão aumentando e as
velocidades de transferência e os tempos de acesso ficando ainda mais rápidos. Os SSDs
mais comuns no mercado possuem dois componentes fundamentais: a memória flash e o
controlador.
A memória flash é semelhante à RAM com o diferencial que não é volátil. A memória flash
pode armazenar dados por um longo tempo sem precisar de alimentação elétrica
Apesar das vantagens, existem também as desvantagens: por ser uma tecnologia muito
mais recente em que a tecnologia tradicional dos discos rígidos, o preço do SSDs é maior,
chegando a custar até oito vezes mais do que o HD por gigabytes. A memória flash de um
SSD pode trabalhar de dois modos: síncrona e assíncrona. A memória síncrona é mais cara
e oferece melhor desempenho na manipulação de dados que não podem ser comprimidos,
como músicas, fotos e vídeos. Já a memória assíncrona é mais barata e não possui um
desempenho tão bom para gravar esses tipos de dados.
A fita cassete é um padrão de fita magnética que foi inventada pela Philips, em 1963, para a
gravação de áudio. Teve sua produção em massa iniciada em 1964 em Hanover, na
Alemanha. A cassete era constituída por dois carretos e uma fita magnética que media alguns
milímetros. Todo o mecanismo de movimento da fita era alojado numa caixa plástica, Isso
trazia algumas vantagens, por exemplo, permitia que ela fosse colocada ou retirada em
qualquer ponto da reprodução ou gravação, Por outro lado, devido a sua forma física, o
cassete apresentava um tempo de acesso sequencial, isto é, para se escrever ou ler um
determinado ponto da fita era preciso passar por outros setores dela que não interessavam.
Isto era feito pelo rebobinamento da fita, usando o próprio aparelho ou uma caneta
esferográfica que, por mais rápido que fosse, sempre tomava algum tempo. Ao contrário das
fitas magnéticas, a cassete não armazenava as informações de forma magnética e sim na
forma de sons. Assim, um tom particular representava um bit "0" enquanto que outro tom
representava outro bit 1 Com um tamanho de 10 x 7 cm, a caixa plástica gerava uma enorme
economia de espaço.Entre a década de 1970 e meados da década de 1990, o cassete era um
dos dois formatos mais comuns para a música pré-gravada. No Brasil a cassete possibilitou
um aumento da pirataria, estima-se que em 1974 as gravadoras utilizavam apenas quatro das
onze milhões de unidades produzidas no país. A decadência da fita cassete deu-se na década
de 1990, principalmente, pela popularização dos CD'S e dos reprodutores de mídia MP3.
● Disquete
(Na imagem, disquetes de 8, 5 ¼, 3 ½.)
O CD ROM (Compact Disc Read Only Memory) é um termo guarda-chuva e engloba ambos
os discos de CD-R (Compact Disc - Recordable) e CD-RW (Compact Disc ReWritable), O
primeiro permite que dados sejam gravados num CD somente uma única vez, não sendo
possível alterar ou apagar informações. O segundo permite gravar e regravar um CD,
apagando e adicionando dados novamente. O que causa a diferença entre estes tipos de CD's é
o material usado por eles. O CD-R usa um tipo material que quando queimado pelo laser do
gravador de CD sofre uma transformação que não permite mais alterá-lo, deixando a mídia
como um CD-ROM comum. Já o CD-RW usa um material do tipo phase-change (mudança de
fase), que consiste numa espécie de partícula que sofre ação do laser do gravador para
armazenar dados e depois pode sofrer outra ação para voltar ao estado original e permitir que
informações sejam gravadas novamente.
● Zip Drive
Por muito tempo os usuários de computador usaram diversos dispositivos para backup, mas
estes além de conter pouco espaço de armazenamento, eram lentos e pouco confiáveis. Então
surgiu, em 1994, o Zip Drive, um sistema de disco removível de média capacidade criado
pela Iomega. Ele proporcionaria agora um espaço de armazenamento de cem megabytes que
aumentou em seguida para setecentos e cinquenta megabytes, o que era inovador para época.
O zip drive foi baseado em um sistema anterior chamado Bernoulli Box também da Iomega.
Um jogo de cabeças de escrita/leitura é montado em atuadores lineares flutuando em cima de
um disquete girando rapidamente montado em um cartucho robusto. O zip drive usa mídias
menores aproximadamente o tamanho de um disquete de 3,5 polegadas e armazenava muito
mais dados e com mais rapidez, entretanto não superava os discos rígidos. O zip drive
original teve uma taxa de transferência de dados de cerca de um megabyte por segundo e um
tempo de busca de vinte e oito milissegundos em média, comparado aos cinquenta kilobytes
por segundo de taxa de transferência de um disquete de 1.4 megabytes e várias centenas de
milissegundos de tempo de busca. Apesar da semelhança, o dispositivo precisava ainda de um
zip drive separado para ler/escrever, o que significava mais despesas para os usuários. As
vendas de zip drives e discos despencaram a partir de 1999, pois em setembro de 1998 a
Iomega sofreu com uma ação judicial devido a um tipo de falha do disco zip. Ele também
possuía um custo relativamente alto por megabyte comparado aos custos do CD.
Pré - masterização
Masterização
Este é o processo no qual utilizamos o LBR (Laser Beam Record), ou seja, o gravador a feixe
laser. Um feixe especial de maior potência é aplicado à superfície foto-resistiva recoberta
eletricamente com prata, alumínio, entre outros elementos, a fim de marcar ou formar uma
estampa metálica. É uma das partes mais longas e complexas de todo o processo. Vencida esta
fase, o disco é levado a um banho químico para retirada das áreas expostas ao feixe. Será
aplicado um revestimento metálico, geralmente com alumínio vaporizado sobre esta camada
foto-resistiva final.
Recobrimento elétrico
Uma vez concluído o revestimento metálico, o disco será submetido à eletrólise, sendo
emergido em uma solução eletrolítica de sulfato de níquel, onde gradualmente é aplicada uma
pequena corrente elétrica (micro ampéres) que revestirá o disco com uma fina camada de
óxido. Todo o processo pode levar horas.
Moldagem
Impressão e revestimento
Ao final de todo este incrível processo tecnológico, é fundamental que o disco possa ser lido
por um feixe laser, sendo assim, alguns metais podem servir para seu revestimento final, são
eles: ouro, prata, cobre, alumínio e outras substâncias derivadas ou ligas, tendo como base os
materiais já mencionados. Geralmente o alumínio é o mais empregado, devido ao seu
excelente desempenho e, claro, baixo custo. A camada final tem espessura entre 50 e 100
nanômetros. Uma camada de acrílico transparente é aplicada para a proteção final, sendo
secada sob luz ultravioleta. Agora sim, finalmente está concluído o processo, basta receber
rótulo e estampa.
● Cartões de Memória SD
Cartões de memória SD surgiram por volta do ano 2000 e são pequenos dispositivos que
armazenam dados em máquinas digitais, celulares, smartphones e outros que fornecem ou
aumentam a memória. Eles possuem memória flash NAND, não volátil, isto é, podem guardar
informações por anos, sem sofrer prejuízos com arranhões ou problemas com vibração e
impacto dos equipamentos onde estão instalados. Não precisam de várias peças, eliminando
assim qualquer problema mecânico, Graças a essas características se tornaram uma das
melhores mídias de armazenamento da atualidade. Existem muitos tipos de cartões SD. Do
final dos anos 90 até o início de 2000, muitos formatos novos surgiram, incluindo o MMC,
seu sucessor o Cartão SD, o Memory Stick, o xD-Picture Card e muitas outras variantes. À
medida que a portabilidade e a capacidade de armazenamento foram melhorando, surgiram os
formatos menores, deixando os primeiros tipos obsoletos. Há diversos padrões diferentes, que
são, em sua maioria, incompatíveis entre si, o que causa transtornos aos usuários. Essa
multiplicidade de modelos de cartões de memória aconteceu porque as empresas não
entraram em um acordo sobre qual formato adotar, passando a produzir cartões específicos
para seus próprios aparelhos.
● Pen Drive
No final dos anos 1990 o israelense chamado Dov Moran criou um dispositivo que mudou a
forma como as pessoas guardavam os dados. Após um constrangimento durante uma palestra
com seu notebook, o empresário que foi fundador da empresa de chips de memória para
celular M-Systems, empenhou-se em criar algo que permitisse a mobilidade de arquivos, daí
surgiu o pen drive. Os primeiros pen drives fabricados pela M-Systems chamavam-se "disgo"
e possuíam quatro diferentes capacidades: 8MB, 16MB, 32MB e 64MB. É um dispositivo
com memória flash e conector USB que funciona como uma unidade de armazenamento
removível. USB é um serial para conexão de dispositivos externos. A maior vantagem deste
dispositivo é o seu tamanho compacto, com as dimensões de um chaveiro, ter uma grande
capacidade de armazenamento, além da comodidade de ser transportado para qualquer lugar e
conectado em qualquer computador que tenha uma porta USB. Outra vantagem em relação a
outros dispositivos é a segurança que a memória pen drive proporciona na manutenção dos
dados armazenados. Sua capacidade de armazenamento e velocidade na leitura e gravação de
dados é muito superior em comparação ao CD. Além de copiar arquivos com rapidez, é
possível ouvir músicas, reproduzir vídeos e visualizar fotos diretamente do dispositivo.
● HD e SSD Externo
Com a necessidade de ainda mais armazenamento, a evolução dos discos rígidos tradicionais
e a precisão de deslocamento das informações foi criada e opção dos HDs externos, que
podem ser transportados e plugados em qualquer computador. Em comparação com os pen
drives que começam com a armazenamento em poucos gigas, os tamanhos de discos rígidos
já se iniciam em grandes quantidades como 500GB, 1TB e assim por diante. Porém assim
como são os HDs internos a fragilidade de se transportar um equipamento vulnerável a
quebras é uma desvantagem para a tecnologia. Como forma de sanar essa desvantagem com
HDs internos e externos foi lançada a tecnologia dos SSDs, que além de possuírem taxa de
velocidade de leitura e transferência superior aos HDs, ainda eliminavam as partes mecânicas
que eram um dos grandes causadores de mau funcionamento.
● Cloud Computing
Nos últimos anos, vem sendo utilizado um novo meio de armazenamento de dados, várias
pessoas acreditam ser uma proposta inovadora, porém a ideia é quase tão antiga quanto o
próprio computador O conceito surgiu na década de 1960 com pioneiros como J.C.R.
Licklider, que imaginava a computação na forma de uma rede global, e John McCarthy, que
acreditava na computação como uma utilidade pública. Não existe uma definição única para o
armazenamento em nuvem entre os especialistas, no entanto podemos caracterizá-la como um
conjunto de recursos como capacidade de processamento, armazenamento, conectividade
plataformas, aplicações e serviços disponibilizados na Internet. Em outras palavras, é a
guarda de dados em algum lugar na rede e que pode ser acessada e modificada pelo usuário
de forma remota através da internet. Em 1997, o termo "computação em nuvem" foi utilizado
pela primeira vez pelo professor de sistemas de informação, Dr. Ramnath Chellappa em uma
palestra intitulada "Intermediários do Cloud-Computing", apresentado na reunião INFORMA
em Dallas. Um dos fatores importantes para o crescimento desse meio de armazenamento é o
aumento no uso de tecnologias de computação social, tais como blogs e sites de
compartilhamento de fotos e vídeos (Facebook, Instagram, etc.) Não são mais necessários
poderosos desktops para fazer uso desses serviços, pois cada vez mais o acesso pode ser feito
através de smartphones e notebooks. Com essa facilidade, está se tornando comum a busca
pelo acesso instantâneo e remoto a informações e arquivos, o que impulsionou, de certa
forma, o uso de tecnologia em nuvem. Uma das características da computação em nuvem é a
escalabilidade, isto é, o prestador de serviços não pode prever como e quando seus clientes
usarão os serviços disponíveis, portanto ele deve garantir que seu serviço esteja disponível 24
horas por dia, sete dias por semana. Esta capacidade de escalar é alcançada mediante a
característica de elasticidade dos serviços da computação em nuvem, que é a capacidade de
disponibilizar e remover recursos. Computação em Nuvem já é realidade na vida de todos
nós, mas ela também traz certa preocupação. Como garantir a segurança desses dados se eles
não estão mais guardados junto ao usuário? Por outro lado a atratividade financeira é um fator
que pode aumentar ainda mais o uso dessa tecnologia.
A memória RAM começou por ser assíncrona, ou seja, operava ao seu próprio ritmo,
independentemente dos ciclos de relógio (clock) da motherboard, logo, não existia sintonia
com o processador. Explicando, e de forma bastante simples, o clock nada mais é a frequência
com que o processador executa as tarefas. Quanto maior a frequência, menor será o tempo de
execução e, portanto, mais rápidas serão executadas as tarefas. Assim, percebe-se que este era
um problema: os processadores eram cada vez mais poderosos e a RAM não estava
desenvolvida para assegurar o pedido de dados vindos do processador.
No início dos anos 90, o clock de memória foi sincronizado através da introdução de
memórias SDR SDRAM (Single Data Rate Synchronous Dynamic Random Access Memory),
mas rapidamente atingiram o seu limite, uma vez que o controlador de memória apenas
realizava uma leitura por ciclo.
MEMÓRIAS DDR
Por volta do ano 2000, foram introduzidas as conhecidas memórias DDR SDRAM (Dual
Data Rate), mais rápidas por realizarem duas leituras por cada ciclo. Desde então, as
memórias DDR evoluíram por três vezes, DDR2, DDR3 e DDR4. Cada iteração melhorou
vários aspectos como o tempo de ciclo, largura de banda e ainda reduziu o consumo de
energia. No entanto, cada versão não é compatível com as anteriores, tendo em conta que os
dados são manipulados em maiores proporções.
DDR
A primeira geração de memórias DDR, lançada no ano de 2002, possui maior largura de
banda do que a anterior SDR. Efetivamente, isso acontece porque a taxa de transferência é
dobrada, sem necessidade de aumentar o clock de memória. Com o seu aparecimento, houve
um aumento significativo no desempenho sobre a arquitetura tradicional
DDR2
O padrão DDR foi melhorado continuamente por forma a atender às necessidades de memória
de alto desempenho. Implementadas em 2004, as memórias DDR2 sofreram melhorias de
largura de banda, clock de memória e consumo de energia. Enquanto que o buffer de prefetch
da primeira geração era de 2 bits, aqui passou a ser de 4 bits. Isto resultou em melhorias
notáveis em termos de desempenho do sistema.
DDR3
Em 2007 surgem as sucessoras das memórias DDR2. Essencialmente, a melhoria foi feita na
base da anterior, consumo energético reduzido em cerca de 40%, buffer prefetch de 8 bits, etc.
Infelizmente, as latências (quantidade de pulsos de clock que o módulo leva para iniciar as
transferências de dados) aumentaram significativamente, existindo apenas um ganho de
desempenho entre 2-5% em comparação com as anteriores (arquiteturas que suportam DDR2
e DDR3). Além disso, foram adicionadas duas funções, ASR (Automatic Self-Refresh) e SRT
(Self-Refresh Temperature), que controlam a frequência da memória de acordo com a
variação da temperatura.
DDR4
Lançadas em 2014, são bastante eficientes em termos energéticos, visto que operam a uma
tensão de 1,2 V além de proporcionarem elevadas taxas de transferência. Foram adicionas
algumas funções, como DBI (Data Bus Inversion), CRC (Cyclic Redundancy Check) e
paridade CA, o que permitiu melhorar a integridade do sinal da memória DDR4, bem como a
estabilidade de transmissão/acesso a dados.
DDR5
o DDR5 tem uma banda de entrada 50% maior que o DDR4 tem de teto. Uma evolução
considerável, e não se trata de algo que fica bonito apenas no papel. Uma banda maior
“desafoga” a CPU, permitindo que ela funcione mais rápido, além de tirar mais proveito de
CPUs mais recentes, assim como GPUs integradas.
Além do desempenho
Mais velocidade é apenas a ponta do iceberg. O DDR5 oferece avanços em relação ao DDR4
que não são tão óbvios para o usuário final. Um deles – que é especialmente importante em
notebooks – é o menor consumo de energia
Em 1970 a Intel criou o Intel 4004, o primeiro microprocessador da história. Nele havia
dezesseis registradores de 4 bits.
Ao longo dos anos a velocidade, quantidade e qualidade dos registradores foram
aumentando.
Em 1976 foi criado o Zilog Z-80, que usava registradores de 8 bits de dados e 16 bits de
endereçamento.
Em 1985 a Intel apresenta o chip 80386 de 16MHz. Usando registradores de 32 bits e 275
mil transistores, podendo acessar 4GB de memória RAM.
Já em 1993 a Intel introduz o processador Pentium de 60 MHz, que foi implantado com ele a
ideia de duplicidade, com capacidade de processamento de 64 bits e conseguindo buscar o
dobro da quantidade de dados na memória do micro, o que resulta em ganho de
performance.
Em 2008, com o lançamento do Intel core i7, foi implementado a tecnologia de
Hyper-Threading, que faz com que cada processador lógico receba seu próprio controlador
de interrupção programável (APIC) e conjunto de registradores, o que aumenta muito a
capacidade de processamento do processador.
HIERARQUIA - CLARA
Requisitos ideias para memória:
● Tamanho ilimitado
● Acesso instantâneo para uso das informações
Mas na realidade não funciona assim. O que acontece é que quanto maior uma memória
maior será seu tempo de acesso. A solução é criar uma hierarquia de memória para gerar
tamanho e ganhar velocidade
Observações:
Opção 1:
● São gastos 25 minutos, pois são 2 minutos e meio para cada livro;
Opção 2:
A hierarquia de memória funciona da seguinte forma, então: nos níveis mais altos estão os
registradores, que está dentro do próprio processador, depois vem as memórias de cache
(L1, L2 e L3), que também estão dentro do processador, depois vem a memória interna ou
principal (RAM), depois a memória secundária (HDs e SSD) e por fim, mas não obrigatório
vem as memórias remotas (HDs externos e nuvem).
Uma observação importante é que os níveis de hierarquia são subconjuntos uns dos
outros, ou seja, todos os dados encontrados em um nível também são encontrados nos
níveis abaixo.
A velocidade de acesso à informação vai variar a que nível essa informação está na
memória, quanto mais acima na memória mais essa informação vai ser acessada
rapidamente. Porém não se pode colocar todas as informações nos grandes níveis da
hierarquia, pois quanto mais acima na hierarquia mais cara aquela memória vai ser e menor
com menor capacidade.
A informação sobe do nível mais baixo para o nível mais alto usando o princípio de
localidade espacial e temporal. Essa movimentação necessita de mecanismos e elas
possuem uma política (que determina o que é útil subir dentro da hierarquia ou não). Dessa
forma, quando o mecanismo sobe alguma informação, o tempo de acesso é reduzido.